CN113326733B - 一种眼动点数据分类模型的构建方法及*** - Google Patents
一种眼动点数据分类模型的构建方法及*** Download PDFInfo
- Publication number
- CN113326733B CN113326733B CN202110453599.4A CN202110453599A CN113326733B CN 113326733 B CN113326733 B CN 113326733B CN 202110453599 A CN202110453599 A CN 202110453599A CN 113326733 B CN113326733 B CN 113326733B
- Authority
- CN
- China
- Prior art keywords
- point
- data
- eye movement
- unit time
- decision tree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004424 eye movement Effects 0.000 title claims abstract description 164
- 238000013145 classification model Methods 0.000 title claims abstract description 37
- 238000010276 construction Methods 0.000 title claims abstract description 6
- 238000003066 decision tree Methods 0.000 claims abstract description 115
- 230000004434 saccadic eye movement Effects 0.000 claims abstract description 31
- 230000008859 change Effects 0.000 claims abstract description 19
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000013138 pruning Methods 0.000 claims description 53
- 238000012549 training Methods 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 30
- 238000011156 evaluation Methods 0.000 claims description 18
- 238000012795 verification Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 238000013075 data extraction Methods 0.000 claims description 4
- 238000003780 insertion Methods 0.000 claims description 4
- 231100000756 time-weighted average Toxicity 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims 2
- 230000000638 stimulation Effects 0.000 abstract description 7
- 230000003068 static effect Effects 0.000 abstract 1
- 230000001360 synchronised effect Effects 0.000 abstract 1
- 210000001508 eye Anatomy 0.000 description 15
- 230000009286 beneficial effect Effects 0.000 description 8
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- RZVAJINKPMORJF-UHFFFAOYSA-N Acetaminophen Chemical group CC(=O)NC1=CC=C(O)C=C1 RZVAJINKPMORJF-UHFFFAOYSA-N 0.000 description 1
- 230000004598 abnormal eye movement Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000004220 fundus oculi Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种眼动点数据分类模型的构建方法,包括以下步骤:获取原始眼动数据,对所述原始眼动数据进行预处理得到眼动数据,根据所述眼动数据计算特征数据,所特征数据包括:单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β、单位时间内欧氏距离的方差ΔL2、单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r,本发明所构建出的决策树模型可高效实时地对眼动点数据进行分类,且可满足三种眼动类型的同步分类,可以对注视、扫视以及平滑尾随进行同步分类,适用于观察静态刺激情景和动态刺激,本发明实时眼动分类模型准确率高于现有眼动分类算法。
Description
技术领域
本发明涉及视觉智能处理技术领域,尤其涉及一种眼动点数据分类模型的构建方法及***。
背景技术
随着社会中各型各色的信息和事物呈现在人们眼前,在这些收入眼底的事物或信息中,人们通常是只对其中的一部分感兴趣,即使对这些事物或信息感兴趣,人们也不会在第一时间表达出来,所以为了得知人们对某些事物或信息是否感兴趣,通常采用眼动数据识别的方法来判断,对于人眼而言,眼球运动形式可分为以下三种类型:注视、扫视和平滑尾随,从眼球运动采集设备角度出发,则采集到的眼动数据由若干眼动点组成,眼动点分为注视点、扫视点和平滑尾随点,一般来说,眼球运动形式分类越详细,获得的数据越准确,最终得出的结果也就越接近人们的真实兴趣感受。
随着视觉智能处理技术的发展,对于人眼的动态捕捉能力和获取数据的精准度有了更高要求,传统技术是通过设定眼球转动的角速度阈值这种时间特征来实现对人眼运动形式的分类,角速度阈值的设定通常为技术人员根据经验得出的,本身存在一定的主观性,所以导致传统的眼动点数据分类的准确度并不能满足人们的要求,这种方法只能将人眼的注视和扫视动作分离开来,对于人眼的平滑尾随动作并没有明显的分类作用。
综上可知,提出一种能够同时分离注视、扫视和平滑尾随三种人眼动作的高精度眼动数据分类方法,成为了目前视觉智能处理技术领域要解决的首要问题。
发明内容
为了解决上述技术问题,进一步提升眼动数据分类的准确度,将获取的眼动数据能够分为注视、扫视和平滑尾随三种形式,本发明提供一种眼动点数据分类模型的构建方法及***。
根据本发明的一个方面,提供一种眼动点数据分类模型的构建方法,包括:
获取原始眼动数据;
对所述原始眼动数据进行预处理得到预处理后的眼动数据;
根据所述眼动数据计算特征数据,所特征数据包括:单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2,利用所述单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2将所述眼动点分为注视点、扫视点;
将特征数据输入预设的决策树模型中以构建眼动点数据分类模型。
与现有技术相比,本发明具有以下有益效果:
由于注视与扫视最大的区别在于,扫视的瞬时速度较快,可在单位时间内运动更大的距离,在单位时间内如果皆为注视点的情况下,其单位时间内的最小覆盖圆半径R相对较小,而当单位时间内存在扫视点时,最小覆盖圆半径R则会极具增大,故针对此特性提出单位时间内点集最小覆盖圆半径R这一特征,该特征考虑了注视与扫视的运动特征及平面眼动点的几何特性,注视点在单位时间内运动距离较小,而扫视点在单位时间内运动较大,在单位时间内若存在眼动点由注视变到扫视的情况,那么相邻的欧氏距离增量也将变大,故提出相邻欧式距离比值的加权平均和β这一特征,充分考虑了扫视点出现时突变特性,可有效分离注视点与扫视;通过眼动仪等眼动点数据采集设备获取到眼动点数据,对所述眼动点数据进行分类处理,数据在采集过程中人眼不可避免的会出现眨眼等采集不准确的现象发生,使眼动点数据产生缺失,预处理后同样可实现缺失数据的补充,完善整个数据采集过程,预处理后得到眼动数据,计算所述眼动数据得到特征数据,将所述特征数据输入至预设的决策树模型中得到用于眼动分类的分类模型,根据所述分类模型实现眼动点的分类,与传统技术相比,一方面,本发明并没有采用单纯通过设定眼球转动角速度的阈值来实现眼动点数据的分类,而是通过预处理后的眼动数据计算得出的特征数据确定决策树模型参数,然后利用决策树模型参数构建决策树模型,通过决策树模型实现眼动点数据的分类,计算过程中所得出的所有数据均由实际采集到的数据计算得出,避免了人工设定阈值的主观性,使眼动点的分类更加准确,另一方面,传统技术中不同情境下采集的眼动点数据需要不同的阈值进行分类,而本方法通过决策树模型实现眼动点数据的分类,计算过程中所得出的所有数据均由实际采集到的数据计算得出,适用于不同情况,避免了人工设定阈值进行眼动点分类的局限性和单一性,所以本技术方案与传统技术相比具有更加广泛的应用前景。
进一步的,所述特征数据还包括:单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r,利用所述单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r从所述的眼动点中进一步分离出平滑尾随点。
采用上述进一步方案的有益效果在于:当眼睛跟踪一个动态刺激时,眼球为了追逐该刺激而产生的一种连续反馈运动称为平滑尾随。由于平滑尾随时跟随运动刺激而产生的,在此眼睛跟随运动中,眼动点速度与动态刺激速度相近,速度较低,并在运动方向上不会出现突变,而且平滑尾随点组成的点集在平面内形成一种带状结构,但注视与扫视在运动方向并无平滑尾随那样的规律,运动方向杂乱无章,与现有技术相比,所述单位时间内相邻运动方向变化率Δα以及曲率半径 r这两种特征数据,由于同一种眼动类型不可能单独出现,所以当平滑尾随点出现时,此期间其方向变化率将保持在一个特定范围,其曲率半径也将保持在一定范围内,故以上两种特征充分考虑了三种眼动特性的运动特性及趋势,提高眼动分类模型的分类精度。
进一步的,所述将特征数据输入预设的决策树模型中构建眼动点数据分类模型,包括以下步骤:
搭建用于眼动数据点实时分类的决策树模型结构,将所述特征数据分为训练集数据和验证集数据,训练集数据作为当前样本集D,计算当前样本集D中各项特征的信息增益;
选取信息增益最大的特征作为决策树的根节点分类特征和子节点分类特征;
将所述训练集数据输入决策树模型训练,得到训练后的决策树模型;
将验证集输入,对所述决策树模型进行验证,若分类精度满足预期,停止训练,得出所述决策树模型的参数;
若分类精度未满足预期,通过调整决策树模型参数来提高分类精度;若分类精度过高达到了过拟合状态,则采用剪枝方法对决策树模型进行剪枝。
采用上述进一步方案的有益效果在于:由于决策树参数是通过采集到的眼动点数据计算得出,通过各项决策树参数得出的决策树模型更加符合实际情况,从而更加有利于提高眼动点数据分类的准确度,提高模型的泛化能力,所述眼动数据的90%作为训练集数据,所述眼动数据的10%作为验证集数据。
进一步的,还包括以下步骤:
所述决策树模型经过训练后,输出真实标签与预测标签数据信息以及残差曲线并使用混淆矩阵相关评价指标进行模型分类效果评价;
确定决策树模型参数后,利用预设程序的学习方法实现对眼动点数据的分类;
所述眼动数据为基于Gazecom的带有真实眼动类型标签的眼动点集。
采用上述进一步方案的有益效果在于:通过程序或机器的学***滑尾随占比较小,若直接输入决策树模型训练,对分类精度影响较大,故降低注视点占比以将三种类型的眼动数据点数量保持相同的水平,有利于模型通过特征差异对其进行分类。
进一步的,所述特征数据的提取具体包括以下步骤:
向预设程序中输入训练集数据G={g1,g2,......gn},设gi为第i个眼动轨迹点,所述gi对应的坐标点为(X,Y,t),i的取值为1,2,....n,n为该集合所包含轨迹点的个数;
计算输入数据中相邻点之间的欧式距离,第i个点与第i+1个点之间的欧式距离为L,计算公式如下:
故,单位时间内相邻欧氏距离比值的加权平均和β,计算公式如下:
计算输入连续眼动数据点运动方向α,第i点的运动方向为αi,计算公式如下:
故,单位时间内相邻运动方向变化率Δα,计算公式如下:
计算输入数据固定单位时间内每三点之间的曲率半径r,某单位时间i内包括点集Gi={g1,g2,......gk},可计算出来连续三点之间的距离a,b,c,若三点不共线,则:
计算输入数据固定单位时间内欧式距离的方差ΔL2,某单位时间i内包括点集Gi={g1,g2,......gk},可计算出相邻点欧式距离集合 Li={L2,......Lk},其中k≥3,计算公式如下:
计算输入数据固定单位时间内最小覆盖圆半径R,某单位时间i内包括点集Gi={g1,g2,......gk},其中k≥3,具体步骤如下:
找到同一单位时间i内的点集Gi={g1,g2,......gk},其中k≥3 ;
取g1、g2两点,以g1g2为直径得到初始圆C2;
按顺序依次加入点集Gi={g1,g2,......gk}中的点,设当前点为gi,若该点在所述圆C2内,则所述圆C2的半径即为所述单位时间内点集最小覆盖圆半径;
若否,则以g1gi为直径暂得一个圆Ci,***点gi一定在所述圆Ci的边界上;
所述圆Ci未必可包含1~i所有的点,可找到不在Ci中的一点gj(j<i),以gigj为直径暂得一个圆Cj,则gi、gj一定在所述圆Ci的边界上;
所述圆Cj未必包括1~j中所有的点,找到不在Cj中的一点gk(k<j<i),以gi,gj,gk建立新圆,则gi,gj,gk一定在所述新圆边界上,所述新圆的半径即为所述单位时间内点集最小覆盖圆半径R。
采用上述进一步方案的有益效果在于:利用迭代关系层层筛选得出的单位时间内点集最小覆盖圆半径R。保证了特征数据采集的准确性,进而使眼动点数据的分类更加准确。
进一步的,所述计算当前样本集D中各项特征的信息增益比具体包括以下步骤:
Gain(D,A)=H(D)-H(DA)
其中,Gain(D,A)为信息增益,H(D)为集合D的经验熵。
采用上述进一步方案的有益效果在于:所述当前样本集D通过所述特征数据得出,与所述特征数据对应,用来评估最终模型的泛化能力。
进一步的,所述决策树剪枝算法包括以下步骤:
其中,
N为训练集样本总数目;
βi为不同类型初剪枝的阈值;
对初剪枝后的决策树T1进行二次剪枝,由于人眼观察时,平滑追踪及扫视数目远小于注视数目,故提出系数αi以平衡剪枝条件,保证主类别为平滑追踪或扫视的节点被剪枝的期望降低。剪枝评价标准如下:
其中,
N1、N2:剪枝前、后叶节点数;
R(t):节点t的错误代价,计算公式为R(t)=r(t)*p(t) ;
r(t)为节点t的错分样本率,p(t)为落入节点t的样本占所有样本的比例;
R(Tt):子树错误代价,计算公式为R(Tt)=∑R(p),p为子树Tt的叶节点;
h:预剪枝节点所在决策树深度;
γi:平衡系数;
对于决策树T1的每个非叶节点计算θ值,循环剪掉具有最小θ值的子树,直到剩下根节点,便可得到一系列剪枝树{T1,T2,T3...Tm},从该一系列剪枝树中根据真实误差选择出最佳决策树。
采用上述进一步方案的有益效果在于:所述剪枝算法的改进是基于CCP,基于本专利中数据的特点,提出阈值1:β用来进行初剪枝操作,由于注视点过多所以注视对应的阈值要小一些,以便去掉深层中注视为主类别且数目尚少的节点,提高决策树的泛化能力,同理扫视和平滑追踪对应的阈值要大一些,因为其数目本来就不多,深层的决策树可能对其分类效果更好,提出阈值2:α,二次剪枝时为保护平滑追踪和扫视的分类节点,其对应的阈值应略大,注视对应的阈值应略小,提出引入决策树深度h:由于传统CCP剪枝中,考虑了代价以及复杂度,但并没有考虑深度h对剪枝的影响,如果一个决策树足够深,那么越深的层次被剪掉的期望应该越大,所以将深度h引入剪枝评价标准中。
根据本发明另一方面,提供一种眼动点数据分类模型的构建***,包括:
数据获取单元,用于配置获取原始眼动数据;
数据处理单元,用于配置对所述原始眼动数据进行预处理得到预处理后眼动数据;
特征数据提取单元,用于配置根据所述眼动数据计算特征数据,所述特征数据包括:单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2,利用所述单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2将所述眼动点分为注视点和扫视点以及单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r,利用所述单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r 去除扫视点后的眼动点分为注视点和平滑追踪点;
分类模型构建单元,用于配置将特征数据输入预设的决策树模型中以构建眼动点数据分类模型;
模型评价单元,所用于配置所述决策树模型经过训练后,输出真实标签与预测标签数据信息以及残差曲线并使用混淆矩阵相关评价指标进行模型分类效果评价;
分类学习单元,用于配置确定决策树模型参数后,利用所述预设程序的学习方法实现对眼动点数据的分类。
与现有技术相比,本发明具有以下有益效果:
通过所述数据获取单元后的原始眼动数据,所述数据处理单元能够对所述原始眼动数据预处理,包括缺失数据填充,频率校正,降噪及数据有效性检验,与由于数据获取单元获取的原始眼动数据并不是理想数据,会受到眨眼等外界因素的影响,使眼动数据采集不准确,通过所述数据处理单元进行预处理能够使所述原始眼动数据更加准确,所述特征数据提取单元能够根据眼动数据计算出所述特征数据,将所述特征数据输入至分类模型构建单元,得出眼动点数据分类模型。
进一步的,所述分类模型构建单元包括:
决策树搭建单元,用于配置搭建用于眼动数据点实时分类的决策树模型结构,将所述特征数据分为训练集数据和验证集数据,训练集数据作为当前样本集D,计算当前样本集D中各项特征的信息增益;
分类特征选取单元,用于配置选取信息增益最大的特征作为决策树的根节点分类特征和子节点分类特征;
模型训练单元,用于配置将所述训练集数据输入决策树模型训练,得到训练后的决策树模型;
模型验证单元,用于配置将验证集输入,对所述决策树模型进行验证,若分类精度满足预期,停止训练,得出所述决策树模型的参数;
分类精度调整单元,用于配置若分类精度未满足预期,通过调整决策树模型参数来提高分类精度;若分类精度过高达到了过拟合状态,则采用剪枝方法对决策树模型进行剪枝,提高模型的泛化能力。
附图说明
图1是本发明的实施流程图;
图2是本发明的一种实施例的流程图;
图3是本发明提出决策树模型的混淆矩阵图;
图4是本发明所提出模型与其他眼动分类模型准确率对比图;
其中,图2中横向数据代表标签真实数据个数,纵向数据代表标签预测数据个数。
图3中,Individiual samples:个体样本,whole episodes:全集, Final model:本发明分类模型。
具体实施方式
为了更好的了解本发明的技术方案,下面结合具体实施例、说明书附图对本发明作进一步说明。
实施例1:
根据本实施例的一个方面,提供一种眼动点数据分类模型的构建方法,通过眼动仪获取原始眼动数据,优选的,采用Gazecom数据集中某一眼动数据进行构建决策树分类模型,该所述Gazecom数据集使用观察刺激的屏幕分辨率为1280*720,被试距屏幕45cm,所采集数据包括时间t,眼动点在屏幕上坐标X,Y以及眼动仪对眼动跟踪的置信度(0或1)。优选的,所述Gazecom数据集中眼动点采样频率为250HZ,作为本技术方案的一种可选方式,本技术方案可以使用以任何频率采样得出的眼动数据,且使用该种眼动数据均可以准确实时地进行眼动点的分类,如图1所示,所述眼动点数据分类包括以下步骤:
获取原始眼动数据,被试佩戴眼动仪观察屏幕显示出的刺激,眼动仪与计算机连接,将采集到的实时数据传入到计算机指定文件夹,读入指定文件夹数据到作为程序预处理的输入;
对所述原始眼动数据进行预处理得到预处理后的眼动数据,由于采样期间仪器异常、被试眨眼等原因,对原始数据的记录会造成数据缺失,对于此类数据使用插值方法进行填充,并去除坐标超出屏幕显示区域的极端值点,将连续异常眼动点的时间超过100ms的数据点去除并将其标记为眨眼类型,然后使用移动平均降噪函数进行眼动数据降噪与滤波;
根据所述预处理后的眼动数据计算特征数据,所述特征数据包括:单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2,单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r,利用所述单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2将所述眼动点分为注视点、扫视点,所述注视点中含有平滑尾随点,利用所述单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r去除扫视点后的眼动点分为注视点和平滑追踪点,向预设程序中输入训练集数据G={g1,g2,......gn},设gi为第i个眼动轨迹点,所述gi对应的坐标点为(X,Y,t),i的取值为1,2,....n,n为该集合所包含轨迹点的个数,计算输入数据中相邻点之间的欧式距离,第i个点与第i+1个点之间的欧式距离为L,计算公式如下:单位时间内相邻欧氏距离比值的加权平均和β,计算输入连续眼动数据点运动方向α,第i点的运动方向为αi,计算公式如下:单位时间内相邻运动方向变化率Δα,计算输入数据固定单位时间内每三点之间的曲率半径r,某单位时间i内包括点集Gi={g1,g2,......gk},可计算出来连续三点之间的距离a,b,c,计算输入数据固定单位时间内欧式距离的方差ΔL2,某单位时间i内包括点集Gi={g1,g2,......gk},可计算出相邻点欧式距离集合Li={L2,......Lk},其中k≥3,计算输入数据固定单位时间内最小覆盖圆半径R,某单位时间i内包括点集Gi={g1,g2,......gk},其中k≥3,具体步骤如下,找到同一单位时间i内的点集Gi={g1,g2,......gk},其中 k≥3,取g1、g2两点,以g1g2为直径得到初始圆C2,按顺序依次加入点集Gi={g1,g2,......gk}中的点,设当前点为gi,若该点在所述圆C2内,则所述圆C2的半径即为所述单位时间内点集最小覆盖圆半径,若否,则以g1gi为直径暂得一个圆Ci,***点gi一定在所述圆Ci的边界上,所述圆Ci未必可包含1~i所有的点,可找到不在Ci中的一点gj(j<i),以gigj为直径暂得一个圆Cj,则gi、gj一定在所述圆Ci的边界上,所述圆Cj未必包括1~j中所有的点,找到不在Cj中的一点gk(k<j<i),以gi,gj,gk建立新圆,则gi,gj,gk一定在所述新圆边界上,所述新圆的半径即为所述单位时间内点集最小覆盖圆半径R,以所述眼动数据中连续三点作为一个单位时间,滑动窗口步长设置为1,默认初始点的眼动类型为注视,通过所述原理及公式计算每个单位时间内的特征组成特征向量F=(R,Δα,β,r,ΔL2)输入到决策树分类模型中进行训练,每个单位时间判断后两点的眼动类型,步长为1移动单位时间后,下一单位时间内点的类型判断结果更新前一单位时间类型判断的结果,由于被试在观察刺激时,注视占比较大,扫视和平滑尾随类占比较小,若直接输入决策树模型训练,对分类精度影响较大,故降低注视点占比以将三种类型的眼动数据点数量保持相同的水平,有利于模型通过特征之间差异对眼动类型进行分类,优选的,本实施例采用10倍交叉验证。
将特征数据输入预设的决策树模型中构建眼动点数据分类模型,搭建用于眼动数据点实时分类的决策树模型结构,将所述特征数据分为训练集数据和验证集数据,所述训练集数据作为当前样本集D,计算当前样本集D中各项特征的信息增益,选取信息增益最大的特征作为决策树的根节点分类特征和子节点分类特征,将所述训练集数据输入决策树模型训练,得到训练后的决策树模型,将验证集数据输入,对所述决策树模型进行验证,若分类精度满足预期,停止训练,得出所述决策树模型的参数,若分类精度未满足预期,通过调整决策树模型参数来提高分类精度,若分类精度过高达到了过拟合状态,则采用剪枝方法对决策树模型进行剪枝。
所述剪枝方法包括以下步骤:对所构建的原始决策树T0进行初剪枝,对非叶子节点进行遍历,如果该非叶子节点的主类别为注视,且数目为n1,若则对主类别为注视的该节点进行剪枝,同理若或则对主类别为扫视或平滑追踪的该节点进行剪枝。
其中,
N为训练集样本总数目;
βi为不同类型初剪枝的阈值;
对初剪枝后的决策树T1进行二次剪枝,由于人眼观察时,平滑追踪及扫视数目远小于注视数目,故提出系数αi以平衡剪枝条件,保证主类别为平滑追踪或扫视的节点被剪枝的期望降低。剪枝评价标准如下:
其中,
N1、N2:剪枝前、后叶节点数;
R(t):节点t的错误代价,计算公式为R(t)=r(t)*p(t)
r(t)为节点t的错分样本率,p(t)为落入节点t的样本占所有样本的比例;
R(Tt):子树错误代价,计算公式为R(Tt)=∑R(p),p为子树Tt的叶节点;
h:预剪枝节点所在决策树深度;
γi:平衡系数;
对于决策树T1的每个非叶节点计算θ值,循环剪掉具有最小θ值的子树,直到剩下根节点,便可得到一系列剪枝树{T1,T2,T3...Tm},从该一系列剪枝树中根据真实误差选择出最佳决策树。
确定用于眼动数据点分类的决策树模型,设置决策树模型初始参数值,使用上述所划分训练集对决策树模型进行训练,所述计算当前样本集D中各项特征的信息增益比具体包括以下步骤:
Gain(D,A)=H(D)-H(D|A)
其中,Gain(D,A)为信息增益,H(D)为集合D的经验熵。
具体初始参数设置如下:
参数 | 参数初始设置值 |
Criterion | Entropy(信息增益) |
Splitter | best |
Max_depth | 15 |
Min_samples_split | 2 |
Min_samples_leaf | 5 |
Max_leaf_nodes | 50 |
Class_weight | balanced |
经过预处理的数据通过以上设定的决策树模型后,决策树通过预剪枝以及节点阈值更新等方式调整决策树分类准确率,并控制树的大小保持在设置范围内,防止过拟合。
所述决策树模型经过训练后,输出真实标签与预测标签数据信息以及残差曲线并使用混淆矩阵相关评价指标进行评价,确定决策树模型参数后,利用预设程序的学习方法实现对眼动点数据的分类,模型分类效果评估,使用验证集对训练后的决策树模型进行分类效果评估,当分类精度误差满足预期,停止训练,确定决策树模型,否则,继续修改参数、训练模型直至满足预期。
上述模型训练结束后,根据眼动数据点经模型分类后的标签与真值标签进行对比,构造混淆矩阵;并计算混淆矩阵中相对于参数,画出ROC特征曲线,如图2所示。输出分类效果评价图像。
本实例实验环境参数CPU:Inter(R)Core(TM)[email protected] 2.40GHz,显卡GTX940M,内存为8GB,操作***为Windows10,基于 x64处理器。数据集的处理和分类仿真实验都是基于python3.8编程实现。
仿真结果分析
利用决策树模型的眼动数据点分类仿真实验结果如下表所示:
标签 | FIX(注视) | SAC(扫视) | SP(平滑尾随) | 训练精度 |
准确率 | 0.7619 | 0.933 | 0.8103 | 0.921 |
通过上表可发现,本发明所提出模型分类准确率较高。
如图3所示,本发明对应模型与目前流行眼动三分类算法相比,准确率更高,且符合实时性的要求,有区别于其他算法训练时选取的特征,并定义了用于眼动分类的新特征。
根据本实施例的另一方面,提供一种眼动点数据分类模型的构架***,包括:数据获取单元,用于配置获取原始眼动数据;
数据处理单元,用于配置对所述原始眼动数据进行预处理得到预处理后的眼动数据;
特征数据提取单元,用于配置根据所述眼动数据计算特征数据,所述特征数据包括:单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2,利用所述单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2将所述眼动点分为注视点和扫视点以及单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r,利用所述单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r 去除扫视点后的眼动点分为注视点和平滑追踪点;
分类模型构建单元,用于配置将特征数据输入预设的决策树模型中以构建眼动点数据分类模型,所述分类模型构建单元包括:决策树搭建单元,用于配置搭建用于眼动数据点实时分类的决策树模型结构,将所述特征数据分为训练集数据和验证集数据,训练集数据作为当前样本集D,计算当前样本集D中各项特征的信息增益,分类特征选取单元,用于配置选取信息增益最大的特征作为决策树的根节点分类特征和子节点分类特征,模型训练单元,用于配置将所述训练集数据输入决策树模型训练,得到训练后的决策树模型,模型验证单元,用于配置将验证集输入,对所述决策树模型进行验证,若分类精度满足预期,停止训练,得出所述决策树模型的参数,分类精度调整单元,用于配置若分类精度未满足预期,通过调整决策树模型参数来提高分类精度;若分类精度过高达到了过拟合状态,则采用剪枝方法对决策树模型进行剪枝,提高模型的泛化能力;
模型评价单元,所用于配置所述决策树模型经过训练后,输出真实标签与预测标签数据信息以及残差曲线并使用混淆矩阵相关评价指标进行模型分类效果评价;
分类学习单元,用于配置确定决策树模型参数后,利用所述预设程序的学习方法实现对眼动点数据的分类。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能。
Claims (8)
1.一种眼动点数据分类模型的构建方法,其特征在于,包括以下步骤:
获取原始眼动数据;
对所述原始眼动数据进行预处理得到预处理后的眼动数据;
根据所述眼动数据计算特征数据;所述特征数据包括:单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2;
利用单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2将所述眼动点分为注视点、扫视点,所述注视点中含有平滑尾随点;
将特征数据输入预设的决策树模型中构建眼动点数据分类模型;
所述特征数据的提取,包括以下步骤:
向预设程序中输入训练集数据G={g1,g2,......gn},设gi为第i个眼动轨迹点,所述gi对应的坐标点为(X,Y,t),i的取值为1,2,....n,n为该集合所包含轨迹点的个数;
计算输入数据中相邻点之间的欧式距离,第i个点与第i+1个点之间的欧式距离为L,计算公式如下:
单位时间内相邻欧氏距离比值的加权平均和β,计算公式如下:
计算输入连续眼动数据点运动方向α,第i点的运动方向为αi,计算公式如下:
故,单位时间内相邻运动方向变化率Δα,计算公式如下:
计算输入数据固定单位时间内每三点之间的曲率半径r,某单位时间i内包括点集Gi={g1,g2,......gk},可计算出来连续三点之间的距离a,b,c,若三点不共线,则:
计算输入数据固定单位时间内欧式距离的方差ΔL2,某单位时间i内包括点集Gi={g1,g2,......gk},可计算出相邻点欧式距离集合Li={L2,......Lk},其中k≥3,计算公式如下:
计算输入数据固定单位时间内最小覆盖圆半径R,某单位时间i内包括点集Gi={g1,g2,......gk},其中k≥3,具体步骤如下:
找到同一单位时间i内的点集Gi={g1,g2,......gk},其中k≥3
取g1、g2两点,以g1g2为直径得到初始圆C2;
按顺序依次加入点集Gi={g1,g2,......gk}中的点,设当前点为gi,若该点在所述圆C2内,则所述圆C2的半径即为所述单位时间内点集最小覆盖圆半径;
若否,则以g1gi为直径暂得一个圆Ci,***点gi一定在所述圆Ci的边界上;
所述圆Ci未必可包含1~i所有的点,可找到不在Ci中的一点gj(j<i),以gigj为直径暂得一个圆Cj,则gi、gj一定在所述圆Ci的边界上;
所述圆Cj未必包括1~j中所有的点,找到不在Cj中的一点gk(k<j<i),以gi,gj,gk建立新圆,则gi,gj,gk一定在所述新圆边界上,所述新圆的半径即为所述单位时间内点集最小覆盖圆半径R。
2.根据权利要求1所述的一种眼动点数据分类模型的构建方法,其特征在于,所述特征数据还包括:
单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r,利用所述单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r去除扫视点后的眼动点分为注视点和平滑追踪点。
3.根据权利要求1所述的一种眼动点数据分类模型的构建方法,其特征在于,所述将特征数据输入预设的决策树模型中构建眼动点数据分类模型,包括以下步骤:
搭建用于眼动数据点实时分类的决策树模型结构,将所述特征数据分为训练集数据和验证集数据,所述训练集数据作为当前样本集D,计算当前样本集D中各项特征的信息增益;
选取信息增益最大的特征作为决策树的根节点分类特征和子节点分类特征;
将所述训练集数据输入决策树模型训练,得到训练后的决策树模型;
将验证集数据输入,对所述决策树模型进行验证,若分类精度满足预期,停止训练,得出所述决策树模型的参数;
若分类精度未满足预期,通过调整决策树模型参数来提高分类精度;若分类精度过高达到了过拟合状态,则采用剪枝方法对决策树模型进行剪枝。
4.根据权利要求1所述的一种眼动点数据分类模型的构建方法,其特征在于,还包括以下步骤:
所述决策树模型经过训练后,输出真实标签与预测标签数据信息以及残差曲线并使用混淆矩阵相关评价指标进行评价;
确定决策树模型参数后,利用预设程序的学习方法实现对眼动点数据的分类。
6.根据权利要求3所述的一种眼动点数据分类模型的构建方法,其特征在于,采用剪枝方法对决策树模型进行剪枝包括以下步骤:
其中,
N为训练集样本总数目;
βi为不同类型初剪枝的阈值;
对初剪枝后的决策树T1进行二次剪枝,由于人眼观察时,平滑追踪及扫视数目远小于注视数目,故提出系数αi以平衡剪枝条件,保证主类别为平滑追踪或扫视的节点被剪枝的期望降低,剪枝评价标准如下:
其中,
N1、N2:剪枝前、后叶节点数;
R(t):节点t的错误代价,计算公式为R(t)=r(t)*p(t)
r(t)为节点t的错分样本率,p(t)为落入节点t的样本占所有样本的比例;
R(Tt):子树错误代价,计算公式为R(Tt)=∑R(p),p为子树Tt的叶节点;
h:预剪枝节点所在决策树深度;
γi:平衡系数;
对于决策树T1的每个非叶节点计算θ值,循环剪掉具有最小θ值的子树,直到剩下根节点,便可得到一系列剪枝树{T1,T2,T3...Tm},从该一系列剪枝树中根据真实误差选择出最佳决策树。
7.一种眼动点数据分类模型的构建***,其特征在于,包括:
数据获取单元,用于配置获取原始眼动数据;
数据处理单元,用于配置对所述原始眼动数据进行预处理得到预处理后的眼动数据;
特征数据提取单元,用于配置根据所述眼动数据计算特征数据,所述特征数据包括:单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2,利用所述单位时间内眼动数据分布的最小覆盖圆半径R、单位时间内相邻欧氏距离比值的加权平均和β和单位时间内欧氏距离的方差ΔL2将所述眼动点分为注视点和扫视点以及单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r,利用所述单位时间内相邻运动方向变化率Δα和单位时间内相邻三点的曲率半径r去除扫视点后的眼动点分为注视点和平滑追踪点;
所述特征数据的提取,包括以下步骤:
向预设程序中输入训练集数据G={g1,g2,......gn},设gi为第i个眼动轨迹点,所述gi对应的坐标点为(X,Y,t),i的取值为1,2,....n,n为该集合所包含轨迹点的个数;
计算输入数据中相邻点之间的欧式距离,第i个点与第i+1个点之间的欧式距离为L,计算公式如下:
单位时间内相邻欧氏距离比值的加权平均和β,计算公式如下:
计算输入连续眼动数据点运动方向α,第i点的运动方向为αi,计算公式如下:
故,单位时间内相邻运动方向变化率Δα,计算公式如下:
计算输入数据固定单位时间内每三点之间的曲率半径r,某单位时间i内包括点集Gi={g1,g2,......gk},可计算出来连续三点之间的距离a,b,c,若三点不共线,则:
计算输入数据固定单位时间内欧式距离的方差ΔL2,某单位时间i内包括点集Gi={g1,g2,......gk},可计算出相邻点欧式距离集合Li={L2,....L.k}.,其中k≥3,计算公式如下:
计算输入数据固定单位时间内最小覆盖圆半径R,某单位时间i内包括点集Gi={g1,g2,......gk},其中k≥3,具体步骤如下:
找到同一单位时间i内的点集Gi={g1,g2,......gk},其中k≥3
取g1、g2两点,以g1g2为直径得到初始圆C2;
按顺序依次加入点集Gi={g1,g2,......gk}中的点,设当前点为gi,若该点在所述圆C2内,则所述圆C2的半径即为所述单位时间内点集最小覆盖圆半径;
若否,则以g1gi为直径暂得一个圆Ci,***点gi一定在所述圆Ci的边界上;
所述圆Ci未必可包含1~i所有的点,可找到不在Ci中的一点gj(j<i),以gigj为直径暂得一个圆Cj,则gi、gj一定在所述圆Ci的边界上;
所述圆Cj未必包括1~j中所有的点,找到不在Cj中的一点gk(k<j<i),以gi,gj,gk建立新圆,则gi,gj,gk一定在所述新圆边界上,所述新圆的半径即为所述单位时间内点集最小覆盖圆半径R;
分类模型构建单元,用于配置将特征数据输入预设的决策树模型中以构建眼动点数据分类模型;
模型评价单元,所用于配置所述决策树模型经过训练后,输出真实标签与预测标签数据信息以及残差曲线并使用混淆矩阵相关评价指标进行模型分类效果评价;
分类学习单元,用于配置确定决策树模型参数后,利用预设程序的学习方法实现对眼动点数据的分类。
8.根据权利要求7所述的一种眼动点数据分类模型的构建***,其特征在于,所述分类模型构建单元包括:
决策树搭建单元,用于配置搭建用于眼动数据点实时分类的决策树模型结构,将所述特征数据分为训练集数据和验证集数据,训练集数据作为当前样本集D,计算当前样本集D中各项特征的信息增益;
分类特征选取单元,用于配置选取信息增益最大的特征作为决策树的根节点分类特征和子节点分类特征;
模型训练单元,用于配置将所述训练集数据输入决策树模型训练,得到训练后的决策树模型;
模型验证单元,用于配置将验证集输入,对所述决策树模型进行验证,若分类精度满足预期,停止训练,得出所述决策树模型的参数;
分类精度调整单元,用于配置若分类精度未满足预期,通过调整决策树模型参数来提高分类精度;若分类精度过高达到了过拟合状态,则采用剪枝方法对决策树模型进行剪枝,提高模型的泛化能力。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110453599.4A CN113326733B (zh) | 2021-04-26 | 2021-04-26 | 一种眼动点数据分类模型的构建方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110453599.4A CN113326733B (zh) | 2021-04-26 | 2021-04-26 | 一种眼动点数据分类模型的构建方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113326733A CN113326733A (zh) | 2021-08-31 |
CN113326733B true CN113326733B (zh) | 2022-07-08 |
Family
ID=77413812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110453599.4A Active CN113326733B (zh) | 2021-04-26 | 2021-04-26 | 一种眼动点数据分类模型的构建方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113326733B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113827238A (zh) * | 2021-09-02 | 2021-12-24 | 苏州中科先进技术研究院有限公司 | 基于虚拟现实和眼动信息的情绪评估方法、装置 |
CN113876437B (zh) * | 2021-09-13 | 2024-02-23 | 上海微创医疗机器人(集团)股份有限公司 | 存储介质、机器人***以及计算机设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106446849A (zh) * | 2016-09-30 | 2017-02-22 | 防城港市港口区高创信息技术有限公司 | 一种疲劳驾驶检测方法 |
WO2018033154A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 手势控制方法、装置和电子设备 |
CN111967363A (zh) * | 2020-08-10 | 2020-11-20 | 河海大学 | 一种基于微表情识别和眼动追踪的对情绪预测的方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200064444A1 (en) * | 2015-07-17 | 2020-02-27 | Origin Wireless, Inc. | Method, apparatus, and system for human identification based on human radio biometric information |
JP2016028669A (ja) * | 2014-07-23 | 2016-03-03 | 株式会社Jvcケンウッド | 瞳孔検出装置、および瞳孔検出方法 |
CN104463916B (zh) * | 2014-12-31 | 2017-04-12 | 武汉大学 | 基于随机游走的眼动注视点测定方法 |
US10976813B2 (en) * | 2016-06-13 | 2021-04-13 | Apple Inc. | Interactive motion-based eye tracking calibration |
CN106934368A (zh) * | 2017-03-13 | 2017-07-07 | 长安大学 | 一种基于眼动指标数据的驾驶疲劳检测***及识别方法 |
CN107256332B (zh) * | 2017-05-24 | 2020-09-29 | 上海交通大学 | 基于眼动数据的脑电实验评估***及方法 |
CN111949131B (zh) * | 2020-08-17 | 2023-04-25 | 陈涛 | 一种基于眼动追踪技术的眼动交互方法、***及设备 |
-
2021
- 2021-04-26 CN CN202110453599.4A patent/CN113326733B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033154A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 手势控制方法、装置和电子设备 |
CN106446849A (zh) * | 2016-09-30 | 2017-02-22 | 防城港市港口区高创信息技术有限公司 | 一种疲劳驾驶检测方法 |
CN111967363A (zh) * | 2020-08-10 | 2020-11-20 | 河海大学 | 一种基于微表情识别和眼动追踪的对情绪预测的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113326733A (zh) | 2021-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230185377A1 (en) | System and method for iterative classification using neurophysiological signals | |
Zhao et al. | Supervised segmentation of un-annotated retinal fundus images by synthesis | |
CN112132817B (zh) | 一种混合注意力机制的眼底图像视网膜血管分割方法 | |
CN113326733B (zh) | 一种眼动点数据分类模型的构建方法及*** | |
CN111000553B (zh) | 一种基于投票集成学习的心电数据智能分类方法 | |
CN109508644A (zh) | 基于深度视频数据分析的面瘫等级评估*** | |
CN111080579B (zh) | 基于深度学习实现图像分割和分类的骨龄评估方法 | |
CN110781953B (zh) | 基于多尺度金字塔卷积神经网络的肺癌病理切片分类方法 | |
CN111383210B (zh) | 眼底图像分类模型训练方法及设备 | |
CN113011340B (zh) | 一种基于视网膜图像的心血管手术指标风险分类方法及*** | |
CN111079620A (zh) | 基于迁移学习的白细胞图像检测识别模型构建方法及应用 | |
Krishnan et al. | A novel algorithm for detecting bacterial leaf scorch (BLS) of shade trees using image processing | |
CN110874835B (zh) | 作物叶部病害抗性鉴定方法、***、电子设备及存储介质 | |
CN109410074A (zh) | 智能核保方法与*** | |
Lado et al. | Comparison of Neural Network and Random Forest Classifier Performance on Dragon Fruit Disease | |
CN106874838A (zh) | 融合互补特征的视觉人体行为识别方法 | |
Marsolo et al. | Spatial modeling and classification of corneal shape | |
CN110991343A (zh) | 一种基于眼动技术的情感测量***及其方法 | |
Brindha et al. | Masking technique based attention mechanism for off-type identification in plants | |
Cheng et al. | Convolutional neural network implementation for eye movement recognition based on video | |
Ramesh et al. | Blood Vessel Segmentation and Classification for Diabetic Retinopathy Grading Using Dandelion Optimization Algorithm with Deep Learning Model. | |
CN112861798B (zh) | 基于生理信号的分类识别方法、介质及电子设备 | |
Ahmad et al. | Morphological features analysis for erythrocyte classification in IDA and thalassemia | |
Carnimeo et al. | A neural network-based retinal imaging interface for optic disc localization in ophthalmic analyses | |
Patil et al. | Puzzle optimization algorithm based weighted feature selection for identification of rice leaf disease through thermal images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |