CN115273180B - 一种基于随机森林的线上考试监考方法 - Google Patents

一种基于随机森林的线上考试监考方法 Download PDF

Info

Publication number
CN115273180B
CN115273180B CN202210773448.1A CN202210773448A CN115273180B CN 115273180 B CN115273180 B CN 115273180B CN 202210773448 A CN202210773448 A CN 202210773448A CN 115273180 B CN115273180 B CN 115273180B
Authority
CN
China
Prior art keywords
max
follows
face
gaze
examinee
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210773448.1A
Other languages
English (en)
Other versions
CN115273180A (zh
Inventor
徐慧
赵晨薇
尹必才
王惠荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202210773448.1A priority Critical patent/CN115273180B/zh
Publication of CN115273180A publication Critical patent/CN115273180A/zh
Application granted granted Critical
Publication of CN115273180B publication Critical patent/CN115273180B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及机器学习视觉技术领域,尤其涉及一种基于随机森林的线上考试监考方法,包括以下步骤:S1:在获得视频帧的图片后,利用改进的MTCNN方法进行人脸检测,特征提取和人脸对齐;S2:基于面部特征点计算头部姿态;S3:基于随机森林,融合头部姿态和面部特征进行视线估计;S4:对作弊行为进行判断。本发明使用基于迁移学习的人脸检测方法可以在人脸存在较大角度偏转以及暗光条件下很好的检测到人脸,在佩戴眼镜的情况下也可以准确获取到特征点信息。本发明只需借助网络摄像头,从而降低对设备的需求,有助于推进线上考试的发展;能够实时检测考生作弊情况,减少作弊行为发生的概率。

Description

一种基于随机森林的线上考试监考方法
技术领域
本发明涉及机器学习视觉技术领域,尤其涉及一种基于随机森林的线上考试监考方法。
背景技术
随着在线学习不断普及,在线考试也受到越来越多人的欢迎。然而,在线考试的一个主要挑战是如何以有效且可靠的方式在线监考。根据调查显示,约有74%的学生表示在线考试很容易作弊,近29%的学生在线考试时曾作弊。这些作弊行为会损害在线考试的公信力,这使得在线监考对于进一步扩大线上考试的应用至关重要。
研究人员提出了许多不同的在线监考方法,通常可以分为三类:手动监考、全自动监考和半自动监考。手动监考,即监考人要查看所有考生的考试视频,这项工作耗时且劳动密度高。与之相反,全自动监考是电脑基于机器学习技术分析考生考试期间的行为,自行检测可疑行为并直接将其分类为作弊或非作弊。然而,现有的全自动监考方法往往难以达到非常高的准确度,常有误判情况发生。半自动监考方法结合了机器学习方法和监考人员的进一步手动确认,在降低劳动密度的同时提高了线上监考效率。
目前使用的监考软件有较高模型成本,操作复杂,使其对用户不太友好,并且常常需要外部设备,例如眼动追踪仪。但是在远程监考中,不可能为所有应试者配备此类设备,实际考试中很难大规模投入使用。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的一种基于随机森林的线上考试监考方法,该方法只需借助网络摄像头,从而降低对设备的需求,有助于推进线上考试的发展。
为了实现上述目的,本发明采用了如下技术方案:
一种基于随机森林的线上考试监考方法,具体步骤如下:
S1:在获得视频帧的图片后,利用改进的MTCNN方法进行人脸检测,特征提取和人脸对齐;
S2:基于面部特征点计算头部姿态;
S3:基于随机森林,融合头部姿态和面部特征进行视线估计;
S4:对作弊行为进行判断。
优选地,在步骤S1中,具体步骤如下:
S101:使用LaPa数据集对MTCNN网络模型进行训练,得到人脸边界框信息以及106个特征点标注;
S102:对识别出的人脸进行对齐处理;
S103:将对齐后的人脸图像进行归一化处理。
优选地,在步骤S2中,利用已得到的面部特征点计算头部姿态,具体步骤如下:
S201:选用AFLW数据集,将训练集中的图片水平翻转φ度,增广数据;
S202:调整旋转之后,重新定位新边框的顶点如下:
设原始边框的坐标为(Xmin,Xmax,Ymin,Ymax),图像中心的坐标为(Xc,Yc);
将原始图像的顶点绕(Xc,Yc)旋转φ度,得到新的边框顶点坐标:
x′min=min{x cosφ+y sinφ}+x0
x′max=max{x cosφ+y sinφ}+x0
y′min=min{-x cosφ+y sinφ}+y0
y′max=max{-x cosφ+y sinφ}+y0
其中:
xo=xc(1-cosφ)-yc sinφ
yo=xc sinφ+yc(1-cosφ)
S203:根据上述变换,可以求得水平旋转矩阵如下:
S204:求得欧拉角如下,其中α表示俯仰,β表示偏航,γ表示滚转;
β′=sin-1M31
优选地,在步骤S3中,具体步骤如下:
S301:选用cart回归树,用最小二乘法作为节点***的依据:
在实际操作中,传统的cart回归树选取最小均方差作为节点***的依据,若到达叶节点的样本个数较多且数值相差较大时,会导致模型训练和预测的准确度严重下降,因此提出用最小二乘法改进节点的分类属性。最小二乘法是一种曲线拟合方法,其基本思想是误差平方和最小化原则,找出数据的最佳函数匹配,具体算法步骤如下:
(1)初始时刻将训练集中数据分配到根节点,训练数据集中的离差平方和,公式如下:
其中,yi表示第i个样本的目标函数,y表示m个样本的目标函数平均值;
(2)对每一个属性的Xi的所有值进行排序,取同一属性的相邻两个样本的均值Xi,k,将其作为阈值将训练集分为左右两部分,计算两部分的离差平方和Di,R,Di,L
(3)找到使ΔD=Di-Di,R-Di,L最大化的Xi,k作为分类点,将样本分为Si,L,Si,R两部分,对这两个子集重复相同步骤直到当前子集满足***终止法则,将到达叶节点的所有目标值拟合成函数表达式,对回归树剪枝,获得规则集;
S302:针对过拟合的问题,采用L2正则项进行优化,提高模型泛化能力;
为提高***泛化能力,解决过拟合问题,常用的一种方法是加入正则化项,对模型进行约束,这里选择加入权值向量的L2范数。
其中假设随机森林的初始损失函数为L0,优化后的损失函数为:
S303:将眼部特征点信息以及头部姿态信息输入到训练好的随机森林视线估计模型中,输出视线估计结果。
优选地,在步骤S4中,具体步骤如下:
S401:在开始眼动追踪之前,视线估计模型提供9个校对点,***通过用户点击校对点收集注视点信息,并且通过收集的凝视数据检测屏幕角,屏幕角x,y轴的计算如下:
xmin=(x1+x7)/2
xmax=(x3+x9)/2
ymin=(y1+y3)/2
ymax=(y7+y9)/2
假设眼睛注视坐标为(Gx,Gy),若Gx<xmin|Gx>xmax|Gy<ymin|Gy>ymax,则认为考生没有看屏幕;
S402:考试期间,逐帧记录注视点,若在连续20s内,考生视线在屏幕外的时间大于50%则标记为异常,向考生发出警示,并且在考试结束将完整的视线记录生成可视图发送给监考员,监考员可以选择对异常时间段内考生的作弊行为进行人为判断。
与现有技术相比,本发明具有以下有益效果:
1、本发明使用基于迁移学习的人脸检测方法可以在人脸存在较大角度偏转以及暗光条件下很好的检测到人脸,在佩戴眼镜的情况下也可以准确获取到特征点信息。
2、本发明采用L2正则化优化损失函数可以解决过拟合问题。
3、本发明采用最小二乘算法优化分类属性,可以提高训练和预测的准确度。
4、本发明在训练头部姿态模型时,水平翻转增广数据集,可以进一步减少头部姿态对注视点的影响。
5、本发明只需借助网络摄像头,从而降低对设备的需求,有助于推进线上考试的发展;能够实时检测考生作弊情况,减少作弊行为发生的概率。
附图说明
图1为本发明的流程图;
图2为本发明中面部特征点标注图;
图3为本发明中视线估计框架图;
图4为本发明中视线校准点图。
具体实施方式
下面结合附图将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于随机森林的线上考试监考方法,具体步骤如下:
S1:在获得视频帧的图片后,利用改进的MTCNN方法进行人脸检测,获取人脸图像区域,然后对检测到的人脸区域进行人脸对齐,以此获得人脸的关键特征信息;
S101:使用LaPa数据集对MTCNN网络模型进行训练,获得人脸边界框信息以及106个特征点标注,其中假设瞳孔中心坐标为(x0,y0)。特征点如图2所示;
S102:对识别出的人脸进行对齐处理;
S103:将对齐后的人脸图像进行归一化处理,采用归一化后的欧式距离作为评价标准,具体计算方法如下:
其中N表示特征点个数,表示第i个特征点的预测坐标,/>表示第i个特征点的真实坐标,dio表示左右外眼角的距离,e为所求误差值,表示对齐精度。
S2:利用已得到的面部特征点计算头部姿态;
S201:选用AFLW数据集,按8:2分为训练集和测试集,将训练集中的图片水平翻转φ度,增广数据;
S202:调整旋转之后,重新定位新边框的顶点如下:
设原始边框的坐标为(Xmin,Xmax,Ymin,Ymax),图像中心的坐标为(Xc,Yc);
将原始图像的顶点绕(Xc,Yc)旋转φ度,得到新的边框顶点坐标;
x′min=min{x cosφ+y sinφ}+x0
x′max=max{x cosφ+y sinφ}+x0
y′min=min{-x cosφ+y sinφ}+y0
y′max=max{-x cosφ+y sinφ}+y0
其中,
xo=xc(1-cosφ)-yc sinφ
yo=xc sinφ+yc(1-cosφ)
S203:根据上述变换,可以求得水平旋转矩阵如下:
S204:求得欧拉角如下:
β′=sin-1M31
S3:基于随机森林,融合头部姿态和面部特征进行视线估计;
S301:选用cart回归树,用最小二乘法作为节点分类的依据;
在实际操作中,传统的cart回归树选取最小均方差作为节点***的依据,若到达叶节点的样本个数较多且数值相差较大时,会导致模型训练和预测的准确度严重下降,以此提出用最小二乘法改进节点的分类属性。最小二乘法是一种曲线拟合方法,其基本思想是误差平方和最小化原则,找出最佳的匹配函数,具体算法步骤如下:
(1)初始时刻将训练集中数据分配到根节点,训练数据集中的离差平方和,公式如下:
其中,yi表示第i个样本的目标函数,y表示m个样本的目标函数平均值;
(2)对每一个属性的Xi的所有值进行排序,取同一属性的相邻两个样本的均值Xi,k,将其作为阈值将训练集分为左右两部分,计算两部分的离差平方和Di,R,Di,L
(3)找到使ΔD=Di-Di,R-Di,L最大化的Xi,k作为分类点,将样本分为Si,L,Si,R两部分,对这两个子集重复相同步骤直到当前子集满足***终止法则,到达叶节点的所有目标值拟合成函数表达式,对回归树剪枝,获得规则集;
S302:针对过拟合的问题,采用L2正则项进行优化;
为提高***泛化能力,解决过拟合问题,常用的一种方法是加入正则化项,对模型进行约束,这里选择加入权值向量的L2范数。
其中假设随机森林的初始损失函数为L0,优化后新的损失函数为:
在选择参数λ时,如果λ过小,则正则化无效,无法解决过拟合的问题,反之,若取值过大会出现欠拟合问题。实验发现在λ=1.5时效果最佳。
S303:将眼部特征点信息以及头部姿态信息输入到训练好的随机森林视线估计模型中,输出视线估计结果,视线估计框架图如图3所示。
S4:对作弊行为进行判断;
S401:在开始眼动追踪之前,视线估计模型提供9个校对点,***通过用户点击校对点收集注视点信息,并且通过收集的凝视数据检测屏幕角,校对点分布如图4所示。屏幕角x,y轴的计算如下:
xmin=(x1+x7)/2
xmax=(x3+x9)/2
ymin=(y1+y3)/2
ymax=(y7+y9)/2
假设眼睛注视坐标为(Gx,Gy),若Gx<xmin|Gx>xmax|Gy<ymin|Gy>ymax,则认为考生没有看屏幕;
其中用户需要对每个校对点点击5次进行确认,视线估计模型取5次视线点信息的平均值作为真正的注视点;
S402:考试期间,逐帧记录注视点,若在连续20s内,考生视线在屏幕外的时间大于50%则标记为异常,向考生发出警示,并且在考试结束将完整的视线记录生成可视图发送给监考员,监考员可以选择对异常时间段内考生的作弊行为进行人为判断。
综上所述,本发明只需借助网络摄像头,从而降低对设备的需求,有助于推进线上考试的发展;能够实时检测考生作弊情况,减少作弊行为发生的概率。
本发明中披露的说明和实践,对于本技术领域的普通技术人员来说,都是易于思考和理解的,且在不脱离本发明原理的前提下,还可以做出若干改进和润饰。因此,在不偏离本发明精神的基础上所做的修改或改进,也应视为本发明的保护范围。

Claims (2)

1.一种基于随机森林的线上考试监考方法,其特征在于,具体步骤如下:
S1:在获得视频帧的图片后,利用改进的MTCNN方法进行人脸检测,特征提取和人脸对齐;
S2:基于面部特征点计算头部姿态;
S3:基于随机森林,融合头部姿态和面部特征进行视线估计;
S4:对作弊行为进行判断;
在步骤S2中,利用已得到的面部特征点计算头部姿态,具体步骤如下:
S201:选用AFLW数据集,将训练集中的图片水平翻转φ度,增广数据;
S202:调整旋转之后,重新定位新边框的顶点如下:
设原始边框的坐标为(Xmin,Xmax,Ymin,Ymax),图像中心的坐标为(Xc,Yc);
将原始图像的顶点绕(Xc,Yc)旋转φ度,得到新的边框顶点坐标:
x′min=min{x cosφ+y sinφ}+x0
x’max=max{x cosφ+y sinφ}+x0
y′min=min{-x cosφ+y sinφ}+y0
ymax=max{-x cosφ+y sinφ}+y0
其中:
xo=xc(1-cosφ)-ycsinφ
yo=xcsinφ+yc(1-cosφ)
S203:根据上述变换,可以求得水平旋转矩阵如下:
S204:求得欧拉角如下,其中α表示俯仰,β表示偏航,γ表示滚转;
β’=Sin-1M31
在步骤S3中,具体步骤如下:
S301:选用cart回归树,用最小二乘法作为节点***的依据,具体步骤如下:
(1)初始时刻将训练集中数据分配到根节点,训练数据集中的离差平方和,公式如下:
其中,yi表示第i个样本的目标函数,y表示m个样本的目标函数平均值;
(2)对每一个属性的Xi的所有值进行排序,取同一属性的相邻两个样本的均值Xi,k,将其作为阈值将训练集分为左右两部分,计算两部分的离差平方和Di,R,Di,L
(3)找到使ΔD=Di-Di,R-Di,L最大化的Xi,k作为分类点,将样本分为Si,L,Si,R两部分,对这两个子集重复相同步骤直到当前子集满足***终止法则,将到达叶节点的所有目标值拟合成函数表达式,对回归树剪枝,获得规则集;
S302:针对过拟合的问题,采用L2正则项进行优化,提高模型泛化能力;
其中假设随机森林的初始损失函数为L0,优化后的损失函数为:
S303:将眼部特征点信息以及头部姿态信息输入到训练好的随机森林视线估计模型中,输出视线估计结果;
在步骤S4中,具体步骤如下:
S401:在开始眼动追踪之前,视线估计模型提供9个校对点,***通过用户点击校对点收集注视点信息,并且通过收集的凝视数据检测屏幕角,屏幕角x,y轴的计算如下:
xmin=(x1+x7)/2
xmax=(x3+x9)/2
ymin=(y1+y3)/2
ymax=(y7+y9)/2
假设眼睛注视坐标为(Gx,Gy),若Gx<xmin|Gx>xmax|Gy<ymin|Gy>ymax,则认为考生没有看屏幕;
S402:考试期间,逐帧记录注视点,若在连续20s内,考生视线在屏幕外的时间大于50%则标记为异常,向考生发出警示,并且在考试结束将完整的视线记录生成可视图发送给监考员,监考员可以选择对异常时间段内考生的作弊行为进行人为判断。
2.根据权利要求1所述的一种基于随机森林的线上考试监考方法,其特征在于,在步骤S1中,具体步骤如下:
S101:使用LaPa数据集对MTCNN网络模型进行训练,得到人脸边界框信息以及106个特征点标注;
S102:对识别出的人脸进行对齐处理;
S103:将对齐后的人脸图像进行归一化处理。
CN202210773448.1A 2022-07-01 2022-07-01 一种基于随机森林的线上考试监考方法 Active CN115273180B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210773448.1A CN115273180B (zh) 2022-07-01 2022-07-01 一种基于随机森林的线上考试监考方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210773448.1A CN115273180B (zh) 2022-07-01 2022-07-01 一种基于随机森林的线上考试监考方法

Publications (2)

Publication Number Publication Date
CN115273180A CN115273180A (zh) 2022-11-01
CN115273180B true CN115273180B (zh) 2023-08-15

Family

ID=83763602

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210773448.1A Active CN115273180B (zh) 2022-07-01 2022-07-01 一种基于随机森林的线上考试监考方法

Country Status (1)

Country Link
CN (1) CN115273180B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116189275B (zh) * 2023-02-13 2024-01-30 南通大学 一种基于面部地标热图的线上考试监考方法
CN116894978B (zh) * 2023-07-18 2024-03-29 中国矿业大学 一种融合面部情绪与行为多特征的线上考试防作弊***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491717A (zh) * 2016-06-13 2017-12-19 科大讯飞股份有限公司 ***检测方法和装置
CN108960302A (zh) * 2018-06-20 2018-12-07 同济大学 一种基于随机森林的头部姿态估计方法
CN109033960A (zh) * 2018-06-20 2018-12-18 同济大学 一种基于随机森林的视线估计方法
CN110263774A (zh) * 2019-08-19 2019-09-20 珠海亿智电子科技有限公司 一种人脸检测方法
CN112464793A (zh) * 2020-11-25 2021-03-09 大连东软教育科技集团有限公司 一种在线***行为检测方法、***和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11113842B2 (en) * 2018-12-24 2021-09-07 Samsung Electronics Co., Ltd. Method and apparatus with gaze estimation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491717A (zh) * 2016-06-13 2017-12-19 科大讯飞股份有限公司 ***检测方法和装置
CN108960302A (zh) * 2018-06-20 2018-12-07 同济大学 一种基于随机森林的头部姿态估计方法
CN109033960A (zh) * 2018-06-20 2018-12-18 同济大学 一种基于随机森林的视线估计方法
CN110263774A (zh) * 2019-08-19 2019-09-20 珠海亿智电子科技有限公司 一种人脸检测方法
CN112464793A (zh) * 2020-11-25 2021-03-09 大连东软教育科技集团有限公司 一种在线***行为检测方法、***和存储介质

Also Published As

Publication number Publication date
CN115273180A (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
CN115273180B (zh) 一种基于随机森林的线上考试监考方法
Hu et al. Research on abnormal behavior detection of online examination based on image information
CN110532970B (zh) 人脸2d图像的年龄性别属性分析方法、***、设备和介质
CN108537160A (zh) 基于微表情的风险识别方法、装置、设备及介质
CN111931585A (zh) 一种课堂专注度的检测方法及装置
CN111598038A (zh) 脸部特征点检测方法、装置、设备及存储介质
CN111507592A (zh) 一种面向服刑人员的主动改造行为的评估方法
CN109598226B (zh) 基于Kinect彩色及深度信息在线***判断方法
CN112464793A (zh) 一种在线***行为检测方法、***和存储介质
CN112446322A (zh) 眼球特征检测方法、装置、设备及计算机可读存储介质
CN115937928A (zh) 基于多视觉特征融合的学习状态监测方法及***
Xu et al. Classroom attention analysis based on multiple euler angles constraint and head pose estimation
KR102369152B1 (ko) 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법
CN115690514A (zh) 图像识别方法及相关设备
CN112861809B (zh) 基于多目标视频分析的课堂抬头检测***及其工作方法
CN112818796B (zh) 一种适用在线监考场景下的智能姿态判别方法和存储设备
CN112488647A (zh) 考勤***及方法、存储介质及电子设备
CN110852284A (zh) 一种基于虚拟现实环境预测用户专注度的***及实现方法
CN115937923A (zh) 一种可实现学生专注度检测的线上教学平台
CN111209859B (zh) 一种基于人脸识别的显示器动态适应视角的方法
TW202139061A (zh) 動作識別方法及裝置、電腦可讀存儲介質
Zhang et al. Students’ Classroom Behavior Detection Based on Human-Object Interaction Model
Zhao et al. A hybrid eye movement feature recognition of classroom students based on machine learning
CN113283340B (zh) 一种基于眼表特征的疫苗接种情况检测方法、装置及***
CN116894978B (zh) 一种融合面部情绪与行为多特征的线上考试防作弊***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant