CN111144333B - 基于视线追踪的教师行为监测方法 - Google Patents

基于视线追踪的教师行为监测方法 Download PDF

Info

Publication number
CN111144333B
CN111144333B CN201911388632.9A CN201911388632A CN111144333B CN 111144333 B CN111144333 B CN 111144333B CN 201911388632 A CN201911388632 A CN 201911388632A CN 111144333 B CN111144333 B CN 111144333B
Authority
CN
China
Prior art keywords
teacher
classroom
reference plane
image
taking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911388632.9A
Other languages
English (en)
Other versions
CN111144333A (zh
Inventor
韩鹏
刘日星
骆开庆
邱健
彭力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Normal University
Original Assignee
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Normal University filed Critical South China Normal University
Priority to CN201911388632.9A priority Critical patent/CN111144333B/zh
Publication of CN111144333A publication Critical patent/CN111144333A/zh
Application granted granted Critical
Publication of CN111144333B publication Critical patent/CN111144333B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Human Computer Interaction (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于视线追踪的教师行为监测方法,通过获取图像序列;检测出人脸特征点;分析人脸特征点求解出人脸朝向,计算人脸在教室内的三维空间位置;计算老师在以桌面的基准平面的视线位置;采用热点图记录老师的视线位置和走动位置;统计老师的发言时间。本发明不仅记录了老师的视线分布情况,而且还记录了老师在课堂上的位置分布情况,可以让老师清晰了解自身的状态,从而调整教学方式,提高教学成果。

Description

基于视线追踪的教师行为监测方法
技术领域
本发明属于教育信息化技术领域,特别涉及一种基于视线追踪的教师行为监测方法。
背景技术
传统教学中,对于教学技能的评价大多数都是基于主观的人工分析。几个资深的教育专家或者高级教师采用旁听的方式,基于个人的主观经验来判定年轻老师的教学技能水准。这种方式十分耗费人力与时间,而且评判的结果带有强烈的主观性。我们应该用机器来代替人工,对老师在课堂的状态进行检测,为评估教师的教学能力提供部分可参考的客观数据,以一种更加公平、公正、严谨的方式来评定教师的教学能力。当老师上课时,会产生大量的数据,比如看书,看学生,或没有关注学生,或者站在讲台上,不在讲台上,或者发言当中。对于这些可以量化的数据,我们进行采集,可供专家分析。教育领域的专家可以参考这些客观的数据,对年轻的教师们进行更加客观的教学评价。
同时,在校师范生或者刚入职的年轻教师如果可以在课堂上实时地了解自身上课行为状态,便能够及时调整一个十分合适的状态,如此一来定然可以提高自身的教学水平。
发明内容
本发明的目的是提出一种基于视线追踪的教师行为监测方法,能够准确地、客观地对课堂上老师的教学行为进行检测。
本发明是通过以下技术方案来实现的:
一种基于视线追踪的教师行为监测方法,包括以下步骤:
(1)通过图像采集单元获取图像序列;
(2)基于所述图像序列,在图像序列每一帧图像中,检测出人脸特征点图像信息;
(3)基于所述图像中的人脸特征点,求解出人脸朝向;
(4)基于图像中的人脸二维位置,并加入老师身高先验值,确定老师在教室空间的三维位置;
(5)结合老师在教室空间内的三维位置和人脸朝向,并加入桌面高度先验值作为教室空间的基准平面,计算老师的视线在该基准平面的分布情况;
(6)建立一个三维教室模型图,以桌面高度为基准平面,采用热点图描绘老师的视线及位置在该平面的分布情况;
(7)统计老师发言的时间。
所述步骤(3)包含以下子步骤:
(3.1)在人脸图像信息区域上检测人脸特征点,标识出至少5个人脸特征点;
(3.2)将所述人脸特征点进行人脸特征点对齐,获得用户头部的空间坐标;
(3.3)基于所述用户头部的空间坐标,构建几何立体模型,获得用户头部姿态角;
所述人脸特征点包括左眼眼角、右眼眼角、嘴巴左嘴角、嘴巴右嘴角和鼻尖。
所述步骤(4)包含以下子步骤:
(4.1)基于图像的人脸二维位置,取其人脸的中心位置;
(4.2)以老师身高为作为教室空间的基准平面,标注四个采样点,同时在图像中对应位置标注四个采样点,构建基准平面与图像之间的变换矩阵M;
(4.3)将人脸的中心位置经过透视变换矩阵M,便可以转换到教室的基准平面的二维位置,再加入老师的先验值高度,便可以得到人脸在教室空间的三维位置。
所述步骤(5)包含以下子步骤:
(5.1)以桌面先验高度为教室空间的基准平面,作为视线的落点平面,结合老师在教室空间内的三维位置和人脸朝向,构建一个空间三角形模型,可以计算得到老师的视线在该基准平面的位置。
所述步骤(6)包含以下子步骤:
(6.1)构建一个与真实教室等比例大小的三维教室模型图,以桌面作为基准平面,标注四个采样点。同时在以桌面为教室的基准平面上标注四个相对应的点。构建模型图的基准平面与教室的基准平面之间的变换矩阵M1;
(6.2)将步骤(5)计算得到的视线位置,经过变换矩阵M1,便可以转换到以桌面为三维教室模型图的基准平面位置上;
(6.3)构建一个与真实教室等比例大小的三维教室模型图,以地面作为基准平面,标注四个采样点。同时在以地面为教室的基准平面上标注四个相对应的点。构建模型图的基准平面与教室的基准平面之间的变换矩阵M2;
(6.4)将步骤(4)得到老师的位置,经过变换矩阵M2,便可以转换到以地面高度为三维教室模型图的基准平面位置上;
(6.5)采用热点图描绘老师的视线及其位置在三维教室模型图的分布情况。
所述步骤(7)包含以下子步骤:
(7.1)提取脸部信息,获得嘴唇的六个特征点;
(7.2)设定嘴唇的纵横比大于k,判定为嘴巴张开;
(7.3)设定闭嘴时长为T,便为不发言;
(7.4)当t1时的纵横比K1大于k,且t2时刻的嘴唇纵横比K2大于k,同时t1与t2的差值小于T,判定为发言。
本发明的优点是:本发明通过捕获图像,利用图像处理与模式识别获取人脸朝向姿态,利用定位跟踪老师的空间位置,结合老师的空间位置和人脸朝向位置计算老师在以桌面高度为教室空间基准平面的注意力分布情况,从而实时了解到老师自身上课的注意力分布情况。本发明不仅记录了老师的视线分布情况,而且还记录了老师在课堂上的位置分布情况。可以让老师清晰了解自身的状态,从而调整教学方式,提高教学成果。
附图说明
图1为本发明的逻辑框图;
图2为图像采集单元的实施方式。
具体实施方式
下面结合附图和实施例对本发明做进一步的说明:
如图1所示,一种基于视线追踪的教师行为监测方法,包括以下步骤:
(1)通过图像采集单元获取图像序列;
人脸图像采集单元是设置在教室后面上方的摄像头,用于拍摄老师的脸部区域,用户无需佩戴任何辅助采集器,通过摄像头采集老师上课的图像。如附图2所示,摄像头的安装位置是在教室后方的中间位置,以图2的教室为例,长宽分别是9m和6m,便是安装在后方中间的3m处,摄像头距离黑板的距离取值范围是6到8m,摄像头在中间位置可以更全面地采集教室的情况。摄像头的高度为H,H的范围是1.6m到2.2m,这个范围对应了绝大部分人的身高,当摄像头的高度与人的高度想接近时,摄像头与人脸的俯仰角偏差小,对于后续的计算更加有利。
(2)基于所述图像序列,在图像序列每一帧图像中,检测出人脸特征点图像信息;
(3)基于所述图像中的人脸特征点,分析人脸朝向图像信息,求解出人脸朝向,以人脸朝向作为视线方向;
所述步骤(3)包含以下子步骤:
(3.1)在人脸区域上检测人脸特征点,标识出五个人脸特征点;
(3.2)基于卷积神经网络的方法,将所述五个人脸特征点进行人脸特征点对齐,获得用户头部的空间坐标;
(3.3)基于所述用户头部的空间坐标,构建几何立体模型,求解出旋转轴角度;
(3.4)设旋转轴角度为α,旋转轴在所述几何立体模型下的各个分量设为βx、βy和βz,经公式1转换为四元数;
Figure BDA0002344301130000041
其中,w、x、y和z为四元数;
(3.4)基于所述四元数,经公式2获得用户头部姿态角;
Figure BDA0002344301130000051
其中ψ为人脸朝向偏航角,
Figure BDA0002344301130000052
为人脸朝向俯仰角,φ为人脸朝向翻滚角;
(3.5)以人脸上的鼻尖为端点作一射线,射线方向为头部姿态角向量的方向,以此估算为视线方向。
所述五个人脸特征点包括左眼眼角、右眼眼角、嘴巴左嘴角、嘴巴右嘴角和鼻尖。
本发明实施例通过五个人脸特征点将二维图像序列文件构建成三维几何模型,获取三维的头部姿态信息,获得人脸朝向,进而估算为视线方向。
(4)基于图像中的人脸二维位置,并加入老师身高先验值,确定老师在教室内的三维位置;
所述步骤(4)包含以下子步骤:
(4.1)基于图像的人脸二维坐标,取人脸的中心位置;
(4.2)以老师身高为作为教室空间的基准平面,标注四个采样点,同时在图像中对应位置标注四个采样点,构建基准平面与图像之间的变换矩阵;
(4.4)根据公式3可以计算得到3*3的变换矩阵M;
Figure BDA0002344301130000053
其中(xi′,yi′)为图像标注的四个点的位置,(xi,yi)为以身高作为教室空间的基准平面的四个采样点的位置;
(4.5)基于上述的变换矩阵M,经过公式4可以得到老师在以身高为教室空间基准平面的位置p(X,Y);
Figure BDA0002344301130000054
其中(x,y)为图像上的点的位置,即图像中的人脸的中心位置;
(4.6)基于上述,得到老师在以身高为教室空间基准平面的位置p(X,Y)加入老师的先验高度,便可以得到老师在教室空间的三维位置。
所述步骤(5)包含以下子步骤:
(5.1)计算老师的视线落在以桌面高度为教室空间基准平面的位置,根据公式5,可以得到视线位置为s(x,y);
Figure BDA0002344301130000061
其中h为身高与桌面的差值,
Figure BDA0002344301130000062
为俯仰角,ψ为偏航角,(Bx,By)是老师在以身高为教室空间基准平面的位置p(X,Y)。
所述步骤(6)包含以下子步骤:
(6.1)构建一个与真实教室等比例大小的三维教室模型图,以桌面作为基准平面,标注四个采样点。同时在以桌面为教室的基准平面上标注四个相对应的点。构建模型图的基准平面与教室的基准平面之间的变换矩阵M1;
(6.2)将步骤(5)计算得到的视线位置s(x,y),经过公式3和公式4,便可以将其位置转换到以桌面为三维教室模型图的基准平面的s1(x1,y1)位置上;
(6.3)构建一个与真实教室等比例大小的三维教室模型图,以地面作为基准平面,标注四个采样点。同时在以地面为教室的基准平面上标注四个相对应的点。构建模型图的基准平面与教室的基准平面之间的变换矩阵M2;
(6.4)将步骤(4)得到的老师的位置p(X,Y)经过公式3和公式4,便可以将其位置转换到以地面高度为三维教室模型图的基准平面的p1(X1,Y1)位置上;
(6.5)采用热点图将s1(x1,y1)和p1(X1,Y1)的位置,按照设定的像素值在三维教室模型图上描绘。
(6.6)热点图采用五种颜色来代表老师的视线和位置密度,红黄青绿蓝这五种颜色,代表密集程度由高到低。
所述步骤(7)包含以下子步骤:
(7.1)提取脸部信息,获得嘴唇的六个特征点;
(7.2)设定嘴唇的纵横比大于k,判定为嘴巴张开;
(7.3)设定闭嘴时长为T,便为不发言;
(7.4)当t1时的纵横比K1大于k,且t2时刻的嘴唇纵横比K2大于k,同时t1与t2的差值小于T,判定为发言。
上列详细说明是针对本发明可行实施例的具体说明,该实施例并非用以限制本发明的专利范围,凡未脱离本发明所为的等效实施或变更,均应包含于本案的专利范围中。

Claims (4)

1.一种基于视线追踪的教师行为监测方法,其特征在于,包括以下步骤:
(1)通过图像采集单元获取图像序列;
(2)基于所述图像序列,在图像序列每一帧图像中,检测出人脸特征点图像信息;
(3)基于所述图像中的人脸特征点,求解出人脸朝向;
(4)基于图像中的人脸二维位置,并加入老师身高先验值,确定老师在教室空间的三维位置;
(5)结合老师在教室空间内的三维位置和人脸朝向,并加入桌面高度先验值作为教室空间的基准平面,计算老师的视线在该基准平面的分布情况;
(6)建立一个三维教室模型图,以桌面高度为基准平面,采用热点图描绘老师的视线及位置在该平面的分布情况;
(7)统计老师发言的时间;
所述步骤(4)包含以下子步骤:
(4.1)基于图像的人脸二维位置,取其人脸的中心位置;
(4.2)以老师身高为作为教室空间的基准平面,标注四个采样点,同时在图像中对应位置标注四个采样点,构建基准平面与图像之间的变换矩阵M;
(4.3)将人脸的中心位置经过透视变换矩阵M,便转换到教室的基准平面的二维位置,再加入老师的先验值高度,得到人脸在教室空间的三维位置;
变换矩阵M表示为:
Figure FDA0004086139280000021
其中(xi′,yi′)为图像标注的四个点的位置,(xi,yi)为以身高作为教室空间的基准平面的四个采样点的位置;
(4.4)基于上述的变换矩阵M,经过下面公式(4)得到老师在以身高为教室空间基准平面的位置p(X,Y);
Figure FDA0004086139280000022
其中(x,y)为图像上的点的位置,即图像中的人脸的中心位置;
所述步骤(5)包含以下子步骤:
(5.1)以桌面先验高度为教室空间的基准平面,作为视线的落点平面,结合老师在教室空间内的三维位置和人脸朝向,构建一个空间三角形模型,计算得到老师的视线在该基准平面的位置;据下面公式(5)得到视线位置为s(x,y);
Figure FDA0004086139280000023
y=h*tan(90-φ)*cos(Ψ)+By (5),
其中h为身高与桌面的差值,
Figure FDA0004086139280000024
为俯仰角,ψ为偏航角,(Bx,By)是老师在以身高为教室空间基准平面的位置p(X,Y);
所述步骤(6)包含以下子步骤:
(6.1)构建一个与真实教室等比例大小的三维教室模型图,以桌面作为基准平面,标注四个采样点,同时在以桌面为教室的基准平面上标注四个相对应的点,构建模型图的基准平面与教室的基准平面之间的变换矩阵M1;
(6.2)将步骤(5)计算得到的视线位置,经过变换矩阵M1,便转换到以桌面为三维教室模型图的基准平面位置上;
(6.3)构建一个与真实教室等比例大小的三维教室模型图,以地面作为基准平面,标注四个采样点,同时在以地面为教室的基准平面上标注四个相对应的点,构建模型图的基准平面与教室的基准平面之间的变换矩阵M2;
(6.4)将步骤(4)得到老师的位置,经过变换矩阵M2,便转换到以地面高度为三维教室模型图的基准平面位置上;
(6.5)采用热点图描绘老师的视线及其位置在三维教室模型图的分布情况。
2.根据权利要求1所述的基于视线追踪的教师行为监测方法,其特征在于,所述步骤(3)包含以下子步骤:
(3.1)在人脸图像信息区域上检测人脸特征点,标识出至少5个人脸特征点;
(3.2)将所述人脸特征点进行人脸特征点对齐,获得用户头部的空间坐标;
(3.3)基于所述用户头部的空间坐标,构建几何立体模型,获得用户头部姿态角。
3.根据权利要求1或2所述的基于视线追踪的教师行为监测方法,其特征在于,所述人脸特征点包括左眼眼角、右眼眼角、嘴巴左嘴角、嘴巴右嘴角和鼻尖。
4.根据权利要求1所述的基于视线追踪的教师行为监测方法,其特征在于,所述步骤(7)包含以下子步骤:
(7.1)提取脸部信息,获得嘴唇的六个特征点;
(7.2)设定嘴唇的纵横比大于k,判定为嘴巴张开;
(7.3)设定闭嘴时长为T,便为不发言;
(7.4)当t1时的纵横比K1大于k,且t2时刻的嘴唇纵横比K2大于k,同时t1与t2的差值小于T,判定为发言。
CN201911388632.9A 2019-12-30 2019-12-30 基于视线追踪的教师行为监测方法 Active CN111144333B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911388632.9A CN111144333B (zh) 2019-12-30 2019-12-30 基于视线追踪的教师行为监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911388632.9A CN111144333B (zh) 2019-12-30 2019-12-30 基于视线追踪的教师行为监测方法

Publications (2)

Publication Number Publication Date
CN111144333A CN111144333A (zh) 2020-05-12
CN111144333B true CN111144333B (zh) 2023-04-28

Family

ID=70521494

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911388632.9A Active CN111144333B (zh) 2019-12-30 2019-12-30 基于视线追踪的教师行为监测方法

Country Status (1)

Country Link
CN (1) CN111144333B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743263B (zh) * 2021-08-23 2024-02-13 华中师范大学 一种教师非言语行为测量方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法
CN107861625A (zh) * 2017-12-04 2018-03-30 北京易真学思教育科技有限公司 基于3d空间模型的视线跟踪***及方法
CN110582781A (zh) * 2018-04-11 2019-12-17 视信有限责任公司 视线追踪***及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法
CN107861625A (zh) * 2017-12-04 2018-03-30 北京易真学思教育科技有限公司 基于3d空间模型的视线跟踪***及方法
CN110582781A (zh) * 2018-04-11 2019-12-17 视信有限责任公司 视线追踪***及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
使用人眼几何特征的视线追踪方法;苏海明;侯振杰;梁久祯;许艳;李兴;;中国图象图形学报(06);第72-81页 *

Also Published As

Publication number Publication date
CN111144333A (zh) 2020-05-12

Similar Documents

Publication Publication Date Title
CN109284737A (zh) 一种用于智慧教室的学生行为分析和识别***
CN109657553B (zh) 一种学生课堂注意力检测方法
CN110837784B (zh) 一种基于人体头部特征的考场偷窥作弊检测***
CN205334563U (zh) 一种学生课堂参与度检测***
CN113762133A (zh) 基于人体姿态识别的自重健身辅助教练***、方法、终端
CN110448870B (zh) 一种人体姿态训练方法
WO2021077382A1 (zh) 一种学习状态的判断方法、装置及智能机器人
CN111242962A (zh) 远程培训视频的生成方法、装置、设备及存储介质
CN110175534A (zh) 基于多任务级联卷积神经网络的授课辅助***
CN111814556A (zh) 一种基于计算机视觉的教学辅助方法和***
CN111563449A (zh) 一种实时课堂注意力检测方法及***
Zaletelj Estimation of students' attention in the classroom from kinect features
CN110933316A (zh) 一种基于双摄交互式的教师跟踪教学***
US20150279220A1 (en) Method and system for analyzing exam-taking behavior and improving exam-taking skills
CN115082266B (zh) 一种学生教育学科综合化发展分析评价***
CN110163567A (zh) 基于多任务级联卷积神经网络的课堂点名***
CN111611854B (zh) 一种基于模式识别的课堂情况评价方法
CN111144333B (zh) 基于视线追踪的教师行为监测方法
CN115937928A (zh) 基于多视觉特征融合的学习状态监测方法及***
Khosravi et al. Self-directed learning using eye-tracking: a comparison between wearable head-worn and webcam-based technologies
Guo et al. PhyCoVIS: A visual analytic tool of physical coordination for cheer and dance training
Yi et al. Real time learning evaluation based on gaze tracking
Dharmawansa et al. Introducing and Evaluating the Behavior of Non-Verbal Features in the Virtual Learning.
Chunyan et al. Detecting human head and shoulders trajectory in a smart classroom
Shi et al. Design of optical sensors based on computer vision in basketball visual simulation system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant