CN110443226A - 一种基于姿态识别的学生状态评价方法及*** - Google Patents

一种基于姿态识别的学生状态评价方法及*** Download PDF

Info

Publication number
CN110443226A
CN110443226A CN201910758393.5A CN201910758393A CN110443226A CN 110443226 A CN110443226 A CN 110443226A CN 201910758393 A CN201910758393 A CN 201910758393A CN 110443226 A CN110443226 A CN 110443226A
Authority
CN
China
Prior art keywords
student
video clip
posture
classroom
indicate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910758393.5A
Other languages
English (en)
Other versions
CN110443226B (zh
Inventor
周明强
孔奕涵
金海江
刘丹
刘慧君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201910758393.5A priority Critical patent/CN110443226B/zh
Publication of CN110443226A publication Critical patent/CN110443226A/zh
Application granted granted Critical
Publication of CN110443226B publication Critical patent/CN110443226B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于姿态识别的学生状态评价方法及***。该方法包括:实时获取课堂上所有学生的课堂视频以及教师授课视频;间隔地从课堂视频中截取多个视频片段;每个视频片段关联一个时间标签;分割出视频片段中所有学生的单人视频片段;对于任一单人视频片段,利用人脸识别算法识别出单人视频片段中学生的个人信息,基于姿态识别模型识别出单人视频片段中学生的姿态输出每个学生的课堂表现评价,以及每个学生姿态时间集合中所有不符合课堂要求的姿态对应的时间标签。科学地综合学生所有视频片段中的姿态对学生进行课堂表现评价,记录学生不符合课堂要求姿态对应的时间标签,便于课后学生针对性复习遗漏知识点,教师也可依此改进授课方式。

Description

一种基于姿态识别的学生状态评价方法及***
技术领域
本发明涉及智能教育领域,特别是涉及一种基于姿态识别的学生状态评价方法及***。
背景技术
随着图像技术的成熟,人工智能技术广泛应用到课堂教学中。高校课程繁重而且课时有限,教师需要在较短的时间内完成教学任务。而高校课程学生逃课、上课瞌睡、走神的现象时有发生。为了保证课堂教学质量,高校教师经常互动,例如要求学生现场回答问题,维持课堂纪律,提醒瞌睡、走神的学生,记录学生课堂表现,无疑给教师增加了授课难度,也降低了课堂授课的连贯性,影响授课质量。因此,如何自动对每个学生的课堂表现进行科学准确的评价,具有重要的意义。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种基于姿态识别的学生状态评价方法及***。
为了实现本发明的上述目的,根据本发明的第一个方面,本发明提供了一种基于姿态识别的学生状态评价方法,包括:
步骤S1,实时获取课堂上所有学生的课堂视频以及教师授课视频,存储教师授课视频;
间隔地从所述课堂视频中截取多个视频片段;
每个视频片段关联有一个记录所述视频片段实际拍摄时间的时间标签;
步骤S2,对每个视频片段进行如下处理:
分割出视频片段中所有学生的单人视频片段;
对于任一单人视频片段,利用人脸识别算法识别出所述单人视频片段中学生的个人信息,基于姿态识别模型识别出所述单人视频片段中学生的姿态,将所述个人信息与姿态相关联;
步骤S3,利用从所有视频片段中获得的个人信息以及与所述个人信息相关联的姿态构建每个学生的姿态时间集合,设第k个学生的姿态时间集合为 Uk={[sk1,sk2,...,ski...,skN],[T1,T2,...,Ti,...,TN]};
其中,1≤k≤n,n表示学生的总人数,为正整数;N表示视频片段的总数量,为正整数;ski表示第k个学生在第i个视频片段中的姿态;Ti表示第i个视频片段的时间标签,1≤i≤N;ski与Ti一一对应;
基于所有学生的姿态时间集合获得每个学生的课堂表现评价;
步骤S4,输出每个学生的课堂表现评价,以及每个学生姿态时间集合中所有不符合课堂要求的姿态对应的时间标签。
上述技术方案的有益效果为:该方法实时采集课堂视频以及教师授课视频,从课堂视频中识别出各学生在各视频片段的姿态,科学地综合学生所有视频片段中的姿态对学生进行课堂表现评价,同时记录学生不符合课堂要求姿态对应的时间标签,这样便于课后学生结合这些时间标签以及教师授课视频有针对性的复习遗漏的知识点,教师也可以查看较多学生未认真听讲的时间标签对应授课视频内容,改进授课方式,更好的提高教学质量。
为了实现本发明的上述目的,根据本发明的第二个方面,本发明提供了一种学生课堂状态评价***,包括拍摄课堂上所有学生的第一摄像头,拍摄课堂上教师授课内容的第二摄像头,以及服务器;
所述服务器接收第一摄像头输出的学生课堂视频和第二摄像头输出的教师授课视频,并按照本发明所述的基于姿态识别的学生状态评价方法获取每个学生的课堂表现评价,并保存学生的不符合课堂要求姿态对应的时间标签以及存储教师授课视频。
上述技术方案的有益效果为:该***实时采集课堂视频以及教师授课视频,保存学生的不符合课堂要求姿态对应的时间标签以及教师授课视频,从课堂视频中识别出各学生在各视频片段的姿态,科学地综合学生所有视频片段中的姿态对学生进行课堂表现评价,同时记录学生不符合课堂要求姿态对应的时间标签,这样便于课后学生结合这些时间标签以及教师授课视频有针对性的复习遗漏的知识点,教师也可以查看较多学生未认真听讲的时间标签对应授课视频内容,改进授课方式,更好的提高教学质量。
附图说明
图1是本发明一具体实施方式中基于姿态识别的学生状态评价方法的流程示意图;
图2是本发明一具体实施方式中三位姿势示意图;
图3是本发明一具体实施方式中姿态识别模型的结构示意图;
图4是本发明一具体实施方式中***布局示意图;
图5是本发明一具体实施方式中***连接示意图。
附图标记:
a头部;b颈部;c左肩;d背部;e左肘;f尾骨根部;g左手;h左臀;u左膝;v 右脚;w左脚;m右膝;z右臀;o右手;p右肘;q右肩;1第一摄像头;2第二摄像头; 3服务器;4学生终端设备。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,除非另有规定和限定,需要说明的是,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是机械连接或电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
本发明公开了一种基于姿态识别的学生状态评价方法,在一种优选实施方式中,该方法的流程示意图如图1所示,具体包括:
步骤S1,实时获取课堂上所有学生的课堂视频以及教师授课视频,存储教师授课视频;
间隔地从课堂视频中截取多个视频片段;
每个视频片段关联有一个记录视频片段实际拍摄时间的时间标签;
步骤S2,对每个视频片段进行如下处理:
分割出视频片段中所有学生的单人视频片段;
对于任一单人视频片段,利用人脸识别算法识别出单人视频片段中学生的个人信息,基于姿态识别模型识别出单人视频片段中学生的姿态,将个人信息与姿态相关联;
步骤S3,利用从所有视频片段中获得的个人信息以及与所述个人信息相关联的姿态构建每个学生的姿态时间集合,设第k个学生的姿态时间集合为 Uk={[sk1,sk2,...,ski...,skN],[T1,T2,...,Ti,...,TN]};
其中,1≤k≤n,n表示学生的总人数,为正整数;N表示视频片段的总数量,为正整数;ski表示第k个学生在第i个视频片段中的姿态;Ti表示第i个视频片段的时间标签,1≤i≤N;ski与Ti一一对应;
基于所有学生的姿态时间集合获得每个学生的课堂表现评价;
步骤S4,输出每个学生的课堂表现评价,以及每个学生姿态时间集合中所有不符合课堂要求的姿态对应的时间标签。
在本实施方式中,可以相等或不相等时间间隔地从课堂视频中截取多个视频片段,相等时间间隔的间隔时间可为3-7秒,优选的,可选择为5秒。
在本实施方式中,教师授课视频优选的存储于公共服务器上,以便学生和教师查询。
在本实施方式中,一个视频片段至少包含一帧图像。从视频片段中分割出所有学生的单人视频片段,优选但不限于采用手动分割、或者根据图像中学生桌椅位置分布区域进行分割,或者采用现有视频内多目标人体区域分割方法进行分割处理,如可采用公开号为CN108648198A中公开的方法。
在本实施方式中,人脸识别算法采用现有的人脸识别算法,优选的,预先存储有课堂上所有应到学生的照片,以及与各照片关联的个人信息,将单人视频片段中的人脸图像与预存的照片一一比对,若两者的相似程度大于或等于 90%,即可认为该单人视频片段中的学生为该照片关联的学生。个人信息优选但不限于包含学生姓名和/或学号等。
在本实施方式中,输出的每个学生的课堂表现评价,以及每个学生姿态时间集合中所有不符合课堂要求的姿态对应的时间标签均可存储在公开服务器中,以便相关人员查询。优选的,定义学生集合Stu={Stu1,Stu2,Stu3,...,Stun},Stuk表示第k个学生的课堂信息集合,Stuk={pk,class,[sk1,sk2,...,ski...,skN],[T1,T2,...,TN]};class 表示课程信息;pk表示第k个学生的个人信息;1≤k≤n;
在本发明的一种优选实施方式中,在步骤S2中,还包括对学生出席进行考勤的步骤,具体包括:
获取预存的该课堂所有应到学生的个人信息,累计每个应到学生的个人信息与所有单人视频片段经过人脸识别获得的学生个人信息相符的次数,若该次数小于等于预设的次数阈值,认为该应到学生缺勤并提醒该应到学生上课,若该次数大于预设的次数阈值,认为该应到学生出勤正常。
在本实施方式中,自动考核学生的出勤情况,无需教师参与,减轻了教师工作量。
在本实施方式中,次数阈值优选但不限于为70%N-90%N。对缺勤学生的提醒方式可采用服务器自动向缺勤学生的智能设备发送通知提醒信息,提醒学生该课程的授课时间、地点信息。
在本发明的一种优选实施方式中,如图3所示,在步骤S2中,基于姿态识别模型识别出单人视频片段中学生的姿态的步骤具体包括:
建立姿态识别模型,将单人视频片段输入姿态识别模型,姿态识别模型输出该单人视频片段中学生的姿态;
建立姿态识别模型的过程包括:
步骤S21,构建训练数据集,记为Vlabled;训练数据集Vlabled包括多个设置有姿态标签的单人视频片段;
步骤S22,通过视频特征提取模块提取训练数据集中单人视频片段的视频特征;
步骤S23,以训练数据集中的单人视频片段的视频特征为输入,以单人视频片段的姿态标签为分类结果,对随机森林分类器进行训练和验证,获得姿态识别模型。
在本实施方式中,采用基于深度学习的随机森林分类方法对姿态识别模型进行训练,智能化程度高,无需人工参与。
在本实施方式中,使用随机森林分类器,基决策树的数量为10,每棵树所有预测路径的长度上限为5,使用这个经过训练的分类器来分类视频的姿态。
在本发明的一种优选实施方式中,在步骤S21中,构建训练数据集的具体过程包括:
步骤S211,从已有的学生课堂视频中截取多个视频片段,分割出每个视频片段中所有学生的单人视频片段,将所有单人视频片段构建为单人视频片段集,记为Vunlabled
步骤S212,预设多个姿态,姿态
s∈{阅读,书写,听讲,起立回答问题,举手,讲小话,玩手机,睡觉};
将单人视频片段集中每个单人视频片段分别发送给多个受访者,由受访者对该单人视频片段与各姿态的相符程度进行打分,计算每个单人视频片段与各姿态相符程度得分的平均值:
其中,表示单人视频片段集中第i'个单人视频片段与第m个姿态s(m)相符程度得分的平均值;np表示对第i'个单人视频片段打分的受访者人数;i'、m、 j'均为正整数,且1≤m≤8,1≤j'≤np
步骤S213,为单人视频片段设置姿态标签:
若第i'个单人视频片段与第m个姿态s(m)相符程度得分的平均值满足:则为第i'个单人视频片段设置姿态标签si'并将第i'个单人视频片段加入训练数据集Vlabled,所述姿态标签si'为:其中,为预设的得分阈值;
若第i'个单人视频片段与第m个姿态s(m)相符程度得分的平均值不满足或者第i'个单人视频片段与一个以上姿态相符程度得分的平均值满足不将第i'个单人视频片段加入训练数据集Vlabled
在本实施方式中,多个受访者对每个单人视频片段分别与阅读、书写、听讲、起立回答问题、举手、讲小话、玩手机、打瞌睡这8个姿态相符程度打分,可采用5分或10分满分制,满分表示受访者认为连着完全相符,0分表示受访者认为连着完全不相符。为预设的得分阈值可为满分的70%,如采用5分满分制时,为预设的得分阈值可为3.5。
在本实施方式中,利用受访者评分制对已有数据集进行标签分类,更具人性化和准确性。
在本发明的一种优选实施方式中,如图3所示,在步骤S22中,视频特征提取模块提取训练数据集中单人视频片段的视频特征的过程包括:
步骤S221,对于第i'个单人视频片段,提取第i'个单人视频片段中每帧图像的三维姿势,获得三维姿势集合G;优选的,通过现有的OpenPose方法(Github 开源人体姿态识别项目)估计获得每帧图像中的三维姿势,三维姿势示意图如图2所示。
G={P1,P2,...,Pτ},τ为第i'个单人视频片段包含图像的总帧数,为正整数;P1、P2、…、Pτ分别表示第i'个单人视频片段中第1帧图像、第2帧图像、…、第τ帧图像的三维姿势;
步骤S222,通过现有的长短期记忆模型获取三维姿势集合G的深层特征 Fdeep
步骤S223,从三维姿势集合G中提取上课特征Fclass,上课特征Fclass包括姿态特征Fpose和运动特征Fmove
姿态特征其中,Ft,pose表示第t个图像帧的姿态特征, Ft,pose={f1,f2,...,f16},在第t个图像帧中,f1表示人体在第t个图像帧中占据画面的大小,即人体区域像素点总和或人体区域占整个图像帧的比例;f2表示左肩c 到颈部b连线与右肩q到颈部b连线形成的角度,如图2所示,为角度∠cbq;f3表示左肩c到颈部b连线与头部a到颈部b连线形成的角度,如图2所示,为角度∠cba;f4表示右肩q到颈部b连线与头部a到颈部b连线形成的角度,如图2所示,为角度∠qba;f5表示头部a到颈部b连线与背部d到颈部b连线形成的角度,如图2所示,为角度∠abd;f6表示颈部b到背部d连线与尾骨根部 f到背部d连线形成的角度,如图2所示,为角度∠bdf;f7表示左肩c到左肘e 连线与左手g到左肘e连线形成的角度,如图2所示,为角度∠ceg;f8表示右肩q到右肘p连线与右手o到右肘p连线形成的角度,如图2所示,为角度∠qpo; f9表示左臀h部到左膝u连线与左脚到左膝u连线形成的角度,如图2所示,为角度∠huw;f10表示右臀部到右膝m连线与右脚v到右膝m连线形成的角度,如图2所示,为角度∠zmv;f11表示右手o与尾骨根部f的距离,如图2所示,为距离of;f12表示左手g与尾骨根部f的距离,如图2所示,为距离hf;f13表示右脚v与尾骨根部f的距离,如图2所示,为距离vf;f14表示左脚w与尾骨根部f的距离,如图2所示,为距离wf;f15表示两只手与颈部b所围成的三角形的面积,如图2所示,为三角形Δobg的面积;f16表示两只脚与尾骨根部f所围成的三角形面积如图2所示,为三角形Δvfw的面积;1≤t≤τ;
运动特征其中,Ft,move表示第t个图像帧的运动特征, Ft,move={f17,f18,...,f25},在第t个图像帧中,f17表示右手o速度,f18表示右手o加速度,f19表示右手o动作急促程度,f20表示左手g速度,f21表示左手g加速度, f22表示左手g动作急促程度,f23表示头部a速度,f24表示头部a加速度,f25表示头部a动作急促程度;
单人视频片段vi的上课特征Fclass=Fpose+Fmove
步骤S224,单人视频片段vi的视频特征为:Ftotal=Fdeep+Fclass
在本实施方式中,对于两只手和头部a这三个关节,记录每一帧图像中这三个关节的位置,然后单人视频片段就有了这三个关节的随时间变化的位移记录,位移记录可用位置向量表示。对某一关节的位置向量一阶求导,得到是该关节的速度,对某一关节的位置向量二阶求导,得到的是该关节运动的加速度;对某一关节的位置向量三阶求导,得到的是加速度变化的大小程度,称之为动作急促程度。
在本实施方式中,从每帧图像的三维姿势中求取多个来共建姿势特征,使得对学生姿态的识别更准确和科学。当然,由于学生坐立、运动、趴下等动作影响,在一帧图像中可能不能完全求取到f1到f25共25个特征参数,此时不能求取获得的特征参数可通过求取之前多帧图像中该特征参数(该特征参数的多个历史记录值)的平均值获得。
在本发明的一种优选实施方式中,在步骤S3中,基于所有学生的姿态时间集合获得每个学生的课堂表现评价的步骤具体包括:
步骤S31,设基于姿态识别模型识别出所述单人视频片段中学生的姿态s为:
步骤S32,求取每个学生在课堂上的听课状态、课堂互动程度、课堂活跃度和不专心程度;
第k个学生的听课状态Lk为:其中,所述Lki为第k个学生在第i个单人视频片段vi中的听课状态,ski表示第k个学生在第i个单人视频片段vi中的姿态;
优选的,若第k个学生在第i个单人视频片段vi中的听课状态无法识别,则将该学生的历史上课状态信息作为当前单人视频片段的听课状态,如将第i-1 或i-2单人视频片段中的听课状态作为当前单人视频片段的听课状态。
课堂互动程度由上课姿态中的举手和起立回答问题决定,第k个学生的课堂互动程度Tk为:其中,为预设的第一权重参数;Ωhand_k表示第k个学生在N个视频片段中姿态为举手的占比,Ωstand_k表示第k个学生在N个视频片段中姿态为起立回答问题的占比,
第k个学生的课堂活跃度Bk为:Bk=max(0,min(1,1-ΔBk));其中,ΔBk表示第 k个学生的课堂活跃度Bk的变化量,ΔBk=δ1*(τread_kwrite_klisten_k)+δ2*(τtalk_kphone_ksleep_k)-δ3hand_k4stand_k,δ1表示预设的第一奖惩系数因子,δ2表示预设的第二奖惩系数因子,δ3表示预设的第三奖惩系数因子,δ4表示预设的第四奖惩系数因子,τread_k、τwrite_k、τlisten_k、τtalk_k、τphone_k、τsleep_k、τhand_k、τstand_k分别表示第k个学生在N个视频片段中连续M个视频片段检测状态均为阅读、书写、听讲、讲小话、玩手机、睡觉、举手、起立回答问题的状态的次数,1≤M≤N;优选的,M为8次到15次,可为10次。
学生课堂活跃度B由学生是否持续长时间保持阅读、书写、听讲、讲小话、玩手机、打瞌睡的姿态和举手、起立回答问题来决定的。在课堂活跃度高的学生往往不会一直看书或听讲,而是一边听讲一边看书做笔记。B的基准值为1,范围在0到1之间。
根据上述学生持续讲小话、玩手机、睡觉的情况,定义学生的不专心程度,第k个学生的不专心程度Zk为:Zk=τtalk_kphone_ksleep_k
步骤S33,基于所有学生在课堂上的听课状态、课堂互动程度、课堂活跃度和不专心程度获得每个学生的课堂表现评价,具体包括:
步骤S331,构造初始决策矩阵C;
n为学生总人数;
对初始决策矩阵C进行归一化处理,获得规范化决策矩阵C';
步骤S332,设置权重矩阵W:
其中,η1表示听课状态的权重,η2表示课堂互动程度的权重,η3表示课堂活跃度的权重,η4表示不专心程度的权重;
步骤S333,计算加权决策矩阵D,
求解加权决策矩阵D的正理想解和负理想解
其中,j表示加权决策矩阵D的列数序号,j=1,2,3,4;
步骤S334,计算每个学生与正负理想值之间的欧氏距离;
第k个学生与正理想解的欧式距离为:
第k个学生与负理想解的欧式距离为:
第k个学生的课堂表现评价为Vk
在本实施方式中,从听课状态、课堂互动程度、课堂活跃度和不专心程度这四个维度去评价学生在上课的表现,依据多个维度去评价,通过决策矩阵的形式可以直接得到每个学生最接近于最优秀学生的程度,是一种更加科学合理的评价方式。根据学生的课堂表现设计一种评分机制,帮助老师对学生的课堂表现进行记录并科学地评分,有利于提高教学质量。
在本发明的一种优选实施方式中,在步骤S4中,不符合课堂要求的姿态包括讲小话、玩手机和睡觉。
在本实施方式中,优选的,还包括:
若基于姿态识别模型识别出单人视频片段中学生的姿态不符合课堂要求,对该单人视频片段中的学生进行提醒,进一步地,若该单人视频片段中的学生在之前M1个单人视频片段中的姿态均不符合课堂要求,提醒教师提醒该学生, M1为预设的正整数,1≤M1≤N。M1优选但不限于5-10。
本发明还公开了一种学生课堂状态评价***,在一种优选实施方式中,如图4和图5所示,该***包括拍摄课堂上所有学生的第一摄像头1,拍摄课堂上教师授课内容的第二摄像头2,以及服务器3;
服务器3接收第一摄像头1输出的学生课堂视频和第二摄像头2输出的教师授课视频,并按照上述基于姿态识别的学生状态评价方法获取每个学生的课堂表现评价,并保存学生的不符合课堂要求姿态对应的时间标签以及教师授课视频。
在本实施方式中,优选的,第一摄像头1位于教室前方且面朝所有学生,第二摄像头2位于教室后方且面朝教师,可以拍摄到黑板或投影仪。服务器3可位于教室或学校管理中心,其与第一摄像头1和第二摄像头2有线或无线连接。
在本发明的一种优选实施方式中,还包括与服务器3建立连接通信的多个学生终端设备4和教师终端设备。
在本实施方式中,学生终端设备4和教师终端设备与服务器3无线连接。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (10)

1.一种基于姿态识别的学生状态评价方法,其特征在于,包括:
步骤S1,实时获取课堂上所有学生的课堂视频以及教师授课视频,存储教师授课视频;
间隔地从所述课堂视频中截取多个视频片段;
每个视频片段关联有一个记录所述视频片段实际拍摄时间的时间标签;
步骤S2,对每个视频片段进行如下处理:
分割出视频片段中所有学生的单人视频片段;
对于任一单人视频片段,利用人脸识别算法识别出所述单人视频片段中学生的个人信息,基于姿态识别模型识别出所述单人视频片段中学生的姿态,将所述个人信息与姿态相关联;
步骤S3,利用从所有视频片段中获得的个人信息以及与所述个人信息相关联的姿态构建每个学生的姿态时间集合,设第k个学生的姿态时间集合为Uk={[sk1,sk2,...,ski...,skN],[T1,T2,...,Ti,...,TN]};
其中,1≤k≤n,n表示学生的总人数,为正整数;N表示视频片段的总数量,为正整数;ski表示第k个学生在第i个视频片段中的姿态;Ti表示第i个视频片段的时间标签,1≤i≤N;ski与Ti一一对应;
基于所有学生的姿态时间集合获得每个学生的课堂表现评价;
步骤S4,输出每个学生的课堂表现评价,以及每个学生姿态时间集合中所有不符合课堂要求的姿态对应的时间标签。
2.如权利要求1所述的基于姿态识别的学生状态评价方法,其特征在于,在所述步骤S2中,还包括对学生出席进行考勤的步骤,具体包括:
获取预存的该课堂所有应到学生的个人信息,累计每个应到学生的个人信息与所有单人视频片段经过人脸识别获得的学生个人信息相符的次数,若所述次数小于等于预设的次数阈值,认为该应到学生缺勤并提醒该应到学生上课,若所述次数大于预设的次数阈值,认为该应到学生出勤正常。
3.如权利要求1所述的基于姿态识别的学生状态评价方法,其特征在于,在所述步骤S2中,基于姿态识别模型识别出所述单人视频片段中学生的姿态的步骤具体包括:
建立姿态识别模型,将单人视频片段输入姿态识别模型,姿态识别模型输出所述单人视频片段中学生的姿态;
建立姿态识别模型的过程包括:
步骤S21,构建训练数据集,记为Vlabled;所述训练数据集Vlabled包括多个设置有姿态标签的单人视频片段;
步骤S22,通过视频特征提取模块提取训练数据集中单人视频片段的视频特征;步骤S23,以训练数据集中的单人视频片段的视频特征为输入,以单人视频片段的姿态标签为分类结果,对随机森林分类器进行训练和验证,获得姿态识别模型。
4.如权利要求3所述的基于姿态识别的学生状态评价方法,其特征在于,在所述步骤S21中,构建训练数据集的具体过程包括:
步骤S211,从已有的学生课堂视频中截取多个视频片段,分割出每个视频片段中所有学生的单人视频片段,将所有单人视频片段构建为单人视频片段集,记为Vunlabled
步骤S212,预设多个姿态,姿态
s∈{阅读,书写,听讲,起立回答问题,举手,讲小话,玩手机,睡觉};
将单人视频片段集中每个单人视频片段分别发送给多个受访者,由受访者对所述单人视频片段与各姿态的相符程度进行打分,计算每个单人视频片段与各姿态相符程度得分的平均值:
其中,ri' s(m)表示单人视频片段集中第i'个单人视频片段与第m个姿态s(m)相符程度得分的平均值;np表示对第i'个单人视频片段打分的受访者人数;i'、m、j'均为正整数,且1≤m≤8,1≤j'≤np
步骤S213,为单人视频片段设置姿态标签:
若第i'个单人视频片段与第m个姿态s(m)相符程度得分的平均值满足:则为第i'个单人视频片段设置姿态标签si'并将第i'个单人视频片段加入训练数据集Vlabled,所述姿态标签si'为:其中,为预设的得分阈值;
若第i'个单人视频片段与第m个姿态s(m)相符程度得分的平均值不满足或者第i'个单人视频片段与一个以上姿态相符程度得分的平均值满足不将第i'个单人视频片段加入训练数据集Vlabled
5.如权利要求3所述的基于姿态识别的学生状态评价方法,其特征在于,在所述步骤S22中,视频特征提取模块提取训练数据集中单人视频片段的视频特征的过程包括:
步骤S221,对于第i'个单人视频片段,提取第i'个单人视频片段中每帧图像的三维姿势,获得三维姿势集合G;
所述G={P1,P2,...,Pτ},τ为第i'个单人视频片段包含图像的总帧数,为正整数;P1、P2、…、Pτ分别表示第i'个单人视频片段中第1帧图像、第2帧图像、…、第τ帧图像的三维姿势;
步骤S222,通过长短期记忆模型获取三维姿势集合G的深层特征Fdeep
步骤S223,从三维姿势集合G中提取上课特征Fclass,所述上课特征Fclass包括姿态特征Fpose和运动特征Fmove
所述姿态特征其中,Ft,pose表示第t个图像帧的姿态特征,Ft,pose={f1,f2,...,f16},在第t个图像帧中,f1表示人体在第t个图像帧中占据画面的大小,f2表示左肩到颈部连线与右肩到颈部连线形成的角度,f3表示左肩到颈部连线与头部到颈部连线形成的角度,f4表示右肩到颈部连线与头部到颈部连线形成的角度,f5表示头部到颈部连线与背部到颈部连线形成的角度,f6表示颈部到背部连线与尾骨根部到背部连线形成的角度,f7表示左肩到左肘连线与左手到左肘连线形成的角度,f8表示右肩到右肘连线与右手到右肘连线形成的角度,f9表示左臀部到左膝连线与左脚到左膝连线形成的角度,f10表示右臀部到右膝连线与右脚到右膝连线形成的角度,f11表示右手与尾骨根部的距离,f12表示左手与尾骨根部的距离,f13表示右脚与尾骨根部的距离,f14表示左脚与尾骨根部的距离,f15表示两只手与颈部所围成的三角形的面积,f16表示两只脚与尾骨根部所围成的三角形面积;1≤t≤τ;
所述运动特征其中,Ft,move表示第t个图像帧的运动特征,Ft,move={f17,f18,...,f25},在第t个图像帧中,f17表示右手速度,f18表示右手加速度,f19表示右手动作急促程度,f20表示左手速度,f21表示左手加速度,f22表示左手动作急促程度,f23表示头部速度,f24表示头部加速度,f25表示头部动作急促程度;
单人视频片段vi的上课特征Fclass=Fpose+Fmove
步骤S224,单人视频片段vi的视频特征为:Ftotal=Fdeep+Fclass
6.如权利要求1所述的基于姿态识别的学生状态评价方法,其特征在于,在所述步骤S3中,基于所有学生的姿态时间集合获得每个学生的课堂表现评价的步骤具体包括:
步骤S31,设基于姿态识别模型识别出所述单人视频片段中学生的姿态s为:
步骤S32,求取每个学生在课堂上的听课状态、课堂互动程度、课堂活跃度和不专心程度;
第k个学生的听课状态Lk为:其中,所述Lki为第k个学生在第i个单人视频片段vi中的听课状态,ski表示第k个学生在第i个单人视频片段vi中的姿态;
第k个学生的课堂互动程度Tk为:其中,为预设的第一权重参数;Ωhand_k表示第k个学生在N个视频片段中姿态为举手的占比,Ωstand_k表示第k个学生在N个视频片段中姿态为起立回答问题的占比,
第k个学生的课堂活跃度Bk为:Bk=max(0,min(1,1-ΔBk));其中,ΔBk表示第k个学生的课堂活跃度Bk的变化量,ΔBk=δ1*(τread_kwrite_klisten_k)+δ2*(τtalk_kphone_ksleep_k)-δ3hand_k4stand_k,δ1表示预设的第一奖惩系数因子,δ2表示预设的第二奖惩系数因子,δ3表示预设的第三奖惩系数因子,δ4表示预设的第四奖惩系数因子,τread_k、τwrite_k、τlisten_k、τtalk_k、τphone_k、τsleep_k、τhand_k、τstand_k分别表示第k个学生在N个视频片段中连续M个视频片段检测状态均为阅读、书写、听讲、讲小话、玩手机、睡觉、举手、起立回答问题的状态的次数,1≤M≤N;
第k个学生的不专心程度Zk为:Zk=τtalk_kphone_ksleep_k
步骤S33,基于所有学生在课堂上的听课状态、课堂互动程度、课堂活跃度和不专心程度获得每个学生的课堂表现评价,具体包括:
步骤S331,构造初始决策矩阵C;
所述n为学生总人数;
对初始决策矩阵C进行归一化处理,获得规范化决策矩阵C';
所述
步骤S332,设置权重矩阵W:
所述其中,η1表示听课状态的权重,η2表示课堂互动程度的权重,η3表示课堂活跃度的权重,η4表示不专心程度的权重;
步骤S333,计算加权决策矩阵D,
所述
求解加权决策矩阵D的正理想解和负理想解
所述所述
其中,j表示加权决策矩阵D的列数序号,j=1,2,3,4;
步骤S334,计算每个学生与正负理想值之间的欧氏距离;
第k个学生与正理想解的欧式距离为:
第k个学生与负理想解的欧式距离为:
第k个学生的课堂表现评价为Vk
7.如权利要求1所述的基于姿态识别的学生状态评价方法,其特征在于,在所述步骤S4中,不符合课堂要求的姿态包括讲小话、玩手机和睡觉。
8.如权利要求7所述的基于姿态识别的学生状态评价方法,其特征在于,还包括:
若基于姿态识别模型识别出所述单人视频片段中学生的姿态不符合课堂要求,对所述单人视频片段中的学生进行提醒,进一步地,若所述单人视频片段中的学生在之前M1个单人视频片段中的姿态均不符合课堂要求,提醒教师提醒该学生,M1为预设的正整数,1≤M1≤N。
9.一种学生课堂状态评价***,其特征在于,包括拍摄课堂上所有学生的第一摄像头,拍摄课堂上教师授课内容的第二摄像头,以及服务器;
所述服务器接收第一摄像头输出的学生课堂视频和第二摄像头输出的教师授课视频,并按照权利要求1-8之一所述的基于姿态识别的学生状态评价方法获取每个学生的课堂表现评价,并保存学生的不符合课堂要求姿态对应的时间标签以及教师授课视频。
10.如权利要求9所述的学生课堂状态评价***,其特征在于,还包括与服务器建立连接通信的多个学生终端设备和教师终端设备。
CN201910758393.5A 2019-08-16 2019-08-16 一种基于姿态识别的学生状态评价方法及*** Active CN110443226B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910758393.5A CN110443226B (zh) 2019-08-16 2019-08-16 一种基于姿态识别的学生状态评价方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910758393.5A CN110443226B (zh) 2019-08-16 2019-08-16 一种基于姿态识别的学生状态评价方法及***

Publications (2)

Publication Number Publication Date
CN110443226A true CN110443226A (zh) 2019-11-12
CN110443226B CN110443226B (zh) 2022-01-25

Family

ID=68435975

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910758393.5A Active CN110443226B (zh) 2019-08-16 2019-08-16 一种基于姿态识别的学生状态评价方法及***

Country Status (1)

Country Link
CN (1) CN110443226B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062844A (zh) * 2020-03-17 2020-04-24 浙江正元智慧科技股份有限公司 一种智慧校园智能控制***
CN111144255A (zh) * 2019-12-18 2020-05-12 华中科技大学鄂州工业技术研究院 一种教师的非语言行为的分析方法及装置
CN111507873A (zh) * 2020-04-14 2020-08-07 四川聚阳科技集团有限公司 一种基于声音图像联合采样的课堂参与度评估方法
CN111507227A (zh) * 2020-04-10 2020-08-07 南京汉韬科技有限公司 基于深度学习的多学生个体分割及状态自主识别方法
CN111553218A (zh) * 2020-04-20 2020-08-18 南京医科大学 一种基于人体姿势识别的智能医学技能教学监测***
CN111611854A (zh) * 2020-04-16 2020-09-01 杭州电子科技大学 一种基于模式识别的课堂情况评价方法
CN111680558A (zh) * 2020-04-29 2020-09-18 北京易华录信息技术股份有限公司 一种基于视频图像的学习专注力评估方法及装置
CN111738177A (zh) * 2020-06-28 2020-10-02 四川大学 一种基于姿态信息提取的学生课堂行为识别方法
CN112686154A (zh) * 2020-12-29 2021-04-20 杭州晨安科技股份有限公司 一种基于人头检测与图片序列的学生起立检测方法
CN112862643A (zh) * 2021-03-01 2021-05-28 深圳市微幼科技有限公司 一种多媒体远程教育平台***
CN112905811A (zh) * 2021-02-07 2021-06-04 广州录臻科技有限公司 一种基于学生课堂行为分析的教学音视频推送方法及***
CN112990105A (zh) * 2021-04-19 2021-06-18 北京优幕科技有限责任公司 对用户评价的方法、装置、电子设备和存储介质
CN114285966A (zh) * 2021-12-07 2022-04-05 浙江东隆教育科技有限公司 一种劳动教育相关的监测数据处理方法及***
CN114440884A (zh) * 2022-04-11 2022-05-06 天津果实科技有限公司 一种智能矫姿设备用人体身姿的智能分析方法
CN116055684A (zh) * 2023-01-18 2023-05-02 訸和文化科技(苏州)有限公司 基于画面监控的在线体育教学***
CN116757524A (zh) * 2023-05-08 2023-09-15 广东保伦电子股份有限公司 一种教师授课质量评价方法和装置
CN117196237A (zh) * 2023-09-19 2023-12-08 武汉盟游网络科技有限公司 一种基于云计算的信息管理方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120052476A1 (en) * 2010-08-27 2012-03-01 Arthur Carl Graesser Affect-sensitive intelligent tutoring system
US20150302866A1 (en) * 2012-10-16 2015-10-22 Tal SOBOL SHIKLER Speech affect analyzing and training
CN107085721A (zh) * 2017-06-26 2017-08-22 厦门劢联科技有限公司 一种基于人像识别的智能巡课管理***
CN107958351A (zh) * 2017-12-26 2018-04-24 重庆大争科技有限公司 教学质量评估云服务平台
CN108564022A (zh) * 2018-04-10 2018-09-21 深圳市唯特视科技有限公司 一种基于定位分类回归网络的多人物姿势检测方法
CN108875606A (zh) * 2018-06-01 2018-11-23 重庆大学 一种基于表情识别的课堂教学评价方法及***
CN109035089A (zh) * 2018-07-25 2018-12-18 重庆科技学院 一种在线课堂氛围评估***及方法
CN109359539A (zh) * 2018-09-17 2019-02-19 中国科学院深圳先进技术研究院 注意力评估方法、装置、终端设备及计算机可读存储介质
CN109685692A (zh) * 2019-01-15 2019-04-26 山东仁博信息科技有限公司 一种多维度学生学习行为的无感采集及分析***

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120052476A1 (en) * 2010-08-27 2012-03-01 Arthur Carl Graesser Affect-sensitive intelligent tutoring system
US20150302866A1 (en) * 2012-10-16 2015-10-22 Tal SOBOL SHIKLER Speech affect analyzing and training
CN107085721A (zh) * 2017-06-26 2017-08-22 厦门劢联科技有限公司 一种基于人像识别的智能巡课管理***
CN107958351A (zh) * 2017-12-26 2018-04-24 重庆大争科技有限公司 教学质量评估云服务平台
CN108564022A (zh) * 2018-04-10 2018-09-21 深圳市唯特视科技有限公司 一种基于定位分类回归网络的多人物姿势检测方法
CN108875606A (zh) * 2018-06-01 2018-11-23 重庆大学 一种基于表情识别的课堂教学评价方法及***
CN109035089A (zh) * 2018-07-25 2018-12-18 重庆科技学院 一种在线课堂氛围评估***及方法
CN109359539A (zh) * 2018-09-17 2019-02-19 中国科学院深圳先进技术研究院 注意力评估方法、装置、终端设备及计算机可读存储介质
CN109685692A (zh) * 2019-01-15 2019-04-26 山东仁博信息科技有限公司 一种多维度学生学习行为的无感采集及分析***

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JANEZ ZALETELJ: "Estimation of Students’ Attention in the Classroom From Kinect Features", 《10TH INTERNATIONAL SYMPOSIUM ON IMAGE AND SIGNAL PROCESSING AND ANALYSIS (ISPA 2017)》 *
S L HAPPY等: "Automated Alertness and Emotion Detection for Empathic Feedback During E-Learning", 《2013 IEEE FIFTH INTERNATIONAL CONFERENCE ON TECHNOLOGY FOR EDUCATION》 *
李鑫鑫: "基于视频的人体行为分析", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
杨露菁等编著: "《智能图像处理及应用》", 31 March 2019, 中国铁道出版社 *
陈晋音等: "基于深度学习的智能教学***的设计与研究", 《计算机科学》 *
骆祖莹等: "课堂教学自动评价及其初步研究成果", 《现代教育技术》 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111144255B (zh) * 2019-12-18 2024-04-19 华中科技大学鄂州工业技术研究院 一种教师的非语言行为的分析方法及装置
CN111144255A (zh) * 2019-12-18 2020-05-12 华中科技大学鄂州工业技术研究院 一种教师的非语言行为的分析方法及装置
CN111062844A (zh) * 2020-03-17 2020-04-24 浙江正元智慧科技股份有限公司 一种智慧校园智能控制***
CN111507227A (zh) * 2020-04-10 2020-08-07 南京汉韬科技有限公司 基于深度学习的多学生个体分割及状态自主识别方法
CN111507227B (zh) * 2020-04-10 2023-04-18 南京汉韬科技有限公司 基于深度学习的多学生个体分割及状态自主识别方法
CN111507873A (zh) * 2020-04-14 2020-08-07 四川聚阳科技集团有限公司 一种基于声音图像联合采样的课堂参与度评估方法
CN111611854A (zh) * 2020-04-16 2020-09-01 杭州电子科技大学 一种基于模式识别的课堂情况评价方法
CN111611854B (zh) * 2020-04-16 2023-09-01 杭州电子科技大学 一种基于模式识别的课堂情况评价方法
CN111553218A (zh) * 2020-04-20 2020-08-18 南京医科大学 一种基于人体姿势识别的智能医学技能教学监测***
CN111680558A (zh) * 2020-04-29 2020-09-18 北京易华录信息技术股份有限公司 一种基于视频图像的学习专注力评估方法及装置
CN111738177A (zh) * 2020-06-28 2020-10-02 四川大学 一种基于姿态信息提取的学生课堂行为识别方法
CN111738177B (zh) * 2020-06-28 2022-08-02 四川大学 一种基于姿态信息提取的学生课堂行为识别方法
CN112686154A (zh) * 2020-12-29 2021-04-20 杭州晨安科技股份有限公司 一种基于人头检测与图片序列的学生起立检测方法
CN112686154B (zh) * 2020-12-29 2023-03-07 杭州晨安科技股份有限公司 一种基于人头检测与图片序列的学生起立检测方法
CN112905811A (zh) * 2021-02-07 2021-06-04 广州录臻科技有限公司 一种基于学生课堂行为分析的教学音视频推送方法及***
CN112862643A (zh) * 2021-03-01 2021-05-28 深圳市微幼科技有限公司 一种多媒体远程教育平台***
CN112990105B (zh) * 2021-04-19 2021-09-21 北京优幕科技有限责任公司 对用户评价的方法、装置、电子设备和存储介质
CN112990105A (zh) * 2021-04-19 2021-06-18 北京优幕科技有限责任公司 对用户评价的方法、装置、电子设备和存储介质
CN114285966A (zh) * 2021-12-07 2022-04-05 浙江东隆教育科技有限公司 一种劳动教育相关的监测数据处理方法及***
CN114285966B (zh) * 2021-12-07 2024-03-29 浙江东隆教育科技有限公司 一种劳动教育相关的监测数据处理方法及***
CN114440884A (zh) * 2022-04-11 2022-05-06 天津果实科技有限公司 一种智能矫姿设备用人体身姿的智能分析方法
CN116055684A (zh) * 2023-01-18 2023-05-02 訸和文化科技(苏州)有限公司 基于画面监控的在线体育教学***
CN116055684B (zh) * 2023-01-18 2023-12-12 广州乐体科技有限公司 基于画面监控的在线体育教学***
CN116757524A (zh) * 2023-05-08 2023-09-15 广东保伦电子股份有限公司 一种教师授课质量评价方法和装置
CN116757524B (zh) * 2023-05-08 2024-02-06 广东保伦电子股份有限公司 一种教师授课质量评价方法和装置
CN117196237A (zh) * 2023-09-19 2023-12-08 武汉盟游网络科技有限公司 一种基于云计算的信息管理方法和装置

Also Published As

Publication number Publication date
CN110443226B (zh) 2022-01-25

Similar Documents

Publication Publication Date Title
CN110443226A (zh) 一种基于姿态识别的学生状态评价方法及***
CN106228982B (zh) 一种基于教育服务机器人的交互式学习***与交互方法
CN110991381B (zh) 一种基于行为和语音智能识别的实时课堂学生状态分析与指示提醒***和方法
CN107030691B (zh) 一种看护机器人的数据处理方法及装置
CN108875606A (zh) 一种基于表情识别的课堂教学评价方法及***
Breazeal et al. Challenges in building robots that imitate people
US10957325B2 (en) Method and apparatus for speech interaction with children
WO2018121624A1 (zh) 一种机器人,服务器及人机互动方法
Kanda et al. A two-month field trial in an elementary school for long-term human–robot interaction
CN111796752B (zh) 一种基于pc的互动教学***
CN108399376A (zh) 学生课堂学习兴趣智能分析方法及***
CN109637207A (zh) 一种学前教育互动教学装置及教学方法
CN111754368A (zh) 一种高校教学评估方法及基于边缘智能的高校教学评估***
Nguyen et al. Online feedback system for public speakers
US11160717B2 (en) Device and method for instilling intrinsic motivation regarding eye contact in children affected by eye contact disorders
JP7106159B2 (ja) 人工知能技術を活用した画像教育システムおよび学習支援方法
WO2019168162A1 (ja) 情報処理装置、情報処理方法、及びプログラム
McColl et al. Classifying a person’s degree of accessibility from natural body language during social human–robot interactions
He et al. An educational robot system of visual question answering for preschoolers
Ma et al. A deep learning approach for online learning emotion recognition
Kanda et al. Friendly social robot that understands human's friendly relationships
Celiktutan et al. Computational analysis of affect, personality, and engagement in human–robot interactions
CN110766989A (zh) 一种基于人工智能古诗词教学***
CN111178263A (zh) 一种实时表情分析方法及其装置
Jain et al. Study for emotion recognition of different age groups students during online class

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant