CN114581271A - 一种在线教学视频的智能处理方法及*** - Google Patents
一种在线教学视频的智能处理方法及*** Download PDFInfo
- Publication number
- CN114581271A CN114581271A CN202210207079.XA CN202210207079A CN114581271A CN 114581271 A CN114581271 A CN 114581271A CN 202210207079 A CN202210207079 A CN 202210207079A CN 114581271 A CN114581271 A CN 114581271A
- Authority
- CN
- China
- Prior art keywords
- video
- real
- teaching
- evaluation result
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 25
- 238000011156 evaluation Methods 0.000 claims abstract description 105
- 230000003068 static effect Effects 0.000 claims description 72
- 238000000034 method Methods 0.000 claims description 27
- 238000004458 analytical method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 18
- 238000006073 displacement reaction Methods 0.000 claims description 17
- 210000001747 pupil Anatomy 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 13
- 230000001815 facial effect Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 238000012163 sequencing technique Methods 0.000 claims description 5
- 238000009432 framing Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 8
- 210000004279 orbit Anatomy 0.000 description 14
- 230000009286 beneficial effect Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000006872 improvement Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/735—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Educational Administration (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Educational Technology (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Multimedia (AREA)
- Entrepreneurship & Innovation (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Primary Health Care (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种在线教学视频的智能处理方法及***,包括:S1:调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的第一视频显示模式;S2:基于所述教师端和所述家长端输入的控制指令和所述第一视频显示模式生成对应的初次教学视频;S3:对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果;S4:基于所述实时评估结果生成第二视频显示模式;S5:基于所述控制指令和所述实时评估结果以及所述第二视频显示模式,生成对应的二次教学视频;用以基于学生端的上课记录生成个性化教学视频,并通过对学生上课期间的状态和考核结果的实时评估,实现对教学视频的个性化调整,从而提高了教学效果。
Description
技术领域
本发明涉及视频处理技术领域,特别涉及一种在线教学视频的智能处理方法及***。
背景技术
目前,随着互联网的发展,采用在线教学视频完成教学已经普遍应用于大中小学的教学过程中,但是,线上教学有如下弊端:
1.难以约束学生的学习行为;线上教学开课以来,有的老师和家长可能经常会遇到类似的问题:直播期间学生是否在认真听课,是否跟着老师思路在进行学习,很难第一时间了解。同时线上教学,对于自制力差、年纪较小的学生确实影响较大,导致学习效果乃至成绩明显下降。
2.线上教学方式与传统教学方式相比,师生互动较少,教学方式过于死板固定,不能根据学生的具体情况科学合理地调整教学计划,从而使得教学效果大大下降。
因此,本发明提出一种在线教学视频的智能处理方法及***。
发明内容
本发明提供一种在线教学视频的智能处理方法及***,用以基于学生端的上课记录生成个性化教学视频,并通过对学生上课期间的状态和考核结果的实时评估,实现对教学视频的个性化调整,从而提高了教学效果。
本发明提供一种在线教学视频的智能处理方法,包括:
S1:调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的第一视频显示模式;
S2:基于所述教师端和所述家长端输入的控制指令和所述第一视频显示模式生成对应的初次教学视频;
S3:对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果;
S4:基于所述实时评估结果生成第二视频显示模式;
S5:基于所述控制指令和所述实时评估结果以及所述第二视频显示模式,生成对应的二次教学视频。
优选的,所述的一种在线教学视频的智能处理方法,S1:调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的第一视频显示模式,包括:
S101:在教学记录库中调取出所述学生端对应的历史上课记录;
S102:将所述历史上课记录中包含的每个上课视频对应的实时评估结果进行对齐,获得对应的对齐结果;
S103:分析所述对齐结果获得对应的第一状态分布曲线,基于所述第一状态分布曲线生成对应的第一视频显示模式。
优选的,所述的一种在线教学视频的智能处理方法,S2:基于所述教师端和所述家长端输入的控制指令和所述第一视频显示模式生成对应的初次教学视频,包括:
基于学生端的用户信息生成对应的第一教学计划,基于所述家长端输入的第一控制指令对所述初步教学计划进行初步调整,获得对应的第二教学计划,基于所述教师端输入的第二控制指令对所述二次教学计划进行二次调整,获得对应的第三教学计划;
基于所述第三教学计划调取对应的第一初始教学视频;
对所述第一初始教学视频进行知识点分析,获得对应的难易度分布曲线;
基于所述第一状态分布曲线调整所述难易度分布曲线,获得对应的难易度调整曲线;
基于所述难易度调整曲线对所述初次初始教学视频进行视频调整,获得对应的初次调整视频;
基于所述第一视频显示模式设置所述初次调整视频的视频参数,获得对应的初次教学视频。
优选的,所述的一种在线教学视频的智能处理方法,S3:对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果,包括:
对所述学生端在上课期间输入的考核反馈结果进行实时评估,获得对应的实时考核评估结果;
对所述学生端在上课期间的上课视频进行实时评估,获得对应的实时状态评估结果;
将所述实时考核评估结果和所述实时状态评估结果传输至所述家长端;
其中,所述实时评估结果包括:所述实时考核评估结果和所述实时状态评估结果。
优选的,所述的一种在线教学视频的智能处理方法,对所述学生端在上课期间的上课视频进行实时评估,获得对应的实时状态评估结果,包括:
对所述上课视频进行姿态分析,获得每个时刻对应的姿态评分值;
对所述上课视频进行面部分析,获得每个时刻对应的面部评分值;
基于所述姿态评分值和所述面部评分值计算出对应时刻的实时状态评估结果。
优选的,所述的一种在线教学视频的智能处理方法,对所述上课视频进行姿态分析,获得每个时刻对应的姿态评分值,包括:
对所述上课视频进行分帧处理,获得对应的静态视频帧集合;
基于所述静态视频帧集合中的静态视频帧对应的图像参数,确定出对应的图像参数变换梯度;
基于所述图像参数变化梯度对所述静态视频帧进行参数变换,获得所述静态视频帧对应的多参数视频帧集合;
将所述多参数视频帧集合输入至底层特征提取模型,获得所述静态视频帧对应的底层特征分布;
基于特征识别算法识别出所述静态视频帧中底层特征不同的区域交界处,基于所述区域交界处确定出对应的疑似边缘区域;
确定出所述静态视频帧在所述疑似边缘区域中对应的亮度分布数据,将所述疑似边缘区域中与相邻像素点的亮度差值大于第一阈值的像素点作为第一像素点,将所述第一像素点连接获得对应的第一轮廓;
确定出所述静态视频帧在所述疑似边缘区域中对应的图像深度分布数据,将所述疑似边缘区域中与相邻像素点的深度差值大于第二阈值的像素点作为第二像素点,将所述第二像素点连接获得对应的第二轮廓;
将所述第一轮廓和所述第二轮廓标记于所述静态视频帧,将所述第一轮廓和所述第二轮廓与预设肢体轮廓进行匹配,获得匹配结果,基于匹配结果从所述第一轮廓和所述第二轮廓中筛选出对应肢体的肢体轮廓和肢体轮廓坐标集合;
基于每个肢体的肢体轮廓坐标集合确定出对应时刻的人体姿态;
基于所述人体姿态和预设评分表,确定出对应时刻对应的姿态评分值。
优选的,所述的一种在线教学视频的智能处理方法,对所述上课视频进行面部分析,获得每个时刻对应的面部评分值,包括:
基于人脸检测算法对所述静态视频帧进行人脸区域定位,获得定位结果,并将定位结果与所述用户信息进行验证,获得对应的人脸轮廓坐标集合;
基于所述人脸轮廓坐标集合,计算出相邻静态视频帧中每个人脸轮廓坐标点对应的位移值;
基于对应时刻对应的每个人脸轮廓坐标点对应的位移值和对应时刻的所有人脸轮廓坐标点的平均位移值,计算出对应时刻的第一面部评分值;
基于眼睛定位算法对所述静态视频帧进行眼睛特征点定位,获得对应的眼眶坐标集合和瞳孔坐标集合;
基于所有静态视频帧中对应眼眶的眼眶坐标集合计算出对应的平均眼眶高度,基于所述眼眶坐标集合确定出对应的最大眼眶高度,将所述最大眼眶高度和所述平均眼眶高度的比值作为对应时刻的第二面部评分值;
基于所述人脸轮廓坐标集合和预设校正算法,计算出对应的标准视线角度;
基于所述瞳孔坐标集合,计算出对应眼睛的视线中心点;
基于对应眼睛的视线中心点计算出对应眼睛的单向视线角度,基于所述单向视线角度计算出对应的综合视线角度;
基于所述综合视线角度和所述标准视线角度计算出对应时刻的第三面部评分值;
基于所述第一面部评分值和所述第二面部评分值以及所述第三面部评分值,计算出对应时刻对应的面部评分值。
优选的,所述的一种在线教学视频的智能处理方法,S4:基于所述实时评估结果生成第二视频显示模式,包括:
基于所述初次教学视频对应的实时状态评估结果生成对应的第二状态分布曲线;
将所述第二状态分布曲线与所述第一状态分布曲线进行比较,获得对应的比较结果,分析所述比较结果获得对应的调整评估结果;
基于所述调整评估结果对所述第一视频显示模式进行二次调整,获得对应的第二视频显示模式。
优选的,所述的一种在线教学视频的智能处理方法,S5:基于所述控制指令和所述实时评估结果以及所述第二视频显示模式,生成对应的二次教学视频,包括:
基于所述控制指令生成对应的第四教学计划,基于所述第四教学计划调取对应的第二初始教学视频;
基于所述实时考核评估结果调取出对应的第一关联视频,并基于所述实时状态评估结果调取出对应的第二关联视频;
基于所述第二状态分布曲线,将所述第一关联视频、所述第二关联视频与所述二次初始教学视频进行排序并连接,获得对应的二次调整视频;
基于所述第二视频显示模式设置所述二次调整视频的视频参数,获得对应的二次教学视频。
本发明提供一种在线教学视频的智能处理***,包括:
第一模式生成模块,用于调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的视频显示模式;
第一视频生成模块,用于基于所述教师端和所述家长端输入的控制指令和所述视频显示模式生成对应的初次教学视频;
实时评估模块,用于对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果;
第一模式生成模块,用于所述实时评估结果生成新的视频显示模式;
第二视频生成模块,用于所述控制指令和所述实时评估结果以及最新确定的视频显示模式,生成对应的二次教学视频。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种在线教学视频的智能处理方法流程图;
图2为本发明实施例中又一种在线教学视频的智能处理方法流程图;
图3为本发明实施例中一种在线教学视频的智能处理***示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:
本发明提供了一种在线教学视频的智能处理方法,参考图1,包括:
S1:调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的第一视频显示模式;
S2:基于所述教师端和所述家长端输入的控制指令和所述第一视频显示模式生成对应的初次教学视频;
S3:对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果;
S4:基于所述实时评估结果生成第二视频显示模式;
S5:基于所述控制指令和所述实时评估结果以及所述第二视频显示模式,生成对应的二次教学视频。
该实施例中,学生端即为利用本发明的在线教学视频上课的学生的客户端。
该实施例中,历史上课记录即为对应学生端曾经在对应教学网站的上课记录。
该实施例中,第一视频显示模式即为基于历史上课记录生成的在线教学视频的显示模式,例如:主要通过改变在线教学视频的视频参数(音量和亮度等)获得的。
该实施例中,教师端即为利用本发明的在线教学视频完成教学过程的教师的客户端。
该实施例中,家长端即为利用本发明的在线教学视频上课的学生的家长的客户端。
该实施例中,控制指令即为教师端和家长端输入的干预在线教学视频的指令。
该实施例中,初次教学视频即为基于教师端和家长端输入的控制指令和第一视频显示模式生成的在线教学视频。
该实施例中,实时评估结果即为对学生端在上课期间的状态和考核结果进行实时分析评估获得的评估结果。
该实施例中,第二视频显示模式即为基于实时评估结果生成的视频显示模式。
该实施例中,二次教学视频即为基于控制指令和实时评估结果以及第二视频显示模式生成的在线教学视频。
以上技术的有益效果为:基于学生端的上课记录生成个性化的教学视频,并通过对学生上课期间的状态和考核结果的实时评估,实现对教学视频的个性化调整,从而实现在教学过程中不断提高教学效果,改善了传统在线教学死板的教学方式。
实施例2:
在实施例1的基础上,所述的一种在线教学视频的智能处理方法,S1:调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的第一视频显示模式,参考图2,包括:
S101:在教学记录库中调取出所述学生端对应的历史上课记录;
S102:将所述历史上课记录中包含的每个上课视频对应的实时评估结果进行对齐,获得对应的对齐结果;
S103:分析所述对齐结果获得对应的第一状态分布曲线,基于所述第一状态分布曲线生成对应的第一视频显示模式。
该实施例中,教学记录库即为用于存储对应学生端的历史上课记录的数据库。
该实施例中,上课视频即为监控对应学生端的学生用户在上课时的视频。
该实施例中,对齐结果即为将历史上课记录中包含的每个上课视频对应的实时评估结果进行对齐后获得的结果。
该实施例中,第一状态分布曲线即为分析对齐结果获得的表征对应学生端曾经上课时的状态的状态分布曲线。
以上技术的有益效果为:通过对对应学生端对应的历史上课记录中的上课视频进行对齐分析,可以获得对应学生的上课时的习惯状态随时间变化的情况,根据状态分布的情况生成对应的视频显示模式,从而生成初次的个性化教学视频,使得在线教学视频的教学效果初步得到了提高。
实施例3:
在实施例2的基础上,所述的一种在线教学视频的智能处理方法,S2:基于所述教师端和所述家长端输入的控制指令和所述第一视频显示模式生成对应的初次教学视频,包括:
基于学生端的用户信息生成对应的第一教学计划,基于所述家长端输入的第一控制指令对所述初步教学计划进行初步调整,获得对应的第二教学计划,基于所述教师端输入的第二控制指令对所述二次教学计划进行二次调整,获得对应的第三教学计划;
基于所述第三教学计划调取对应的第一初始教学视频;
对所述第一初始教学视频进行知识点分析,获得对应的难易度分布曲线;
基于所述第一状态分布曲线调整所述难易度分布曲线,获得对应的难易度调整曲线;
基于所述难易度调整曲线对所述初次初始教学视频进行视频调整,获得对应的初次调整视频;
基于所述第一视频显示模式设置所述初次调整视频的视频参数,获得对应的初次教学视频。
该实施例中,用户信息即为待学习科目和难易程度。
该实施例中,第一教学计划即为基于对应学生端的用户信息生成的教学计划,包含对应学生端待上课的初始在线教学视频名称。
该实施例中,第一控制指令即为家长端输入的干预在线教学视频的指令。
该实施例中,第二教学计划即为基于家长端输入的第一控制指令对初步教学计划调整后获得的教学计划。
该实施例中,第二控制指令即为教师端输入的干预在线教学视频的指令。
该实施例中,第三教学计划即为基于教师端输入的第二教学指令对第二教学计划进行二次调整后获得的教学计划。
该实施例中,第一初始教学视频即为基于第三教学计划调取出的对应的初始教学视频。
该实施例中,初始教学视频即为教学网站提供的初始的教学视频。
该实施例中,难易度分布曲线即为对第一初始教学视频进行知识点分析,后获得的第一初始教学视频中包含的知识点难易度分布曲线。
该实施例中,难易度调整曲线即为基于第一状态分布曲线调整难易度分布曲线后获得的难易度分布曲线。
该实施例中,基于所述第一状态分布曲线调整所述难易度分布曲线,包括:
按照第一初始教学视频中的知识点总数和每个知识点对应的难易度分布曲线长度,将第一状态分布曲线按照状态积极度从高到低划分成对应个数的子状态分布曲线;
将第一状态分布曲线中从高到低对应的子状态分布曲线与难度从高到低的顺序对应的知识点对应的难易度分布曲线匹配,将匹配好的结果按照第一状态分布曲线排序。
该实施例中,初次调整视频即为基于难易度调整曲线对初次初始教学视频进行视频调整(调整对应视频段的顺序)后获得的视频。
该实施例中,初次教学视频即为基于第一视频显示模式设置初次调整视频的视频参数后获得的在线教学视频。
以上技术的有益效果为:在基于学生端的用户信息生成的第一教学计划的基础上,基于教师端和家长端输入的控制指令对第一教学计划进行调整,从而使得在线教学过程可以接收家长端和教师端的干预,保证了生成的教学计划更加针对学生的实际情况,再通过对上述步骤生成的第一初始教学视频进行知识点难易度分析,基于学生曾经上课时的状态分布曲线以及知识点难易度分布曲线对第一初始教学视频再次进行调整,使得根据学生的上课状态科学调整知识点的讲解顺序,使得最大化学生的上课效率,再基于生成的第一视频显示模式对调整后的第一初始教学视频进行再次调整,使得视频参数的设置更加契合学生的习惯状态,进一步提高了学生的上课效率。
实施例4:
在实施例3的基础上,所述的一种在线教学视频的智能处理方法,S3:对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果,包括:
对所述学生端在上课期间输入的考核反馈结果进行实时评估,获得对应的实时考核评估结果;
对所述学生端在上课期间的上课视频进行实时评估,获得对应的实时状态评估结果;
将所述实时考核评估结果和所述实时状态评估结果传输至所述家长端;
其中,所述实时评估结果包括:所述实时考核评估结果和所述实时状态评估结果。
该实施例中,考核反馈结果即为从学生端输入的教学过程中的知识点考核的反馈结果。
该实施例中,实时考核评估结果即为对学生端在上课期间输入的考核反馈结果进行实时评估后获得的评估结果。
该实施例中,实时状态评估结果即为对学生端在上课期间的上课视频进行实时评估后获得的评估结果。
以上技术的有益效果为:通过对学生端在上课期间的考核反馈结果和上课状态进行实时评估,可以获得对应学生端上课时的实时评估结果,为后续针对学生的上课状况进行更加科学化和精准地调整初始教学视频提供了重要基础。
实施例5:
在实施例4的基础上,所述的一种在线教学视频的智能处理方法,对所述学生端在上课期间的上课视频进行实时评估,获得对应的实时状态评估结果,包括:
对所述上课视频进行姿态分析,获得每个时刻对应的姿态评分值;
对所述上课视频进行面部分析,获得每个时刻对应的面部评分值;
基于所述姿态评分值和所述面部评分值计算出对应时刻的实时状态评估结果。
该实施例中,姿态评分值即为对对应学生端的上课视频进行姿态分析获得表征对应学生端上课时姿态的评分值。
该实施例中,面部评分值即为对对应学生端的上课视频进行面部分析获得表征对应学生端上课时面部的评分值。
该实施例中,基于所述姿态评分值和所述面部评分值计算出对应时刻的实时状态评估结果,即为:将姿态评分值和面部评分值的平均值作为对应时刻的实时胡葬台评估结果。
以上技术的有益效果为:通过对对应学生端的上课视频进行姿态分析和面部分析,可以更加精准地评估出学生在上课时的上课状态,不仅实现对学生上课时的上课状态的精准评估,并为下一步生成更加适合学生学习习惯状态的在线教学视频提供了调整基础。
实施例6:
在实施例5的基础上,所述的一种在线教学视频的智能处理方法,对所述上课视频进行姿态分析,获得每个时刻对应的姿态评分值,包括:
对所述上课视频进行分帧处理,获得对应的静态视频帧集合;
基于所述静态视频帧集合中的静态视频帧对应的图像参数,确定出对应的图像参数变换梯度;
基于所述图像参数变化梯度对所述静态视频帧进行参数变换,获得所述静态视频帧对应的多参数视频帧集合;
将所述多参数视频帧集合输入至底层特征提取模型,获得所述静态视频帧对应的底层特征分布;
基于特征识别算法识别出所述静态视频帧中底层特征不同的区域交界处,基于所述区域交界处确定出对应的疑似边缘区域;
确定出所述静态视频帧在所述疑似边缘区域中对应的亮度分布数据,将所述疑似边缘区域中与相邻像素点的亮度差值大于第一阈值的像素点作为第一像素点,将所述第一像素点连接获得对应的第一轮廓;
确定出所述静态视频帧在所述疑似边缘区域中对应的图像深度分布数据,将所述疑似边缘区域中与相邻像素点的深度差值大于第二阈值的像素点作为第二像素点,将所述第二像素点连接获得对应的第二轮廓;
将所述第一轮廓和所述第二轮廓标记于所述静态视频帧,将所述第一轮廓和所述第二轮廓与预设肢体轮廓进行匹配,获得匹配结果,基于匹配结果从所述第一轮廓和所述第二轮廓中筛选出对应肢体的肢体轮廓和肢体轮廓坐标集合;
基于每个肢体的肢体轮廓坐标集合确定出对应时刻的人体姿态;
基于所述人体姿态和预设评分表,确定出对应时刻对应的姿态评分值。
该实施例中,静态视频帧集合即为对上课视频进行分帧处理后获得的视频帧集合。
该实施例中,此处的图像参数是指对应静态视频帧的分辨率。
该实施例中,基于所述静态视频帧集合中的静态视频帧对应的图像参数,确定出对应的图像参数变换梯度,包括:
基于静态视频帧集合中的静态视频帧对应的图像参数,计算出对应的图像参数变换梯度的总个数,计算出对应的图像参数变换梯度:
式中,ch为图像参数变换梯度的总个数,fmax即为静态视频帧集合中的静态视频帧对应的最大分辨率,fmin即为静态视频帧集合中的静态视频帧对应的最小分辨率,f0为标准分辨率;
例如,fmax为1023,fmin为63,f0为1,则ch为16;
基于计算出的图像参数变换梯度的总个数,以及静态视频帧集合中的静态视频帧对应的最大分辨率和最小分辨率,确定出对应个数的分辨率值作为对应的图像参数变换梯度。
该实施例中,多参数视频帧集合即为基于图像参数变化梯度对静态视频帧进行参数变换(即为按照图像参数变换梯度对应的分辨率值设置对应静态视频帧),获得的对应的静态视频帧对应的视频帧集合。
该实施例中,底层特征提取模型即为用于提取图像底层特征的模型。
该实施例中,底层特征分布即为将多参数视频帧集合输入至底层特征提取模型后获得的静态视频帧对应的底层特征,图像底层特征指的是:轮廓、边缘、颜色、纹理和形状特征。
该实施例中,疑似边缘区域即为基于特征识别算法识别出的静态视频帧中底层特征不同的区域交界处确定的区域。
该实施例中,特征识别算法即为用于识别图像中的底层特征的变化趋势。
该实施例中,亮度分布数据即为包含静态视频帧在疑似边缘区域中对应的每个像素点对应的亮度值的数据。
该实施例中,第一阈值即为边缘像素点与相邻像素点的最小亮度差值。
该实施例中,第一像素点即为疑似边缘区域中与相邻像素点的亮度差值大于第一阈值的像素点。
该实施例中,第一轮廓即为第一像素点连接获得的轮廓。
该实施例中,图像深度分布数据即为包含静态视频帧在疑似边缘区域中对应的每个像素点的图像深度值的数据。
该实施例中,第二阈值即为边缘像素点与相邻像素点的最小深度差值。
该实施例中,第二像素点即为疑似边缘区域中与相邻像素点的深度差值大于第二阈值的像素点。
该实施例中,第二轮廓即为第二轮廓的轮廓。
该实施例中,预设肢体轮廓即为预先准备的人体肢体轮廓,例如:胳膊的轮廓、脖子的轮廓。
该实施例中,匹配结果即为将第一轮廓和第二轮廓与预设肢体轮廓进行匹配后获得的结果。
该实施例中,肢体轮廓即为基于匹配结果从第一轮廓和第二轮廓中筛选出对应肢体的轮廓。
该实施例中,肢体轮廓坐标集合即为基于匹配结果从第一轮廓和第二轮廓中筛选出对应肢体的轮廓对应的坐标点集合。
该实施例中,基于每个肢体的肢体轮廓坐标集合确定出对应时刻的人体姿态,即为:基于肢体的肢体轮廓坐标集合拟合出学生的当前肢体轮廓,识别该当前肢体轮廓,获得对应的姿态,例如:趴桌、托腮等姿态。
该实施例中,预设评分表即为包含每个姿态对应的评分值的表格。
该实施例中,姿态评分值即为基于人体姿态和预设评分表确定出的对应时刻的姿态的评分值。
以上技术的有益效果为:通过对上课视频中的静态视频帧进行底层特征提取、轮廓识别、姿态识别、姿态评分,进而实现对学生上课过程中的姿态进行实时评估,可以基于学生上课时的姿态精准地评估出学生上课时的状态,进而为后续进一步调整在线教学视频提供了基础。
实施例7:
在实施例6的基础上,所述的一种在线教学视频的智能处理方法,对所述上课视频进行面部分析,获得每个时刻对应的面部评分值,包括:
基于人脸检测算法对所述静态视频帧进行人脸区域定位,获得定位结果,并将定位结果与所述用户信息进行验证,获得对应的人脸轮廓坐标集合;
基于所述人脸轮廓坐标集合,计算出相邻静态视频帧中每个人脸轮廓坐标点对应的位移值;
基于对应时刻对应的每个人脸轮廓坐标点对应的位移值和对应时刻的所有人脸轮廓坐标点的平均位移值,计算出对应时刻的第一面部评分值;
基于眼睛定位算法对所述静态视频帧进行眼睛特征点定位,获得对应的眼眶坐标集合和瞳孔坐标集合;
基于所有静态视频帧中对应眼眶的眼眶坐标集合计算出对应的平均眼眶高度,基于所述眼眶坐标集合确定出对应的最大眼眶高度,将所述最大眼眶高度和所述平均眼眶高度的比值作为对应时刻的第二面部评分值;
基于所述人脸轮廓坐标集合和预设校正算法,计算出对应的标准视线角度;
基于所述瞳孔坐标集合,计算出对应眼睛的视线中心点;
基于对应眼睛的视线中心点计算出对应眼睛的单向视线角度,基于所述单向视线角度计算出对应的综合视线角度;
基于所述综合视线角度和所述标准视线角度计算出对应时刻的第三面部评分值;
基于所述第一面部评分值和所述第二面部评分值以及所述第三面部评分值,计算出对应时刻对应的面部评分值。
该实施例中,人脸检测算法即为用于检测静态视频帧中的人脸区域的算法。
该实施例中,定位结果即为基于人脸检测算法对静态视频帧进行人脸区域定位后获得的结果。
该实施例中,人脸轮廓坐标集合即为将定位结果与所述用户信息进行验证后获得的用户信息对应的人脸轮廓的坐标集合。
该实施例中,将定位结果与所述用户信息进行验证即为将定位获得的人脸图像与用户信息中的人脸图像进行验证,确定出定位结果中用户信息对应的人脸区域。
该实施例中,位移值即为基于所述人脸轮廓坐标集合,计算出的人脸轮廓中相同像素点在相邻静态视频帧中的坐标差值。
该实施例中,平均位移值即为对应时刻的人脸轮廓中的所有像素点与相邻上一静态视频帧中的对应像素点之间的的位移值的平均值。
该实施例中,基于对应时刻对应的每个人脸轮廓坐标点对应的位移值和对应时刻的所有人脸轮廓坐标点的平均位移值,计算出对应时刻的第一面部评分值,即为:
计算出每个人脸轮廓坐标点对应的位移值和对应时刻的所有人脸轮廓坐标点的平均位移值之间的第一比值,计算出对应时刻人脸轮廓坐标点对应的所有第一比值的平均值作为对应时刻的第一面部评分值。
该实施例中,眼睛定位算法即为用于对静态视频帧进行眼睛特征点定位的算法。
该实施例中,眼睛特征点即为眼眶坐标点和瞳孔坐标点。
该实施例中,眼眶坐标集合即为基于眼睛定位算法对静态视频帧进行眼睛特征点定位获得对应的眼眶上的坐标点集合。
该实施例中,瞳孔坐标集合即为基于眼睛定位算法对静态视频帧进行眼睛特征点定位获得对应的瞳孔上的坐标点集合。
该实施例中,基于所有静态视频帧中对应眼眶的眼眶坐标集合计算出对应的平均眼眶高度,包括:
计算出静态视频帧中对应眼眶坐标点的最大纵坐标和最小纵坐标的第一差值,将所有静态视频帧对应的第一差值的平均值作为对应的平均眼眶高度。
该实施例中,基于所述眼眶坐标集合确定出对应的最大眼眶高度即为将眼眶做坐标集合中的最大纵坐标减去最小纵坐标获得的值。
该实施例中,第二面部评分值即为基于眼眶高度对对应时刻的面部进行评分获得的评分值。
该实施例中,预设校正算法即为校正获取上课视频的摄像头采集中心和在线视频播放画面中心的视线角度差的校正算法。
该实施例中,标准视线角度即为基于人脸轮廓坐标集合和预设校正算法计算出当前人脸所在位置对应的看上课视频画面时的学生视线的标准角度。
该实施例中,基于所述瞳孔坐标集合,计算出对应眼睛的视线中心点,其中,视线中心点即为瞳孔的物理中心点。
该实施例中,基于对应眼睛的视线中心点计算出对应眼睛的单向视线角度,基于所述单向视线角度计算出对应的综合视线角度,包括:
计算出静态视频帧中人脸区域的面积与标准人脸区域面积的面积比值,将面积比值的倒数与标准人脸区域对应的设置距离的乘积作为静态视频帧中人脸区域至教学视频播放画面之间的最短人脸距离;
将视线中心点的坐标值与静态视频帧的中心像素点之间的坐标差值作为对应眼睛的视觉中心差值;
则基于最短人脸距离和视觉中心差值计算出对应眼睛的单向视线角度即为:
式中,θ为对应眼睛的单向视线角度,L1为对应眼睛的视觉中心差值,L2为静态视频帧中人脸区域至教学视频播放画面之间的最短人脸距离,arctan为反正切;
例如,L1为3,L2为4,则θ为37度;
则将两只眼睛对应的单向视线角度的平均值作为对应的综合视线角度。
该实施例中,基于所述综合视线角度和所述标准视线角度计算出对应时刻的第三面部评分值,即为:将综合视线角度和标准视线角度的差值与标准视线角度的比值作为面部评分值。
该实施例中,基于所述第一面部评分值和所述第二面部评分值以及所述第三面部评分值,计算出对应时刻对应的面部评分值,即为:将第一面部评分值、第二面部评分值、第三面部评分值的平均值作为对应时刻对应的面部评分值。
以上技术的有益效果为:通过对静态视频帧中的人脸区域进行定位,并根据相邻静态视频帧之间的位移值获得对应的第一面部评分值;再通过对人脸区域中的眼眶进行定位确定出最大眼眶高度,基于该最大眼眶高度获得对应的第二面部评分值;再通过对瞳孔进行定位,基于定位获得的瞳孔坐标集合和眼眶坐标集合确定出学生在当前时刻对应的视线角度,基于该视线角度确定出对应的第二面部评分值,基于获得的第一面部评分值、第二面部评分值、第三面部评分值获得对应时刻对应的面部评分值,使得综合考虑到学生上课时的头部晃动幅度以及眼皮睁开程度以及视线方向,而获得可以全面准确反映学生上课时的面部状态的评分值。
实施例8:
在实施例1的基础上,所述的一种在线教学视频的智能处理方法,S4:基于所述实时评估结果生成第二视频显示模式,包括:
基于所述初次教学视频对应的实时状态评估结果生成对应的第二状态分布曲线;
将所述第二状态分布曲线与所述第一状态分布曲线进行比较,获得对应的比较结果,分析所述比较结果获得对应的调整评估结果;
基于所述调整评估结果对所述第一视频显示模式进行二次调整,获得对应的第二视频显示模式。
该实施例中,第二状态分布曲线即为基于初次教学视频对应的实时状态评估结果生成的表征学生在看初次教学视频时的状态分布情况。
该实施例中,比较结果即为将第二状态分布曲线与第一状态分布曲线进行比较后获得的结果。
该实施例中,调整评估结果即为分析比较结果后获得的评估最新一次调整初始教学视频对教学效率影响的评估结果。
该实施例中,第二视频显示模式即为基于调整评估结果对第一视频显示模式进行二次调整后获得的视频显示模式。
以上技术的有益效果为:为实现在线教学视频的不断优化调整和教学效果的不断提高提供了基础。
实施例9:
在实施例1的基础上,所述的一种在线教学视频的智能处理方法,S5:基于所述控制指令和所述实时评估结果以及所述第二视频显示模式,生成对应的二次教学视频,包括:
基于所述控制指令生成对应的第四教学计划,基于所述第四教学计划调取对应的第二初始教学视频;
基于所述实时考核评估结果调取出对应的第一关联视频,并基于所述实时状态评估结果调取出对应的第二关联视频;
基于所述第二状态分布曲线,将所述第一关联视频、所述第二关联视频与所述二次初始教学视频进行排序并连接,获得对应的二次调整视频;
基于所述第二视频显示模式设置所述二次调整视频的视频参数,获得对应的二次教学视频。
该实施例中,第四教学计划即为控制指令对第二次上课计划进行调整后获得的教学计划。
该实施例中,第二初始教学视频即为基于第四教学计划确定的第二次上课时对应的初始教学视频。
该实施例中,基于所述实时考核评估结果调取出对应的第一关联视频,即为:从上一次上课的视频中调取出实时考核评估结果中考核结果差的知识点对应的教学视频段。
该实施例中,第一关联视频即为上一次上课的视频中实时考核评估结果中考核结果差的知识点对应的教学视频段。
该实施例中,基于所述实时状态评估结果调取出对应的第二关联视频,即为:从上一次上课的视频中调取出实时状态评估结果中状态评估结果差(实时状态评估结果低于状态评估阈值时)的时间段对应的教学视频段。
该实施例中,第二关联视频即为上一次上课的视频中实时状态评估结果中状态评估结果差(实时状态评估结果低于状态评估阈值时)的时间段对应的教学视频段。
该实施例中,基于所述第二状态分布曲线,将所述第一关联视频、所述第二关联视频与所述二次初始教学视频进行排序并连接,即为:按照第一关联视频、第二关联视频、二次初始教学视频的顺序将其连接。
该实施例中,二次调整视频即为基于第二状态分布曲线,将第一关联视频、第二关联视频与二次初始教学视频进行排序并连接后获得的视频。
该实施例中,二次教学视频即为基于第二视频显示模式设置二次调整视频的视频参数后获得的教学视频。
以上技术的有益效果为:基于控制指令和实时评估结果以及第二视频显示模式生成对应的二次教学视频,基于所述控制指令和所述实时评估结果以及所述第二视频显示模式,生成对应的二次教学视频
实施例10:
本发明提供了一种在线教学视频的智能处理***,参考图3,包括:
第一模式生成模块,用于调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的视频显示模式;
第一视频生成模块,用于基于所述教师端和所述家长端输入的控制指令和所述视频显示模式生成对应的初次教学视频;
实时评估模块,用于对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果;
第一模式生成模块,用于所述实时评估结果生成新的视频显示模式;
第二视频生成模块,用于所述控制指令和所述实时评估结果以及最新确定的视频显示模式,生成对应的二次教学视频。
以上技术的有益效果为:基于学生端的上课记录生成个性化的教学视频,并通过对学生上课期间的状态和考核结果的实时评估,实现对教学视频的个性化调整,从而实现在教学过程中不断提高教学效果,改善了传统在线教学死板的教学方式。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种在线教学视频的智能处理方法,其特征在于,包括:
S1:调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的第一视频显示模式;
S2:基于所述教师端和所述家长端输入的控制指令和所述第一视频显示模式生成对应的初次教学视频;
S3:对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果;
S4:基于所述实时评估结果生成第二视频显示模式;
S5:基于所述控制指令和所述实时评估结果以及所述第二视频显示模式,生成对应的二次教学视频。
2.根据权利要求1所述的一种在线教学视频的智能处理方法,其特征在于,S1:调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的第一视频显示模式,包括:
S101:在教学记录库中调取出所述学生端对应的历史上课记录;
S102:将所述历史上课记录中包含的每个上课视频对应的实时评估结果进行对齐,获得对应的对齐结果;
S103:分析所述对齐结果获得对应的第一状态分布曲线,基于所述第一状态分布曲线生成对应的第一视频显示模式。
3.根据权利要求2所述的一种在线教学视频的智能处理方法,其特征在于,S2:基于所述教师端和所述家长端输入的控制指令和所述第一视频显示模式生成对应的初次教学视频,包括:
基于学生端的用户信息生成对应的第一教学计划,基于所述家长端输入的第一控制指令对所述初步教学计划进行初步调整,获得对应的第二教学计划,基于所述教师端输入的第二控制指令对所述二次教学计划进行二次调整,获得对应的第三教学计划;
基于所述第三教学计划调取对应的第一初始教学视频;
对所述第一初始教学视频进行知识点分析,获得对应的难易度分布曲线;
基于所述第一状态分布曲线调整所述难易度分布曲线,获得对应的难易度调整曲线;
基于所述难易度调整曲线对所述初次初始教学视频进行视频调整,获得对应的初次调整视频;
基于所述第一视频显示模式设置所述初次调整视频的视频参数,获得对应的初次教学视频。
4.根据权利要求3所述的一种在线教学视频的智能处理方法,其特征在于,S3:对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果,包括:
对所述学生端在上课期间输入的考核反馈结果进行实时评估,获得对应的实时考核评估结果;
对所述学生端在上课期间的上课视频进行实时评估,获得对应的实时状态评估结果;
将所述实时考核评估结果和所述实时状态评估结果传输至所述家长端;
其中,所述实时评估结果包括:所述实时考核评估结果和所述实时状态评估结果。
5.根据权利要求4所述的一种在线教学视频的智能处理方法,其特征在于,对所述学生端在上课期间的上课视频进行实时评估,获得对应的实时状态评估结果,包括:
对所述上课视频进行姿态分析,获得每个时刻对应的姿态评分值;
对所述上课视频进行面部分析,获得每个时刻对应的面部评分值;
基于所述姿态评分值和所述面部评分值计算出对应时刻的实时状态评估结果。
6.根据权利要求5所述的一种在线教学视频的智能处理方法,其特征在于,对所述上课视频进行姿态分析,获得每个时刻对应的姿态评分值,包括:
对所述上课视频进行分帧处理,获得对应的静态视频帧集合;
基于所述静态视频帧集合中的静态视频帧对应的图像参数,确定出对应的图像参数变换梯度;
基于所述图像参数变化梯度对所述静态视频帧进行参数变换,获得所述静态视频帧对应的多参数视频帧集合;
将所述多参数视频帧集合输入至底层特征提取模型,获得所述静态视频帧对应的底层特征分布;
基于特征识别算法识别出所述静态视频帧中底层特征不同的区域交界处,基于所述区域交界处确定出对应的疑似边缘区域;
确定出所述静态视频帧在所述疑似边缘区域中对应的亮度分布数据,将所述疑似边缘区域中与相邻像素点的亮度差值大于第一阈值的像素点作为第一像素点,将所述第一像素点连接获得对应的第一轮廓;
确定出所述静态视频帧在所述疑似边缘区域中对应的图像深度分布数据,将所述疑似边缘区域中与相邻像素点的深度差值大于第二阈值的像素点作为第二像素点,将所述第二像素点连接获得对应的第二轮廓;
将所述第一轮廓和所述第二轮廓标记于所述静态视频帧,将所述第一轮廓和所述第二轮廓与预设肢体轮廓进行匹配,获得匹配结果,基于匹配结果从所述第一轮廓和所述第二轮廓中筛选出对应肢体的肢体轮廓和肢体轮廓坐标集合;
基于每个肢体的肢体轮廓坐标集合确定出对应时刻的人体姿态;
基于所述人体姿态和预设评分表,确定出对应时刻对应的姿态评分值。
7.根据权利要求6所述的一种在线教学视频的智能处理方法,其特征在于,对所述上课视频进行面部分析,获得每个时刻对应的面部评分值,包括:
基于人脸检测算法对所述静态视频帧进行人脸区域定位,获得定位结果,并将定位结果与所述用户信息进行验证,获得对应的人脸轮廓坐标集合;
基于所述人脸轮廓坐标集合,计算出相邻静态视频帧中每个人脸轮廓坐标点对应的位移值;
基于对应时刻对应的每个人脸轮廓坐标点对应的位移值和对应时刻的所有人脸轮廓坐标点的平均位移值,计算出对应时刻的第一面部评分值;
基于眼睛定位算法对所述静态视频帧进行眼睛特征点定位,获得对应的眼眶坐标集合和瞳孔坐标集合;
基于所有静态视频帧中对应眼眶的眼眶坐标集合计算出对应的平均眼眶高度,基于所述眼眶坐标集合确定出对应的最大眼眶高度,将所述最大眼眶高度和所述平均眼眶高度的比值作为对应时刻的第二面部评分值;
基于所述人脸轮廓坐标集合和预设校正算法,计算出对应的标准视线角度;
基于所述瞳孔坐标集合,计算出对应眼睛的视线中心点;
基于对应眼睛的视线中心点计算出对应眼睛的单向视线角度,基于所述单向视线角度计算出对应的综合视线角度;
基于所述综合视线角度和所述标准视线角度计算出对应时刻的第三面部评分值;
基于所述第一面部评分值和所述第二面部评分值以及所述第三面部评分值,计算出对应时刻对应的面部评分值。
8.根据权利要求1所述的一种在线教学视频的智能处理方法,其特征在于,S4:基于所述实时评估结果生成第二视频显示模式,包括:
基于所述初次教学视频对应的实时状态评估结果生成对应的第二状态分布曲线;
将所述第二状态分布曲线与所述第一状态分布曲线进行比较,获得对应的比较结果,分析所述比较结果获得对应的调整评估结果;
基于所述调整评估结果对所述第一视频显示模式进行二次调整,获得对应的第二视频显示模式。
9.根据权利要求1所述的一种在线教学视频的智能处理方法,其特征在于,S5:基于所述控制指令和所述实时评估结果以及所述第二视频显示模式,生成对应的二次教学视频,包括:
基于所述控制指令生成对应的第四教学计划,基于所述第四教学计划调取对应的第二初始教学视频;
基于所述实时考核评估结果调取出对应的第一关联视频,并基于所述实时状态评估结果调取出对应的第二关联视频;
基于所述第二状态分布曲线,将所述第一关联视频、所述第二关联视频与所述二次初始教学视频进行排序并连接,获得对应的二次调整视频;
基于所述第二视频显示模式设置所述二次调整视频的视频参数,获得对应的二次教学视频。
10.一种在线教学视频的智能处理***,其特征在于,包括:
第一模式生成模块,用于调取学生端对应的历史上课记录,基于所述历史上课记录生成对应的视频显示模式;
第一视频生成模块,用于基于所述教师端和所述家长端输入的控制指令和所述视频显示模式生成对应的初次教学视频;
实时评估模块,用于对所述学生端在上课期间的状态和考核结果进行实时分析评估,获得对应的实时评估结果;
第一模式生成模块,用于所述实时评估结果生成新的视频显示模式;
第二视频生成模块,用于所述控制指令和所述实时评估结果以及最新确定的视频显示模式,生成对应的二次教学视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210207079.XA CN114581271B (zh) | 2022-03-04 | 2022-03-04 | 一种在线教学视频的智能处理方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210207079.XA CN114581271B (zh) | 2022-03-04 | 2022-03-04 | 一种在线教学视频的智能处理方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114581271A true CN114581271A (zh) | 2022-06-03 |
CN114581271B CN114581271B (zh) | 2023-01-06 |
Family
ID=81771587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210207079.XA Active CN114581271B (zh) | 2022-03-04 | 2022-03-04 | 一种在线教学视频的智能处理方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114581271B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453387A (zh) * | 2023-04-10 | 2023-07-18 | 哈尔滨师范大学 | 一种ai智能教学机器人控制***及方法 |
CN117829434A (zh) * | 2024-03-04 | 2024-04-05 | 武汉厚溥数字科技有限公司 | 一种涉及学生画像的处理方法、装置及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107801097A (zh) * | 2017-10-31 | 2018-03-13 | 上海高顿教育培训有限公司 | 一种基于用户交互的视频课程播放方法 |
WO2019095446A1 (zh) * | 2017-11-17 | 2019-05-23 | 深圳市鹰硕音频科技有限公司 | 一种具有语音评价功能的跟随教学*** |
CN110771175A (zh) * | 2018-05-30 | 2020-02-07 | 深圳市大疆创新科技有限公司 | 视频播放速度的控制方法、装置及运动相机 |
-
2022
- 2022-03-04 CN CN202210207079.XA patent/CN114581271B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107801097A (zh) * | 2017-10-31 | 2018-03-13 | 上海高顿教育培训有限公司 | 一种基于用户交互的视频课程播放方法 |
WO2019095446A1 (zh) * | 2017-11-17 | 2019-05-23 | 深圳市鹰硕音频科技有限公司 | 一种具有语音评价功能的跟随教学*** |
CN110771175A (zh) * | 2018-05-30 | 2020-02-07 | 深圳市大疆创新科技有限公司 | 视频播放速度的控制方法、装置及运动相机 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453387A (zh) * | 2023-04-10 | 2023-07-18 | 哈尔滨师范大学 | 一种ai智能教学机器人控制***及方法 |
CN116453387B (zh) * | 2023-04-10 | 2023-09-19 | 哈尔滨师范大学 | 一种ai智能教学机器人控制***及方法 |
CN117829434A (zh) * | 2024-03-04 | 2024-04-05 | 武汉厚溥数字科技有限公司 | 一种涉及学生画像的处理方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114581271B (zh) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114581271B (zh) | 一种在线教学视频的智能处理方法及*** | |
CN111796752B (zh) | 一种基于pc的互动教学*** | |
US20140354947A1 (en) | Virtual glasses try-on method and apparatus thereof | |
CN105913487A (zh) | 一种基于人眼图像中虹膜轮廓分析匹配的视线方向计算方法 | |
CN112183238B (zh) | 一种远程教育注意力检测方法及*** | |
KR20100016696A (ko) | 가상강의의 학습상태 분석시스템 및 이를 이용한 학습코스스케줄링방법 | |
CN110837947B (zh) | 一种基于音视频分析技术的教师授课专注度的评估方法 | |
CN111258433A (zh) | 基于虚拟场景的教学互动*** | |
KR20200012355A (ko) | Clm과 가버 웨이블렛을 이용한 얼굴 인증 과정을 구비한 온라인 강의 모니터링 방법 | |
CN116109455B (zh) | 一种基于人工智能的语言教学辅助*** | |
CN115083628B (zh) | 一种基于中医望诊客观化的医教协同*** | |
CN112800815A (zh) | 一种基于深度学习的视线方向估计方法 | |
CN112200138A (zh) | 基于计算机视觉的课堂学情分析方法 | |
CN113052138A (zh) | 一种舞蹈与运动动作的智能对比矫正的方法 | |
CN111062899B (zh) | 基于引导的生成对抗网络的眨眼视频生成方法 | |
CN112257639A (zh) | 基于人体骨架的学生学习行为识别方法 | |
CN113342761A (zh) | 一种基于互联网的教学资源共享***及方法 | |
CN111738177B (zh) | 一种基于姿态信息提取的学生课堂行为识别方法 | |
CN116994465A (zh) | 一种基于互联网的智能教学方法、***及存储介质 | |
CN112634096A (zh) | 一种基于智能黑板的课堂管理方法及*** | |
CN110378261A (zh) | 一种学生识别方法及装置 | |
CN115953834A (zh) | 面向仰卧起坐的多头注意力姿态估计方法及检测*** | |
CN115393930A (zh) | 一种基于三分支卷积神经网络的表情识别方法 | |
CN114385013A (zh) | 一种基于vr技术的远程在线教育*** | |
Cao et al. | Facial Expression Study Based on 3D Facial Emotion Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |