CN114429212A - 智能学习知识能力跟踪方法、电子设备及存储介质 - Google Patents
智能学习知识能力跟踪方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114429212A CN114429212A CN202011105897.6A CN202011105897A CN114429212A CN 114429212 A CN114429212 A CN 114429212A CN 202011105897 A CN202011105897 A CN 202011105897A CN 114429212 A CN114429212 A CN 114429212A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- knowledge point
- user
- tested
- question
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种智能学习知识能力跟踪方法、电子设备及存储介质,所述方法包括:将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率;所述知识能力跟踪模型中包含有待测用户对于各知识点的掌握状态。本发明由于引入了题目与各知识点的先验关系,同时又结合网络学习题目与各知识点的关系,从而建立了当前题目与各知识点的显性映射对应关系,因此不但能够实现对当前题目答对概率的准确预测,而且能够根据当前题目的作答结果对知识点掌握状态矩阵进行更新,从而使得可以获知待测用户对于各知识点的掌握状态。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种智能学习知识能力跟踪方法、电子设备及存储介质。
背景技术
知识能力跟踪模型是基于学生行为序列进行建模,跟踪学生对知识的掌握状态,是构建自适应教学***的核心和关键。在自适应的教学***中,无论是做精准的题目推送,还是学生学习的路径规划,第一步都是要精准估计学生对知识点的掌握程度。
然而,目前针对学生行为时间序列数据直接建模的循环神经网络等深度学习模型无法获取学生对知识点的掌握程度。举例来说,当模型输入的是题目的答题情况,则模型能够预测下一步所有题目(做过的和未做过的)答对的概率,但是由于模型将学生当前对所有知识点的掌握情况,用一个隐状态(hidden state)表示,导致模型无法输出学生对于具体知识点的掌握情况。又如,当模型输入的是题目对应知识点(一个或多个)的答题情况,则能够预测下一步所有知识点(做过的和未做过的)答对的概率,但这并不是学生对知识点的掌握度,也即依然无法输出学生对于具体知识点的掌握情况。
发明内容
针对现有技术中的问题,本发明实施例提供一种智能学习知识能力跟踪方法、电子设备及存储介质。
具体地,本发明实施例提供了以下技术方案:
第一方面,本发明实施例提供了一种智能学习知识能力跟踪方法,包括:
获取与待测用户对应的当前题目、当前题目与各知识点的先验相关性权重;
将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率;其中,所述知识能力跟踪模型中包含有待测用户对于各知识点的掌握状态,所述待测用户对于各知识点的掌握状态是根据历史时间段内待测用户做过的题目、待测用户做过的题目的作答结果、待测用户做过的题目与各知识点的先验相关性权重确定的;
其中,所述知识能力跟踪模型是将历史训练数据中各用户做过的题目、各用户做过的题目的作答结果、各用户做过的题目与各知识点的先验相关性权重输入至初始知识能力跟踪模型中,基于机器学习的方式进行训练后得到的。
进一步地,所述的智能学习知识能力跟踪方法,还包括:
获取所述待测用户针对当前题目的作答结果,并根据所述作答结果更新所述待测用户对于各知识点的掌握状态。
进一步地,所述知识能力跟踪模型中包含有题目知识点映射模型;
相应地,将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的作对概率,具体包括:
将当前题目的题目特征数据输入至题目知识点映射模型中,获取所述当前题目与各知识点的第一相关性权重;
根据所述当前题目上标记的知识点信息,确定所述当前题目与各知识点的先验相关性权重;
根据所述当前题目与各知识点的第一相关性权重,以及,所述当前题目与各知识点的先验相关性权重,确定所述当前题目与各知识点的最终相关性权重,以及,根据所述当前题目与各知识点的最终相关性权重,确定所述当前题目与各知识点的映射对应关系;
从与待测用户对应的知识点掌握状态矩阵中,获取所述待测用户对于各知识点的掌握状态;其中,所述知识点掌握状态矩阵存储有所述待测用户对于各知识点的掌握状态;其中,所述知识点掌握状态用于表征待测用户对于知识点的掌握程度;
根据所述待测用户对于各知识点的掌握状态,以及,所述当前题目与各知识点的最终相关性权重,确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据;
将所述知识点状态特征数据和所述题目特征数据整合在一起,得到同时包含题目信息和知识点状态信息的特征向量;
根据同时包含题目信息和知识点状态信息的特征向量,预测所述待测用户针对当前题目的答对概率,并根据所述待测用户针对当前题目的作答结果以及所述当前题目与各知识点的映射对应关系,对所述知识点掌握状态矩阵中所述待测用户对于各知识点的掌握状态进行更新。
进一步地,根据所述当前题目上标记的知识点信息,确定所述当前题目与各知识点的先验相关性权重,包括:
当所述当前题目上标记有n个知识点时,确定与所述n个知识点对应的先验相关性权重分别为1/n(如已标记每个知识点的具体权重,则相关性权重为标记权重),且确定其他知识点的先验相关性权重均为0,n≥1。
进一步地,根据所述当前题目与各知识点的第一相关性权重,以及,所述当前题目与各知识点的先验相关性权重,确定所述当前题目与各知识点的最终相关性权重,包括:
按照第一关系模型确定所述当前题目与各知识点的最终相关性权重,其中,第一关系模型为:
包括但不限于加权平均的方式,例如,
wti=α*softmax(Mimt)+(1-α)*{ct}
其中,α为[0,1]的可调参数;wti表示所述当前题目与知识点i的最终相关性权重;softmax(Mimt)表示所述当前题目与各知识点的第一相关性权重;{ct}表示所述当前题目与各知识点的先验相关性权重;M表示题目知识点映射矩阵,用于存储当前题目与各知识点的映射,大小为n*dm,n为知识点的个数,dm为当前题目的题目特征数据的维度;Mi表示M的第i行,mt表示当前题目的题目特征数据;其中,soft max函数的表达式为其中i=1...C。
进一步地,所述知识能力跟踪模型中还包括有遗忘衰减网络模型;
相应地,所述方法还包括:
获取当前距离最近一次更新所述知识点掌握状态矩阵的时间间隔;其中,所述时间间隔用于输入所述遗忘衰减网络模型获得衰减率;
相应地,从与待测用户对应的知识点掌握状态矩阵中,获取所述待测用户对于各知识点的掌握状态,包括:
利用所述衰减率对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新,并获取衰减更新后的知识点掌握状态。
相应地,利用所述衰减率对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新,包括:
根据所述衰减率采用第二关系模型对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新;
其中,Nt表示进行衰减更新后的知识点掌握状态矩阵,用于存储所述待测用户对于各知识点的掌握状态;大小为n*dn,n为知识点的个数,dn表示知识点掌握状态的维度,Nt-1表示最近一次更新的知识点掌握状态矩阵,Nti表示Nt的第i行,Nt-1,i表示Nt-1的第i行,表示点乘,1表示全1向量,wti表示所述当前题目与知识点i的最终相关性权重;()T表示()的转置矩阵。
进一步地,根据所述待测用户对于各知识点的掌握状态,以及,所述当前题目与各知识点的最终相关性权重,确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据,包括:
按照第三关系模型确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据;其中,第三关系模型为:
其中,kt表示所述待测用户对于当前题目中所有知识点的知识点状态特征数据。
进一步地,将所述知识点状态特征数据和所述题目特征数据整合在一起,得到同时包含题目信息和知识点状态信息的特征向量,包括:
将知识点状态特征数据kt和题目特征数据mt整合在一起,通过全连接神经网络得到特征向量st:
st=tanh(Ws[kt,mt]+bs)
进一步地,所述知识能力跟踪模型中还包括:能力网络模型和题目难度网络模型;
相应地,根据同时包含题目信息和知识点状态信息的特征向量,预测所述待测用户针对当前题目的答对概率,包括:
根据同时包含题目信息和知识点状态信息的特征向量,以及,与所述待测用户对应的能力网络模型,获取所述待测用户针对所述当前题目的能力值;
基于所述题目特征数据以及题目难度网络模型,获取当前题目的难度值;
基于所述能力值和所述难度值,预测所述待测用户针对当前题目的答对概率。
进一步地,根据同时包含题目信息和知识点状态信息的特征向量,以及,与所述待测用户对应的能力网络模型,获取所述待测用户针对所述当前题目的能力值,包括:
采用能力网络模型θtj=tanh(Wθst+bθ)获取所述待测用户针对所述当前题目的能力值;其中,θtj表示能力值,Wθ和bθ表示能力网络模型的参数,通过训练得到;
根据所述题目特征数据以及题目难度网络模型,获取当前题目的难度值,包括:
采用题目难度网络模型βj=tanh(Wβmt+bβ)获取当前题目的难度值;其中,βj表示难度值,Wβ和bβ表示题目难度网络模型的参数,通过训练得到;
基于所述能力值和所述难度值,预测所述待测用户针对当前题目的答对概率,包括:采用预测模型pt=sigmoid(a*θtj-βj)预测所述待测用户针对当前题目的答对概率;其中,pt表示答对概率,根据IRT理论,a取值为3.0。
进一步地,根据所述待测用户针对当前题目的作答结果以及所述当前题目与各知识点的映射对应关系,对所述知识点掌握状态矩阵中所述待测用户对于各知识点的掌握状态进行更新,包括但不仅限于:
根据所述待测用户针对当前题目的作答结果向量vt以及所述当前题目与各知识点的映射对应关系,先擦除原有记忆再写入新的记忆;其中,擦除向量和写入向量分别为et和ht;
et=sigmoid(Went+be)
ht=tanh(Whnt+bh)
其中,We和be为网络参数,预先通过训练得到;Wh和bh为网络参数,预先通过训练得到;
按照第四关系模型擦除原有记忆,其中,第四关系模型为:
按照第五关系模型写入新的记忆,其中,第五关系模型为:
其中,Nt+1,i表示更新后的知识点掌握状态矩阵,Nt+1,i为Nt+1的第i行。
进一步地,当所述作答结果为二元0和1结果时;相应地,损失函数为二元交叉熵;当所述作答结果为得分率[0,1]时;相应地,损失函数为多元交叉熵;
第二方面,本发明实施例还提供了一种基于如第一方面所述的智能学习知识能力跟踪方法的资源推送方法,包括:
根据所述待测用户对于各知识点的掌握状态,为所述待测用户进行试题推送和/或学习资源推送。
第三方面,本发明实施例还提供了一种基于如第一方面所述的答题预测方法和知识能力跟踪的组卷方法,包括:
根据指定测评范围内的各待测用户对于各知识点的掌握状态和待组卷试题上标记的知识点,进行自动组卷;和/或,根据指定测评范围内的各待测用户对于各待组卷试题的预测分数,进行自动组卷;和/或,根据各地区的待测用户对于各知识点的掌握状态,以及,各地区的待测用户针对不同题目的预测分数,将不同地区的学生群体映射到同一题目空间,以实现不同地区的分数可比性。
第四方面,本发明实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面所述智能学习知识能力跟踪方法的步骤,和/或,所述处理器执行所述程序时实现如第二方面所述资源推送方法的步骤,和/或,所述处理器执行所述程序时实现如第三方面所述组卷方法的步骤。
由上面技术方案可知,本发明实施例提供的智能学习知识能力跟踪方法、电子设备及存储介质,首先获取与待测用户对应的当前题目、当前题目与各知识点的先验相关性权重,然后将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率;其中,所述知识能力跟踪模型中包含有待测用户对于各知识点的掌握状态,所述待测用户对于各知识点的掌握状态是根据历史时间段内待测用户做过的题目、待测用户做过的题目的作答结果、待测用户做过的题目与各知识点的先验相关性权重确定的;其中,所述知识能力跟踪模型是将历史训练数据中各用户做过的题目、各用户做过的题目的作答结果、各用户做过的题目与各知识点的先验相关性权重输入至初始知识能力跟踪模型中,基于机器学习的方式进行训练后得到的。本发明实施例由于引入了题目与知识点的先验关系,同时又结合网络学习题目与各知识点的关系,从而建立了当前题目与各知识点的显性映射对应关系,因此不但能够实现对当前题目答对概率的准确预测,而且能够根据当前题目的作答结果对知识点掌握状态矩阵进行更新,从而使得可以获知待测用户对于各知识点的掌握状态。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的智能学习知识能力跟踪方法的流程图;
图2为本发明一实施例提供的知识能力跟踪模型示意图;
图3为本发明一实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前针对学生行为时间序列数据直接建模的循环神经网络等深度学习模型无法获取学生对知识点的掌握程度。举例来说,当模型输入的是题目的答题情况,则模型能够预测下一步所有题目(做过的和未做过的)答对的概率,但是由于模型将学生当前对所有知识点的掌握情况,用一个隐状态(hidden state)表示,导致模型无法输出学生对于具体知识点的掌握情况。又如,当模型输入的是题目对应知识点(一个或多个)的答题情况,则能够预测下一步所有知识点(做过的和未做过的)答对的概率,但这并不是学生对知识点的掌握度,也即依然无法输出学生对于具体知识点的掌握情况。而且在时间序上,会出现非连续性、波动变化的情况,在预测准确度上,因丢失了题目维度信息,会导致模型预测精度下降的情况。
可以理解的是,模型的目标除了能够预测下一步作答情况,还要能够计算当前输入作答结果后的知识点掌握情况,而深度循环神经网络模型没法实现这一目标,本发明实施例提供的模型可以使用当前输入结果更新知识点掌握状态矩阵后,再去获取相应记忆卡槽位置的知识点状态。可以理解的是,模型的一个重要目标是要获取题目上已标注知识点的掌握状态,所以模型需要将已标注的题目与知识点的先验关系作为约束条件输入,即题目与知识点的相关性权重由标注的先验关系和网络学到的关系共同组成。下面将通过具体实施例对本发明提供的智能学习知识能力跟踪方法进行详细解释和说明。
图1示出了本发明实施例提供的智能学习知识能力跟踪方法的流程图。如图1所示,本发明实施例提供的智能学习知识能力跟踪方法包括如下步骤:
步骤101:获取与待测用户对应的当前题目、当前题目与各知识点的先验相关性权重;
步骤102:将待测用户标识、当前题目、当前题目与各知识点先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率;其中,所述知识能力跟踪模型中包含有待测用户对于各知识点的掌握状态,所述待测用户对于各知识点的掌握状态是根据历史时间段内待测用户做过的题目、待测用户做过的题目的作答结果、待测用户做过的题目与各知识点的先验相关性权重确定的;其中,所述知识能力跟踪模型是将历史训练数据中各用户做过的题目、各用户做过的题目的作答结果、各用户做过的题目与各知识点的先验相关性权重输入至初始知识能力跟踪模型中,基于机器学习的方式进行训练后得到的。
可以理解的是,所述智能学习知识能力跟踪方法,还包括:
在当前题目作答结束后,获取所述待测用户针对当前题目的作答结果,并根据所述作答结果更新所述待测用户对于各知识点的掌握状态。
在本实施例中,题目与各知识点的先验相关性权重根据题目上标记的知识点信息确定。例如,假设当前题目上标记有n个知识点,则可以确定相应知识点的先验相关性权重均为1/n(如已标记每个知识点的具体权重,则相关性权重为标记权重),而剩余知识点的先验相关性权重均为0。
在本实施例中,需要说明的是,本实施例的一个重要目标是要获取题目上已标注知识点的掌握状态,所以需要将已标注的题目与知识点的先验关系作为强信号输入,由于引入了题目与各知识点的先验关系,同时又结合网络学习题目与各知识点的关系,从而可以建立题目与各知识点的显性映射对应关系,从而不但能够实现对题目答对概率的准确预测,而且能够根据题目的作答结果对知识点掌握状态进行更新,从而使得可以获知待测用户对于各知识点的掌握状态。
可以理解的是,本实施例首先获取与待测用户对应的当前题目、当前题目与各知识点的先验相关性权重,然后将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率;其中,所述知识能力跟踪模型中包含有待测用户对于各知识点的掌握状态,所述待测用户对于各知识点的掌握状态是根据历史时间段内待测用户做过的题目、待测用户做过的题目的作答结果、待测用户做过的题目与各知识点的先验相关性权重确定的;其中,所述知识能力跟踪模型是将历史训练数据中各用户做过的题目、各用户做过的题目的作答结果、各用户做过的题目与各知识点的先验相关性权重输入至初始知识能力跟踪模型中,基于机器学习的方式进行训练后得到的。本发明实施例由于引入了题目与知识点的先验关系,同时又结合网络学习题目与各知识点的关系,从而建立了当前题目与各知识点的显性映射对应关系,因此不但能够实现对当前题目答对概率的准确预测,而且能够根据当前题目的作答结果对知识点掌握状态矩阵进行更新,从而使得可以获知待测用户对于各知识点的掌握状态。
下面通过更为具体的方案对本发明提供的智能学习知识能力跟踪方法进行更为详细的解释和说明。
基于上述实施例的内容,在本实施例中,所述知识能力跟踪模型中包含有题目知识点映射模型;
相应地,将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率,具体包括:
将当前题目的题目特征数据输入至题目知识点映射模型中,获取所述当前题目与各知识点的第一相关性权重;
根据所述当前题目上标记的知识点信息,确定所述当前题目与各知识点的先验相关性权重;
根据所述当前题目与各知识点的第一相关性权重,以及,所述当前题目与各知识点的先验相关性权重,确定所述当前题目与各知识点的最终相关性权重,以及,根据所述当前题目与各知识点的最终相关性权重,确定所述当前题目与各知识点的映射对应关系;
从与待测用户对应的知识点掌握状态矩阵中,获取所述待测用户对于各知识点的掌握状态;其中,所述知识点掌握状态矩阵存储有所述待测用户对于各知识点的动态掌握状态;其中,所述知识点掌握状态用于表征待测用户对于知识点的掌握程度;
根据所述待测用户对于各知识点的掌握状态,以及,所述当前题目与各知识点的最终相关性权重,确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据;
将所述知识点状态特征数据和所述题目特征数据整合在一起,得到同时包含题目信息和知识点状态信息的特征向量;
根据同时包含题目信息和知识点状态信息的特征向量,预测所述待测用户针对当前题目的答对概率,并根据所述待测用户针对当前题目的作答结果以及所述当前题目与各知识点的映射对应关系,对所述知识点掌握状态矩阵中所述待测用户对于各知识点的掌握状态进行更新。
在本实施例中,所述题目知识点映射模型用于表征题目特征数据与各知识点的第一相关性权重的相关关系,因此,可以通过题目知识点映射模型,获取所述当前题目与各知识点的第一相关性权重。
在本实施例中,根据所述当前题目上标记的知识点信息,可以确定所述当前题目与各知识点的先验相关性权重。例如,假设当前题目上标记有n个知识点,则可以确定相应知识点的先验相关性权重均为1/n(如已标记每个知识点的具体权重,则相关性权重为标记权重),而剩余知识点的先验相关性权重均为0。
在本实施例中,需要说明的是,本实施例的一个重要目标是要获取题目上已标注知识点的掌握状态,所以需要将已标注的题目与知识点的先验关系作为约束条件输入,即题目与知识点的相关性权重由标注的先验关系和通过网络学到的关系共同组成。
在本实施例中,需要说明的是,由于根据所述当前题目与各知识点的第一相关性权重,以及,所述当前题目与各知识点的先验相关性权重,建立了当前题目与各知识点的显性映射对应关系,因此能够后续可以根据当前题目的作答结果对知识点掌握状态矩阵进行更新,从而使得可以实时获知待测用户对于各知识点的掌握状态。
在本实施例中,需要说明的是,所述知识点掌握状态矩阵中存储的所述待测用户对于各知识点的知识点状态是根据所述待测用户的答题情况实时更新的,也即所述知识点掌握状态矩阵中存储的所述待测用户对于各知识点的状态是根据所述待测用户历史针对带有标记知识点的各题目的答题情况,实时对各知识点的状态进行更新后得到的;当所述待测用户不存在历史答题记录时,所述知识点掌握状态矩阵最初存储的对于各知识点的状态为训练模型数据的所有用户的平均知识点状态。
在本实施例中,由于当前题目中包括了至少一个知识点,因此可以根据所述待测用户对于各知识点的掌握状态,以及,所述当前题目与各知识点的最终相关性权重,最终确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据。
在本实施例中,将所述知识点状态特征数据和所述题目特征数据整合在一起,得到同时包含题目信息和知识点状态信息的特征向量,使得可以根据同时包含题目信息和知识点状态信息的特征向量,预测所述待测用户针对当前题目的答对概率。由于本实施例在预测准确度上,进一步考虑了题目维度信息,因此会提高答对概率的预测准确度。
在本实施例中,在答题结束后,根据所述待测用户针对当前题目的作答结果以及所述当前题目与各知识点的映射对应关系,对所述知识点掌握状态矩阵中所述待测用户对于各知识点的掌握状态进行更新,以便于可以获知待测用户对于各知识点的掌握状态,同时也便于根据待测用户对于各知识点的掌握状态准确预测下次答题成功率。
由上面技术方案可知,本发明实施例提供的智能学习知识能力跟踪方法,首先获取当前题目与各知识点的第一相关性权重,同时根据所述当前题目上标记的知识点信息确定所述当前题目与各知识点的先验相关性权重,从而使得可以根据所述当前题目与各知识点的第一相关性权重以及所述当前题目与各知识点的先验相关性权重,确定所述当前题目与各知识点的最终相关性权重,与此同时,本发明实施例还从与待测用户对应的知识点掌握状态矩阵中,获取所述待测用户对于各知识点的掌握状态;从而可以根据所述待测用户对于各知识点的掌握状态,以及,所述当前题目与各知识点的最终相关性权重,确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据,最后本发明实施例将所述知识点状态特征数据和所述题目特征数据整合在一起,得到同时包含题目信息和知识点状态信息的特征向量,使得可以根据同时包含题目信息和知识点状态信息的特征向量,预测所述待测用户针对当前题目的答对概率,并根据所述待测用户针对当前题目的作答结果以及所述当前题目与各知识点的映射对应关系,对所述知识点掌握状态矩阵中所述待测用户对于各知识点的掌握状态进行更新,以便于可以获知待测用户对于各知识点的掌握状态,同时也便于根据待测用户对于各知识点的掌握状态准确预测下次答题成功率。
基于上述实施例的内容,在本实施例中,根据所述当前题目上标记的知识点信息,确定所述当前题目与各知识点的先验相关性权重,包括:
当所述当前题目上标记有n个知识点时,确定与所述n个知识点对应的先验相关性权重分别为1/n(如已标记每个知识点的具体权重,则相关性权重为标记权重),且确定其他知识点的先验相关性权重均为0,n≥1。
在本实施例中,将当前题目与各知识点的先验关系信息引入进来,从而一方面可以建立当前题目与各知识点的显性映射对应关系,另一方面还可以同时根据题目与各知识点的先验权重以及通过网络学到的权重共同确定题目与各知识点的最终权重,从而使得确定出来的最终权重能够更为准确地反映题目与各知识点的关联关系,同时还可以挖掘各知识点之间的潜在关系。
基于上述实施例的内容,在本实施例中,根据所述当前题目与各知识点的第一相关性权重,以及,所述当前题目与各知识点的先验相关性权重,确定所述当前题目与各知识点的最终相关性权重,包括:
按照第一关系模型确定所述当前题目与各知识点的最终相关性权重,其中,第一关系模型为:
包括但不限于加权平均的方式,例如,
wti=α*soft max(Mimt)+(1-α)*{ct}
其中,α为[0,1]的可调参数,例如可以取值0.5;wti表示所述当前题目与知识点i的最终相关性权重;softmax(Mimt)表示所述当前题目与各知识点的第一相关性权重;{ct}表示所述当前题目与各知识点的先验相关性权重;M表示题目知识点映射矩阵,用于存储当前题目与各知识点的映射,大小为n*dm,n为知识点槽位的个数,dm为当前题目的题目特征数据的维度;Mi表示M的第i行,mt表示当前题目的题目特征数据;其中,softmax函数的表达式为其中i=1...C。
在本实施例中,根据第一关系模型确定所述当前题目与各知识点的最终相关性权重,由第一关系模型可以看到,题目与每个知识点的相关性权重wt由输入的{ct}与题目知识点映射矩阵的输出softmax后的向量加权平均得到。本实施例由于同时根据题目与各知识点的先验权重以及通过网络学到的初始权重共同确定题目与各知识点的最终权重,从而使得确定出来的最终权重能够更为准确地反映题目与各知识点的关联关系。
基于上述实施例的内容,在本实施例中,所述知识能力跟踪模型中还包括有遗忘衰减网络模型;相应地,所述智能学习知识能力跟踪方法,还包括:
获取当前距离最近一次更新所述知识点掌握状态矩阵的时间间隔;其中,所述时间间隔用于输入所述遗忘衰减网络模型获得衰减率;
相应地,从与待测用户对应的知识点掌握状态矩阵中,获取所述待测用户对于各知识点的掌握状态,包括:
利用所述衰减率对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新,并获取衰减更新后的知识点掌握状态。
本实施例在上述各实施例的基础之上,加入了时间衰减这一因素,由于学生对知识点的掌握度会随着时间遗忘而下降,纯粹的作答对错序列丢失了作答序列中的时间因素,势必会影响预测的准确度和知识状态的计算准确度,同一道题目一天前做过和一个月前做过,对于当前的影响是不一样的,增加遗忘衰减网络和时间维度的输入,不仅可以提高模型的预测准确度,而且遗忘衰减网络还能够学到针对每个知识点不同的衰减率,而艾宾浩斯遗忘曲线只适用于某些特定的场景,通过大量历史数据学到的遗忘衰减率应用到相关场景中会更合理。
基于上述实施例的内容,在本实施例中,所述遗忘衰减网络模型为:dt=sigmoid(Wdtt+bd);其中,dt表示衰减率,tt表示时间间隔,Wd和bd表示网络参数,Wd和bd的值为通过训练得到的;sigmoid函数的表达式为
相应地,利用所述衰减率对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新,包括但不仅限于:
根据所述衰减率采用第二关系模型对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新;
其中,Nt表示进行衰减更新后的知识点掌握状态矩阵,用于存储所述待测用户对于各知识点的掌握状态;大小为n*dn,n为知识点的个数,dn为知识点掌握状态矩阵的维度,Nt-1表示最近一次更新的知识点掌握状态矩阵,Nti表示Nt的第i行,Nt-1,i表示Nt-1的第i行,表示点乘,1表示全1向量,wti表示所述当前题目与知识点i的最终相关性权重;()T表示()的转置矩阵。
在本实施例中,根据时间间隔采用遗忘衰减网络dt=sigmoid(Wdtt+bd)获取衰减率,然后根据获取到的衰减率采用第二关系模型对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新,从而可以获取衰减更新后的知识点掌握状态矩阵。
基于上述实施例的内容,在本实施例中,根据所述待测用户对于各知识点的掌握状态,以及,所述当前题目与各知识点的最终相关性权重,确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据,包括:
按照第三关系模型确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据;其中,第三关系模型为:
其中,kt表示所述待测用户对于当前题目中所有知识点的知识点状态特征数据。
在本实施例中,根据所述待测用户对于各知识点的掌握状态,以及,所述当前题目与各知识点的最终相关性权重,按照第三关系模型确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据,从而可以准确获取用户对当前题目中包含的所有知识点的综合掌握结果。
基于上述实施例的内容,在本实施例中,将所述知识点状态特征数据和所述题目特征数据整合在一起,得到同时包含题目信息和知识点状态信息的特征向量,包括:
将知识点状态特征数据kt和题目特征数据mt整合在一起,通过全连接神经网络得到特征向量st:
st=tanh(Ws[kt,mt]+bs)
在本实施例中,将知识点状态特征数据rt和题目特征数据kt整合在一起,通过全连接神经网络得到特征向量ft,使得后续可以根据同时包含题目特征数据以及知识点状态特征数据的特性向量进行答题准确率预测。
基于上述实施例的内容,在本实施例中,所述知识能力跟踪模型中还包括:能力网络模型和题目难度网络模型;
相应地,根据同时包含题目信息和知识点状态信息的特征向量,预测所述待测用户针对当前题目的答对概率,包括:
根据同时包含题目信息和知识点状态信息的特征向量,以及,与所述待测用户对应的能力网络模型,获取所述待测用户针对所述当前题目的能力值;
基于所述题目特征数据以及题目难度网络模型,获取当前题目的难度值;
基于所述能力值和所述难度值,预测所述待测用户针对当前题目的答对概率。
在本实施例中,可以理解的是,同一用户对于不同题目的能力值是不相同的,因此,可以根据同时包含题目信息和知识点状态信息的特征向量,以及,与所述待测用户对应的能力网络模型,获取所述待测用户针对所述当前题目的能力值,此外,即便两个题目包含相同的知识点,但是两个题目的难度也不一定相同,例如,有的题目难,有的题目简单,因此,加入题目难度网络模型,获取当前题目的难度值,然后再综合所述能力值和所述难度值,可以预测题目答对的概率。
在本实施例中,可以理解的是,能力网络模型可以输出学生对题目的能力值和对知识点的能力值(即知识点掌握状态),题目难度网络模型可以输出题目难度值,然后结合IRT理论,预测题目做对的概率,从而可以增强模型的可解释性。
基于上述实施例的内容,在本实施例中,根据同时包含题目信息和知识点状态信息的特征向量,以及,与所述待测用户对应的能力网络模型,获取所述待测用户针对所述当前题目的能力值,包括:
采用能力网络模型θtj=tanh(Wθst+bθ)获取所述待测用户针对所述当前题目的能力值;其中,θtj表示能力值,Wθ和bθ表示能力网络模型的参数,通过训练得到;
基于所述题目特征数据以及题目难度网络模型,获取当前题目的难度值,包括:
采用题目难度网络模型βj=tanh(Wβmt+bβ)获取当前题目的难度值;其中,βj表示难度值,Wβ和bβ表示题目难度网络模型的参数,通过训练得到;
基于所述能力值和所述难度值,预测所述待测用户针对当前题目的答对概率,包括:采用预测模型pt=sigmoid(a*θtj-βj)预测所述待测用户针对当前题目的答对概率;其中,pt表示答对概率,结合IRT理论,a取值3。
基于上述实施例的内容,在本实施例中,根据所述待测用户针对当前题目的作答结果以及所述当前题目与各知识点的映射对应关系,对所述知识点掌握状态矩阵中所述待测用户对于各知识点的掌握状态进行更新,包括但不仅限于:
根据所述待测用户针对当前题目的作答结果向量vt以及所述当前题目与各知识点的映射对应关系,先擦除原有记忆再写入新的记忆;其中,擦除向量和写入向量分别为et和ht;
et=sigmoid(Went+be)
ht=tanh(Whnt+bh)
其中,We和be为网络参数,预先通过训练得到;Wh和bh为网络参数,预先通过训练得到;
按照第四关系模型擦除原有记忆,其中,第四关系模型为:
按照第五关系模型写入新的记忆,其中,第五关系模型为:
其中,Nt+1,i表示更新后的知识点掌握状态矩阵,Nt+1,i为Nt+1的第i行。
在本实施例中,获取题目作答向量nt(维度为dn),然后先擦除原有记忆再写入新的记忆,擦除向量和写入向量分别为et、ht,et=sigmoid(Went+be),ht=tanh(Whnt+bh),擦除原有记忆:写入新的记忆:从而实现对所述知识点掌握状态矩阵中所述待测用户对于各知识点的掌握状态的更新。
基于上述实施例的内容,在本实施例中,当所述作答结果为二元0和1结果时;相应地,损失函数为二元交叉熵;当所述作答结果为得分率时;相应地,损失函数为多元交叉熵;
在本实施例中,需要说明的是,很多主观题的作答结果不只是对错(1和0),不定项选择题的作答结果也不只是对错(1和0),通常作答结果可以输出一个得分率(0-1之间),本实施例支持得分率输入,当前作答结果输入不只是1和0,还可以包括0.1、0.2...等得分档。
可以理解的是,如果一个学生有相当数量的答题记录,则本实施例提供的模型可以输出该学生在题目空间中所有题目的掌握情况,即获得该学生在所有题目上的预测得分;模型还可以自动挖掘题目隐含的知识概念,进而获得该学生在知识空间中所有知识的掌握度。特别的,在第一个时刻,如果一个学生没有任何的做题历史记录,那么他的第一个知识状态则基于一个非个性化的状态,这个知识状态是基于大规模训练数据生成的,从第一个知识状态之后,接下来的知识状态会越来越个性化。
本实施例使用一种记忆网络实现了知识能力跟踪模型。该网络模型用一个矩阵(题目知识点映射矩阵)存储所有的知识点,用另一个矩阵(知识点掌握状态矩阵)存储及更新学生对知识点的掌握程度。模型在追踪不同知识点掌握状态的同时,还能捕捉不同知识点之间的关系,模型对每个知识点维护了一个状态,并且会自动学习当前题目输入和各个知识点之间的相关关系,当一个新的题目输入,模型会先选择和当前题目相关的知识点,然后根据学生的回答对错情况更新相关知识点的状态。本实施例模型为了获得每个知识点的掌握状态,将知识点掌握状态矩阵卡槽中存储的知识点状态与题目上标注的知识点进行映射,并将已标注的题目与知识点的先验关系作为约束条件。在一种优选实施方式中,本实施例模型还增加了做题的时间间隔输入和遗忘衰减网络,先对知识点掌握状态矩阵中的知识点状态进行遗忘衰减,再使用其知识点状态对该学生的答题正确概率进行预测,最后根据做题对错更新矩阵中的知识点状态。模型网络结构详见图2所示,现在具体说明如下:
1、模型输入:
qt为题目id,qt∈{1,2,...,Q},其中Q为题目数量;at为作答结果,at∈{0,1},得分率输入则为多个得分档,qat=qt+at*Q,qat∈{1,2,...,2Q};{ct}为题目与知识点先验关系的softmax输入(即如果题目包含n个知识点,则知识点所在位置的值都为1/n,其他为0);tt为当前做题时间与上次涉及相同知识点的做题时间间隔,例如,首次做题则时间间隔输入为0,非首次则时间间隔输入为log10(1+间隔小时数)。
2、获取题目知识点映射权重:
qt通过题目embedding矩阵(shape为q*dm,q为题目数)得到题目的embedding向量mt(维度为dm),M(shape为n*dm,n为知识点数)为题目知识点映射矩阵,存储题目与知识点的映射;Nt(shape为n*dv,n为知识点数)为知识点掌握状态矩阵,存储知识点的掌握状态。题目与每个知识点的相关性权重wt由输入的{ct}与题目知识点映射矩阵的输出softmax后的向量相结合得到,包括但不仅限于加权平均的方式,例如,
wti=α*soft max(Mimt)+(1-α)*{ct}
3、遗忘衰减:
输入tt接一个遗忘衰减全连接神经网络,输出每个知识点的衰减率dt,
dt=sigmoid(Wdtt+bd)
对知识点掌握状态矩阵中的知识点状态进行衰减记忆,包括但不仅限于,
4、预测过程:
首先,从知识点掌握状态矩阵Nt中读取知识点状态kt,
其中,Nti为Nt的第i行向量。
然后,将kt和mt连在一起,再接一个全连接神经网络得到特征向量st,
st=tanh(Ws[kt,mt]+bs)
再接学生能力网络θtj和题目难度网络βj,
θtj=tanh(Wθst+bθ)
βj=tanh(Wβmt+bβ)
最后,根据IRT理论(IRT理论即项目反应理论(Item Response Theory),又称题目反应理论,是用来分析考试成绩或者问卷调查数据的数学模型。
模型表达式如下:
其中,P表示答对题目的概率,a表示题目区分度,b表示题目难度参数,c表示题目猜测参数,θ表示学生能力值,设c=0,a=1),预测题目答对概率pt:
pt=sigmoid(3.0*θtj-βj)
5、知识点掌握状态矩阵更新:
qat经过题目作答embedding矩阵(shape为2q*dn,q为题目数)得到题目作答向量nt(维度为dn),然后先擦除原有记忆再写入新的记忆,包括但不仅限于,擦除向量和写入向量分别为et、ht:
et=sigmoid(Went+be)
ht=tanh(Whnt+bh)
擦除原有记忆:
写入新的记忆:
具体地,模型训练和使用过程如下所示:
1、训练模型
模型的输入为做题记录序列、题目和知识点的对应关系数据,模型的直接输出为预测题目做对的概率,间接输出学生对题目的能力值、对知识点的能力值,以及题目难度值。
在本实施例中,对于只增加题目知识点先验关系输入的知识能力跟踪模型,在对模型进行训练时,输入模型的数据格式(以某个学科a为例,其他学科格式相同)如下1)中的(1)所示,对于同时增加题目知识点先验关系输入和时间间隔输入的知识能力跟踪模型,在对模型进行训练时,输入模型的数据格式(以某个学科a为例,其他学科格式相同)如下1)中的(2)所示:
1)做题序列数据
(1)无做题时间输入
(学生id,[[[题目id],做题结果],[[题目id],做题结果],[[题目id],做题结果],...])
例如,(101893639,[[[2],1],[[5],0],[[3],1]])
其中,题目id为转换后的从0开始的连续id,做题结果为做对1,做错0;
(2)增加做题时间输入
(学生id,[[[题目id],做题结果,做题时间],[[题目id],做题结果,做题时间],[[题目id],做题结果,做题时间],...])
例如,(101893639,[[[2],1,’2020-08-02 16:07:10’],[[5],0,’2020-08-02 16:08:11’],[[3],1,’2020-08-02 16:08:56’]])
其中,题目id为转换后的从0开始的连续id,做题结果为做对1,做错0;
2)题目与知识点的先验关系数据如下表1所示:
表1
题目id | 知识点id |
0 | 0 |
1 | 1 |
2 | 2,3 |
3 | 4,5,6 |
4 | 7 |
5 | 8 |
... | ... |
其中,题目id为转换后的从0开始的连续id;知识点id为转换后的从0开始的连续id。
2、使用模型
本实施例根据学生实时的做题记录,计算学生对知识点的掌握度,预测做题概率等。做题结果更新知识点掌握状态矩阵的知识点状态后,再获取相应的知识点状态。如果要获取第i个记忆卡槽中的知识点掌握状态,流程如下:
设wt为[0,..,wi,..0],wi位置设为1,然后读取知识点掌握状态矩阵中的知识点状态kt,
并且特性向量st不连接题目相关信息,
st=tanh(Ws[kt,0]+bs)
再经过学生能力网络,计算学生对知识点的能力值,即知识点掌握度。
θtj=tanh(Wθst+bθ)
根据上面介绍的内容可知,本发明实施例提供的智能学习知识能力跟踪方法具有如下优势:
I、本实施例提供的模型以题目作为输入,自动学习题目和各个知识点的相关关系,再结合题目和知识点的先验关系,能够动态输出每个知识点的掌握状态。而以深度循环神经网络为代表的时间序列模型,如果模型输入的是题目的答题情况,则能够预测下一步所有题目(做过的和未做过的)答对的概率,但是模型将学生当前对所有知识点的掌握情况,用一个隐状态(hidden state)表示,导致模型无法输出学生对于具体知识点的掌握情况。如果模型输入的是题目对应知识点(一个或多个)的答题情况,则能够预测下一步所有知识点(做过的和未做过的)答对的概率,但这并不是学生对知识点的掌握度,而且在时间序上,会出现非连续性、波动变化的情况,在预测准确度上,因丢失了题目维度信息,会出现预测精度下降的情况。
此外,模型的主要目标是能够计算当前输入作答结果后的知识点掌握情况,而深度循环神经网络模型没法实现这一目标,本实施例模型可以使用当前输入结果更新知识点掌握状态矩阵后,再去获取相应记忆卡槽位置的知识点状态。
II、本实施例模型结构中不仅有学生能力网络、题目难度网络,还加入了遗忘衰减网络。
学生能力网络可以输出学生对题目的能力值和对知识点的能力值(即知识点掌握状态),题目难度网络可以输出题目难度值,然后结合IRT理论,预测题目做对的概率,增强了模型的可解释性。学生对知识点的掌握度会随着时间遗忘而下降,纯粹的作答对错序列丢失了作答序列中的时间因素,势必会影响预测的准确度和知识状态的计算准确度,同一道题目一天前做过和一个月前做过,对于当前的影响是不一样的,增加遗忘衰减网络和时间维度的输入,不仅可以提高模型的预测准确度,而且遗忘衰减网络还能够学到针对每个知识点不同的衰减率,而艾宾浩斯遗忘曲线只适用于某些特定的场景,通过大量历史数据学到的遗忘衰减率应用到相关场景中会更合理。
III、本实施例模型支持得分率输入
很多主观题的作答结果不只是对错(1和0),不定项选择题的作答结果也不只是对错(1和0),通常作答结果可以输出一个得分率(0-1之间),本实施例模型支持得分率输入,当前作答结果输入不只是1和0,还可以包括0.1、0.2...等得分档。
以下表2所示的学科a、b、c、d、e、f为例,模型评价指标为auc(area under curve),acc(accuracy,阈值0.5),取值范围为[0,1],auc、acc指标越大越好。
表2
对于不增加题目知识点先验关系输入和时间间隔输入的知识能力跟踪模型,其模型指标如下表3所示:
表3
学科 | auc | acc |
a | 0.8281 | 0.7934 |
b | 0.8531 | 0.8038 |
c | 0.8414 | 0.7958 |
d | 0.9028 | 0.8630 |
e | 0.9086 | 0.8682 |
f | 0.9405 | 0.9118 |
对于增加题目知识点先验关系输入和时间间隔输入的知识能力跟踪模型,其模型指标如下表4所示:
表4
学科 | auc | acc |
a | 0.8632 | 0.8295 |
b | 0.8734 | 0.8224 |
c | 0.8674 | 0.8164 |
d | 0.9212 | 0.8823 |
e | 0.9283 | 0.8864 |
f | 0.9589 | 0.9246 |
由上可以看出,每个学科模型的性能都有较大提升。
基于相同的发明构思,本发明另一实施例还提供了一种基于上述实施例所述的智能学习知识能力跟踪方法的资源推送方法,包括:
根据所述待测用户对于各知识点的掌握状态和/或所述待测用户对于题库中的各题目的答题预测结果,为所述待测用户进行试题推送和/或学习资源推送。
在本实施例中,需要说明的是,知识能力跟踪模型是基于学生行为序列进行建模,跟踪学生对知识的掌握状态,是构建自适应教学***的核心和关键。在自适应的教学***中,无论是做精准的题目推送,还是学生学***进行个性化诊断和学***,帮助学生发现自身的薄弱知识点,以便学生进行自主学习。例如可以自动推送学生知识点掌握不好的题目,以加强该学生对这些知识点的练习和强化。同时在根据知识点预测结果的基础之上,还可以再结合教育专家的教研经验,帮助学生进行自主学习,辅助教师进行针对性教学;个性化学习则更进一步,依据学生知识状态和教育领域先验知识,直接给学生推荐合适的学习资源,比如学习视频、试题等。利用单个学生和相关群体的历史学习数据给出精准的学习方案,打破传统教学中千人一面的学习方式,能够有效提升学生的学习效率。
基于相同的发明构思,本发明另一实施例还提供了一种基于上述实施例所述的智能学习知识能力跟踪方法的组卷方法,包括下面几种方法中的一种或多种:
①根据指定测评范围内的各待测用户对于各知识点的掌握状态和待组卷试题上标记的知识点,进行自动组卷;
②根据指定测评范围内的各待测用户对于各待组卷试题的预测分数,进行自动组卷;
③根据各地区的待测用户对于各知识点的动态掌握状态,以及,各地区的待测用户针对不同题目的预测分数,将不同地区的学生群体映射到同一题目空间,以实现不同地区的分数可比性。
在本实施例中,可以针对不同的应用场景进行不同的组卷,例如,对于课堂巩固练习来说,可以根据指定测评范围内的各待测用户对于各知识点的掌握状态和待组卷试题上标记的知识点,获取指定测评范围内的各待测用户对于各知识点的掌握程度,进而根据指定测评范围内的各待测用户对于各知识点的掌握程度,选择适合的题目进行组卷,以便于各待测用户在课堂巩固练习中能够有效巩固不懂或不熟练的知识点。又如,对于考试类的应用场景来说,可以根据指定测评范围内的各待测用户对于各待组卷试题的预测分数,按照考试分数的正态分布需求或其他需求进行有目的和有针对性的组卷。
此外,需要说明的是,本实施例还有利于科学的评估学生间的能力差异,本实施例可以根据各地区的待测用户对于各知识点的掌握状态,以及,各地区的待测用户针对不同题目的预测分数,将不同地区的学生群体映射到同一题目空间,以实现不同地区的分数可比性,方便教研人员了解不同学生群体的归一化学业能力分布,从而制定下一步的教学计划。
在本实施例中,需要说明的是,知识能力跟踪模型是基于学生行为序列进行建模,跟踪学生对知识的掌握状态,是构建自适应教学***的核心和关键。在自适应的教学***中,无论是做精准的题目推送,还是学生学习的路径规划,第一步都是要精准估计学生对知识的掌握程度。
知识能力跟踪模型对于个性化教学的重要意义:
第一,学生知识能力跟踪模型可以对学生的学业行为进行预测。优秀的学生知识能力跟踪模型需要有得分预测能力,模型的一个重要评价指标即为得分预测的准确度。得分预测的定义为:获得一个学生的学习历史,以及-道题目的表示,模型能够预测该学生在该题目的得分。个性化教学***能够对学生的答题情况进行准确的预测,首先,有利于提升学生的自主学习效率,因为***可以循序渐进的给学生推送难度适中的练习题,避免推荐太难或者太简单的题目,浪费学生的时间和精力;其次,有利于提高教师的教学效率,比如老师在组卷过程中,***可以告诉老师本班学生在每道试题上的预测分数,方便老师更有目的性的组卷;最后,有利于科学的评估学生间的能力差异,通过得分预测可以将不同学校、区域的学生群体映射到同一个题目空间中,达到分数可比,方便教研人员了解不同学生群体的归一化学业能力分布,从而制定下一步的教学计划。
第二,学生知识能力跟踪模型可以对学生的学业水平进行个性化诊断。学生能力诊断的目标是建模学生在知识层面上的学业能力水平,再结合教育专家的教研经验,可以帮助学生发现自身的薄弱知识点,以便学生进行自主学习,辅助教师进行针对性教学;个性化学习则更进一步,依据学生知识状态和教育领域先验知识,直接给学生推荐合适的学习资源,比如学习视频、试题等。利用单个学生和相关群体的历史学习数据给出精准的学习方案,打破传统教学中千人一面的学习方式,能够有效提升学生的学习效率。
基于相同的发明构思,本发明另一实施例提供了一种智能学习知识能力跟踪装置,包括:获取模块和预测模块;其中:
获取模块,用于获取与待测用户对应的当前题目、当前题目与各知识点的先验相关性权重;
预测模块,用于将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率;其中,所述知识能力跟踪模型中包含有待测用户对于各知识点的掌握状态,所述待测用户对于各知识点的掌握状态是根据历史时间段内待测用户做过的题目、待测用户做过的题目的作答结果、待测用户做过的题目与各知识点的先验相关性权重确定的;
其中,所述知识能力跟踪模型是将历史训练数据中各用户做过的题目、各用户做过的题目的作答结果、各用户做过的题目与各知识点的先验相关性权重输入至初始知识能力跟踪模型中,基于机器学习的方式进行训练后得到的。
由于本发明实施例提供的智能学习知识能力跟踪装置,可以用于执行上述实施例所述的智能学习知识能力跟踪,其工作原理和有益效果类似,故此处不再详述,具体内容可参见上述实施例的介绍。
在本实施例中,需要说明的是,本发明实施例的装置中的各个模块可以集成于一体,也可以分离部署。上述模块可以合并为一个模块,也可以进一步拆分成多个子模块。
基于相同的发明构思,本发明又一实施例提供了一种电子设备,参见图3,所述电子设备具体包括如下内容:处理器301、存储器302、通信接口303和通信总线304;
其中,所述处理器301、存储器302、通信接口303通过所述通信总线304完成相互间的通信;
所述处理器301用于调用所述存储器302中的计算机程序,所述处理器执行所述计算机程序时实现上述智能学习知识能力跟踪方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述过程:获取与待测用户对应的当前题目、当前题目与各知识点的先验相关性权重;将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率;其中,所述知识能力跟踪模型中包含有待测用户对于各知识点的掌握状态,所述待测用户对于各知识点的掌握状态是根据历史时间段内待测用户做过的题目、待测用户做过的题目的作答结果、待测用户做过的题目与各知识点的先验相关性权重确定的;其中,所述知识能力跟踪模型是将历史训练数据中各用户做过的题目、各用户做过的题目的作答结果、各用户做过的题目与各知识点的先验相关性权重输入至初始知识能力跟踪模型中,基于机器学习的方式进行训练后得到的。
可以理解的是,所述计算机程序可以执行的细化功能和扩展功能可参照上面实施例的描述。
此外,所述处理器执行所述计算机程序时还可以实现如上述实施例所述的资源推送方法的步骤,和/或,所述处理器执行所述程序时实现如上述实施例所述的组卷方法的步骤。
基于相同的发明构思,本发明又一实施例提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述智能学习知识能力跟踪方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述过程:获取与待测用户对应的当前题目、当前题目与各知识点的先验相关性权重;将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率;其中,所述知识能力跟踪模型中包含有待测用户对于各知识点的掌握状态,所述待测用户对于各知识点的掌握状态是根据历史时间段内待测用户做过的题目、待测用户做过的题目的作答结果、待测用户做过的题目与各知识点的先验相关性权重确定的;其中,所述知识能力跟踪模型是将历史训练数据中各用户做过的题目、各用户做过的题目的作答结果、各用户做过的题目与各知识点的先验相关性权重输入至初始知识能力跟踪模型中,基于机器学习的方式进行训练后得到的。
可以理解的是,所述计算机程序可以执行的细化功能和扩展功能可参照上面实施例的描述。
此外,所述处理器执行所述计算机程序时还可以实现如上述实施例所述的资源推送方法的步骤,和/或,所述处理器执行所述程序时实现如上述实施例所述的组卷方法的步骤。
此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的智能学习知识能力跟踪方法。
此外,在本发明中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
此外,在本发明中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (16)
1.一种智能学习知识能力跟踪方法,其特征在于,包括:
获取与待测用户对应的当前题目、当前题目与各知识点的先验相关性权重;
将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率;其中,所述知识能力跟踪模型中包含有待测用户对于各知识点的掌握状态,所述待测用户对于各知识点的掌握状态是根据历史时间段内待测用户做过的题目、待测用户做过的题目的作答结果、待测用户做过的题目与各知识点的先验相关性权重确定的;
其中,所述知识能力跟踪模型是将历史训练数据中各用户做过的题目、各用户做过的题目的作答结果、各用户做过的题目与各知识点的先验相关性权重输入至初始知识能力跟踪模型中,基于机器学习的方式进行训练后得到的。
2.根据权利要求1所述的智能学习知识能力跟踪方法,其特征在于,还包括:
获取所述待测用户针对当前题目的作答结果,并根据所述作答结果更新所述待测用户对于各知识点的掌握状态。
3.根据权利要求1所述的智能学习知识能力跟踪方法,其特征在于,所述知识能力跟踪模型中包含有题目知识点映射模型;
相应地,将待测用户标识、当前题目、当前题目与各知识点的先验相关性权重输入至知识能力跟踪模型中,获取所述待测用户针对当前题目的答对概率,具体包括:
将当前题目的题目特征数据输入至题目知识点映射模型中,获取所述当前题目与各知识点的第一相关性权重;
根据所述当前题目上标记的知识点信息,确定所述当前题目与各知识点的先验相关性权重;
根据所述当前题目与各知识点的第一相关性权重,以及,所述当前题目与各知识点的先验相关性权重,确定所述当前题目与各知识点的最终相关性权重,以及,根据所述当前题目与各知识点的最终相关性权重,确定所述当前题目与各知识点的映射对应关系;
从与待测用户对应的知识点掌握状态矩阵中,获取所述待测用户对于各知识点的掌握状态;其中,所述知识点掌握状态矩阵存储有所述待测用户对于各知识点的掌握状态;其中,所述知识点掌握状态用于表征待测用户对于知识点的掌握程度;
根据所述待测用户对于各知识点的掌握状态,以及,所述当前题目与各知识点的最终相关性权重,确定所述待测用户对于当前题目中所有知识点的知识点状态特征数据;
将所述知识点状态特征数据和所述题目特征数据整合在一起,得到同时包含题目信息和知识点状态信息的特征向量;
根据同时包含题目信息和知识点状态信息的特征向量,预测所述待测用户针对当前题目的答对概率,并根据所述待测用户针对当前题目的作答结果以及所述当前题目与各知识点的映射对应关系,对所述知识点掌握状态矩阵中所述待测用户对于各知识点的掌握状态进行更新。
4.根据权利要求3所述的智能学习知识能力跟踪方法,其特征在于,根据所述当前题目上标记的知识点信息,确定所述当前题目与各知识点的先验相关性权重,包括:
当所述当前题目上标记有n个知识点时,确定与所述n个知识点对应的先验相关性权重分别为1/n(如已标记每个知识点的具体权重,则相关性权重为标记权重),且确定其他知识点的先验相关性权重均为0,n≥1。
5.根据权利要求3所述的智能学习知识能力跟踪方法,其特征在于,根据所述当前题目与各知识点的第一相关性权重,以及,所述当前题目与各知识点的先验相关性权重,确定所述当前题目与各知识点的最终相关性权重,包括:
按照第一关系模型确定所述当前题目与各知识点的最终相关性权重,其中,第一关系模型为:
包括但不限于加权平均的方式,例如,
wti=α*softmax(Mimt)+(1-α)*{ct}
6.根据权利要求3~5任一项所述的智能学习知识能力跟踪方法,其特征在于,所述知识能力跟踪模型中还包括有遗忘衰减网络模型;
相应地,所述方法还包括:
获取当前距离最近一次更新所述知识点掌握状态矩阵的时间间隔;其中,所述时间间隔用于输入所述遗忘衰减网络模型获得衰减率;
相应地,从与待测用户对应的知识点掌握状态矩阵中,获取所述待测用户对于各知识点的掌握状态,包括:
利用所述衰减率对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新,并获取衰减更新后的知识点掌握状态。
7.根据权利要求6所述的智能学习知识能力跟踪方法,其特征在于,所述遗忘衰减网络模型为:dt=sigmoid(Wdtt+bd);其中,dt表示衰减率,tt表示时间间隔,Wd和bd表示网络参数,Wd和bd的值为通过训练得到的;sigmoid函数的表达式为
相应地,利用所述衰减率对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新,包括但不仅限于:
根据所述衰减率采用第二关系模型对与待测用户对应的知识点掌握状态矩阵中的知识点掌握状态进行衰减更新;
10.根据权利要求9所述的智能学习知识能力跟踪方法,其特征在于,所述知识能力跟踪模型中还包括:能力网络模型和题目难度网络模型;
相应地,根据同时包含题目信息和知识点状态信息的特征向量,预测所述待测用户针对当前题目的答对概率,包括:
根据同时包含题目信息和知识点状态信息的特征向量,以及,与所述待测用户对应的能力网络模型,获取所述待测用户针对所述当前题目的能力值;
基于所述题目特征数据以及题目难度网络模型,获取当前题目的难度值;
基于所述能力值和所述难度值,预测所述待测用户针对当前题目的答对概率。
11.根据权利要求10所述的智能学习知识能力跟踪方法,其特征在于,根据同时包含题目信息和知识点状态信息的特征向量,以及,与所述待测用户对应的能力网络模型,获取所述待测用户针对所述当前题目的能力值,包括:
采用能力网络模型θtj=tanh(Wθst+bθ)获取所述待测用户针对所述当前题目的能力值;其中,θtj表示能力值,Wθ和bθ表示能力网络模型的参数,通过训练得到;
根据所述题目特征数据以及题目难度网络模型,获取当前题目的难度值,包括:
采用题目难度网络模型βj=tanh(Wβmt+bβ)获取当前题目的难度值;其中,βj表示难度值,Wβ和bβ表示题目难度网络模型的参数,通过训练得到;
基于所述能力值和所述难度值,预测所述待测用户针对当前题目的答对概率,包括:采用预测模型pt=sigmoid(a*θtj-βj)预测所述待测用户针对当前题目的答对概率;其中,pt表示答对概率,根据IRT理论,a取值为3.0。
12.根据权利要求10所述的智能学习知识能力跟踪方法,其特征在于,根据所述待测用户针对当前题目的作答结果以及所述当前题目与各知识点的映射对应关系,对所述知识点掌握状态矩阵中所述待测用户对于各知识点的掌握状态进行更新,包括但不仅限于:
根据所述待测用户针对当前题目的作答结果向量vt以及所述当前题目与各知识点的映射对应关系,先擦除原有记忆再写入新的记忆;其中,擦除向量和写入向量分别为et和ht;
et=sigmoid(Went+be)
ht=tanh(Whnt+bh)
其中,We和be为网络参数,预先通过训练得到;Wh和bh为网络参数,预先通过训练得到;
按照第四关系模型擦除原有记忆,其中,第四关系模型为:
按照第五关系模型写入新的记忆,其中,第五关系模型为:
其中,Nt+1,i表示更新后的知识点掌握状态矩阵,Nt+1,i为Nt+1的第i行。
13.根据权利要求11所述的智能学习知识能力跟踪方法,其特征在于,当所述作答结果为二元0和1结果时;相应地,损失函数为二元交叉熵;当所述作答结果为得分率[0,1]时;相应地,损失函数为多元交叉熵。
14.一种基于如权利要求1~13任一项所述的智能学习知识能力跟踪方法的资源推送方法,其特征在于,包括:
根据所述待测用户对于各知识点的掌握状态和/或所述待测用户对于题库中的各题目的答题预测结果,为所述待测用户进行试题推送和/或学习资源推送。
15.一种基于如权利要求1~13任一项所述的智能学习知识能力跟踪方法的组卷方法,其特征在于,包括:
根据指定测评范围内的各待测用户对于各知识点的掌握状态和待组卷试题上标记的知识点,进行自动组卷;
和/或,
根据指定测评范围内的各待测用户对于各待组卷试题的预测分数,进行自动组卷;
和/或,
根据各地区的待测用户对于各知识点的掌握状态,以及,各地区的待测用户针对不同题目的预测分数,将不同地区的学生群体映射到同一题目空间,以实现不同地区的分数可比性。
16.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~13任一项所述智能学习知识能力跟踪方法的步骤,和/或,所述处理器执行所述程序时实现如权利要求14所述资源推送方法的步骤,和/或,所述处理器执行所述程序时实现如权利要求15所述组卷方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011105897.6A CN114429212A (zh) | 2020-10-15 | 2020-10-15 | 智能学习知识能力跟踪方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011105897.6A CN114429212A (zh) | 2020-10-15 | 2020-10-15 | 智能学习知识能力跟踪方法、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114429212A true CN114429212A (zh) | 2022-05-03 |
Family
ID=81309410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011105897.6A Pending CN114429212A (zh) | 2020-10-15 | 2020-10-15 | 智能学习知识能力跟踪方法、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114429212A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115358897A (zh) * | 2022-08-22 | 2022-11-18 | 北京十六进制科技有限公司 | 一种基于电子学生证的学生管理方法、***、终端及存储介质 |
CN116976434A (zh) * | 2023-07-05 | 2023-10-31 | 长江大学 | 一种基于知识点扩散表示的知识追踪方法及存储介质 |
CN117521812A (zh) * | 2023-11-20 | 2024-02-06 | 华中师范大学 | 基于变分知识蒸馏的算术文字题自动解答方法及*** |
CN117573985A (zh) * | 2024-01-16 | 2024-02-20 | 四川航天职业技术学院(四川航天高级技工学校) | 一种应用于智能化在线教育***的信息推送方法及*** |
-
2020
- 2020-10-15 CN CN202011105897.6A patent/CN114429212A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115358897A (zh) * | 2022-08-22 | 2022-11-18 | 北京十六进制科技有限公司 | 一种基于电子学生证的学生管理方法、***、终端及存储介质 |
CN115358897B (zh) * | 2022-08-22 | 2023-08-04 | 北京十六进制科技有限公司 | 一种基于电子学生证的学生管理方法、***、终端及存储介质 |
CN116976434A (zh) * | 2023-07-05 | 2023-10-31 | 长江大学 | 一种基于知识点扩散表示的知识追踪方法及存储介质 |
CN116976434B (zh) * | 2023-07-05 | 2024-02-20 | 长江大学 | 一种基于知识点扩散表示的知识追踪方法及存储介质 |
CN117521812A (zh) * | 2023-11-20 | 2024-02-06 | 华中师范大学 | 基于变分知识蒸馏的算术文字题自动解答方法及*** |
CN117521812B (zh) * | 2023-11-20 | 2024-06-07 | 华中师范大学 | 基于变分知识蒸馏的算术文字题自动解答方法及*** |
CN117573985A (zh) * | 2024-01-16 | 2024-02-20 | 四川航天职业技术学院(四川航天高级技工学校) | 一种应用于智能化在线教育***的信息推送方法及*** |
CN117573985B (zh) * | 2024-01-16 | 2024-04-05 | 四川航天职业技术学院(四川航天高级技工学校) | 一种应用于智能化在线教育***的信息推送方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yeung | Deep-IRT: Make deep learning based knowledge tracing explainable using item response theory | |
Ramírez-Noriega et al. | Evaluation module based on Bayesian networks to Intelligent Tutoring Systems | |
CN114429212A (zh) | 智能学习知识能力跟踪方法、电子设备及存储介质 | |
CN112508334B (zh) | 融合认知特性及试题文本信息的个性化组卷方法及*** | |
CN110941723A (zh) | 一种知识图谱的构建方法、***及存储介质 | |
CN111047482B (zh) | 基于层次记忆网络的知识追踪***及方法 | |
CN110428010A (zh) | 知识追踪方法 | |
CN111651677B (zh) | 课程内容推荐方法、装置、计算机设备和存储介质 | |
CN112257966B (zh) | 模型处理方法、装置、电子设备及存储介质 | |
CN111159419A (zh) | 基于图卷积的知识追踪数据处理方法、***和存储介质 | |
CN113851020A (zh) | 一种基于知识图谱的自适应学习平台 | |
CN111461442A (zh) | 基于联邦学习的知识追踪的方法及*** | |
CN114021722A (zh) | 一种融合认知刻画的注意力知识追踪方法 | |
CN115455186A (zh) | 一种基于多模型的学情分析方法 | |
CN115510286A (zh) | 一种基于图卷积网络的多关系认知诊断方法 | |
CN112069329A (zh) | 文本语料的处理方法、装置、设备及存储介质 | |
Huang et al. | A dynamic knowledge diagnosis approach integrating cognitive features | |
CN114676903A (zh) | 一种基于时间感知和认知诊断的在线预测方法及*** | |
CN113283488B (zh) | 一种基于学习行为的认知诊断方法及*** | |
CN114254122A (zh) | 测试题的生成方法、装置、电子设备和可读存储介质 | |
Yi | [Retracted] Research on English Teaching Reading Quality Evaluation Method Based on Cognitive Diagnostic Evaluation | |
CN111861820A (zh) | 一种学习计划的生成方法及设备 | |
CN116402134A (zh) | 基于行为感知的知识追踪方法及*** | |
Fadlil | K Nearest Neighbor imputation performance on missing value data graduate user satisfaction | |
Hirose | More accurate evaluation of student’s ability based on a newly proposed ability equation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |