CN112116092B - 可解释性知识水平追踪方法、***和存储介质 - Google Patents

可解释性知识水平追踪方法、***和存储介质 Download PDF

Info

Publication number
CN112116092B
CN112116092B CN202010801341.4A CN202010801341A CN112116092B CN 112116092 B CN112116092 B CN 112116092B CN 202010801341 A CN202010801341 A CN 202010801341A CN 112116092 B CN112116092 B CN 112116092B
Authority
CN
China
Prior art keywords
knowledge
exercise
information
vector
knowledge point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010801341.4A
Other languages
English (en)
Other versions
CN112116092A (zh
Inventor
黄昌勤
黄琼浩
李明
***
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Normal University CJNU
Original Assignee
Zhejiang Normal University CJNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Normal University CJNU filed Critical Zhejiang Normal University CJNU
Priority to CN202010801341.4A priority Critical patent/CN112116092B/zh
Publication of CN112116092A publication Critical patent/CN112116092A/zh
Application granted granted Critical
Publication of CN112116092B publication Critical patent/CN112116092B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种可解释性知识水平追踪方法、***和存储介质,方法包括以下步骤:构建可解释知识追踪模型;在所述模型上执行以下步骤:区分嵌入知识点信息、***,得到当前时刻的知识水平;根据所述键向量和所述当前时刻的知识水平计算得到值向量;通过多维项目反应网络块根据所述知识点信息、所述值向量和所述***状态追踪场景。本发明可应用于数据挖掘技术领域。

Description

可解释性知识水平追踪方法、***和存储介质
技术领域
本发明涉及数据挖掘技术领域,尤其是一种可解释性知识水平追踪方法、***和存储介质。
背景技术
术语解释:
CTT:Classical Test Theory,经典测试理论,是将学生的解题能力看作学***加噪声的线性拟合。其对教育测量的实践产生了巨大的贡献。
BKT,Bayesian Knowledge Tracing,贝叶斯知识跟踪。
DKT,Deep Knowledge Tracing,深度学***评估。
DKVMN,Dynamic Key-Value Memory Networks,DKVMN模型。
由于在线教育资源的数据爆发性增长,一方面为在线学***进行实时跟踪,能为合理优化学习者学习日程,调度学生学习积极性,辅助教师提高教学效率等提供有效帮助。
知识水平评估的手段主要是通过在线学***评估模型中,基于深度学***状态追踪。
发明内容
为解决上述技术问题之一,本发明的目的在于:提供一种可解释性知识水平追踪方法、***和存储介质,其能有效应用于在线大规模的学***状态追踪场景。
第一方面,本发明实施例提供了:
一种可解释性知识水平追踪方法,包括以下步骤:
构建可解释知识追踪模型;
在所述可解释知识追踪模型上执行以下步骤:
区分嵌入知识点信息、习题文本信息以及与所述习题文本信息对应的习题回答记录信息;
根据所述知识点信息计算得到键向量;
根据所述键向量和所述***,得到当前时刻的知识水平;
根据所述键向量和所述当前时刻的知识水平计算得到值向量;
通过多维项目反应网络块根据所述知识点信息、所述值向量和所述习题回答记录信息预测所述习题文本信息的预测回答信息。
进一步地,所述知识点信息包括所述习题文本信息的当前知识点信息和相邻知识点信息,所述嵌入知识点信息,包括:
将所述当前知识点信息和所述相邻知识点信息分别转化为特征描述向量;
分别构建所述特征描述向量的嵌入降维矩阵;
通过所述嵌入降维矩阵对所述特征描述向量进行降维处理;
将所述降维后的特征描述向量进行嵌入处理。
进一步地,所述嵌入习题文本信息,包括:
获取所述习题文本信息的语言类别,所述语言类别包括自然语言和编程语言;
当所述习题文本信息的语言类别为自然语言,采用第一类别转化模型将所述习题文本信息转化为词向量;
当所述习题文本信息的语言类别为编程语言,采用第二类别转化模型将所述习题文本信息转化为词向量;
采用三向GRU循环神经网络对所述词向量进行嵌入处理。
进一步地,所述嵌入与所述习题文本信息对应的习题回答记录信息,包括:
将所述习题回答记录信息转化为预设维度的单值向量;
将所述单值向量进行嵌入处理。
进一步地,所述根据所述知识点信息计算得到键向量,包括:
嵌入键记忆矩阵;
根据所述当前知识点信息和所述键记忆矩阵计算得到当前知识点键向量;
根据所述相邻知识点信息和所述键记忆矩阵计算得到相邻知识点键向量。
进一步地,所述根据所述键向量和所述***,得到当前时刻的知识水平,包括:
将所述习题文本信息和所述习题回答记录信息进行第一融合处理;
获取所述习题文本信息所属知识图结构;
根据所述第一融合处理后的信息和所述习题文本信息所属知识图结构对所述当前知识点信息和所述相邻知识点信息进行第二融合处理,得到融合特征描述向量;
根据所述融合特征描述向量、所述当前知识点键向量和所述相邻知识点键向量更新所述知识点前一时刻的知识水平,得到当前时刻的知识水平。
进一步地,在所述构建可解释知识追踪模型这一步骤后,还包括以下步骤:
采用随机梯度下降法对所述可解释知识追踪模型的目标函数进行优化。
第二方面,本发明实施例提供了:
一种可解释性知识水平追踪***,包括:
构建单元,用于构建可解释知识追踪模型;
其中,所述可解释知识追踪模型包括:
嵌入区分处理模块,用于区分嵌入知识点信息、习题文本信息以及与所述习题文本信息对应的习题回答记录信息;
知识水平可解释查询模块,用于根据所述知识点信息计算得到键向量;根据所述键向量和所述当前时刻的知识水平计算得到值向量;
知识水平可解释更新模块,用于根据所述键向量和所述***,得到当前时刻的知识水平;
可解释习题成绩预测模块,用于通过多维项目反应网络块根据所述知识点信息、所述值向量和所述习题回答记录信息预测所述习题文本信息的预测回答信息。
第三方面,本发明实施例提供了:
一种可解释性知识水平追踪***,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行第一方面实施例的可解释性知识水平追踪方法。
第四方面,本发明实施例提供了:
一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于实现第一方面实施例的可解释性知识水平追踪方法。
本发明的有益效果是:本发明通过构建可解释知识追踪模型后,在可解释知识追踪模型内区分嵌入知识点信息、***,得到当前时刻的知识水平,然后根据键向量和当前时刻的知识水平计算得到值向量后,通过多维项目反应网络块根据知识点信息、值向量和***状态追踪场景。
附图说明
图1为本发明一种具体实施例的可解释知识追踪模型的数据处理流程图;
图2为本发明一种具体实施例的可解释知识追踪模型的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
本发明实施例提供了一种可解释性知识水平追踪方法,本实施例可应用于服务器,该服务器可与多个学习终端交互。
其中,在进行具体实施例的阐述之前,对以下内容用到的符号进行定义,具体内容如表1所示:
表1
Figure BDA0002627500720000041
Figure BDA0002627500720000051
Figure BDA0002627500720000061
Figure BDA0002627500720000071
接着,进行以下阐述:
假设在某个学习教育***中,一门课程有S={...,s’i,...}个学生来学习,同时,这个课程有Q个练习题。其中,这门课程的知识点可以看成一张有结构的图G=(V,E),V代表知识点集合
Figure BDA0002627500720000072
这些知识点之间存在一定的依赖关系
Figure BDA0002627500720000073
且这些知识点可以进一步抽象成N1知识概念
Figure BDA0002627500720000074
对于某一个具体的学生s’i,他的习题记录可以表示为一个序列集合seq(s’i)={(c1,q1,r1),...,(ct,qt,rt),...,(cT,qT,rT)},其中s’i∈S、
Figure BDA0002627500720000075
qt∈Q,同时(ct,qt,rt)表示拥有关联知识点集合ct的习题qt被学生在时间步长t时给出了回答rt。习题qt用一个序列集合表示,其元素是来自这个习题文本内容的每个词语,可以记作
Figure BDA0002627500720000076
在本实施例中,习题的回答rt是一个布尔值,用来表示其相对应的习题题目答对还是答错。
此外,在本实施例中,假设每个学生在每个步长t里,对每个知识点都有一个随时间变化的知识水平,而且这个知识水平的随时间变化而更新规则如下:
当一个学生回答一道***都会被更新。
因此,每个学生习题成绩预测方法可以描述为:
给定某个学***评估模型,通过***,然后用该模型预测接下来要做习题qT+1的答案rT+1
针对上述阐述内容,本实施例的实施过程包括以下步骤:
S1、构建可解释知识追踪模型;所述可解释知识追踪模型为上述知识水平评估模型,其具体结构如图2所示。本实施例的可解释知识追踪模型相对于现有的神经网络模型的不同之处在于:在模型输入阶段进行区分嵌入、以为后续的模型可解释性提供基础。
具体地,在步骤S1的可解释知识追踪模型上执行如图1所示步骤:
S21、区分嵌入知识点信息、习题文本信息以及与所述习题文本信息对应的习题回答记录信息;本步骤以N1个知识概念
Figure BDA0002627500720000077
为分类依据,对所述不同知识点做不同的嵌入。
在一些实施例中,所述知识点信息包括所述习题文本信息的当前知识点信息和相邻知识点信息。
其中,所述嵌入知识点信息,包括:
将所述当前知识点信息和所述相邻知识点信息分别转化为特征描述向量;
本步骤具体为:
将当前知识点信息的集合ct转化成N1个知识概念特征描述向量
Figure BDA0002627500720000081
其中
Figure BDA0002627500720000082
该向量的元素
Figure BDA0002627500720000083
如果符合
Figure BDA0002627500720000084
Figure BDA0002627500720000085
否则
Figure BDA0002627500720000086
将相邻知识点信息的集合Nt转化为N1各知识特征描述向量
Figure BDA0002627500720000087
其中,
Figure BDA0002627500720000088
该向量的元素
Figure BDA0002627500720000089
如果符合
Figure BDA00026275007200000810
Figure BDA00026275007200000811
否则
Figure BDA00026275007200000812
由于上述构建的知识点特征描述向量过于稀疏和高维度,因此,需要进行降维处理。本实施例中,分别构建上述特征描述向量的嵌入降维矩阵;通过嵌入降维矩阵对上述特征描述向量进行降维处理。
具体地,本步骤处理如下:
针对当前知识点包含的知识点特征描述向量,构建嵌入降维矩阵
Figure BDA00026275007200000813
Figure BDA00026275007200000814
降维
Figure BDA00026275007200000815
过程如公式1、公式2和公式3所示:
Figure BDA00026275007200000816
Figure BDA00026275007200000817
Figure BDA00026275007200000818
其中,
Figure BDA00026275007200000819
如果
Figure BDA00026275007200000820
元素
Figure BDA00026275007200000821
否则
Figure BDA00026275007200000822
针对相邻知识点的特征描述向量,构建嵌入降维矩阵
Figure BDA00026275007200000823
Figure BDA00026275007200000824
降维
Figure BDA00026275007200000825
过程如公式4和公式5所示:
Figure BDA00026275007200000826
Figure BDA00026275007200000827
最后将所述降维后的特征描述向量进行嵌入处理。
所述嵌入与所述习题文本信息对应的习题回答记录信息,包括:
将所述习题回答记录信息转化为预设维度的单值向量;然后将所述单值向量进行嵌入处理。例如,假设目前某学生答题的时间步长是t,答题记录为(ct,qt,rt),则将习题回答记录新型转换成维度为d2的单值向量,其转换过程可如公式6所示:
Figure BDA0002627500720000091
所述嵌入习题文本信息,包括:
获取所述习题文本信息的语言类别,所述语言类别包括自然语言和编程语言;
当所述习题文本信息的语言类别为自然语言,采用第一类别转化模型将所述习题文本信息转化为词向量;所述第一类别转化模型可以为word2vec。
当所述习题文本信息的语言类别为编程语言,采用第二类别转化模型将所述习题文本信息转化为词向量;所述第二类别转化模型可以为code2vec。本步骤是以声明块为单位,将所述习题文本信息转化为词向量。
在获得词向量后,采用三向(tri-directional)GRU循环神经网络对所述词向量进行嵌入处理。具体是采用三向(tri-directional)GRU循环神经网络进行该习题文本信息的嵌入处理。其中,前双向(bidirectional)GRU循环神经网络,主要用于学习文本内容的时空长短时依赖关系,后面单向(uni-directional)主要于对学到的信息进行编码操作,得到习题内容文本内容的全局嵌入表示。
具体地,基于双向GRU循环神经网络的文本时空依赖信息学习的过程如下:
学习习题文本内容时空信息的双向GRU循环神经网络的循环单元工作流程如下公式7所描述:
Figure BDA0002627500720000092
其中,
Figure BDA0002627500720000093
输入权重矩阵
Figure BDA0002627500720000094
循环网络权重
Figure BDA0002627500720000095
和偏置权重
Figure BDA0002627500720000096
都是网络块里需要训练的参数。
本实施例由于采用了双向循环神经网络,因此,将往前方向的词向量隐状态记作
Figure BDA0002627500720000097
向后方向的词向量隐状态表示为
Figure BDA0002627500720000098
经过公式7的处理后,便可到所有词向量的向前向后的隐状态,为构建全局***均融合处理,即
Figure BDA0002627500720000101
由于习题文本里面的内容含有不同类型的词汇,例如自然语言、编程语言等,处于不同的语义空间,因此,需要进行加权等量处理,本实施例采用注意力机制与当前知识嵌入对
Figure BDA0002627500720000102
进行处理,运算公式如公式8所示:
Figure BDA0002627500720000103
其中,αm
Figure BDA0002627500720000104
Figure BDA0002627500720000105
之间的注意力值。
基于GRU循环神经网络的习题文本全局嵌入编码器,其具体过程如下:
得到融合后的词向量隐状态序列后
Figure BDA0002627500720000106
对该序列采用单向的GRU循环神经网络作为全局习题文本内容嵌入表示编码器,其处理过程如公式9所示:
Figure BDA0002627500720000107
其中,GRU(·,·)表示循环神经网络,其参数分别是输入序列和需要训练参数列表,其内部结构和公式7一样,同时输入权重矩阵
Figure BDA0002627500720000108
循环网络权重
Figure BDA0002627500720000109
和偏置权重
Figure BDA00026275007200001010
都是网络块里需要训练的参数。
由于上述构建的模型需要记忆矩阵来存储和跟踪学员知识水平的隐状态,但是,现有的知识隐状态缺乏可解释的参数表示。因此,本实施例提出具有明确含义的知识水平参数记忆矩阵,其包括用于提供知识点成分查询的键记忆矩阵和用于记录知识水平隐状态的值记忆矩阵,同时本实施例还提供了配套的知识水平可解释查询和知识水平可解释更新的方法,其过程如下:
S22、根据所述知识点信息计算得到键向量;所述键向量包括当前知识点键向量和相邻知识点键向量。
在一些实施例中,本步骤具体如下:
嵌入键记忆矩阵;该键记忆矩阵具备存储长期稳定知识性能。
根据所述当前知识点信息和所述键记忆矩阵计算得到当前知识点键向量;
根据所述相邻知识点信息和所述键记忆矩阵计算得到相邻知识点键向量。
具体地,可采用一个维度为d3×N1矩阵作为键记忆矩阵,其具备存储长期稳定知识性能,记作K。每道***的影响权重,包括当前知识点键向量βt和相邻知识点键向量γt。假设目前的时间步长是t,答题记录为(ct,qt,rt),关于习题qt的知识点集合ct和及其相邻知识点Nt的键向量分别可以通过公式10运算获得:
Figure BDA0002627500720000111
其中,
Figure BDA0002627500720000112
表示Hadamard乘法。
S23、根据所述键向量和所述***,得到当前时刻的知识水平;
在一些实施例中,本步骤可通过以下方式实现:
将所述习题文本信息和所述习题回答记录信息进行第一融合处理;第一融合处理是指信息聚合阶段。
获取所述习题文本信息所属知识图结构;
根据所述第一融合处理后的信息和所述习题文本信息所属知识图结构对所述当前知识点信息和所述相邻知识点信息进行第二融合处理,得到融合特征描述向量;第二融合处理是指值更新阶段。
根据所述融合特征描述向量、所述当前知识点键向量和所述相邻知识点键向量更新所述知识点前一时刻的知识水平,得到当前时刻的知识水平。
具体地,本步骤的知识水平更新的作用主要是进行学***的追踪更新。假设目前的时间步长为t,***更新网络块就会把值-记忆矩阵从前一时间步长vt-1更新为目前知识水平状态vt,为后续的知识水平跟踪和***更新网络块的内容主要包括两方面的过程:信息聚合阶段和值更新阶段。
其中,信息聚合阶段的具体过程为:
假设目前的时间步长为t,习题回答记录信息为(ct,qt,rt),首先,对习题文本信息内容的嵌入表示xt与该习题文本信息的相对答案rt E进行聚合,聚合过程采用公式11:
Figure BDA0002627500720000121
接着,对该习题对应的知识点信息ct及其相邻的知识点Nt,基于信息聚合阶段获取的
Figure BDA0002627500720000122
和该课程相关的知识点图结构进行进一步的融合,可得到融合特征向量
Figure BDA0002627500720000123
其融合过可通过公式12、公式13和公式14实现:
Figure BDA0002627500720000124
Figure BDA0002627500720000125
Figure BDA0002627500720000126
其中,
Figure BDA0002627500720000127
fneighbor是是全连接神经网络函数,该函数用于决定当前知识点集合信息如何传递到相邻知识点集合。
得到融合后的特征向量
Figure BDA0002627500720000128
后,进行知识水平更新,本实施例通过适合于该***状态的更新,其更新运算过程如公式15所示:
Figure BDA0002627500720000129
其中,Vt j是值记忆矩阵Vt里第j列向量,
Figure BDA0002627500720000131
Figure BDA0002627500720000132
属于网络块里需要训练的权重参数。
S24、根据所述键向量和所述当前时刻的知识水平计算得到值向量;本步骤是根据当前知识点信息的键向量和前时刻的知识水平计算得到值向量。其是为了对学员的知识水平进行跟踪。具体地,采用一个d4×N1的记忆矩阵表示学员知识水平的隐状态,记作值记忆矩阵V。假设目前时间步长为t,答题记录为(ct,qt),在进行学***向量,称为值向量,记作
Figure BDA0002627500720000133
其查询过程如公式16所示:
Figure BDA0002627500720000134
其中,softmax(·,·)表示一个vector-wise部分连接softmax神经网络,第一参数的网络输入,第二参数是该网络需要训练的权重参数。
在完成上述知识点的嵌入、查询和更新后,执行步骤S25进行答题预测。
S25、通过多维项目反应网络块根据所述知识点信息、所述值向量和所述习题回答记录信息预测所述习题文本信息的预测回答信息。
具体地,本步骤是在得到学员的知识水平状态后,需要对学员作该道习题的作答情况进行预测。本步骤结合多维项目反应理论的良好解析性与神经网络可微编程的万能逼近性质,实现适用于大规模在线的学生习题可解析性成绩预测。
具体地,利用可微编程方法实现对多维项目反应理论模型的参数进行估计,其模型如公式17所示:
Figure BDA0002627500720000135
其中,
Figure BDA0002627500720000136
表示学员在时间步长t时对知识概念的掌握情况,
Figure BDA0002627500720000137
表示这些掌握情况对学生答题情况影响区分值,dn表示该习题的难度,cn表示答题的猜测系数,cθ用于控制学生能力取值范围的预设器。
本步骤结合多维项目反应理论和可微编程方法对多维项目反应理论模型参数进行求解。
首先,在对学员能力估计中,其主要求解的是参数θt和αt,其中,多维项目反应网络块也叫多维项目反应理论模型,多维项目反应网络块以学员的知识水平Vt j和习题文本内容xt,当前习题知识点的键向量βt作为输入,运用可微编程方法得到需要的参数估计值,其流程可以描述如下公式18:
Figure BDA0002627500720000141
其中,Wθ
Figure BDA0002627500720000142
bθ
Figure BDA0002627500720000143
在对习题难度参数评估时,以知识点的键向量βt和习题文本内容的嵌入xt为网络块的输入,运用可微编程方法,实现参数cn、dn的求解,其具体过程如公式19所示:
Figure BDA0002627500720000144
其中,Wc
Figure BDA0002627500720000145
bc
Figure BDA0002627500720000146
由此,成绩预测输出模块构建完成,
Figure BDA0002627500720000147
为该道***的跟踪与评估,实现对学生习题成绩的可解释预测输出。
在上述模型进行具体应用之前,在一些实施例中,采用随机梯度下降法对所述可解释知识追踪模型的目标函数进行优化。
具体地,本实施例的模型是一种端到端,可全微分的神经网络模型,因此,其需要训练的参数包括:***更新网络块的
Figure BDA00026275007200001410
多维项目反应网络块的{W*,b*}。在第t个时间步长内,本实施例的模型会作答的习题qt给出预测答案
Figure BDA00026275007200001411
该学员作出的实际答案记为案rt。模型训练的目的是通过调整上述参数,基于已观察到的序列s’i={(c1,q1,r1),(c2,q2,r2),...,(cT,qT,rT)}来最小化目标函数公式20:
Figure BDA00026275007200001412
由于该模型是可全微分的,因此,本实施例通过随机梯度下降算法进行目标函数优化,从而完成模型的训练。
综上所述,本发明实施例通过利用多维项目反应网络块的良好参数表示方式、可解析预测输出和万能逼近特性,使得构建的可解释知识追踪模型无需大量领域专家的参与,即能有效应用于在线大规模的学***状态追踪场景。
本发明实施例提供了一种可解释性知识水平追踪***,包括:
构建单元,用于构建可解释知识追踪模型;
其中,如图2所示,所述可解释知识追踪模型包括:
嵌入区分处理模块,用于区分嵌入知识点信息、习题文本信息以及与所述习题文本信息对应的习题回答记录信息;
知识水平可解释查询模块,用于根据所述知识点信息计算得到键向量;根据所述键向量和所述当前时刻的知识水平计算得到值向量;
知识水平可解释更新模块,用于根据所述键向量和所述***,得到当前时刻的知识水平;
可解释习题成绩预测模块,用于通过多维项目反应网络块根据所述知识点信息、所述值向量和所述习题回答记录信息预测所述习题文本信息的预测回答信息。
本发明方法实施例的内容均适用于本***实施例,本***实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法达到的有益效果也相同。
本发明实施例提供了一种可解释性知识水平追踪***,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行第一方面实施例的可解释性知识水平追踪方法。
本发明方法实施例的内容均适用于本***实施例,本***实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法达到的有益效果也相同。
此外,本发明实施例还提供了一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于实现第一方面实施例的可解释性知识水平追踪方法。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (6)

1.一种可解释性知识水平追踪方法,其特征在于,包括以下步骤:
构建可解释知识追踪模型;
在所述可解释知识追踪模型上执行以下步骤:
区分嵌入知识点信息、嵌入习题文本信息以及嵌入与所述习题文本信息对应的习题回答记录信息;
根据所述嵌入知识点信息计算得到键向量;
根据所述键向量和所述嵌入与所述***,得到当前时刻的知识水平;
根据所述键向量和所述当前时刻的知识水平从值记忆矩阵中确定值向量,所述值记忆矩阵用于记录知识水平隐状态;
通过多维项目反应理论和神经网络根据所述嵌入知识点信息、所述值向量和所述嵌入与所述习题文本信息对应的习题回答记录信息预测习题文本信息的预测回答信息;
其中,所述知识点信息包括所述习题文本信息的当前知识点信息和相邻知识点信息;所述嵌入知识点信息,包括:
将所述当前知识点信息和所述相邻知识点信息分别转化为特征描述向量;
分别构建所述特征描述向量的嵌入降维矩阵;
通过所述嵌入降维矩阵对所述特征描述向量进行降维处理;
将降维后的所述特征描述向量进行嵌入处理;
所述嵌入习题文本信息,包括:
获取习题文本信息的语言类别,所述语言类别包括自然语言和编程语言;
当所述习题文本信息的语言类别为自然语言,采用第一类别转化模型将所述习题文本信息转化为词向量,其中,第一类别转化模型为word2vec;
当所述习题文本信息的语言类别为编程语言,采用第二类别转化模型将所述习题文本信息转化为词向量,其中,第二类别转化模型为code2vec;
采用三向GRU循环神经网络对所述词向量进行嵌入处理;
所述嵌入与所述习题文本信息对应的习题回答记录信息,包括:
将习题回答记录信息转化为预设维度的单值向量;
将所述单值向量进行嵌入处理;
所述根据所述嵌入知识点信息计算得到键向量,包括:
嵌入键记忆矩阵,所述键记忆矩阵用于提供知识点成分查询;
根据所述当前知识点信息和所述键记忆矩阵计算得到当前知识点键向量,所述键向量包括通过每道***的影响权重;
根据所述相邻知识点信息和所述键记忆矩阵计算得到相邻知识点键向量;
所述从值记忆矩阵中确定值向量,包括:
在进行学***向量,将相关联的知识水平向量作为值向量。
2.根据权利要求1所述的一种可解释性知识水平追踪方法,其特征在于,所述根据所述键向量和所述嵌入与所述***,得到当前时刻的知识水平,包括:
将所述嵌入习题文本信息和所述嵌入与所述习题文本信息对应的习题回答记录信息进行第一融合处理;
获取所述嵌入习题文本信息所属知识图结构;
根据所述第一融合处理后的信息和所述嵌入习题文本信息所属知识图结构,对所述当前知识点信息和所述相邻知识点信息进行第二融合处理,得到融合特征描述向量;
根据所述融合特征描述向量、所述当前知识点键向量和所述相邻知识点键向量更新知识点前一时刻的知识水平,得到当前时刻的知识水平。
3.根据权利要求1所述一种可解释性知识水平追踪方法,其特征在于,在所述构建可解释知识追踪模型这一步骤后,还包括以下步骤:
采用随机梯度下降法对所述可解释知识追踪模型的目标函数进行优化。
4.一种可解释性知识水平追踪***,其特征在于,包括:
构建单元,用于构建可解释知识追踪模型;
其中,所述可解释知识追踪模型包括:
嵌入区分处理模块,用于区分嵌入知识点信息、嵌入习题文本信息以及嵌入与所述习题文本信息对应的习题回答记录信息;
知识水平可解释更新模块,用于根据所述嵌入知识点信息计算得到键向量;根据所述键向量和所述嵌入与所述***,得到当前时刻的知识水平;
知识水平可解释查询模块,用于根据所述键向量和所述当前时刻的知识水平从值记忆矩阵中确定值向量,所述值记忆矩阵用于记录知识水平隐状态;
可解释习题成绩预测模块,用于通过多维项目反应理论和神经网络根据所述嵌入知识点信息、所述值向量和所述嵌入与所述习题文本信息对应的习题回答记录信息预测习题文本信息的预测回答信息;
其中,所述知识点信息包括所述习题文本信息的当前知识点信息和相邻知识点信息;所述嵌入知识点信息,包括:
将所述当前知识点信息和所述相邻知识点信息分别转化为特征描述向量;
分别构建所述特征描述向量的嵌入降维矩阵;
通过所述嵌入降维矩阵对所述特征描述向量进行降维处理;
将降维后的所述特征描述向量进行嵌入处理;
所述嵌入习题文本信息,包括:
获取习题文本信息的语言类别,所述语言类别包括自然语言和编程语言;
当所述习题文本信息的语言类别为自然语言,采用第一类别转化模型将所述习题文本信息转化为词向量,其中,第一类别转化模型为word2vec;
当所述习题文本信息的语言类别为编程语言,采用第二类别转化模型将所述习题文本信息转化为词向量,其中,第二类别转化模型为code2vec;
采用三向GRU循环神经网络对所述词向量进行嵌入处理;
所述嵌入与所述习题文本信息对应的习题回答记录信息,包括:
将习题回答记录信息转化为预设维度的单值向量;
将所述单值向量进行嵌入处理;
所述根据所述嵌入知识点信息计算得到键向量,包括:
嵌入键记忆矩阵,所述键记忆矩阵用于提供知识点成分查询;
根据所述当前知识点信息和所述键记忆矩阵计算得到当前知识点键向量,所述键向量包括通过每道***的影响权重;
根据所述相邻知识点信息和所述键记忆矩阵计算得到相邻知识点键向量;
所述从值记忆矩阵中确定值向量,包括:
在进行学***向量,将相关联的知识水平向量作为值向量。
5.一种可解释性知识水平追踪***,其特征在于,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行如权利要求1-3任一项所述的可解释性知识水平追踪方法。
6.一种存储介质,其中存储有处理器可执行的指令,其特征在于,所述处理器可执行的指令在由处理器执行时用于实现如权利要求1-3任一项所述的可解释性知识水平追踪方法。
CN202010801341.4A 2020-08-11 2020-08-11 可解释性知识水平追踪方法、***和存储介质 Active CN112116092B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010801341.4A CN112116092B (zh) 2020-08-11 2020-08-11 可解释性知识水平追踪方法、***和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010801341.4A CN112116092B (zh) 2020-08-11 2020-08-11 可解释性知识水平追踪方法、***和存储介质

Publications (2)

Publication Number Publication Date
CN112116092A CN112116092A (zh) 2020-12-22
CN112116092B true CN112116092B (zh) 2022-03-25

Family

ID=73803985

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010801341.4A Active CN112116092B (zh) 2020-08-11 2020-08-11 可解释性知识水平追踪方法、***和存储介质

Country Status (1)

Country Link
CN (1) CN112116092B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112766513B (zh) * 2021-01-29 2024-05-07 华中师范大学 一种记忆协同的知识追踪方法及***
CN112818100B (zh) * 2021-01-29 2023-12-22 华中师范大学 一种融合题目难度的知识追踪方法及***
CN113239699B (zh) * 2021-04-15 2023-11-07 北京师范大学 一种融合多特征的深度知识追踪方法及***
CN113724110A (zh) * 2021-08-27 2021-11-30 中国海洋大学 一种可解释的深度知识追踪方法、***及其应用
CN114417164B (zh) * 2022-01-24 2024-07-02 湖南大学 用户知识状态的追踪方法、装置及存储介质
CN114155124B (zh) * 2022-02-07 2022-07-12 山东建筑大学 一种试题资源推荐方法及***
CN114911975B (zh) * 2022-05-05 2024-04-05 金华航大北斗应用技术有限公司 一种基于图注意力网络的知识追踪方法
CN116306773B (zh) * 2022-09-13 2024-03-26 西湖大学 一种可解释的神经网络高维数据降维分析***
CN116578694B (zh) * 2023-04-21 2024-01-09 华南师范大学 解纠缠知识追踪方法、***、装置和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110297817A (zh) * 2019-06-25 2019-10-01 哈尔滨工业大学 一种基于个性化贝叶斯知识追踪模型构建知识结构的方法
CN110378818A (zh) * 2019-07-22 2019-10-25 广西大学 基于难度的个性化习题推荐方法、***及介质
CN110704732A (zh) * 2019-09-19 2020-01-17 广州大学 基于认知诊断的时序性习题推荐方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140272914A1 (en) * 2013-03-15 2014-09-18 William Marsh Rice University Sparse Factor Analysis for Learning Analytics and Content Analytics
CN107025219B (zh) * 2017-04-19 2019-07-26 厦门大学 一种基于内部语义层次结构的词嵌入表示方法
CN107067849B (zh) * 2017-04-21 2020-10-30 杭州博世数据网络有限公司 基于云教学平台的家长端***
CN107545146A (zh) * 2017-09-08 2018-01-05 北京辅仁淑凡软件科技有限公司 一种可自适应出题的心理测评方法
CN107729987A (zh) * 2017-09-19 2018-02-23 东华大学 基于深度卷积‑循环神经网络的夜视图像的自动描述方法
CN107729497B (zh) * 2017-10-20 2020-08-14 同济大学 一种基于知识图谱的词嵌入深度学习方法
CN108920705B (zh) * 2018-07-19 2020-11-03 邓北平 一种知识点标识的编码方法及装置
CN109598995B (zh) * 2019-01-08 2020-11-17 上海健坤教育科技有限公司 基于贝叶斯知识跟踪模型的智能教学***
CN110377707B (zh) * 2019-07-25 2024-04-02 中国科学技术大学 基于深度项目反应理论的认知诊断方法
CN110428010B (zh) * 2019-08-05 2022-09-06 中国科学技术大学 知识追踪方法
CN110941723A (zh) * 2019-11-18 2020-03-31 广东宜学通教育科技有限公司 一种知识图谱的构建方法、***及存储介质
CN110991645B (zh) * 2019-11-18 2024-03-29 广东宜学通教育科技有限公司 一种基于知识模型的自适应学习方法、***及存储介质
CN110930274B (zh) * 2019-12-02 2023-04-28 中山大学 一种基于认知诊断的实践效果评估及学习路径推荐***和方法
CN111159419B (zh) * 2019-12-09 2021-05-25 浙江师范大学 基于图卷积的知识追踪数据处理方法、***和存储介质
CN111475645B (zh) * 2020-03-17 2024-04-30 平安国际智慧城市科技股份有限公司 知识点标注方法、装置及计算机可读存储介质
CN111461442B (zh) * 2020-04-07 2023-08-29 中国科学技术大学 基于联邦学习的知识追踪的方法及***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110297817A (zh) * 2019-06-25 2019-10-01 哈尔滨工业大学 一种基于个性化贝叶斯知识追踪模型构建知识结构的方法
CN110378818A (zh) * 2019-07-22 2019-10-25 广西大学 基于难度的个性化习题推荐方法、***及介质
CN110704732A (zh) * 2019-09-19 2020-01-17 广州大学 基于认知诊断的时序性习题推荐方法

Also Published As

Publication number Publication date
CN112116092A (zh) 2020-12-22

Similar Documents

Publication Publication Date Title
CN112116092B (zh) 可解释性知识水平追踪方法、***和存储介质
Chen et al. Prerequisite-driven deep knowledge tracing
CN110264091B (zh) 学生认知诊断方法
CN110428010B (zh) 知识追踪方法
Wang et al. Deep hierarchical knowledge tracing
CN110941723A (zh) 一种知识图谱的构建方法、***及存储介质
CN111695779A (zh) 一种知识追踪方法、装置及存储介质
CN115545160B (zh) 一种多学习行为协同的知识追踪方法及***
CN112506945B (zh) 基于知识图谱的自适应导学方法及***
Lu et al. CMKT: Concept map driven knowledge tracing
CN113591988B (zh) 知识认知结构分析方法、***、计算机设备、介质、终端
CN114021722A (zh) 一种融合认知刻画的注意力知识追踪方法
CN115545155A (zh) 一种多层级智能认知追踪方法、***、可存储介质及终端
CN116136870A (zh) 基于增强实体表示的智能社交对话方法、对话***
CN115238036A (zh) 一种基于图注意力网络和文本信息的认知诊断方法及装置
CN115510286A (zh) 一种基于图卷积网络的多关系认知诊断方法
CN115310520A (zh) 融合多特征的深度知识追踪方法及习题推荐方法
CN114971066A (zh) 融合遗忘因素和学习能力的知识追踪方法及***
CN114676903A (zh) 一种基于时间感知和认知诊断的在线预测方法及***
Dai et al. Knowledge tracing: A review of available technologies
CN114707775B (zh) 知识追踪模型训练方法、追踪方法、装置、设备及介质
CN113901309A (zh) Spoc教学模式个性化试题推荐方法、装置、电子设备及介质
Wang et al. Textbook Enhanced Student Learning Outcome Prediction
Song et al. A deep knowledge tracking model integrating difficulty factors
CN117743699B (zh) 一种基于dkt与汤普森采样算法的习题推荐方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant