CN112328804A - 确定学习情况的方法、装置以及存储介质 - Google Patents
确定学习情况的方法、装置以及存储介质 Download PDFInfo
- Publication number
- CN112328804A CN112328804A CN202011157699.4A CN202011157699A CN112328804A CN 112328804 A CN112328804 A CN 112328804A CN 202011157699 A CN202011157699 A CN 202011157699A CN 112328804 A CN112328804 A CN 112328804A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- graph
- user
- node
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000003062 neural network model Methods 0.000 claims abstract description 81
- 230000000306 recurrent effect Effects 0.000 claims abstract description 34
- 230000008569 process Effects 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims description 38
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000007405 data analysis Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 14
- 238000012544 monitoring process Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 125000004122 cyclic group Chemical group 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- Animal Behavior & Ethology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种确定学习情况的方法、装置以及存储介质。其中,该方法包括:接收用户输入的学习过程中产生的学习数据信息;利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息;以及利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况,其中预设的知识图谱中的各个知识节点分别存储有与用户相关的各个知识点的编码信息。
Description
技术领域
本申请涉及自适应学习技术领域,特别是涉及一种确定学习情况的方法、装置以及存储介质。
背景技术
随着在线学***台与***帮助用户进行学习。为了能够更好的引导用户学习,学习***需要对用户的学习情况进行监测。然而,现有的普通学习***采用固定的特征函数来监测用户学习情况,因此监测的方式比较固定。此外,传统的学习情况监测方式只关注于单一的知识点,无法对关联的知识点间进行监测。
针对上述的现有技术中存在的对用户的学习情况监测方式比较固定,并且无法对多个关联的知识点的学习情况进行监测的技术问题,目前尚未提出有效的解决方案。
发明内容
本公开的实施例提供了一种确定学习情况的方法、装置以及存储介质,以至少解决现有技术中存在的对用户的学习情况监测方式比较固定,并且无法对多个关联的知识点的学习情况进行监测的技术问题。
根据本公开实施例的一个方面,提供了一种确定学习情况的方法,包括:接收用户输入的学习过程中产生的学习数据信息;利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息;以及利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况,其中预设的知识图谱中的各个知识节点分别存储有与用户相关的各个知识点的编码信息。
根据本公开实施例的另一个方面,还提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时由处理器执行以上任意一项所述的方法。
根据本公开实施例的另一个方面,还提供了一种确定学习情况的装置,包括:数据接收模块,用于接收用户输入的学习过程中产生的学习数据信息;编码信息确定模块,用于利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息;以及学习情况确定模块,用于利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况,其中预设的知识图谱中的各个知识节点分别存储有与用户相关的各个知识点的编码信息。
根据本公开实施例的另一个方面,还提供了一种确定学习情况的装置,包括:处理器;以及存储器,与处理器连接,用于为处理器提供处理以下处理步骤的指令:接收用户输入的学习过程中产生的学习数据信息;利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息;以及利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况,其中预设的知识图谱中的各个知识节点分别存储有与用户相关的各个知识点的编码信息。
在本公开实施例中,利用循环神经网络模型确定学习数据信息包含的知识点对应的编码信息,然后利用图神经网络模型对该编码信息进行计算,进而更新由各个知识节点构成的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况。因此与现有技术相比,本方案可以根据学习数据信息中包含的知识点不断地更新知识图谱,进而可以更加灵活的分析用户对知识节点的掌握情况。此外,知识图谱是由知识节点构建的,因此知识点之间存在关联关系,进而可以确定多个关联的知识点的掌握情况,使得学习情况的监测更加准确。达到了灵活、准确地确定用户对各个知识节点的掌握情况的技术效果。进而解决了现有技术中存在的对用户的学习情况监测方式比较固定,并且无法对多个关联的知识点的学习情况进行监测的技术问题。
附图说明
此处所说明的附图用来提供对本公开的进一步理解,构成本申请的一部分,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。在附图中:
图1是用于实现根据本公开实施例1所述的方法的计算设备的硬件结构框图;
图2是根据本公开实施例1的第一个方面所述的确定学习情况的方法的流程示意图;
图3A是根据本公开实施例1的第一个方面所述的预设的知识图谱示意图;
图3B是根据本公开实施例1的第一个方面所述的更新后的知识图谱示意图;
图4是根据本公开实施例2所述的确定学习情况的装置的示意图;以及
图5是根据本公开实施例3所述的确定学习情况的装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本公开的技术方案,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本公开一部分的实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本公开保护的范围。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本实施例,还提供了一种确定学习情况的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本实施例所提供的方法实施例可以在服务器或者类似的计算设备中执行。图1示出了一种用于实现确定学习情况的方法的计算设备的硬件结构框图。如图1所示,计算设备可以包括一个或多个处理器(处理器可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器、以及用于通信功能的传输装置。除此以外,还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(USB)端口(可以作为I/O接口的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算设备还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
应当注意到的是上述一个或多个处理器和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算设备中的其他元件中的任意一个内。如本公开实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器可用于存储应用软件的软件程序以及模块,如本公开实施例中的确定学习情况的方法对应的程序指令/数据存储装置,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的应用程序的确定学习情况的方法。存储器可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至计算设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算设备的通信供应商提供的无线网络。在一个实例中,传输装置包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与计算设备的用户界面进行交互。
此处需要说明的是,在一些可选实施例中,上述图1所示的计算设备可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图1仅为特定具体实例的一个实例,并且旨在示出可存在于上述计算设备中的部件的类型。
在上述运行环境下,根据本实施例的第一个方面,提供了一种确定学***台***的服务器上运行。图2示出了该方法的流程示意图,参考图2所示,该方法包括:
S202:接收用户输入的学习过程中产生的学习数据信息;
S204:利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息;以及
S206:利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况,其中预设的知识图谱中的各个知识节点分别存储有与用户相关的各个知识点的编码信息。
正如背景技术中所述的,随着在线学***台与***帮助用户进行学习。为了能够更好的引导用户学习,学习***需要对用户的学习情况进行监测。然而,现有的普通学习***采用固定的特征函数来监测用户学习情况,因此监测的方式比较固定。此外,传统的学习情况监测方式只关注于单一的知识点,无法对关联的知识点间进行监测。
针对背景技术中存在的的技术问题,本实施例提供的技术方案在步骤S202中,服务器首先接收用户输入的学***台进行学***台,在这种情况下,教育平台的服务器可以接收该学习数据信息。此外,服务器还可以在用户的学习过程中主动获取该学习数据信息,此处关于学习数据信息的产生以及获取方式不做具体限定。
进一步地,在步骤S204中,服务器利用预先训练的循环神经网络模型对学***台会预先设置训练的循环神经网络模型(RNN模型),在服务器接收到用户输入的学习数据信息的情况下,服务器可以调用该循环神经网络模型对该学习数据信息进行计算,确定其中包含的知识点对应的编码信息。
在一个具体实例中,例如用户进行数学课程的学习,因此用户输入的学习数据信息包括与“数学”相关的知识点。服务器首先利用循环神经网络模型确定学习数据信息包含的知识点,例如该知识点为“函数”,然后确定与该知识点对应的编码信息,即根据该知识点生成对应的编码信息。需要说明的是,上述只是以一个知识点为例,但是在实际学习过程中,可能会涉及到多个知识点,因此学习数据信息中还可能包括多个知识点,最终需要确定与每个知识点对应的编码信息。
最终,在步骤S206中,服务器利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱,其中预设的知识图谱中的各个知识节点分别存储有与用户相关的各个知识点的编码信息。在一个具体实例中,该知识图谱是根据用户的学习过程而不断更信息的,例如:从用户开始学习到现在,已经学习了“集合”、“数列”、“不等式”、“方程”、“二次方程”等知识点,因此,参考图3A所示,该知识图谱中可能包括“集合”、“数列”、“不等式”、“方程”、“二次方程”等五个知识节点(此外还包括“数学”节点),图3A中的知识图谱只是示例性的解释说明,在实际场景中,该知识图谱的节点可以根据用户的学习进度而确定。此外,在知识图谱中,每个知识节点存储有各个知识点的编码信息,即:知识点是以编码信息的形式存储在知识图谱中对应的知识节点上。在用户本次输入信息中包括“函数”知识点的情况下,服务器可以将“函数”知识点对应的编码信息输入至该图神经网络模型进行计算,从而对整个知识图谱进行更新,参考图3B所示,更新后的知识图谱中包括“集合”、“数列”、“不等式”、“方程”、“二次方程”、“函数”等六个知识节点(此外还包括“数学”节点)。
并且,服务器需要确定用户对更新后的知识图谱中的各个知识节点的掌握情况。其中,用户对各个知识节点的掌握情况可以根据用户上传的学习数据信息确定,例如:用户上传的学习数据信息为答题信息,因此可以通过答题信息的准确率确定用户对该知识点的掌握情况。例如:用户本次上传的对于“函数”知识点的答题信息中准确率为80%,则可以确定用户对“函数”知识点的掌握情况为掌握80%,其他的各个节点同理与“函数”知识点的计算方式,此处不再赘述。利用模型对用户每次上传的学习数据信息进行分析计算,不断迭代更新知识图谱,最终确定用户对知识图谱中的各个知识节点的掌握情况。
从而通过这种方式,利用循环神经网络模型确定学习数据信息包含的知识点对应的编码信息,然后利用图神经网络模型对该编码信息进行计算,进而更新由各个知识节点构成的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况。因此与现有技术相比,本方案可以根据学习数据信息中包含的知识点不断地更新知识图谱,进而可以更加灵活的分析用户对知识节点的掌握情况。此外,知识图谱是由知识节点构建的,因此知识点之间存在关联关系,进而可以确定多个关联的知识点的掌握情况,使得学习情况的监测更加准确。达到了灵活、准确地确定用户对各个知识节点的掌握情况的技术效果。进而解决了现有技术中存在的对用户的学习情况监测方式比较固定,并且无法对多个关联的知识点的学习情况进行监测的技术问题。
可选地,利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱的操作,包括:利用图神经网络模型,从大数据分析中提取预设的知识图谱中的各个知识节点之间的关系强度作为更新预设的知识图谱的更新权重;生成待添加至预设的知识图谱的新知识节点,其中新知识节点用于存储与学习数据信息包含的知识点对应的编码信息;以及将新知识节点添加至预设的知识图谱,并根据更新权重对预设的知识图谱进行更新。
具体地,在利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱的操作中,服务器首先利用图神经网络模型,从大数据分析中提取预设的知识图谱中的各个知识节点之间的关系强度作为更新预设的知识图谱的更新权重。其中,可以应用大数据提取所有学习用户的用户信息并且识别不同用户模式,然后对知识图谱中的各个知识节点进行分析,确定各个知识节点之间的关系强度。
其中,通过大数据分析可以确定学习过程中包括的知识点之间的关系强度,不同的知识节点之间的关系强度可能不同,例如:上述的“方程”与“二次方程”的关系强度较强,“方程”与“集合”关系强度较弱等,通过大数据分析可以确定该学习过程中包括的所有知识点(不限于现有的知识图谱中的知识节点)之间的强度关系,然后根据强度关系作为更新预设的知识图谱的更新权重。进一步地,服务器生成待添加至预设的知识图谱的新知识节点,其中新知识节点用于存储与学习数据信息包含的知识点对应的编码信息,即生成一个新的知识节点,该新知识节点需要添加至预设的知识图谱中,并且新知识节点用于存储与学习数据信息包含的知识点对应的编码信息,即:将“函数”对应的编码信息添加至该新生成节点中。最终,服务器将新知识节点添加至预设的知识图谱,即将“函数”知识节点添加到知识图谱中进行知识图谱的更新。由于知识图谱中新增了一个知识节点,因此需要对更新后的知识图谱中的每个知识节点对应的编码信息进行更新,其中更新的方式可以采用卷积法并结合上述确定的更新权重对知识图谱进行更新。
从而通过这种方式,在对知识图谱进行更新的过程中可以利用大数据分析知识节点之间的关系强度,即在对知识图谱进行更新的过程中利用了所有学习用户的用户信息,然后将分析得到的各个知识节点之间的关系强度作为更新权重,最终根据更新权重对知识图谱进行更新。由于采用大数据分析,使得更新的知识图谱更加准确,并且各节点之间的逻辑关系更加合理。
可选地,更新权重包括预设的知识图谱中的各个知识节点的节点更新权重和各个边的边更新权重,并且根据更新权重对预设的知识图谱进行更新的操作,包括:根据节点更新权重和边更新权重,对已添加新知识节点的知识图谱中的各个知识节点存储的编码信息进行重新计算;以及将重新计算得到的结果分别存储至已添加新知识节点的知识图谱中的各个知识节点。
具体地,更新权重包括预设的知识图谱中的各个知识节点的节点更新权重和各个边的边更新权重,例如:参考图3A所示,每个知识节点(集合、方程等知识节点)对应有更新权重,每个知识节点之间的连线(边)也对应有更新权重,例如:“方程”节点与“二次方程”节点之间的边对应有更新权重,“数学”节点和“方程”节点之间的边也对应有更新权重,其他的节点和边都对应有更新权重,此处不再赘述。其中,服务器在确定知识图谱中的各个知识节点之间的关系强度的时候采用模式识别的方式分配边的权重。
在根据更新权重对预设的知识图谱进行更新的操作中,服务器首先根据节点更新权重和边更新权重,对已添加新知识节点的知识图谱中的各个知识节点存储的编码信息进行重新计算。由于知识图谱中新增了“函数”知识节点,因此需要对更新后的知识图谱中每个节点对应的节点编码进行重新计算,其中可以根据节点更新权重和边更新权重计算节点编码,例如根据每个节点对应的权重以及与该节点连接点边对应的更新权重,计算该节点的编码信息。从而通过这种方式,在对更新后的知识图谱中的每个知识节点对应的编码信息的操作中,可以根据每个节点以及边的更新权重进行计算,保证了各个知识节点存储的编码信息能够准确地代表所存储知识的信息。
可选地,利用预先训练的图神经网络模型,确定用户对更新后的知识图谱中的各个知识节点的掌握情况的操作,包括:利用预设的解编码网络,分别对更新后的知识图谱中的各个知识节点存储的编码信息进行解编码操作;将解编码操作得到的结果输入预设的全连接神经网络,输出用户对更新后的知识图谱中的各个知识节点的掌握情况;以及根据用户的历史掌握情况、当前学习进度信息和所输出的掌握情况,确定用户对更新后的知识图谱中的各个知识节点的掌握情况。
具体地,本实施例技术方案中还包括解编码网络(即,解码器)。在利用预先训练的图神经网络模型,确定用户对更新后的知识图谱中的各个知识节点的掌握情况的操作中,服务器首先利用预设的解编码网络,分别对更新后的知识图谱中的各个知识节点存储的编码信息进行解编码操作。其中通过解编码操作例如可以使得每个节点对应的编码信息解码成为***可进行计算的数据形式。进一步地,服务器将解编码操作得到的结果输入预设的全连接神经网络,输出用户对更新后的知识图谱中的各个知识节点的掌握情况。其中,该预设的全连接神经网络可以根据实际需求进行输出,例如输出每个节点的掌握情况的百分比数值。在使用过程中,可以将解编码后的结果输入至该全连接神经网络,最终输出该掌握情况。
进一步地,为了保障反馈给用户的学习掌握情况的准确性,服务器需要根据用户的历史掌握情况、当前学习进度信息和所输出的掌握情况,确定用户对更新后的知识图谱中的各个知识节点的掌握情况。即,在确定最终的掌握情况的操作中,可以结合历史的掌握情况(例如:每次更新知识图谱中每个知识点的掌握情况)、当前学习进度(例如:已经学习到的知识点和未进行学习的知识点情况)以及本次输出的掌握情况,共同确定用户对更新后的知识图谱中的各个知识节点的掌握情况。从而,通过这种方式确定的掌握情况更加全面,并且可以结合历史数据以及学习进度,可以反应用户对每个知识节点的学习进步情况。
可选地,本方案还包括:根据用户对更新后的所述知识图谱中的各个知识节点的掌握情况,确定与用户对应的学习路径;以及将学习路径推送至所述用户的终端设备。
具体地,本方案还可以根据用户对知识图谱中各个知识节点的掌握情况确定学习路径,在一个具体实例中,可以根据每个知识点掌握情况的好坏确定学习路径,例如:对“二次方程”掌握情况较差,则将“二次方程”相关的知识放在学习路径的最前端,使得用户优先学习二次方程知识。进一步地,本方案还可以将该学习路径发送至用户的终端设备,从而用户可以根据***制订的学习路径进行学习,由于该学习路径是经过***根据用户的掌握情况确定的,因此可以提高用户的学习效率。
可选地,利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息,包括:利用预先训练的循环神经网络模型提取学习数据信息中包含的知识点对应的特征信息;以及利用预设的编码网络对特征信息进行编码处理,确定知识点的编码信息。
具体地,在利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息的操作中,服务器首先利用预先训练的循环神经网络模型提取学习数据信息中包含的知识点对应的特征信息,即从学习数据信息中提取知识点的特征信息,在一个具体实例中,例如学习数据信息中包括f(x)=a+b,则确定的知识点可以是“函数”,然后生成与“函数”对应的特征信息。进一步地,为了使得该特征信息可以为图神经网络所识别,因此服务器还需要利用预设的编码网络对特征信息进行编码处理,确定知识点的编码信息,例如:利用与上述解编码网络对应的编码网络对特征信息进行编码,得到该编码信息。从而,可以将得到的编码信息输入至图神经网络进行计算。
可选地,方法还包括根据以下步骤训练图神经网络模型:获取用于训练训练编码信息,其中训练编码信息是循环神经网络模型对用于训练的学习数据信息进行计算确定的;将训练编码信息输入至图神经网络模型进行计算;以及根据计算的结果,利用梯度下降方式对图神经网络模型进行优化训练。
具体地,本实施例技术方案还包括训练图神经网络模型的步骤。具体地,首先获取用于训练训练编码信息,其中训练编码信息是循环神经网络模型对用于训练的学习数据信息进行计算确定的。此处需要补充说明的是,本方案还包括训练该循环神经网络模型,具体地通过单独的用户的学习情况,用序列数据训练该循环神经网络。然后冻结循环神经网络的变量(即,保持训练完成的循环神经网络不变),然后用卷积法训练图神经网络模型。其中,图神经网络的储存结构如下:假定知识图谱中共有N个节点,每两个节点间有相邻边E,那么整个知识图谱由{Vi,Eij:i<n,j<n}来表示。在一个具体实例中,图神经网络模型训练过程如下:
1.每一次对于知识点K用户输入数据Sk。
2.我们使用循环神经网络编码器对Sk处理过后得到编码Bk。
3.我们将Bk作为一个对于图神经网络模型的输入值进行运算,计算如下:
4.我们使用梯度下降来训练图神经网络,使其存储的顶点编码能够最大程度地代表所存储知识的信息。
5.我们使用一个解编码器来翻译顶点编码的信息,计算如下:
此外,在图神经网络模型训练完成之后,冻结循环神经网络和图神经网络(即,保持训练好的模型的参数不变),训练全连接神经网络。
需要特别补充说明的是,知识图谱的更新还会使用大数据。我们应该大数据提取所有用户信息并且识别不同用户模式,在构建知识图谱关系联系的时候采用模式识别的方式分配边的权重,结合用户本身的历史记录,达到高效冷启动和完全差异化的知识储存和提取过程。
本实施例技术方案结合了循环神经网络(RNN),卷积图神经网络(GNN),知识图谱和大数据。是一种新型的基于人工神经网络的储存知识体系和差异化提取信息的方法。与现有技术相比,本方案的学习***采用多套自适应的人工神经网络和大数据的集成,能够根据单独用户和所有用户的学习情况以及历史数据,给每个用户提供最优化的学习路径。我们实现的的基于注意力图人工神经网络(Graph Attention Neural Network)的数据储存***不仅能够链接不同知识节点,还能根据知识点关系的不同来决定链接的权重。
此外,参考图1所示,根据本实施例的第二个方面,提供了一种存储介质。所述存储介质包括存储的程序,其中,在所述程序运行时由处理器执行以上任意一项所述的方法。
从而根据本实施例,利用循环神经网络模型确定学习数据信息包含的知识点对应的编码信息,然后利用图神经网络模型对该编码信息进行计算,进而更新由各个知识节点构成的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况。因此与现有技术相比,本方案可以根据学习数据信息中包含的知识点不断地更新知识图谱,进而可以更加灵活的分析用户对知识节点的掌握情况。此外,知识图谱是由知识节点构建的,因此知识点之间存在关联关系,进而可以确定多个关联的知识点的掌握情况,使得学习情况的监测更加准确。达到了灵活、准确地确定用户对各个知识节点的掌握情况的技术效果。进而解决了现有技术中存在的对用户的学习情况监测方式比较固定,并且无法对多个关联的知识点的学习情况进行监测的技术问题。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
实施例2
图4示出了根据本实施例所述的确定学习情况的装置400,该装置400与根据实施例1的第一个方面所述的方法相对应。参考图4所示,该装置400包括:数据接收模块410,用于接收用户输入的学习过程中产生的学习数据信息;编码信息确定模块420,用于利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息;以及学习情况确定模块430,用于利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况,其中预设的知识图谱中的各个知识节点分别存储有与用户相关的各个知识点的编码信息。
可选地,学习情况确定模块430,包括:权重确定子模块,用于利用图神经网络模型,从大数据分析中提取预设的知识图谱中的各个知识节点之间的关系强度作为更新预设的知识图谱的更新权重;节点添加子模块,用于生成待添加至预设的知识图谱的新知识节点,其中新知识节点用于存储与学习数据信息包含的知识点对应的编码信息;以及知识图谱更新子模块,用于将新知识节点添加至预设的知识图谱,并根据更新权重对预设的知识图谱进行更新。
可选地,更新权重包括预设的知识图谱中的各个知识节点的节点更新权重和各个边的边更新权重,并且知识图谱更新子模块,包括:计算单元,用于根据节点更新权重和边更新权重,对已添加新知识节点的知识图谱中的各个知识节点存储的编码信息进行重新计算;以及更新单元,用于将重新计算得到的结果分别存储至已添加新知识节点的知识图谱中的各个知识节点。
可选地,学习情况确定模块430,包括:解码子模块,用于利用预设的解编码网络,分别对更新后的知识图谱中的各个知识节点存储的编码信息进行解编码操作;第一输出子模块,用于将解编码操作得到的结果输入预设的全连接神经网络,输出用户对更新后的知识图谱中的各个知识节点的掌握情况;以及第二输出子模块,用于根据用户的历史掌握情况、当前学习进度信息和所输出的掌握情况,确定用户对更新后的知识图谱中的各个知识节点的掌握情况。
可选地,装置400还包括:学习路径确定模块,用于根据用户对更新后的知识图谱中的各个知识节点的掌握情况,确定与用户对应的学习路径;以及推送子模块,用于将学习路径推送至用户的终端设备。
可选地,编码信息确定模块420,包括:特征提取子模块,用于利用预先训练的循环神经网络模型提取学习数据信息中包含的知识点对应的特征信息;以及编码子模块,用于利用预设的编码网络对特征信息进行编码处理,确定知识点的编码信息。
可选地,装置400还包括训练模块,用于根据以下步骤训练图神经网络模型:获取用于训练训练编码信息,其中训练编码信息是循环神经网络模型对用于训练的学习数据信息进行计算确定的;将训练编码信息输入至图神经网络模型进行计算;以及根据计算的结果,利用梯度下降方式对图神经网络模型进行优化训练。
从而根据本实施例,利用循环神经网络模型确定学习数据信息包含的知识点对应的编码信息,然后利用图神经网络模型对该编码信息进行计算,进而更新由各个知识节点构成的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况。因此与现有技术相比,本方案可以根据学习数据信息中包含的知识点不断地更新知识图谱,进而可以更加灵活的分析用户对知识节点的掌握情况。此外,知识图谱是由知识节点构建的,因此知识点之间存在关联关系,进而可以确定多个关联的知识点的掌握情况,使得学习情况的监测更加准确。达到了灵活、准确地确定用户对各个知识节点的掌握情况的技术效果。进而解决了现有技术中存在的对用户的学习情况监测方式比较固定,并且无法对多个关联的知识点的学习情况进行监测的技术问题。
实施例3
图5示出了根据本实施例所述的确定学习情况的装置500,该装置500与根据实施例1的第一个方面所述的方法相对应。参考图5所示,该装置500包括:处理器510;以及存储器520,与处理器510连接,用于为处理器510提供处理以下处理步骤的指令:接收用户输入的学习过程中产生的学习数据信息;利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息;以及利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况,其中预设的知识图谱中的各个知识节点分别存储有与用户相关的各个知识点的编码信息。
可选地,利用预先训练的图神经网络模型,根据编码信息更新预设的知识图谱的操作,包括:利用图神经网络模型,从大数据分析中提取预设的知识图谱中的各个知识节点之间的关系强度作为更新预设的知识图谱的更新权重;生成待添加至预设的知识图谱的新知识节点,其中新知识节点用于存储与学习数据信息包含的知识点对应的编码信息;以及将新知识节点添加至预设的知识图谱,并根据更新权重对预设的知识图谱进行更新。
可选地,更新权重包括预设的知识图谱中的各个知识节点的节点更新权重和各个边的边更新权重,并且根据更新权重对预设的知识图谱进行更新的操作,包括:根据节点更新权重和边更新权重,对已添加新知识节点的知识图谱中的各个知识节点存储的编码信息进行重新计算;以及将重新计算得到的结果分别存储至已添加新知识节点的知识图谱中的各个知识节点。
可选地,利用预先训练的图神经网络模型,确定用户对更新后的知识图谱中的各个知识节点的掌握情况的操作,包括:利用预设的解编码网络,分别对更新后的知识图谱中的各个知识节点存储的编码信息进行解编码操作;将解编码操作得到的结果输入预设的全连接神经网络,输出用户对更新后的知识图谱中的各个知识节点的掌握情况;以及根据用户的历史掌握情况、当前学习进度信息和所输出的掌握情况,确定用户对更新后的知识图谱中的各个知识节点的掌握情况。
可选地,存储器520还用于为处理器510提供处理以下处理步骤的指令:根据用户对更新后的知识图谱中的各个知识节点的掌握情况,确定与用户对应的学习路径;以及将学习路径推送至用户的终端设备。
可选地,利用预先训练的循环神经网络模型对学习数据信息进行计算,确定与学习数据信息包含的知识点对应的编码信息,包括:利用预先训练的循环神经网络模型提取学习数据信息中包含的知识点对应的特征信息;以及利用预设的编码网络对特征信息进行编码处理,确定知识点的编码信息。
可选地,还包括根据以下步骤训练图神经网络模型:获取用于训练训练编码信息,其中训练编码信息是循环神经网络模型对用于训练的学习数据信息进行计算确定的;将训练编码信息输入至图神经网络模型进行计算;以及根据计算的结果,利用梯度下降方式对图神经网络模型进行优化训练。
从而根据本实施例,利用循环神经网络模型确定学习数据信息包含的知识点对应的编码信息,然后利用图神经网络模型对该编码信息进行计算,进而更新由各个知识节点构成的知识图谱,并确定用户对更新后的知识图谱中的各个知识节点的掌握情况。因此与现有技术相比,本方案可以根据学习数据信息中包含的知识点不断地更新知识图谱,进而可以更加灵活的分析用户对知识节点的掌握情况。此外,知识图谱是由知识节点构建的,因此知识点之间存在关联关系,进而可以确定多个关联的知识点的掌握情况,使得学习情况的监测更加准确。达到了灵活、准确地确定用户对各个知识节点的掌握情况的技术效果。进而解决了现有技术中存在的对用户的学习情况监测方式比较固定,并且无法对多个关联的知识点的学习情况进行监测的技术问题。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种确定学习情况的方法,其特征在于,包括:
接收用户输入的学习过程中产生的学习数据信息;
利用预先训练的循环神经网络模型对所述学习数据信息进行计算,确定与所述学习数据信息包含的知识点对应的编码信息;以及
利用预先训练的图神经网络模型,根据所述编码信息更新预设的知识图谱,并确定所述用户对更新后的所述知识图谱中的各个知识节点的掌握情况,其中所述预设的知识图谱中的各个知识节点分别存储有与所述用户相关的各个知识点的编码信息。
2.根据权利要求1所述的方法,其特征在于,利用预先训练的图神经网络模型,根据所述编码信息更新预设的知识图谱的操作,包括:
利用所述图神经网络模型,从大数据分析中提取所述预设的知识图谱中的各个知识节点之间的关系强度作为更新所述预设的知识图谱的更新权重;
生成待添加至所述预设的知识图谱的新知识节点,其中所述新知识节点用于存储与所述学习数据信息包含的知识点对应的编码信息;以及
将所述新知识节点添加至所述预设的知识图谱,并根据所述更新权重对所述预设的知识图谱进行更新。
3.根据权利要求2所述的方法,其特征在于,所述更新权重包括所述预设的知识图谱中的各个知识节点的节点更新权重和各个边的边更新权重,并且根据所述更新权重对所述预设的知识图谱进行更新的操作,包括:
根据所述节点更新权重和所述边更新权重,对已添加所述新知识节点的所述知识图谱中的各个知识节点存储的编码信息进行重新计算;以及
将重新计算得到的结果分别存储至已添加所述新知识节点的所述知识图谱中的各个知识节点。
4.根据权利要求3所述的方法,其特征在于,利用预先训练的图神经网络模型,确定所述用户对更新后的所述知识图谱中的各个知识节点的掌握情况的操作,包括:
利用预设的解编码网络,分别对更新后的所述知识图谱中的各个知识节点存储的编码信息进行解编码操作;
将所述解编码操作得到的结果输入预设的全连接神经网络,输出所述用户对更新后的所述知识图谱中的各个知识节点的掌握情况;以及
根据所述用户的历史掌握情况、当前学习进度信息和所输出的所述掌握情况,确定所述用户对更新后的所述知识图谱中的各个知识节点的掌握情况。
5.根据权利要求1所述的方法,其特征在于,还包括:
根据所述用户对更新后的所述知识图谱中的各个知识节点的掌握情况,确定与所述用户对应的学习路径;以及
将所述学习路径推送至所述用户的终端设备。
6.根据权利要求1所述的方法,其特征在于,利用预先训练的循环神经网络模型对所述学习数据信息进行计算,确定与所述学习数据信息包含的知识点对应的编码信息,包括:
利用预先训练的循环神经网络模型提取所述学习数据信息中包含的知识点对应的特征信息;以及
利用预设的编码网络对所述特征信息进行编码处理,确定所述知识点的编码信息。
7.根据权利要求1所述的方法,其特征在于,还包括根据以下步骤训练所述图神经网络模型:
获取用于训练训练编码信息,其中所述训练编码信息是所述循环神经网络模型对用于训练的学习数据信息进行计算确定的;
将所述训练编码信息输入至所述图神经网络模型进行计算;以及
根据计算的结果,利用梯度下降方式对所述图神经网络模型进行优化训练。
8.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时由处理器执行权利要求1至7中任意一项所述的方法。
9.一种确定学习情况的装置,其特征在于,包括:
数据接收模块,用于接收用户输入的学习过程中产生的学习数据信息;
编码信息确定模块,用于利用预先训练的循环神经网络模型对所述学习数据信息进行计算,确定与所述学习数据信息包含的知识点对应的编码信息;以及
学习情况确定模块,用于利用预先训练的图神经网络模型,根据所述编码信息更新预设的知识图谱,并确定所述用户对更新后的所述知识图谱中的各个知识节点的掌握情况,其中所述预设的知识图谱中的各个知识节点分别存储有与所述用户相关的各个知识点的编码信息。
10.一种确定学习情况的装置,其特征在于,包括:
处理器;以及
存储器,与所述处理器连接,用于为所述处理器提供处理以下处理步骤的指令:
接收用户输入的学习过程中产生的学习数据信息;
利用预先训练的循环神经网络模型对所述学习数据信息进行计算,确定与所述学习数据信息包含的知识点对应的编码信息;以及
利用预先训练的图神经网络模型,根据所述编码信息更新预设的知识图谱,并确定所述用户对更新后的所述知识图谱中的各个知识节点的掌握情况,其中所述预设的知识图谱中的各个知识节点分别存储有与所述用户相关的各个知识点的编码信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011157699.4A CN112328804A (zh) | 2020-10-26 | 2020-10-26 | 确定学习情况的方法、装置以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011157699.4A CN112328804A (zh) | 2020-10-26 | 2020-10-26 | 确定学习情况的方法、装置以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112328804A true CN112328804A (zh) | 2021-02-05 |
Family
ID=74311022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011157699.4A Pending CN112328804A (zh) | 2020-10-26 | 2020-10-26 | 确定学习情况的方法、装置以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112328804A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160133162A1 (en) * | 2014-11-10 | 2016-05-12 | International Business Machines Corporation | Student specific learning graph |
CN108615423A (zh) * | 2018-06-21 | 2018-10-02 | 中山大学新华学院 | 一种基于深度学习的线上教育管理*** |
KR20190004429A (ko) * | 2017-07-04 | 2019-01-14 | 주식회사 알고리고 | 신경망 모델에서 입력값에 대한 재학습 여부 결정 방법 및 장치 |
CN110263179A (zh) * | 2019-06-12 | 2019-09-20 | 湖南酷得网络科技有限公司 | 学习路径推送方法、装置、计算机设备和存储介质 |
CN110544414A (zh) * | 2019-07-31 | 2019-12-06 | 安徽淘云科技有限公司 | 知识图谱的处理方法和装置 |
CN110852071A (zh) * | 2019-11-08 | 2020-02-28 | 科大讯飞股份有限公司 | 知识点检测方法、装置、设备及可读存储介质 |
CN111582694A (zh) * | 2020-04-29 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 一种学习评估方法及装置 |
CN111753098A (zh) * | 2020-06-23 | 2020-10-09 | 陕西师范大学 | 一种基于跨媒体动态知识图谱的教学方法及*** |
-
2020
- 2020-10-26 CN CN202011157699.4A patent/CN112328804A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160133162A1 (en) * | 2014-11-10 | 2016-05-12 | International Business Machines Corporation | Student specific learning graph |
KR20190004429A (ko) * | 2017-07-04 | 2019-01-14 | 주식회사 알고리고 | 신경망 모델에서 입력값에 대한 재학습 여부 결정 방법 및 장치 |
CN108615423A (zh) * | 2018-06-21 | 2018-10-02 | 中山大学新华学院 | 一种基于深度学习的线上教育管理*** |
CN110263179A (zh) * | 2019-06-12 | 2019-09-20 | 湖南酷得网络科技有限公司 | 学习路径推送方法、装置、计算机设备和存储介质 |
CN110544414A (zh) * | 2019-07-31 | 2019-12-06 | 安徽淘云科技有限公司 | 知识图谱的处理方法和装置 |
CN110852071A (zh) * | 2019-11-08 | 2020-02-28 | 科大讯飞股份有限公司 | 知识点检测方法、装置、设备及可读存储介质 |
CN111582694A (zh) * | 2020-04-29 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 一种学习评估方法及装置 |
CN111753098A (zh) * | 2020-06-23 | 2020-10-09 | 陕西师范大学 | 一种基于跨媒体动态知识图谱的教学方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109815339B (zh) | 基于TextCNN知识抽取方法、装置、计算机设备及存储介质 | |
CN110599838A (zh) | 一种数学自动出题方法及装置 | |
CN108090218A (zh) | 基于深度强化学习的对话***生成方法和装置 | |
CN111178537B (zh) | 一种特征提取模型训练方法及设备 | |
CN113361698A (zh) | 神经网络模型的处理方法和装置、数据处理方法和装置 | |
CN113486173B (zh) | 文本标注神经网络模型及其标注方法 | |
CN115936180A (zh) | 光伏发电功率预测方法、装置和计算机设备 | |
CN113077058B (zh) | 一种由用户终端执行的推送模型优化方法和装置 | |
CN111709790A (zh) | 一种日前市场异常电价辨识方法、装置、设备和存储介质 | |
CN111523798B (zh) | 一种自动建模的方法、装置、***、及其电子设备 | |
CN112328804A (zh) | 确定学习情况的方法、装置以及存储介质 | |
CN115082800B (zh) | 图像分割方法 | |
CN115424725A (zh) | 数据的分析方法和装置、存储介质及处理器 | |
CN114154415A (zh) | 设备寿命的预测方法及装置 | |
CN114398907A (zh) | 话题动态推荐方法、装置、存储介质以及电子设备 | |
CN113313615A (zh) | 一种对企业司法风险进行量化评分定级的方法及装置 | |
CN110929866B (zh) | 神经网络模型的训练方法、装置和*** | |
CN110826582B (zh) | 图像特征训练方法、装置和*** | |
CN116049448B (zh) | 基于知识图谱的电能质量扰动识别模型的构建和识别方法 | |
CN111538914A (zh) | 地址信息的处理方法和装置 | |
CN117993504A (zh) | 数据集的构建方法、语言模型的确定方法和信息处理方法 | |
CN113919604A (zh) | 时间序列数据的预测方法、装置、存储介质及处理器 | |
CN115273820A (zh) | 音频处理方法、装置、存储介质及电子设备 | |
CN115222842A (zh) | 视频数据处理的方法和装置、电子设备和存储介质 | |
CN114283491A (zh) | 运动对象动作识别方法、装置及设备、非易失性存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |