CN115511679A - 由参与度水平的实时识别驱动的适应性学习环境 - Google Patents
由参与度水平的实时识别驱动的适应性学习环境 Download PDFInfo
- Publication number
- CN115511679A CN115511679A CN202211309841.1A CN202211309841A CN115511679A CN 115511679 A CN115511679 A CN 115511679A CN 202211309841 A CN202211309841 A CN 202211309841A CN 115511679 A CN115511679 A CN 115511679A
- Authority
- CN
- China
- Prior art keywords
- user
- engagement
- computing device
- instructional content
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 68
- 238000000034 method Methods 0.000 claims abstract description 72
- 230000006978 adaptation Effects 0.000 claims abstract description 52
- 230000008569 process Effects 0.000 claims description 46
- 230000007613 environmental effect Effects 0.000 claims description 20
- 230000002452 interceptive effect Effects 0.000 claims description 14
- 238000012512 characterization method Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 12
- 230000008921 facial expression Effects 0.000 claims description 12
- 210000003128 head Anatomy 0.000 claims description 12
- 230000010344 pupil dilation Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 10
- 230000001755 vocal effect Effects 0.000 claims description 10
- 230000036961 partial effect Effects 0.000 claims description 8
- 230000001149 cognitive effect Effects 0.000 claims description 7
- 230000001953 sensory effect Effects 0.000 claims description 7
- 230000001052 transient effect Effects 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 6
- 230000003542 behavioural effect Effects 0.000 claims description 6
- 230000008451 emotion Effects 0.000 claims description 6
- 230000002996 emotional effect Effects 0.000 claims description 6
- 230000000977 initiatory effect Effects 0.000 claims description 6
- 239000013589 supplement Substances 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 3
- 230000036544 posture Effects 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000015654 memory Effects 0.000 description 9
- 230000008447 perception Effects 0.000 description 7
- CYJRNFFLTBEQSQ-UHFFFAOYSA-N 8-(3-methyl-1-benzothiophen-5-yl)-N-(4-methylsulfonylpyridin-3-yl)quinoxalin-6-amine Chemical compound CS(=O)(=O)C1=C(C=NC=C1)NC=1C=C2N=CC=NC2=C(C=1)C=1C=CC2=C(C(=CS2)C)C=1 CYJRNFFLTBEQSQ-UHFFFAOYSA-N 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000010348 incorporation Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003340 mental effect Effects 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- AYCPARAPKDAOEN-LJQANCHMSA-N N-[(1S)-2-(dimethylamino)-1-phenylethyl]-6,6-dimethyl-3-[(2-methyl-4-thieno[3,2-d]pyrimidinyl)amino]-1,4-dihydropyrrolo[3,4-c]pyrazole-5-carboxamide Chemical compound C1([C@H](NC(=O)N2C(C=3NN=C(NC=4C=5SC=CC=5N=C(C)N=4)C=3C2)(C)C)CN(C)C)=CC=CC=C1 AYCPARAPKDAOEN-LJQANCHMSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- VCGRFBXVSFAGGA-UHFFFAOYSA-N (1,1-dioxo-1,4-thiazinan-4-yl)-[6-[[3-(4-fluorophenyl)-5-methyl-1,2-oxazol-4-yl]methoxy]pyridin-3-yl]methanone Chemical compound CC=1ON=C(C=2C=CC(F)=CC=2)C=1COC(N=C1)=CC=C1C(=O)N1CCS(=O)(=O)CC1 VCGRFBXVSFAGGA-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- XGVXKJKTISMIOW-ZDUSSCGKSA-N simurosertib Chemical compound N1N=CC(C=2SC=3C(=O)NC(=NC=3C=2)[C@H]2N3CCC(CC3)C2)=C1C XGVXKJKTISMIOW-ZDUSSCGKSA-N 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/2866—Architectures; Arrangements
- H04L67/30—Profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/535—Tracking the activity of the user
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
公开了与适应性学***并可以与教育模块合作以至少部分地基于所确定的参与度水平动态地适配被提供给用户的教育性内容。可以描述和/或主张其它实施例。
Description
本申请是申请号为201480049209.5、发明名称为“由参与度水平的实时识别驱动的适应性学习环境”的中国专利申请的分案申请。
对相关申请的交叉引用
本申请主张对于2014年7月8日提交的题为“ADAPTIVE LEARNING ENVIRONMENTDRIVEN BY REAL-TIME IDENTIFICATION OF ENGAGEMENT LEVEL(由参与度水平的实时识别驱动的适应性学习环境)”的美国申请No.14/325,740的优先权,其主张于2013年10月7日提交的题为“ADAPTIVE LEARNING ENVIRONMENT DRIVEN BY REAL TIME IDENTIFICATION OFLEARNER STATES(由学习者状态的实时识别驱动的适应性学习环境)”的美国临时申请No.61/887,766的利益。
技术领域
本公开涉及计算领域,尤其是涉及与由参与度水平(engagement level)的实时确定驱动的适应性学习环境相关联的设备、方法和储存媒体。
背景技术
本文中提供的背景描述是用于一般性呈现本公开的上下文的目的。除非以其它方式在本文中指示,否则在本章节中描述的材料不是对在本申请中的权利要求来说的现有技术并且不通过包括在本章节中而被承认为现有技术。
现今在传统教室中,教师经常是信息的主要来源。教师可以向任何数目的学生呈现单一类型的教育性内容(instructional content),并且被迫以单一的步调呈现该教育性内容而不管学习差异(例如,学习风格、偏好、态度、以及知识缺乏)、动态变化的学习者状态(例如,心境、情绪、以及动机)、和影响学习者的其它上下文变量(例如,环境条件—诸如天气、光和噪声)。在教室中的所有学生都被迫在相同类型的教育性内容和条件的情况下以相同的步调学习。把重点放在基于时间和一体适用(one-size-fits-all)的方式上,假设在60分钟的分组教育的末尾处,该分组的学生中的所有将获得必需的学习收获,并且将准备好继续前进到课程中的下一话题或单元。在该不切实际的假设的情况下,一些学生被迫在没有完全掌握当前的教育性内容的情况下继续前进,导致学习缺乏的累积。在这样的场景中,以较快步调学习的学生在能够继续前进到课程中的下一话题或单元之前可能不得不等候以较慢步调学习的学生。类似地,以较慢步调学习的学生可能被迫以超出他们能力的步调移动通过教育性内容,并且作为结果,这些学生可能不能够投入足够的时间来获得对教育性内容的掌握。另外,最终,教师实现被设计成评估学生表现的度量,其经常展现作为基于时间、一体适用方式的结果的学生间的成绩差异。
附图说明
通过以下连同附图的详细描述将容易地理解实施例。为了促进本描述,相似的参考数字指定相似的结构元素。以示例的方式而不是以限制的方式在附图的图形中图解实施例。
图1图解根据本公开的各种实施例的本公开的适应性学习环境。
图2和3更详细地图解根据本公开的各种实施例的图1的适应性学习平台的运行逻辑。
图4图解根据本公开的各种实施例的用于构造个性化进化的用户状态模型的机器分类方法。
图5图解根据本公开的各种实施例的适应性学习环境的管理控制板(dashboard)的示例呈现。
图6图解根据本公开的各种实施例的具有管理控制板的适应性学习环境。
图7图解根据本公开的各种实施例的管理控制板的过程流程。
图8图解根据各种实施例的适用于实践本公开的示例计算机***的组件视图。
图9图解根据各种实施例的具有被配置成使计算设备能够实践本公开的指令的示例储存媒体。
具体实施方式
本文中描述了用于适应性学***并可以与教育模块合作以至少部分地基于所确定的参与度水平动态地适配被提供给用户的教育性内容。例如,教育模块可以以多媒体呈现的形式向用户呈现教育性内容。在多媒体呈现期间,适配模块可以监控用户的参与度水平。如果适配模块确定用户的参与度水平正在降低,那么适配模块可以与教育模块合作以将教育性内容呈现适配成诸如游戏的交互式呈现,努力增加用户的参与度水平。
在以下的描述中,参考形成其中一部分的附图,贯穿其中相似的数字指定相似的部分,并且其中以图解的方式示出可以被实践的实施例。要理解的是,可以利用其它实施例并且可以进行结构上或逻辑上的变化而不脱离本公开的范围。因此,以下详细描述不应被纳入限制性意思,并且实施例的范围通过随附的权利要求和其等价物而被限定。
可能以最有助于理解所要求的主题的方式将各种方法的操作描述为依次的多个分立的行为或操作。然而,描述的顺序不应被解释为暗示这些操作必须依赖于顺序。特别地,可以不以呈现的顺序执行这些操作。可以以不同于所描述的实施例的顺序执行所描述的操作。可以执行各种另外的操作和/或可以在另外的实施例中省略、拆分、或组合所描述的操作。
为了本公开的目的,短语“A和/或B”的意思是(A)、(B)、或(A和B)。为了本公开的目的,短语“A、B和/或C”的意思是(A)、(B)、(C)、(A和B)、(A和C)、(B和C)、(A、B、和C)。
描述可能使用短语“在一个实施例中”或“在多个实施例中”,其可以每一个涉及相同的或不同的实施例中的一个或多个。另外,如关于本公开的实施例使用的术语“包含”、“包括”、“具有”等是同义的。
如在包括权利要求的下文中使用的那样,术语“模块”可以指的是专用集成电路(ASIC)、电子电路、处理器(共享的、专用的、或群组)、和/或执行一个或多个软件或固件程序的存储器(共享的、专用的、或群组)、组合式逻辑电路、和/或(一个或多个)其它适当的提供所描述的功能性的组件、为其一部分或包括专用集成电路(ASIC)、电子电路、处理器(共享的、专用的、或群组)、和/或执行一个或多个软件或固件程序的存储器(共享的、专用的、或群组)、组合式逻辑电路、和/或(一个或多个)其它适当的提供所描述的功能性的组件。
图1图解根据本发明的各种实施例的适应性学***板102的计算设备,其被配置成向平板102的用户输出教育性内容。在实施例中,平板102可以包括适应性学***台108可以试图改善在个性化学***互相关联,因此适应性学***。同样地,适应性学***动态地适配向用户输出的教育性内容。可以将该逻辑包括在一个或多个模块中,诸如适配模块124和教育模块128。在实施例中,教育模块128可以被配置成向平板102的用户提供教育性内容,并且适配模块124可以被配置成确定用户的当前参与度水平。在一些实施例中,适配模块124可以进一步被配置成与教育模块128合作以至少部分地基于所确定的参与度水平动态地适配教育性内容。适配模块124可以被配置成接收各种类型的可以被利用于确定用户的当前参与度水平的用户状态数据。在实施例中,各种类型的用户状态数据可以包括感知数据110、用户简档数据120、和/或环境数据122。
可以通过适应性学***板102内或者可以与平板102的一个或多个通信接口通信地耦合。例如,适应性学习环境100可以包括诸如上面列出的那些的传感器,其能够产生要被用于面部运动捕获112、眼部追踪114、语音辨识116、和/或手势/姿势119的数据。
根据一些实施例,用户简档数据120可以是先前由适应性学***板102的个体用户相关联,并且用户简档数据120可以包括与该学生相关联的特征化参数。同样地,可以基于用户鉴别机制(诸如通过生物测定信息,例如面部辨识)或任何其它适当的鉴别机制(例如,用户名和密码等)来选择用户简档数据120。在实施例中,这些特征化参数可以包括与用户的参与度水平相关联的参数。例如,教师可能注意到一个或多个环境因素可以或者增加或者降低学生的参与度水平。例如,如果教师有规律地注意到午饭后学生的参与度水平似乎被减少,那么教师可以将该点输入到用户简档中。这样的特征化参数可以包括但不被限于一天中的时间、温度、天气、和/或主题,并且还可以包括与这些特征化参数中的一个或多个相关联的参与度水平。
另外,这些特征化参数可以指示对于学生优选的支架(scaffolding)或辅导、结构。例如,如果相对于学生响应于机器辅导或来自教师的辅导,学生更好地响应于同龄辅导(peer tutoring),那么教师可以指定这作为特征化参数。在另一示例中,教师可能能够指定该学生可能从其处特别好地响应于辅导的一个或多个特定同龄辅导人。在一些实施例中,这些一个或多个特定同龄辅导人可以是特定主题。例如,可以指定一个同龄辅导人针对数学辅导,而可以指定另一同龄辅导人针对科学辅导。
可以通过一个或多个传感器或由适应性学***相关联的数据的周围环境噪声传感器,用于生成温度数据的温度传感器,用于生成与环境的湿度相关联的数据的湿度传感器,各种天气相关的数据源,时间和日期数据源等。这些传感器和数据源可以被并入到平板102内或者可以与平板102的一个或多个通信接口通信地耦合。
上面讨论的类型的用户状态数据和任何其它适用于确定用户的参与度水平的数据都可以被提供到适配模块124。适配模块124可以被配置成接收这些类型的用户状态数据并可以处理用户状态数据以确定用户的参与度水平。下面参考图2和3进一步讨论对用户的参与度水平的确定。
当用户与适应性学***的指示符的三个不同数据类型中的一个或多个。适配模块124还可以被配置成接收与教育性内容相关联的内容类型和可编程参数126的指示符,并且教育模块128可以被配置成发射它们。在实施例中,内容类型可以与教育性内容的类型相关联,并且可编程参数可以指示可以被用于适配教育性内容的参数。适配模块124可以被配置成使当前内容类型与当前参与度水平的指示符互相关联以发展进化的用户状态模型。在实施例中,进化的用户状态模型可以被利用于更好地确定用户的参与度水平和特定于该用户的对教育性内容的适配,其可以增加参与度水平。
随着用户继续与适应性学***方面的变化。在一些实施例中,一旦用户的参与度水平降低低于预定义的阈值,适配模块124就可以被配置成通过通知教育模块128在用户参与度水平方面的降低与教育模块128合作以适配教育性内容和/或通过利用可编程参数以引起教育模块128来适配教育性内容。可以针对用户利用适应性学习平台108期间重复上面描述的过程。
图2和3图解根据各种实施例的适应性学习平台108的运行逻辑和相关联的过程流程。如所示的那样,在实施例中,教育性课程可以被分成一个或多个单元202。每个单元202可以对应于在学习体验结束时要被完成的最终学习目标。类似地,每个单元202可以被进一步分割成学习对象204(例如,学习对象1-n),其可以对应于最终学习目标的使能学习目标(enabling learning objective)。例如,单元1可以是数学教育性课程的一部分。在这样的示例中,单元1可以被指向数字的乘法作为最终学习目标,并且学习对象1可以被指向两个单位数数字乘法的使能学习目标,学习对象2可以被指向两位数数字乘以单位数数字的乘法的使能学习目标,以增加的复杂度的顺序以此类推。
在实施例中,图1的教育模块128可以被利用于向用户呈现教育性内容,并且适配模块124可以被配置成确定用户的参与度水平并与教育模块128合作以至少部分地基于所确定的参与度水平动态地适配提供给用户的教育性内容。过程流程可以在块206处开始,其中教育模块128可以与适配模块124合作以确定教育性内容类型。作为响应,适配模块124可以首先在块242处进行适配模块124是否是处于初始状态的确定。在实施例中,初始状态可以是其中初始教育内容类型仍必须被确定的状态。如果适配模块124是处于初始状态,该过程可以进行到块244,其中初始教育内容类型被确定。在实施例中,可以至少部分地基于学生简档数据和任何可用的环境数据来确定该初始教育性内容类型。在一些实施例中,初始教育性内容类型的选择还可以进一步基于进化的用户状态模型,诸如在本文中其它地方讨论的那些。例如,如果用户简档指示用户在下午证实与交互性媒体的较高的参与度水平并且环境数据指示当前时间周期是在下午,那么初始教育性内容类型可以被确定成是交互式媒体。在其中进化的用户状态模型是可用的实施例中,用户状态模型可以更准确地将教育性内容类型与可用的环境数据互相关联。在这样的实例中,可以代替用户简档或除用户简档外利用进化的用户状态模型。在实施例中,用户简档或用户简档的任何个体特征化参数可以指定,在其中进化的用户状态模型和用户简档可能冲突的实例中,进化的用户状态模型是否要不考虑(override)用户简档或用户简档是否要不考虑进化的用户状态模型。在确定了初始教育性内容类型之后,过程可以进行至块256,其中教育性内容类型被输出到教育模块128以被利用于选择要输出到用户的教育性内容类型。
返回至块242,如果适配模块124不处于初始状态,过程可以进行至块246,其中分析用户状态数据以确定用户的实时参与度水平。在一些实施例中,可以确定用户的参与度水平成多个参与度水平的所选择之一。该多个参与度水平可以包括全部参与、大部分参与、部分参与、短暂参与、或不参与中的一个或多个。如本文中使用的那样,全部参与可以指示用户是完全参与的或用户正对教育性内容投入全部或几乎全部的注意力;大部分参与可以指示用户大部分时间是参与的或者用户的注意力被投入到教育性内容比用户的注意力被投入到其它地方多;部分参与可以指示用户是不可预测地或间歇地参与的;短暂参与可以指示用户的参与度是低的或几乎不存在;以及不参与指示用户是没有注意教育性内容或对其没有响应。
在实施例中,所确定的参与度水平可以是基于任何数目的可测量的展现用户是参与的外部指示符,因为参与的用户当体验教育性内容时比不参与的用户将更成功于构建新知识。这些可测量的外部指示符可以与多个类型的参与度相关联,诸如行为的参与度、认知的参与度、和/或情绪的参与度。如在本文中使用的那样,行为的参与度可以对应于努力、坚持、注意力和/或参加;认知的参与度可以对应于用户对理解教育性内容的承认或任何其它形式的心理上的对教育性内容的投入;并且情绪的参与度可以对应于用户关于学习过程的感觉,诸如例如有趣、兴奋和/或开心。
表1证实了用于测量用户贯穿学习过程的参与度的例证性框架。表1与参与度类型、对于参与度的可能的指示符、为了测量参与度要观察的东西、相关联的用户状态参数、以及与那些用户状态参数相关联的传感器(如果有的话)一起略述了用户参与度特性。
表1测量用户参与度
在实施例中,适配模块124可以被配置成从任何数目的传感器收集或接收数据,所述传感器包括但不被限于2D相机、3D相机(其可以被利用于添加深度数据到由2D相机获取的每一帧/图像)、眼部追踪器、皮肤电导传感器、心率监控器等。身体姿势和手势提取算法可以被利用并且可以是基于例如来自3D相机的深度数据。头部姿态和面部表情算法可以被利用并且可以是例如基于由2D相机获取的数据。眼部凝视和焦点区域算法可以被利用并且可以是基于例如眼部追踪硬件。激励(arousal)和刺激数据可以被利用并且可以是基于例如瞳孔扩大数据、皮肤电导数据、和/或心率数据。
在实施例中,适配模块124可以基于参与度分数计算参与度测量结果,可以利用在表1中描绘的参与度特性中的一个或多个获得参与度分数。作为示例,所有的分数或其任何子集都可以被加入到函数以计算整体参与度分数。如该示例:
参与度分数=α*pbl+β*cf+γ*vp+δ*sc+ε*fe
其中“pbl”是积极的身体语言分数,“cf”是一致的焦点分数,“vp”是口头的参加分数,“sc”是学生信心分数,以及“fe”是有趣和兴奋或快乐分数。可以将参与度特性中的每一个和与各个参与度特性相关联的参与度系数相乘。参与度系数可以指示分配到各个参与度特性的权重。在上面的函数中,α、β、γ、δ和ε可以是参与度系数。在实施例中,参与度系数可以是在0和1之间。另外,可以选择参与度系数使得α+β+γ+δ+ε的和=1。
“pbl”、“cf”、“vp”、“sc”和“fe”中的每一个都可以是可以返回在0到1之间的分数的独立的函数,其中1是关于各个参与度特性的全部参与并且0是关于各个参与度特性的不参与(例如,如果***推断学生正玩得非常开心并且他/她非常兴奋,那么函数“fe”将返回分数1)。因此,可以创建联合的参与度分数,其中可以获得在0和1之间的值。
在实施例中,“pbl”函数—“积极的身体语言”的分数—可以是基于对一个人的身体姿势、头部姿态和手势的可测量的外部指示符的评估。
在实施例中,“cf”函数—“一致的焦点”的分数—可以是基于眼部追踪数据。该函数可以量化学生是否读取了所有的文本解说和/或观看了相关视频。基于眼部追踪和凝视数据,***可以能够推断学生聚焦在了什么屏幕区域以及什么屏幕区域仍必须被聚焦在其上。
在实施例中,“vp”函数—“口头参加”的分数—可以与学生在每次会话结束处处理的“课程”总结的质量或者其它的参与度的声音指示符相关。在实施例中,该任务可以被考虑为非强制的,并且分数可以不被纳入考虑;因此,系数“γ”可以是低的。
在实施例中,“sc”函数—“学生信心”的分数—可以是基于学生使用辅导人的帮助/支架的次数,包括机器辅导、同龄辅导、或专家辅导。
在实施例中,“fe”函数—“有趣和兴奋”的分数—可以是基于对面部表情、皮肤电导、瞳孔扩大、或心率的一个或多个度量的分析。
一旦通过上面讨论的方法中的任何或所有方法确定了参与度水平,就可以在块248处将达成所确定的参与度水平利用的用户状态数据并入到用户状态模型中。在一些实施例中,将当前用户状态数据并入到进化的用户状态模型中可以与适配模块124的剩余操作串联地完成,如在图2中描绘的那样,或者在其它实施例中,可以并行地完成它们。在仍其它实施例中,可以通过将用户状态数据中的所有都存储在数据库中来完成将当前用户状态数据并入到进化的用户状态模型中,一旦完成了当前单元或学***台所述用户状态数据就要被并入到针对各个用户的进化的用户状态模型。在这些实施例中的任何中,可以通过例如因素的任何结合的互相关联来完成当前用户状态数据的并入,所述因素包括但不被限于实时用户状态数据、参与度水平、教育性内容类型、和/或从一个参与度水平到另一个的转变。下面参考图4更详细地讨论用户状态数据与进化的用户状态模型的并入。
在块250处,适配模块124可以确定所确定的参与度水平是否高于指定阈值。在实施例中,指定阈值可以针对每个用户是相同的指定阈值,或者在其它实施例中,可以基于进化的用户状态模型或在用户简档内包括的数据从用户到用户而改变。在一些实施例中,阈值可以是可变的。例如,可以通过先前确定的参与度水平确定阈值。作为示例,如果确定了用户是处于一个参与度水平,那么从所确定的参与度水平向下的下一参与度水平可以是指定阈值。如果参与度水平高于该阈值,那么过程可以前进至块254,其中可以确定要维持当前的教育性内容类型。如果参与度水平低于该阈值,那么过程可以前进至块252,其中可以变化教育性内容类型努力增加用户的参与度水平。在教育性内容类型方面的变化可能成为各个用户的用户简档中定义的教育性内容类型,或者可以基于进化的用户状态模型被确定。例如,用户简档可以确定默认顺序,其中教育性内容类型要被呈现以尝试并增加用户的参与度水平。在一些实施例中,可以不考虑该默认顺序,因为进化的用户状态模型进化了并且确定了更有效的顺序。例如,用户可以采用用户简档开始,所述用户简档指示教育性内容类型的默认顺序将是线性的(linear)然后是多媒体接着是交互式媒体;然而,进化的用户状态模型可以确定当顺序是多媒体然后线性接着是交互式媒体的时候用户的参与度水平增加。一旦确定了教育性内容类型,可以在块256处将其输出到教育模块128。
一旦将教育性内容类型输出到教育模块128,教育模块128就可以在块208处基于来自适配模块124的输出选择教育性内容类型。如所描绘的那样,教育模块128可以被配置成将教育性内容呈现为线性内容210、多媒体内容212、或交互式媒体内容214。可以以文本格式或其它静态视觉格式向用户呈现线性内容210。可以以例如整合了视频和音频的格式向用户呈现多媒体内容212。可以以交互式指南、模拟、游戏、或其它交互式活动的形式向用户呈现交互式媒体内容214。将领会的是,这些教育性内容类型仅为例证性的,并且本公开预期任何类型的教育性内容。这些教育性内容类型中的每一个都可以通过各种呈现216-220向用户提供学***1,旨在知识、理解和应用的练***2,旨在分析、综合和评估的练***。如果用户的参与度水平下降低于先前描述的阈值,那么适配模块124可以与教育模块128合作以动态地适配教育性内容并将内容类型从当前内容类型(例如,线性内容210)变化成另一内容类型(例如,多媒体内容212)。由在内容类型框210-214之间的问题“参与了?”描绘这点。如所描绘的那样,当前经由虚线框将教育模块描绘为呈现在对单元1的学习对象1的内容呈现的实行阶段处的线性内容。在块240处,过程可以前进至图3,其描绘内容呈现的例证性实行阶段以及在这样的阶段中教育模块128与适配模块124的交互。
图3可以在来自图2的块302处开始。如所描绘的那样,教育模块128可以被配置成在块304处向用户呈现水平1:练***、学***。在其它实施例中,诸如在教室设置中的教师的管理员可以确认用户可以继续前进至另一挑战。如果在块310中的确定的结果是肯定的,那么过程够可以前进至块312,其中可以开始下一练***、学***。可以通过上面参考图2讨论的方法中的任何来完成这点。一旦确定了参与度水平,过程就可以前进至块318,其中可以将用户状态数据并入到进化的用户状态模型。也可以如上面参考图2描述的方式的相同的或类似的方式来完成这点。在块320处,可以进行关于所确定的参与度水平是否高于阈值的确定。此外,可以通过与在图2中描述的方式相同的或类似的方式来完成这点。如果用户的参与度水平不高于阈值,那么过程可以前进至块322,其中适配模块124可以在块321处与教育模块128合作以适配被呈现给用户的练***来强调练习的一个或多个部分。例如,如果以否定的方式呈现练习,诸如“以下中的哪一个不属于?”,那么适配模块124可以与教育模块128合作来以上面提及的方法之一强调“不”。
如果用户的参与度水平高于阈值,那么过程可以前进至块324,其中可以选择一种类型的支架或辅导。如上面讨论的那样,该选择可以是基于用户简档,或者可以是基于进化的用户状态模型。例如,针对各个用户的进化的用户状态模型可以指示用户对专家辅导响应良好并且可以作为结果选择专家辅导。另外,支架类型还可以依赖于使用的先前支架类型。例如,如果用户先前针对该练习接收到了机器辅导,那么适配模块124可以确定同龄辅导人或专家辅导人将是更适当的,因为对该用户或该练习来说机器辅导可能已经无效了。
一旦确定了支架类型,过程就可以移动到所确定的支架类型以在块326-330处开始支架。可以由适配模块124自动地开始机器辅导。对于同龄辅导或专家辅导,适配模块可以向用户通知要联系的同龄辅导人或专家辅导人或可以向所选择的同龄辅导人或专家辅导人发送消息或通知。在一些实施例中,如上面讨论的那样,可以通过用户的用户简档预定义适当的同龄辅导人。在其它实施例中,可以基于在练习时的同龄表现或所指示的对讨论中的主题和/或当前内容的掌握动态地确定同龄辅导人以便所开始的辅导可以补充被呈现给用户的教育性内容。在完成辅导之后,过程可以返回至块304,其中用户可以在该练习、类似练习处进行另一尝试,并且过程可以重复。
图4描绘根据各种实施例的用于建造个性化进化的用户状态模型的例证性机器分类方法。在实施例中,适配模块124可以被配置成通过基于基于凝视的参数计算学生对内容的“兴趣度(interestingness)”来给教育性内容对学生的参与度的影响打分。下面表2中见关于参数的细节。该信息与先前讨论的用户状态数据一起可以被用作用于计算和/或学习进化的用户状态模型的原始材料,所述进化的用户状态模型也可以被定制成教育性内容的兴趣或类型。
表2数字式内容对参与度的影响
在一些实施例中,可以基于在上面的数据收集和传感器讨论中描绘的原始数据学习进化的用户状态模型。在实施例中,适配模块124可以被配置成例如使用机器学习回归方法来学习进化的用户状态模型。在其它实施例中,适配模块124可以被配置成使用机器学习分类方法。可以通过过程400完成该机器学习分类。过程400可以在块402处开始,其中适配模块124可以确定输入数据、输出数据、以及要被优化的参与度函数。在块404处,适配模块124可以基于现有技术中已知的各种信号处理技术执行各种特征提取过程以从输入数据信号中提取特征。在块406处,适配模块124可以基于数据互相关联或两片数据的相互依存(在现有技术中也被称为相互信息或传递信息)的测量来选择一个或多个特征。计算可以基于时间序列数据,或在时间中可以以统一间隔隔开的连续的点处测量的数据点的序列。特征选择算法可以是基于任何适当的特征选择算法,诸如但不限于最小冗余最大相关(mRMR)、基于快速互相关联的过滤器(FCBF)等。在块408处,适配模块124可以通过利用例如Gestalt分组暗示作为特征基于从好的和坏的示例中的学习来学习模型分类,并且还可以是基于统计学马尔可夫链或马尔可夫链蒙特卡洛范例。一旦学习了进化的用户状态模型,就可以通过重复过程400从一个学习会话到下一学习会话精炼进化的用户状态模型。
图5图解根据本公开的各种实施例的适应性学***与其它相关信息一起,以及提供对班级的理解的整体表示。在一些实施例中,控制板可以被配置成呈现与每个学***512的实时指示符。在一些实施例中,视觉元素还可以包括学习者的图像以使管理员能够更快速地识别与在各个视觉元素内包括的信息相关联的学习者。
在一些实施例中,控制板可以被配置成使管理员能够访问与个体学习者相关联的更多深度教育性信息,诸如在视觉元素502中呈现的更多的深度信息。控制板500可以被配置成提供该深度信息作为任何类型的交互的结果,诸如例如传统的鼠标按钮的双击或仅在所期望的视觉元素上悬停指针504。控制板500还可以被配置成(例如,通过与按钮506交互)为用户提供到简档(诸如本文其它地方讨论的用户简档)的管理员访问。控制板500还可以呈现上下文信息(例如,同龄辅导指定514和516)或学习者需要专家辅导的通知(例如,通知518)。在一些实施例中,如果管理员需要采取关于学习者的行动(例如,专家辅导),那么可以以某一方式区别视觉元素,诸如通过被添加到视觉元素边缘的粗体或强调(例如,被加粗的边缘520)、或任何其它可以唤起管理员对该视觉元素注意力的机制。
在一些实施例中,控制板500还可以呈现班级的理解的整体表示。在这样的实施例中,可以通过单元和学习对象来分解该整体表示。例如,控制板500可以被配置成呈现与所选择的单元522相关联的学习对象的列表524,并且可以将该学习对象列表524与对应的精通百分比列表526相互关联。在一些实施例中,管理员可能能够从学习对象列表524中选择个体学习对象并观看与所选学习对象相关的针对每个个体学习者的统计数据,诸如个体精通指示符、完成百分比等。
图6图解根据本公开的各种实施例的具有管理控制板的适应性学***板606-616。管理计算设备可以包括控制板模块604,其被配置成向管理员呈现诸如图5的控制板500的控制板。控制板模块604可以经由任何类型的有线或无线数据连接被通信地耦合到个体学***、对教育性内容的理解水平、对教育性内容的完成水平等。控制板模块604可以被配置成聚集该教育性数据并使管理员能够监控与每个个体学生相关联的教育性数据以及针对班级作为一个整体的教育性数据的整体表示。
图7图解根据本公开的各实施例的诸如控制板模块604的控制板模块的过程流程700。过程可以在操作702处开始,其中可以建立诸如上面参考图6讨论的数据连接的通信连接。在块704处,控制板模块可以从个体学***板606-616)接收或获取教育性数据。在块706处,可以聚集并分析教育性数据以生成对个体学***以及学习者作为一个整体的整体视图。在块708处,控制板模块604可以格式化教育性数据和块706的分析结果用于向管理员输出。
现在参考图8,其中图解根据各种实施例的适合于实现适应性学***台可移除地对接或不对接。元件可以经由可以表示一个或多个总线的***总线812被耦合到彼此。在多个总线的情况中,它们可以通过一个或多个总线桥(未示出)被桥接。
这些元件中的每一个都可以执行本领域中已知的常规功能。特别地,***存储器804和(一个或多个)大容量储存设备806可以被用于存储编程指令的工作副本和永久副本,所述编程指令实现早先描述的操作,例如但不限于与适应性学习平台108和/或控制板500相关联的操作,其通常被称为计算逻辑822。可以通过由(一个或多个)处理器802支持的汇编程序指令或高级语言诸如例如可以被编译成这样的指令的C实现各种操作。
编程指令的永久副本可以在工厂中或在现场中通过例如分布媒体(未示出,诸如紧凑盘(CD))或通过通信接口810(从分布服务器(未示出))被放置到(一个或多个)永久大容量储存设备806中。即,具有适应性学***台或控制板并编程各种计算设备。
这些元件810-812的数目、性能和/或容量可以依赖于所意图使用的示例计算设备800而改变,例如,示例计算机800是否是智能电话、平板、超级笔记本、膝上型电脑、或台式机。这些元件810-812的构造是另外已知的,并且因此将不进一步被描述。
图9图解根据各种实施例的具有被配置成实践与早先描述的适应性学习平台108和/或控制板500相关联的操作中的所有或所选择的操作的指令的示例非暂时性计算机可读储存媒体。如所图解的那样,非暂时性计算机可读储存媒体902可以包括多个编程指令904。编程指令904可以被配置成使例如计算设备800的设备能够响应于编程指令的执行来执行参考图1-7描述的过程中的一个或多个操作。在替换实施例中,编程指令904可以替代地被部署在多个非暂时性计算机可读储存媒体902上。在仍其它实施例中,编程指令904可以被编码在暂时性计算机可读信号中。
参考回到图8,对于一个实施例,处理器802中的至少一个可以被与计算逻辑822一起封装(代替存储在存储器804和/或大容量储存806中),所述计算逻辑822被配置成执行参考图1-7描述的过程中的一个或多个操作。对于一个实施例,处理器802中的至少一个可以与计算逻辑822一起被封装,所述计算逻辑822被配置成实践参考图1-7描述的方法的方面以形成***级封装(SiP)。对于一个实施例,处理器802中的至少一个可以与计算逻辑822被集成在相同的管芯上,所述计算逻辑822被配置成执行参考图1-7描述的过程中的一个或多个操作。对于一个实施例,处理器802中的至少一个可以与计算逻辑822一起被封装,所述计算逻辑822被配置成执行参考图1-7描述的过程中的一个或多个操作以形成片上***(SoC)。这样的SoC可以被利用于任何适当的计算设备。
为了本描述的目的,计算机可用或计算机可读媒体可以是任何可以包括、存储、传达、传播、或传送用于由指令执行***、装置、或设备或关于指令执行***、装置、或设备使用的程序的装置。所述媒体可以是电子、磁、光、电磁、红外、或半导体***(或装置或设备)或传播媒体。计算机可读媒体的示例包括半导体或固态存储器、磁带、可移除计算机磁盘、随机存取存储器(RAM)、只读存储器(ROM)、刚性磁盘、和光盘。光盘的当前示例包括紧凑盘-只读存储器(CD-ROM)、紧凑盘-读/写(CD-R/W)、以及数字视频盘(DVD)。
虽然为了描述的目的在本文中描述并图解了某些实施例,但是用于达成相同目的计算出的各种各样的替换和/或等价实施例或实现可以取代所示出和描述的实施例而不偏离本公开的范围。本申请意图覆盖本文中讨论的实施例的任何改变或变化。因此,清楚的意图为仅由权利要求限制本文中描述的实施例。
在本公开中叙述“一个”或“第一个”元件或其等价的地方,这样的公开包括一个或多个这样的元件,既不必需也不排除两个或更多这样的元件。另外,针对所识别的元件的顺序的指示符(例如,第一、第二、或第三)用于区别元件,并不指示或暗示这样的元件的被必需或被限制的数目,它们也不指示这样的元件的特定的位置或顺序,除非另外特定地被陈述。
因此,描述了可以至少部分地基于实时识别用户的参与度水平增强学***台。适应性学***,其可以给出对除了用户表现外的用户的参与度的强的指示。适应性学***、以及影响学***台108可以通过并入传统的支架机制(除了机器辅导之外诸如同龄辅导和专家辅导)无缝地集成到传统的、面对面教室学***台108可以提供全面的管理员或教师控制板以传达关于在教师控制下的用户以及班级作为一个整体的信息。这可以使教师能够监控关于每个用户实际学***的整体概念(holistic picture)。
示例
一些非限制性示例有:
示例1是用于适应性学***;以及与所述教育模块合作以至少部分地基于所确定的参与度水平动态地适配被提供给所述用户的所述教育性内容。
示例2可以包括示例1的主题,其中用于确定与所述用户相关联的所述参与度水平是基于行为的参与度、认知的参与度、或情绪的参与度中的一个或多个的可测量的外部指示符。
示例3可以包括示例2的主题,其中行为的参与度对应于由所述用户发挥的努力、坚持、注意力、或参加的量,认知的参与度对应于由所述用户对理解所述教育性内容的承认,或情绪的参与度对应于所述用户关于学习过程的感觉。
示例4可以包括示例1-3中的任何一个的主题,其中从包括以下的参与度水平组中选择所述参与度水平:指示所述用户是完全参与的全部参与;指示所述用户大部分时间参与的大部分参与;指示所述用户的参与度是不可预测的部分参与;指示所述用户的参与度低的短暂参与;或指示所述用户没有注意或没有响应的不参与。
示例5可以包括示例1-4中的任何一个的主题,其中用于确定所述参与度水平是用于基于一组参与度特性来计算参与度分数。
示例6可以包括示例5的主题,其中所述参与度特性包括指示积极的身体语言、一致的焦点、口头参加、信心、或快乐的一个或多个参数。
示例7可以包括示例6的主题,其中用于计算参与度分数是用于将与所述参与度特性的每一个相关联的数学值和与所述各个参与度特性相关联的各个参与度系数相乘,其中所述参与度系数指示分配到所述各个参与度特性的权重。
示例8可以包括示例6或7中的任一个的主题,其中指示积极的身体语言的参数是基于所观察的身体姿势、头部姿态、或手势中的一个或多个;一致的焦点是基于眼部追踪数据;口头参加是基于课程总结质量或参与度的声音指示符;学生信心是基于用户利用辅导资源的次数;以及快乐是基于面部表情、皮肤电导、瞳孔扩大、或心率中的一个或多个度量。
示例9可以包括示例1-8中的任何一个的主题,其中当所确定的参与度水平指示在所述用户参与度水平方面与先前的参与度水平有变化时,用于与所述教育模块合作以动态地适配所述教育性内容出现。
示例10可以包括示例1-8中的任何一个的主题,其中从包括以下的教育性内容类型组中选择所述教育性内容:线性内容、多媒体内容、或交互式内容。
示例11可以包括示例10的主题,其中用于与所述教育模块合作以动态地适配所述教育性内容是与所述教育模块合作以将所述教育性内容从选自所述教育性内容组的当前教育性内容改变成选自所述教育性内容组的另一教育性内容,其中所述当前教育性内容和所述另一教育性内容不同于彼此。
示例12可以包括示例1-10中的任何一个的主题,其中用于适配所述教育性内容是用于强调所述教育性内容的一部分以唤起所述用户对所述教育性内容的部分的注意力。
示例13可以包括示例1-10中的任何一个的主题,其中用于与所述教育模块合作是用于开始对所述用户的辅导以补充所述教育性内容。
示例14可以包括示例13的主题,其中用于开始对所述用户的辅导是用于开始对所述用户的机器辅导。
示例15可以包括示例13的主题,其中用于开始对所述用户的辅导是用于开始对所述用户的同龄辅导或专家辅导。
示例16可以包括示例15的主题,其中所述计算设备还包括通信设备,其在操作时被与所述适配模块耦合以与每一个都与或者同龄辅导人或者专家辅导人相关联的多个其它计算设备通信,并且其中用于开始对所述用户的辅导是用于向所述多个其它计算设备中的所选择的一个发送通信。
示例17可以包括示例16的主题,其中所述多个其它计算设备中的所选择的一个是与被指示为具有对所述教育性内容的主题的掌握的同龄辅导人相关联。
示例18可以包括示例1-17中的任何一个的主题,其中所述适配模块还用于接收用户状态数据,并且其中用于确定所述参与度水平是至少部分地基于所述用户状态数据。
示例19可以包括示例18的主题,其中所述用户状态数据包括以下中的一个或多个:与所述用户位于其中的环境相关联的环境数据,与所述用户的当前状态相关联的感知数据,或与所述用户的特征化参数相关联的用户简档数据。
示例20可以包括示例19的主题,还包括多个传感器以产生所述用户状态数据中的至少一部分。
示例21可以包括示例19或20中的任一个的主题,其中所述用户状态数据包括感知数据,并且其中所述感知数据包括与以下中的一个或多个相关联的实时数据:身体姿势、头部姿态、手势、眼部追踪、面部表情、皮肤电感、瞳孔扩大、或心率。
示例22可以包括示例19-21中的任何一个的主题,其中所述用户状态数据包括环境数据,并且其中所述环境数据包括与以下中的一个或多个相关联的数据:时间、日期、光照条件、噪声水平、位置、温度、湿度、或天气条件。
示例23可以包括示例19-22中的任何一个的主题,所述适配模块还用于将用户状态数据并入到与所述用户相关联的进化的用户状态模型中,其中从先前收集的用户状态数据学习所述进化的用户状态模型。
示例24可以包括示例23的主题,其中用于确定参与度水平还基于所述进化的用户状态模型。
示例25是用于适应性学***台接收与所述计算设备的用户相关联的实时用户状态数据;由所述适应性学***;以及由所述适应性学***动态地适配由所述适应性学习平台输出的教育性内容。
示例26可以包括示例25的主题,其中确定所述用户的当前参与度水平还基于行为的参与度、认知的参与度、或情绪的参与度中的一个或多个的可测量的外部指示符。
示例27可以包括示例26的主题,其中行为的参与度对应于由所述用户发挥的努力、坚持、注意力、或参加的量,认知的参与度对应于由所述用户对理解所述教育性内容的承认,或情绪的参与度对应于所述用户关于学习过程的感觉。
示例28可以包括示例25-27中的任何一个的主题,其中从包括以下的参与度水平组中选择所述参与度水平:指示所述用户是完全参与的全部参与;指示所述用户大部分时间参与的大部分参与;指示所述用户的参与度是不可预测的部分参与;指示所述用户的参与度低的短暂参与;或指示所述用户没有注意或没有响应的不参与。
示例29可以包括示例25-28中的任何一个的主题,其中确定所述参与度水平还包括基于一组参与度特性来计算参与度分数。
示例30可以包括示例29的主题,其中所述参与度特性包括指示积极的身体语言、一致的焦点、口头参加、信心、或快乐的一个或多个参数。
示例31可以包括示例30的主题,其中计算参与度分数还包括将与所述参与度特性的每一个相关联的数学值和与所述各个参与度特性相关联的各个参与度系数相乘,其中所述参与度系数指示分配到所述各个参与度特性的权重。
示例32可以包括示例30或31中的任一个的主题,其中指示积极的身体语言的参数是基于所观察的身体姿势、头部姿态、或手势中的一个或多个;一致的焦点是基于眼部追踪数据;口头参加是基于课程总结质量或参与度的声音指示符;学生信心是基于用户利用辅导资源的次数;以及快乐是基于面部表情、皮肤电导、瞳孔扩大、或心率中的一个或多个度量。
示例33可以包括示例25-32中的任何一个的主题,其中动态地适配所述教育性内容还包括当所确定的参与度水平指示在所述用户参与度水平方面与先前的参与度水平有变化时动态地适配所述教育性内容。
示例34可以包括示例25-32中的任何一个的主题,其中从包括以下的教育性内容类型组中选择所述教育性内容:线性内容、多媒体内容、或交互式内容。
示例35可以包括示例34的主题,其中动态地适配所述教育性内容还包括将所述教育性内容从选自所述教育性内容组的当前教育性内容改变成选自所述教育性内容组的另一教育性内容,其中所述当前教育性内容和所述另一教育性内容不同于彼此。
示例36可以包括示例25-34中的任何一个的主题,其中动态地适配所述教育性内容还包括强调所述教育性内容的一部分以唤起所述用户对所述教育性内容的部分的注意力。
示例37可以包括示例25-34中的任何一个的主题,还包括开始对所述用户的辅导以补充所述教育性内容。
示例38可以包括示例37的主题,其中所述辅导是机器辅导。
示例39可以包括示例37的主题,其中所述辅导是对所述用户的同龄辅导或专家辅导。
示例40可以包括示例39的主题,其中开始对所述用户的辅导还包括向多个计算设备中的所选择的计算设备发送通知,其中所选择的计算设备与所选择用于辅导所述用户的或者同龄辅导人或者专家辅导人相关联。
示例41可以包括示例40的主题,其中所述辅导是同龄辅导并且所选择的计算设备是与被指示为具有对所述教育性内容的主题的掌握的同龄辅导人相关联。
示例42可以包括示例25-41中的任何一个的主题,还包括接收用户状态数据,并且其中确定所述参与度水平是至少部分地基于所述用户状态数据。
示例43可以包括示例42的主题,其中所述用户状态数据包括以下中的一个或多个:与所述用户位于其中的环境相关联的环境数据,与所述用户的当前状态相关联的感知数据,或与所述用户的特征化参数相关联的用户简档数据。
示例44可以包括示例43的主题,其中接收用户状态数据还包括从多个传感器接收所述用户状态数据的至少一部分。
示例45可以包括示例43或44中的任一个的主题,其中所述用户状态数据包括感知数据,并且其中所述感知数据包括与以下中的一个或多个相关联的实时数据:身体姿势、头部姿态、手势、眼部追踪、面部表情、皮肤电感、瞳孔扩大、或心率。
示例46可以包括示例43-45中的任何一个的主题,其中所述用户状态数据包括环境数据,并且其中所述环境数据包括与以下中的一个或多个相关联的数据:时间、日期、光照条件、噪声水平、位置、温度、湿度、或天气条件。
示例47可以包括示例43-46中的任何一个的主题,还包括将所述用户状态数据并入到与所述用户相关联的进化的用户状态模型中,其中从先前收集的用户状态数据学习所述进化的用户状态模型。
示例48可以包括示例47的主题,其中确定参与度水平还基于所述进化的用户状态模型。
示例49是一个或多个具有存储在其上的多个指令的计算机可读储存媒体,所述多个指令当被计算设备的处理器执行时向所述计算设备提供适应性学***;以及至少部分地基于所述当前参与度水平动态地适配由所述适应性学习平台输出的教育性内容。
示例50可以包括示例49的主题,其中用于确定所述用户的当前参与度水平还基于行为的参与度、认知的参与度、或情绪的参与度中的一个或多个的可测量的外部指示符。
示例51可以包括示例50的主题,其中行为的参与度对应于由所述用户发挥的努力、坚持、注意力、或参加的量,认知的参与度对应于由所述用户对理解所述教育性内容的承认,或情绪的参与度对应于所述用户关于学习过程的感觉。
示例52可以包括示例49-51中的任何一个的主题,其中从包括以下的参与度水平组中选择所述参与度水平:指示所述用户是完全参与的全部参与;指示所述用户大部分时间参与的大部分参与;指示所述用户的参与度是不可预测的部分参与;指示所述用户的参与度低的短暂参与;或指示所述用户没有注意或没有响应的不参与。
示例53可以包括示例49-52中的任何一个的主题,其中用于确定所述参与度水平还包括基于一组参与度特性来计算参与度分数。
示例54可以包括示例53的主题,其中所述参与度特性包括指示积极的身体语言、一致的焦点、口头参加、信心、或快乐的一个或多个参数。
示例55可以包括示例54的主题,其中参与度分数的计算还包括与所述参与度特性的每一个相关联的数学值和与所述各个参与度特性相关联的各个参与度系数的相乘,其中所述参与度系数指示分配到所述各个参与度特性的权重。
示例56可以包括示例54或55中的任一个的主题,其中指示积极的身体语言的参数是基于所观察的身体姿势、头部姿态、或手势中的一个或多个;一致的焦点是基于眼部追踪数据;口头参加是基于课程总结质量或参与度的声音指示符;学生信心是基于用户利用辅导资源的次数;以及快乐是基于面部表情、皮肤电导、瞳孔扩大、或心率中的一个或多个度量。
示例57可以包括示例49-56中的任何一个的主题,其中用于动态地适配所述教育性内容还包括当所确定的参与度水平指示在所述用户参与度水平方面与先前的参与度水平有变化时动态地适配所述教育性内容。
示例58可以包括示例49-56中的任何一个的主题,其中从包括以下的教育性内容类型组中选择所述教育性内容:线性内容、多媒体内容、或交互式内容。
示例59可以包括示例58的主题,其中用于动态地适配所述教育性内容还包括将所述教育性内容从选自所述教育性内容组的当前教育性内容改变成选自所述教育性内容组的另一教育性内容,其中所述当前教育性内容和所述另一教育性内容不同于彼此。
示例60可以包括示例49-58中的任何一个的主题,其中用于动态地适配所述教育性内容还包括强调所述教育性内容的一部分以唤起所述用户对所述教育性内容的部分的注意力。
示例61可以包括示例49-58中的任何一个的主题,其中所述适应性学习平台还用于开始对所述用户的辅导以补充所述教育性内容。
示例62可以包括示例61的主题,其中所述辅导是机器辅导。
示例63可以包括示例61的主题,其中所述辅导是对所述用户的同龄辅导或专家辅导。
示例64可以包括示例63的主题,其中用于开始对所述用户的辅导还包括向多个计算设备中的所选择的计算设备发送通知,其中所选择的计算设备与由适应性学习平台所选择用于辅导所述用户的或者同龄辅导人或者专家辅导人相关联。
示例65可以包括示例64的主题,其中所述辅导是同龄辅导并且所选择的计算设备是与被指示为具有对所述教育性内容的主题的掌握的同龄辅导人相关联。
示例66可以包括示例49-65中的任何一个的主题,其中所述适应性学***是至少部分地基于所述用户状态数据。
示例67可以包括示例66的主题,其中所述用户状态数据包括以下中的一个或多个:与所述用户位于其中的环境相关联的环境数据,与所述用户的当前状态相关联的感知数据,或与所述用户的特征化参数相关联的用户简档数据。
示例68可以包括示例67的主题,其中用于接收用户状态数据还包括来自多个传感器的所述用户状态数据的至少一部分的接收。
示例69可以包括示例67或68中的任一个的主题,其中所述用户状态数据包括感知数据,并且其中所述感知数据包括与以下中的一个或多个相关联的实时数据:身体姿势、头部姿态、手势、眼部追踪、面部表情、皮肤电感、瞳孔扩大、或心率。
示例70可以包括示例67-69中的任何一个的主题,其中所述用户状态数据包括环境数据,并且其中所述环境数据包括与以下中的一个或多个相关联的数据:时间、日期、光照条件、噪声水平、位置、温度、湿度、或天气条件。
示例71可以包括示例67-70中的任何一个的主题,其中所述适应性学习平台还用于将所述用户状态数据并入到与所述用户相关联的进化的用户状态模型中,其中从先前收集的用户状态数据学习所述进化的用户状态模型。
示例72可以包括示例71的主题,其中用于确定参与度水平还基于所述进化的用户状态模型。
示例73是用于适应性学***,所述教育性数据至少指示所述多个学生中的每个个体学生的实时参与度水平。
示例74可以包括示例73的主题,其中所述控制板模块还用于分析并聚集所述教育性数据以生成与被呈现给所述多个学生的教育性内容相关联的班级理解的整体表示。
示例75可以包括示例73或74中的任一个的主题,其中所述控制板模块还用于:从所述多个计算设备中的相应一个或多个接收一个或多个学生正需要辅导的指示符;以及通知所述计算设备的所述用户所述一个或多个学生正需要辅导。
示例76可以包括示例75的主题,其中所述辅导是专家辅导并且所述用户是用于提供所述专家辅导。
示例77可以包括示例74-76中的任何一个的主题,其中所述控制板模块还用于:接收与所述学生中的一个或多个相关联的辅导状态的指示符;以及格式化并输出所述状态用于向所述用户显示。
示例78可以包括示例77的主题,其中所述辅导状态指示所述学生或者是处于正被辅导的过程或者是处于正辅导另一学生的过程。
示例79是用于监控参与度水平的方法,包括:由管理员计算设备的控制板模块建立和与各个学生相关联的多个学生计算设备的数据通信连接;以及由所述控制板模块从所述多个学生计算设备接收教育性数据,所述教育性数据至少指示与所述多个学生计算设备相关联的每个个体学生的实时参与度水平;以及由所述控制板模块使所述管理员计算设备的用户能够监控所述个体学生的所述参与度水平。
示例80可以包括示例79的主题,还包括由所述控制板模块分析并聚集所述教育性数据以生成与被呈现给所述多个学生的教育性内容相关联的班级理解的整体表示。
示例81可以包括示例79或80中的任一个的主题,还包括:从所述多个计算设备中的相应一个或多个接收一个或多个学生正需要辅导的指示符;以及通知所述计算设备的所述用户所述一个或多个学生正需要辅导。
示例82可以包括示例81的主题,其中所述辅导是专家辅导并且所述用户是用于提供所述专家辅导。
示例83可以包括示例80-82中的任何一个的主题,还包括:接收与所述学生中的一个或多个相关联的辅导状态的指示符;以及格式化并输出所述状态用于向所述用户显示。
示例84可以包括示例83的主题,其中所述辅导状态指示所述学生或者是处于正被辅导的过程或者是处于正辅导另一学生的过程。
示例85是一个或多个具有被体现在其上的多个指令的计算机可读储存媒体,所述多个指令当被计算设备执行时引起所述计算设备执行权利要求79-84中的任何一个的方法。
示例86是用于监控用户的参与度水平的计算设备,包括:用于建立和与各个学生相关联的多个学生计算设备的数据通信连接的装置;以及用于从所述多个学生计算设备接收教育性数据的装置,所述教育性数据至少指示与所述多个学生计算设备相关联的每个个体学生的实时参与度水平;以及用于使所述管理员计算设备的用户能够监控所述个体学生的所述参与度水平的装置。
示例87可以包括示例86的主题,还包括用于由所述控制板模块分析并聚集所述教育性数据以生成与被呈现给所述多个学生的教育性内容相关联的班级理解的整体表示的装置。
示例88可以包括示例86或87中的任一个的主题,还包括:用于从所述多个计算设备中的相应一个或多个接收一个或多个学生正需要辅导的指示符的装置;以及用于通知所述计算设备的所述用户所述一个或多个学生正需要辅导的装置。
示例89可以包括示例88的主题,其中所述辅导是专家辅导并且所述用户是用于提供所述专家辅导。
示例90可以包括示例87-89中的任何一个的主题,还包括:用于接收与所述学生中的一个或多个相关联的辅导状态的指示符的装置;以及用于格式化并输出所述状态用于向所述用户显示的装置。
示例91可以包括示例90的主题,其中所述辅导状态指示所述学生或者是处于正被辅导的过程或者是处于正辅导另一学生的过程。
示例92是用于适应性学***的装置;以及用于至少部分地基于所述当前参与度水平动态地适配由所述设备输出的教育性内容的装置。
示例93可以包括示例92的主题,其中确定所述用户的当前参与度水平还基于行为的参与度、认知的参与度、或情绪的参与度中的一个或多个的可测量的外部指示符。
示例94可以包括示例93的主题,其中行为的参与度对应于由所述用户发挥的努力、坚持、注意力、或参加的量,认知的参与度对应于由所述用户对理解所述教育性内容的承认,或情绪的参与度对应于所述用户关于学习过程的感觉。
示例95可以包括示例92的主题,其中从包括以下的参与度水平组中选择所述参与度水平:指示所述用户是完全参与的全部参与;指示所述用户大部分时间参与的大部分参与;指示所述用户的参与度是不可预测的部分参与;指示所述用户的参与度低的短暂参与;或指示所述用户没有注意或没有响应的不参与。
示例96可以包括示例92的主题,其中确定所述参与度水平还包括基于一组参与度特性来计算参与度分数。
示例97可以包括示例96的主题,其中所述参与度特性包括指示积极的身体语言、一致的焦点、口头参加、信心、或快乐的一个或多个参数。
示例98可以包括示例97的主题,其中计算参与度分数还包括将与所述参与度特性的每一个相关联的数学值和与所述各个参与度特性相关联的各个参与度系数相乘,其中所述参与度系数指示分配到所述各个参与度特性的权重。
示例99可以包括示例97的主题,其中指示积极的身体语言的参数是基于所观察的身体姿势、头部姿态、或手势中的一个或多个;一致的焦点是基于眼部追踪数据;口头参加是基于课程总结质量或参与度的声音指示符;学生信心是基于用户利用辅导资源的次数;以及快乐是基于面部表情、皮肤电导、瞳孔扩大、或心率中的一个或多个度量。
示例100可以包括示例92的主题,其中用于动态地适配所述教育性内容的装置还包括用于当所确定的参与度水平指示在所述用户参与度水平方面与先前的参与度水平有变化时动态地适配所述教育性内容的装置。
示例101可以包括示例92的主题,其中从包括以下的教育性内容类型组中选择所述教育性内容:线性内容、多媒体内容、或交互式内容。
示例102可以包括示例101的主题,其中用于动态地适配所述教育性内容的装置还包括用于将所述教育性内容从选自所述教育性内容组的当前教育性内容改变成选自所述教育性内容组的另一教育性内容的装置,其中所述当前教育性内容和所述另一教育性内容不同于彼此。
示例103可以包括示例92的主题,其中用于动态地适配所述教育性内容的装置还包括用于强调所述教育性内容的一部分以唤起所述用户对所述教育性内容的部分的注意力的装置。
示例104可以包括示例92的主题,还包括用于开始对所述用户的辅导以补充所述教育性内容的装置。
示例105可以包括示例104的主题,其中所述辅导是机器辅导。
示例106可以包括示例104的主题,其中所述辅导是对所述用户的同龄辅导或专家辅导。
示例107可以包括示例106的主题,其中开始对所述用户的辅导还包括向多个计算设备中的所选择的计算设备发送通知,其中所选择的计算设备与所选择用于辅导所述用户的或者同龄辅导人或者专家辅导人相关联。
示例108可以包括示例107的主题,其中所述辅导是同龄辅导并且所选择的计算设备是与被指示为具有对所述教育性内容的主题的掌握的同龄辅导人相关联。
示例109可以包括示例92-108中的任何一个的主题,还包括用于接收用户状态数据的装置,并且其中确定所述参与度水平是至少部分地基于所述用户状态数据。
示例110可以包括示例109的主题,其中所述用户状态数据包括以下中的一个或多个:与所述用户位于其中的环境相关联的环境数据,与所述用户的当前状态相关联的感知数据,或与所述用户的特征化参数相关联的用户简档数据。
示例111可以包括示例110的主题,其中接收用户状态数据还包括从多个传感器接收所述用户状态数据的至少一部分。
示例112可以包括示例110的主题,其中所述用户状态数据包括感知数据,并且其中所述感知数据包括与以下中的一个或多个相关联的实时数据:身体姿势、头部姿态、手势、眼部追踪、面部表情、皮肤电感、瞳孔扩大、或心率。
示例113可以包括示例110的主题,其中所述用户状态数据包括环境数据,并且其中所述环境数据包括与以下中的一个或多个相关联的数据:时间、日期、光照条件、噪声水平、位置、温度、湿度、或天气条件。
示例114可以包括示例110的主题,还包括用于将所述用户状态数据并入到与所述用户相关联的进化的用户状态模型中的装置,其中从先前收集的用户状态数据学习所述进化的用户状态模型。
示例115可以包括示例114的主题,其中确定参与度水平还基于所述进化的用户状态模型。
Claims (25)
1.一种用于适应性学习的计算设备,包括:
教育模块,其用于经由被与所述计算设备耦合的一个或多个输出设备向所述计算设备的用户选择性地提供多个教育性内容类型之一的教育性内容;以及
适配模块,其在操作时被与所述教育模块耦合,用于:
实时地确定与所述计算设备的所述用户相关联的参与度水平;以及
与所述教育模块合作以至少部分地基于所确定的参与度水平动态地适配被提供给所述用户的所述教育性内容。
2.如权利要求1的计算设备,其中用于确定与所述用户相关联的所述参与度水平是基于行为的参与度、认知的参与度、或情绪的参与度中的一个或多个的可测量的外部指示符。
3.如权利要求2的计算设备,其中行为的参与度对应于由所述用户发挥的努力、坚持、注意力、或参加的量,认知的参与度对应于由所述用户对理解所述教育性内容的承认,或情绪的参与度对应于所述用户关于学习过程的感觉。
4.如权利要求1中的任何一个的计算设备,其中从包括以下的参与度水平组中选择所述参与度水平:
指示所述用户是完全参与的全部参与;
指示所述用户大部分时间参与的大部分参与;
指示所述用户的参与度是不可预测的部分参与;
指示所述用户的参与度低的短暂参与;或
指示所述用户没有注意或没有响应的不参与。
5.如权利要求1-4中的任何一个的计算设备,其中用于确定所述参与度水平是用于基于一组参与度特性来计算参与度分数,并且其中所述参与度特性指示积极的身体语言、一致的焦点、口头参加、信心或快乐。
6.如权利要求5的计算设备,其中用于计算参与度分数是用于将与所述参与度特性的每一个相关联的数学值和与所述各个参与度特性相关联的各个参与度系数相乘,其中所述参与度系数指示分配到所述各个参与度特性的权重。
7.如权利要求6的计算设备,其中指示积极的身体语言的参数是基于所观察的身体姿势、头部姿态、或手势中的一个或多个;一致的焦点是基于眼部追踪数据;口头参加是基于课程总结质量或参与度的声音指示符;学生信心是基于用户利用辅导资源的次数;以及快乐是基于面部表情、皮肤电导、瞳孔扩大、或心率中的一个或多个度量。
8.一种用于适应性学习的计算机实现的方法,包括:
由计算设备的适应性学习平台接收与所述计算设备的用户相关联的实时用户状态数据;
由所述适应性学***;以及
由所述适应性学***台输出的教育性内容。
9.如权利要求8的方法,其中动态地适配所述教育性内容还包括当所确定的参与度水平指示在所述用户参与度水平方面与先前的参与度水平有变化时动态地适配所述教育性内容。
10.如权利要求8的方法,其中从包括以下的教育性内容类型组中选择所述教育性内容:线性内容、多媒体内容、或交互式内容。
11.如权利要求10的方法,其中动态地适配所述教育性内容还包括将所述教育性内容从选自所述教育性内容组的当前教育性内容改变成选自所述教育性内容组的另一教育性内容,其中所述当前教育性内容和所述另一教育性内容不同于彼此。
12.如权利要求8-10中的任何一个的方法,其中动态地适配所述教育性内容还包括强调所述教育性内容的一部分以唤起所述用户对所述教育性内容的部分的注意力。
13.如权利要求8-10中的任何一个的方法,还包括开始对所述用户的辅导以补充所述教育性内容,其中所述辅导是对所述用户的机器辅导、同龄辅导或专家辅导。
14.如权利要求13的方法,其中所述辅导是同龄辅导或专家辅导,并且其中开始对所述用户的辅导还包括向多个计算设备中的所选择的计算设备发送通知,其中所选择的计算设备与所选择用于辅导所述用户的或者同龄辅导人或者专家辅导人相关联。
15.如权利要求14的方法,其中所述辅导是同龄辅导并且所选择的计算设备与被指示为具有对所述教育性内容的主题的掌握的同龄辅导人相关联。
16.一种或多种具有存储在其上的用于适应性学***台,用于:接收与所述计算设备的用户相关联的实时用户状态数据;
至少部分地基于所述实时用户状态数据确定所述用户的当前参与度水平;以及
至少部分地基于所述当前参与度水平动态地适配由所述适应性学习平台输出的教育性内容。
17.如权利要求16的计算机可读媒体,其中所述适应性学***是至少部分地基于所述用户状态数据。
18.如权利要求17的计算机可读媒体,其中所述用户状态数据包括以下中的一个或多个:与所述用户位于其中的环境相关联的环境数据,
与所述用户的当前状态相关联的感知数据,或
与所述用户的特征化参数相关联的用户简档数据。
19.如权利要求17的计算机可读媒体,其中所述用户状态数据包括感知数据,并且其中所述感知数据包括与以下中的一个或多个相关联的实时数据:身体姿势、头部姿态、手势、眼部追踪、面部表情、皮肤电感、瞳孔扩大、或心率。
20.如权利要求17的计算机可读媒体,其中所述用户状态数据包括环境数据,并且其中所述环境数据包括与以下中的一个或多个相关联的数据:时间、日期、光照条件、噪声水平、位置、温度、湿度、或天气条件。
21.如权利要求17-20中的任何一个的计算机可读媒体,其中所述适应性学习平台还用于将所述用户状态数据并入到与所述用户相关联的进化的用户状态模型中,其中从先前收集的用户状态数据学习所述进化的用户状态模型。
22.如权利要求21的计算机可读媒体,其中用于确定参与度水平还基于所述进化的用户状态模型。
23.一种用于监控参与度的计算设备,包括:
通信模块,用于将所述计算设备和分别地与多个学生相关联的多个其它计算设备通信地耦合;以及
控制板模块,用于从所述多个其它计算设备接收教育性数据并使所述计算设备的用户能够监控每个个体学生的所述参与度水平,所述教育性数据至少指示所述多个学生中的每个个体学生的实时参与度水平。
24.如权利要求23的计算设备,其中所述控制板模块还用于分析和聚集所述教育性数据以生成与被呈现给所述多个学生的教育性内容相关联的班级理解的整体表示。
25.如权利要求24的计算设备,其中所述控制板模块还用于:
从所述多个计算设备中的相应一个或多个接收一个或多个学生正需要辅导的指示符;以及
通知计算设备的所述用户所述一个或多个学生正需要辅导。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361887766P | 2013-10-07 | 2013-10-07 | |
US61/887766 | 2013-10-07 | ||
US14/325740 | 2014-07-08 | ||
US14/325,740 US10013892B2 (en) | 2013-10-07 | 2014-07-08 | Adaptive learning environment driven by real-time identification of engagement level |
PCT/US2014/054587 WO2015053891A1 (en) | 2013-10-07 | 2014-09-08 | Adaptive learning environment driven by real-time identification of engagement level |
CN201480049209.5A CN105493130A (zh) | 2013-10-07 | 2014-09-08 | 由参与度水平的实时识别驱动的适应性学习环境 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480049209.5A Division CN105493130A (zh) | 2013-10-07 | 2014-09-08 | 由参与度水平的实时识别驱动的适应性学习环境 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115511679A true CN115511679A (zh) | 2022-12-23 |
Family
ID=52777235
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480049209.5A Pending CN105493130A (zh) | 2013-10-07 | 2014-09-08 | 由参与度水平的实时识别驱动的适应性学习环境 |
CN202211309841.1A Pending CN115511679A (zh) | 2013-10-07 | 2014-09-08 | 由参与度水平的实时识别驱动的适应性学习环境 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480049209.5A Pending CN105493130A (zh) | 2013-10-07 | 2014-09-08 | 由参与度水平的实时识别驱动的适应性学习环境 |
Country Status (3)
Country | Link |
---|---|
US (3) | US10013892B2 (zh) |
CN (2) | CN105493130A (zh) |
WO (1) | WO2015053891A1 (zh) |
Families Citing this family (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11043135B2 (en) * | 2013-01-22 | 2021-06-22 | D2L Corporation | Systems and methods for monitoring learner engagement during a learning event |
US10474793B2 (en) * | 2013-06-13 | 2019-11-12 | Northeastern University | Systems, apparatus and methods for delivery and augmentation of behavior modification therapy and teaching |
US9594944B2 (en) * | 2013-09-25 | 2017-03-14 | Xerox Corporation | Methods and systems for monitoring a worker performing a crowdsourced task |
US10013892B2 (en) | 2013-10-07 | 2018-07-03 | Intel Corporation | Adaptive learning environment driven by real-time identification of engagement level |
US10607188B2 (en) * | 2014-03-24 | 2020-03-31 | Educational Testing Service | Systems and methods for assessing structured interview responses |
US9426421B2 (en) * | 2014-09-05 | 2016-08-23 | Avaya Inc. | System and method for determining conference participation |
US10950140B2 (en) | 2017-06-22 | 2021-03-16 | Visyn Inc. | Video practice systems and methods |
WO2016112194A1 (en) * | 2015-01-07 | 2016-07-14 | Visyn Inc. | System and method for visual-based training |
US10628894B1 (en) | 2015-01-28 | 2020-04-21 | Intuit Inc. | Method and system for providing personalized responses to questions received from a user of an electronic tax return preparation system |
US20160225273A1 (en) * | 2015-01-29 | 2016-08-04 | Xerox Corporation | Methods and systems for evaluating user |
US10176534B1 (en) | 2015-04-20 | 2019-01-08 | Intuit Inc. | Method and system for providing an analytics model architecture to reduce abandonment of tax return preparation sessions by potential customers |
US20160358488A1 (en) * | 2015-06-03 | 2016-12-08 | International Business Machines Corporation | Dynamic learning supplementation with intelligent delivery of appropriate content |
US10482781B2 (en) * | 2015-06-30 | 2019-11-19 | Coursera, Inc. | Online education platform having an instructor dashboard |
US20170039876A1 (en) * | 2015-08-06 | 2017-02-09 | Intel Corporation | System and method for identifying learner engagement states |
GB2544314B (en) * | 2015-11-12 | 2021-08-18 | Human Zoo Ltd | Content delivery systems and apparatus |
WO2017100970A1 (en) * | 2015-12-14 | 2017-06-22 | Microsoft Technology Licensing, Llc | Facilitating discovery of information items using dynamic knowledge graph |
US10116801B1 (en) * | 2015-12-23 | 2018-10-30 | Shoutpoint, Inc. | Conference call platform capable of generating engagement scores |
US20170193847A1 (en) * | 2015-12-31 | 2017-07-06 | Callidus Software, Inc. | Dynamically defined content for a gamification network system |
US10937109B1 (en) | 2016-01-08 | 2021-03-02 | Intuit Inc. | Method and technique to calculate and provide confidence score for predicted tax due/refund |
WO2017152215A1 (en) * | 2016-03-07 | 2017-09-14 | Darling Matthew Ross | A system for improving engagement |
US10777089B2 (en) * | 2016-05-23 | 2020-09-15 | Yellowdig | Prediction and alert system to identify higher risk students with grading system in an online learning forum |
US10115038B2 (en) * | 2016-07-15 | 2018-10-30 | EdTech Learning LLC | Method for adaptive learning utilizing facial recognition |
AU2017300636A1 (en) * | 2016-07-21 | 2019-01-31 | Magic Leap, Inc. | Technique for controlling virtual image generation system using emotional states of user |
WO2018044230A1 (en) * | 2016-09-02 | 2018-03-08 | Tan Meng Wee | Robotic training apparatus and system |
CN106297438A (zh) * | 2016-10-10 | 2017-01-04 | 王宇婷 | 一种经济教学***及其教学方法 |
US10796592B2 (en) | 2016-12-20 | 2020-10-06 | Coursera, Inc. | User generated content within an online education platform |
JP7110550B2 (ja) * | 2017-03-13 | 2022-08-02 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
US20180322798A1 (en) * | 2017-05-03 | 2018-11-08 | Florida Atlantic University Board Of Trustees | Systems and methods for real time assessment of levels of learning and adaptive instruction delivery |
CN108647657A (zh) * | 2017-05-12 | 2018-10-12 | 华中师范大学 | 一种基于多元行为数据的云端教学过程评价方法 |
US10127825B1 (en) * | 2017-06-13 | 2018-11-13 | Fuvi Cognitive Network Corp. | Apparatus, method, and system of insight-based cognitive assistant for enhancing user's expertise in learning, review, rehearsal, and memorization |
US10952661B2 (en) | 2017-06-14 | 2021-03-23 | International Business Machines Corporation | Analysis of cognitive status through object interaction |
US10952662B2 (en) * | 2017-06-14 | 2021-03-23 | International Business Machines Corporation | Analysis of cognitive status through object interaction |
KR20200127969A (ko) | 2017-09-29 | 2020-11-11 | 워너 브로스. 엔터테인먼트 인크. | 사용자 감정 상태에 반응하여 영화 컨텐츠의 생성 및 제어 |
US10916154B2 (en) * | 2017-10-25 | 2021-02-09 | International Business Machines Corporation | Language learning and speech enhancement through natural language processing |
US20190147760A1 (en) * | 2017-11-10 | 2019-05-16 | International Business Machines Corporation | Cognitive content customization |
CN108231090A (zh) * | 2018-01-02 | 2018-06-29 | 深圳市酷开网络科技有限公司 | 文本朗读水平评估方法、装置及计算机可读存储介质 |
US20190213899A1 (en) * | 2018-01-11 | 2019-07-11 | International Business Machines Corporation | Generating selectable control items for a learner |
US20190244535A1 (en) * | 2018-02-06 | 2019-08-08 | Mercury Studio LLC | Card-based system for training and certifying members in an organization |
US10832038B2 (en) * | 2018-03-28 | 2020-11-10 | International Business Machines Corporation | Real-time analysis of participant understanding |
US11741845B2 (en) * | 2018-04-06 | 2023-08-29 | David Merwin | Immersive language learning system and method |
US10593118B2 (en) | 2018-05-04 | 2020-03-17 | International Business Machines Corporation | Learning opportunity based display generation and presentation |
US11037460B2 (en) * | 2018-06-05 | 2021-06-15 | International Business Machines Corporation | Cognitive robotic assistance for education |
CN109637207B (zh) * | 2018-11-27 | 2020-09-01 | 曹臻祎 | 一种学前教育互动教学装置及教学方法 |
US11908345B2 (en) * | 2018-12-27 | 2024-02-20 | Intel Corporation | Engagement level determination and dissemination |
CN109447050B (zh) * | 2018-12-29 | 2020-08-04 | 上海乂学教育科技有限公司 | 一种在线课堂用户情绪可视化*** |
US11817011B2 (en) | 2019-01-16 | 2023-11-14 | International Business Machines Corporation | Dynamicaly updating digital visual content via aggregated feedback |
US11514805B2 (en) * | 2019-03-12 | 2022-11-29 | International Business Machines Corporation | Education and training sessions |
US11373544B2 (en) * | 2019-03-26 | 2022-06-28 | Apple Inc. | Interactive reading assistant |
US10963841B2 (en) | 2019-03-27 | 2021-03-30 | On Time Staffing Inc. | Employment candidate empathy scoring system |
US10728443B1 (en) | 2019-03-27 | 2020-07-28 | On Time Staffing Inc. | Automatic camera angle switching to create combined audiovisual file |
US20200351550A1 (en) * | 2019-05-03 | 2020-11-05 | International Business Machines Corporation | System and methods for providing and consuming online media content |
US20220351633A1 (en) * | 2019-08-12 | 2022-11-03 | Pearson Education, Inc. | Learner engagement engine |
US11861312B2 (en) | 2019-09-10 | 2024-01-02 | International Business Machines Corporation | Content evaluation based on machine learning and engagement metrics |
US11127232B2 (en) | 2019-11-26 | 2021-09-21 | On Time Staffing Inc. | Multi-camera, multi-sensor panel data extraction system and method |
US11023735B1 (en) | 2020-04-02 | 2021-06-01 | On Time Staffing, Inc. | Automatic versioning of video presentations |
US11797619B2 (en) * | 2020-04-02 | 2023-10-24 | Microsoft Technology Licensing, Llc | Click intention machine learned models |
US11756443B2 (en) * | 2020-04-28 | 2023-09-12 | Hitachi, Ltd. | Learning support system |
CN111641816A (zh) * | 2020-06-15 | 2020-09-08 | 河南牧业经济学院 | 一种多功能视觉传达设计平台 |
US20210407310A1 (en) * | 2020-06-25 | 2021-12-30 | Kamaria Finch | Teaching and learning platform |
CN116018789A (zh) | 2020-09-14 | 2023-04-25 | 华为技术有限公司 | 在线学习中用于对学生注意力进行基于上下文的评估的方法、***和介质 |
US11144882B1 (en) | 2020-09-18 | 2021-10-12 | On Time Staffing Inc. | Systems and methods for evaluating actions over a computer network and establishing live network connections |
US20220261936A1 (en) * | 2021-02-15 | 2022-08-18 | Unite Humanity, LLC | Social Learning Platform, Apparatus, Systems and Methods |
US20230020661A1 (en) * | 2021-07-14 | 2023-01-19 | LimeSpring LLC | Systems and methods for calculating engagement with digital media |
US11727040B2 (en) | 2021-08-06 | 2023-08-15 | On Time Staffing, Inc. | Monitoring third-party forum contributions to improve searching through time-to-live data assignments |
CN113344479B (zh) * | 2021-08-06 | 2022-01-07 | 首都师范大学 | 面向在线课堂的学习参与度智能评估方法和装置 |
US11423071B1 (en) | 2021-08-31 | 2022-08-23 | On Time Staffing, Inc. | Candidate data ranking method using previously selected candidate data |
US11803928B2 (en) * | 2022-02-04 | 2023-10-31 | Filo Edtech Inc. | Promoting a tutor on a platform |
CN114638442B (zh) * | 2022-05-19 | 2022-09-02 | 珠海翔翼航空技术有限公司 | 面向个体差异的飞行训练方案生成***、方法及设备 |
US11907652B2 (en) | 2022-06-02 | 2024-02-20 | On Time Staffing, Inc. | User interface and systems for document creation |
Family Cites Families (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6842877B2 (en) | 1998-12-18 | 2005-01-11 | Tangis Corporation | Contextual responses based on automated learning techniques |
US7181693B1 (en) * | 2000-03-17 | 2007-02-20 | Gateway Inc. | Affective control of information systems |
JP2003173137A (ja) * | 2001-11-29 | 2003-06-20 | Eigyotatsu Kofun Yugenkoshi | オンラインバーチャルコミュニティでのピア−トゥ−ピアマッチングを利用する外国語会話学習のためのシステムとその方法 |
US20030167167A1 (en) | 2002-02-26 | 2003-09-04 | Li Gong | Intelligent personal assistants |
US7006735B2 (en) | 2002-06-04 | 2006-02-28 | Koninklijke Philips Electronics N.V. | Loss-less etendue-preserving light guides |
US20040210159A1 (en) * | 2003-04-15 | 2004-10-21 | Osman Kibar | Determining a psychological state of a subject |
WO2005113099A2 (en) | 2003-05-30 | 2005-12-01 | America Online, Inc. | Personalizing content |
US20070033634A1 (en) | 2003-08-29 | 2007-02-08 | Koninklijke Philips Electronics N.V. | User-profile controls rendering of content information |
US7452336B2 (en) | 2003-09-06 | 2008-11-18 | Interactive Neuro Technology, Inc. | Interactive neural training device |
JP2005199403A (ja) | 2004-01-16 | 2005-07-28 | Sony Corp | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 |
EP1582965A1 (en) | 2004-04-01 | 2005-10-05 | Sony Deutschland Gmbh | Emotion controlled system for processing multimedia data |
US7669056B2 (en) | 2005-03-29 | 2010-02-23 | Microsoft Corporation | Method and apparatus for measuring presentation data exposure |
US20060166174A1 (en) | 2005-01-21 | 2006-07-27 | Rowe T P | Predictive artificial intelligence and pedagogical agent modeling in the cognitive imprinting of knowledge and skill domains |
US8209182B2 (en) | 2005-11-30 | 2012-06-26 | University Of Southern California | Emotion recognition system |
US20070150281A1 (en) | 2005-12-22 | 2007-06-28 | Hoff Todd M | Method and system for utilizing emotion to search content |
WO2007109050A2 (en) * | 2006-03-15 | 2007-09-27 | Glass Andrew B | System and method for controlling the presentation of material and operation of external devices |
CA2663078A1 (en) * | 2006-09-07 | 2008-03-13 | The Procter & Gamble Company | Methods for measuring emotive response and selection preference |
JP2008205861A (ja) | 2007-02-20 | 2008-09-04 | Matsushita Electric Ind Co Ltd | 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体 |
US20090079547A1 (en) | 2007-09-25 | 2009-03-26 | Nokia Corporation | Method, Apparatus and Computer Program Product for Providing a Determination of Implicit Recommendations |
KR100980470B1 (ko) | 2008-02-27 | 2010-09-07 | 주식회사 글맥학원 | 책상형 학습 장치 및 이를 이용한 학습 방법 |
US20130254660A1 (en) * | 2008-03-13 | 2013-09-26 | Robb Fujioka | Tablet computer |
US10460085B2 (en) * | 2008-03-13 | 2019-10-29 | Mattel, Inc. | Tablet computer |
KR20090107573A (ko) | 2008-04-09 | 2009-10-14 | 김철웅 | 실시간 원어민 일대일 화상외국어교육 시스템 및 방법 |
US20100088154A1 (en) * | 2008-10-06 | 2010-04-08 | Aditya Vailaya | Systems, methods and computer program products for computing and outputting a timeline value, indication of popularity, and recommendation |
US8893024B2 (en) * | 2008-12-24 | 2014-11-18 | Microsoft Corporation | User evaluation in a collaborative online forum |
US8539359B2 (en) * | 2009-02-11 | 2013-09-17 | Jeffrey A. Rapaport | Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic |
US20150095145A1 (en) * | 2009-03-25 | 2015-04-02 | Matthew A. Shulman | Advertisement effectiveness measurement |
WO2010119376A1 (en) | 2009-04-15 | 2010-10-21 | Koninklijke Philips Electronics N.V. | Methods and systems for adapting a user environment |
US20110053123A1 (en) | 2009-08-31 | 2011-03-03 | Christopher John Lonsdale | Method for teaching language pronunciation and spelling |
WO2011033460A1 (en) * | 2009-09-17 | 2011-03-24 | Time To Know Establishment | Device, system, and method of educational content generation |
WO2011045422A1 (en) | 2009-10-16 | 2011-04-21 | Nviso Sàrl | Method and system for measuring emotional probabilities of a facial image |
CA2787133A1 (en) * | 2010-01-15 | 2011-07-21 | Apollo Group, Inc. | Dynamically recommending learning content |
US20110263946A1 (en) | 2010-04-22 | 2011-10-27 | Mit Media Lab | Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences |
US20120124122A1 (en) * | 2010-11-17 | 2012-05-17 | El Kaliouby Rana | Sharing affect across a social network |
US10388178B2 (en) | 2010-08-27 | 2019-08-20 | Arthur Carl Graesser | Affect-sensitive intelligent tutoring system |
KR101002751B1 (ko) | 2010-09-10 | 2010-12-21 | 주식회사 다이나믹플러스 | 뇌파를 이용한 학습 진단 장치, 이를 이용한 학습 관리 시스템 및 그 동작방법 |
US20120284332A1 (en) * | 2010-11-03 | 2012-11-08 | Anantha Pradeep | Systems and methods for formatting a presentation in webpage based on neuro-response data |
CN102479291A (zh) | 2010-11-30 | 2012-05-30 | 国际商业机器公司 | 情感描述生成与体验方法和设备以及情感交互*** |
KR101118276B1 (ko) | 2011-02-24 | 2012-03-20 | 주식회사 메디오피아테크 | 생체 감성 지표 및 상황 정보로부터 학습 집중도에 관련된 학습 감성 지표를 생성하기 위한 유비쿼터스-러닝용 미들웨어 장치 |
WO2012158234A2 (en) * | 2011-02-27 | 2012-11-22 | Affectiva, Inc. | Video recommendation based on affect |
US8676937B2 (en) | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
US20120297074A1 (en) * | 2011-05-18 | 2012-11-22 | Alcatel-Lucent Canada Inc. | Performance optimization in scheduled task performance |
US9962083B2 (en) * | 2011-07-05 | 2018-05-08 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for monitoring and improving biomechanical health of employees |
US8743205B2 (en) | 2011-08-10 | 2014-06-03 | Nice Systems Ltd. | System and method for semantic video content analysis |
US20130226758A1 (en) * | 2011-08-26 | 2013-08-29 | Reincloud Corporation | Delivering aggregated social media with third party apis |
US20130059276A1 (en) | 2011-09-01 | 2013-03-07 | Speechfx, Inc. | Systems and methods for language learning |
WO2013040112A1 (en) * | 2011-09-13 | 2013-03-21 | Monk Akarshala Design Private Limited | Microlearning marketplace in a modular learning system |
US9489574B2 (en) * | 2011-12-06 | 2016-11-08 | Kyungpook National University Industry-Academic Cooperation Foundation | Apparatus and method for enhancing user recognition |
CN103190902B (zh) * | 2012-01-06 | 2017-08-04 | 无极技术公司 | 利用脑波频率数据和交互式多媒体显示来确定、监控及分析个人化响应变量的方法和*** |
US8954372B2 (en) | 2012-01-20 | 2015-02-10 | Fuji Xerox Co., Ltd. | System and methods for using presence data to estimate affect and communication preference for use in a presence system |
US9224309B2 (en) * | 2012-04-02 | 2015-12-29 | Wisconsin Alumni Research Foundation | Teaching system for improving information retention based on brain-state monitoring |
US8897485B2 (en) * | 2012-06-29 | 2014-11-25 | Intellectual Ventures Fund 83 Llc | Determining an interest level for an image |
US9014509B2 (en) * | 2012-06-29 | 2015-04-21 | Intellectual Ventures Fund 83 Llc | Modifying digital images to increase interest level |
US8873851B2 (en) * | 2012-06-29 | 2014-10-28 | Intellectual Ventures Fund 83 Llc | System for presenting high-interest-level images |
US20140002644A1 (en) * | 2012-06-29 | 2014-01-02 | Elena A. Fedorovskaya | System for modifying images to increase interestingness |
US9247225B2 (en) | 2012-09-25 | 2016-01-26 | Intel Corporation | Video indexing with viewer reaction estimation and visual cue detection |
US9277375B2 (en) | 2012-09-28 | 2016-03-01 | Nokia Technologies Oy | Method and apparatus relating to a mood state of a user |
US9176581B2 (en) | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
US9436911B2 (en) | 2012-10-19 | 2016-09-06 | Pearson Education, Inc. | Neural networking system and methods |
WO2014065781A1 (en) * | 2012-10-23 | 2014-05-01 | Empire Technology Development, Llc | Filtering user actions based on user's mood |
US20140205990A1 (en) * | 2013-01-24 | 2014-07-24 | Cloudvu, Inc. | Machine Learning for Student Engagement |
AU2013201494B1 (en) * | 2012-12-12 | 2013-07-11 | Rokt Pte Ltd | A Digital Advertising System and Method |
US8769557B1 (en) * | 2012-12-27 | 2014-07-01 | The Nielsen Company (Us), Llc | Methods and apparatus to determine engagement levels of audience members |
EP2944063A1 (en) * | 2013-01-10 | 2015-11-18 | Telefonaktiebolaget L M Ericsson (Publ) | Apparatus and method for controlling adaptive streaming of media |
US11043135B2 (en) | 2013-01-22 | 2021-06-22 | D2L Corporation | Systems and methods for monitoring learner engagement during a learning event |
US20140208263A1 (en) * | 2013-01-24 | 2014-07-24 | Victor Maklouf | System and method for dynamically displaying characters over a screen of a computerized mobile device |
US10269033B2 (en) * | 2013-03-04 | 2019-04-23 | Adobe Inc. | Expanded overlay state for campaign performance data snapshot cards |
US9270767B2 (en) * | 2013-03-15 | 2016-02-23 | Yahoo! Inc. | Method and system for discovery of user unknown interests based on supplemental content |
US20140280550A1 (en) * | 2013-03-15 | 2014-09-18 | Yahoo! Inc. | Method and system for measuring user engagement from stream depth |
US10491694B2 (en) * | 2013-03-15 | 2019-11-26 | Oath Inc. | Method and system for measuring user engagement using click/skip in content stream using a probability model |
US20140280890A1 (en) * | 2013-03-15 | 2014-09-18 | Yahoo! Inc. | Method and system for measuring user engagement using scroll dwell time |
US20140280554A1 (en) * | 2013-03-15 | 2014-09-18 | Yahoo! Inc. | Method and system for dynamic discovery and adaptive crawling of content from the internet |
US20140365208A1 (en) | 2013-06-05 | 2014-12-11 | Microsoft Corporation | Classification of affective states in social media |
US10013892B2 (en) * | 2013-10-07 | 2018-07-03 | Intel Corporation | Adaptive learning environment driven by real-time identification of engagement level |
US9299268B2 (en) * | 2014-05-15 | 2016-03-29 | International Business Machines Corporation | Tagging scanned data with emotional tags, predicting emotional reactions of users to data, and updating historical user emotional reactions to data |
US20160180722A1 (en) * | 2014-12-22 | 2016-06-23 | Intel Corporation | Systems and methods for self-learning, content-aware affect recognition |
US20170039876A1 (en) | 2015-08-06 | 2017-02-09 | Intel Corporation | System and method for identifying learner engagement states |
CN105140191B (zh) | 2015-09-17 | 2019-03-01 | 中芯长电半导体(江阴)有限公司 | 一种封装结构及再分布引线层的制作方法 |
US11290686B2 (en) * | 2017-09-11 | 2022-03-29 | Michael H Peters | Architecture for scalable video conference management |
-
2014
- 2014-07-08 US US14/325,740 patent/US10013892B2/en active Active
- 2014-09-08 CN CN201480049209.5A patent/CN105493130A/zh active Pending
- 2014-09-08 WO PCT/US2014/054587 patent/WO2015053891A1/en active Application Filing
- 2014-09-08 CN CN202211309841.1A patent/CN115511679A/zh active Pending
-
2018
- 2018-06-26 US US16/019,182 patent/US11610500B2/en active Active
-
2023
- 2023-03-14 US US18/183,864 patent/US20230360551A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230360551A1 (en) | 2023-11-09 |
WO2015053891A1 (en) | 2015-04-16 |
US20180308376A1 (en) | 2018-10-25 |
US11610500B2 (en) | 2023-03-21 |
US10013892B2 (en) | 2018-07-03 |
CN105493130A (zh) | 2016-04-13 |
US20150099255A1 (en) | 2015-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230360551A1 (en) | Adaptive learning environment driven by real-time identification of engagement level | |
US10115038B2 (en) | Method for adaptive learning utilizing facial recognition | |
TW201830354A (zh) | 採用面部追蹤和情緒檢測的互動式自我調整培訓學習管理系統和相關方法 | |
US20180317831A1 (en) | Diagnostic tool for assessing neurodevelopmental conditions or disorders | |
US11393357B2 (en) | Systems and methods to measure and enhance human engagement and cognition | |
Kołakowska et al. | Automatic recognition of therapy progress among children with autism | |
Whitehill et al. | Towards an optimal affect-sensitive instructional system of cognitive skills | |
Ng et al. | Effects of persuasive designed courseware on children with learning difficulties in learning Malay language subject | |
Anindhita et al. | Designing interaction for deaf youths by using user-centered design approach | |
Vail et al. | Predicting learning and engagement in tutorial dialogue: A personality-based model | |
Van Amelsvoort et al. | Using non-verbal cues to (automatically) assess children’s performance difficulties with arithmetic problems | |
Lledó et al. | The use of augmented reality to improve the development of activities of daily living in students with ASD | |
Moridis et al. | Mood recognition during online self-assessment tests | |
Lali et al. | Your mouse can tell about your emotions | |
US20220198952A1 (en) | Assessment and training system | |
Łucznik | Shared creativity and flow in dance improvisation practice | |
JP6794992B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Alghabban et al. | Student Perception of Usability: A Metric for Evaluating the Benefit When Adapting e-Learning to the Needs of Students with Dyslexia. | |
Stevens et al. | User experience design to enhance the effectiveness of mobile technologies for the treatment of mental health | |
Chatzidaki et al. | A natural user interface game for the evaluation of children with learning difficulties. | |
Lee | Developing an Approach to Support Instructors to Provide Emotional and Instructional Scaffolding for English Language Learners Through Biosensor-Based Feedback | |
Al-Omair et al. | An Emotionally Adaptive Framework for E-Learning Systems | |
Liu et al. | ClassMeta: Designing Interactive Virtual Classmate to Promote VR Classroom Participation | |
Huan | Evaluating child engagement in digital story stems using facial data | |
Itzhak et al. | International Journal of Child-Computer Interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |