CN113723277B - 一种融入多模态视觉信息的学习意图监测方法及*** - Google Patents

一种融入多模态视觉信息的学习意图监测方法及*** Download PDF

Info

Publication number
CN113723277B
CN113723277B CN202110998162.9A CN202110998162A CN113723277B CN 113723277 B CN113723277 B CN 113723277B CN 202110998162 A CN202110998162 A CN 202110998162A CN 113723277 B CN113723277 B CN 113723277B
Authority
CN
China
Prior art keywords
image data
visible light
network
learning
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110998162.9A
Other languages
English (en)
Other versions
CN113723277A (zh
Inventor
刘海
张昭理
张胜强
时振武
童宇航
吴远芳
李林峰
赵万里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central China Normal University
Original Assignee
Central China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central China Normal University filed Critical Central China Normal University
Priority to CN202110998162.9A priority Critical patent/CN113723277B/zh
Publication of CN113723277A publication Critical patent/CN113723277A/zh
Application granted granted Critical
Publication of CN113723277B publication Critical patent/CN113723277B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融入多模态视觉信息的学习意图监测方法及***。该方法包括步骤:分别采集学习者的红外图像数据和可见光图像数据;分别对所述红外图像数据和所述可见光图像数据进行预处理;将预处理后的所述红外图像数据和所述可见光图像数据输入到人脸检测器;将人脸检测器的输出数据输入到图像融合模型;将所述图像融合模块的输出数据输入到头部姿态识别模型,获取头部姿态识别数据,根据所述头部姿态识别数据判断学习者的学习意图。本发明可以实现不同模态的信息互补,提高光照变化或复杂背景下的头部姿态识别精准度,从而提高学习意图判断精准度。

Description

一种融入多模态视觉信息的学习意图监测方法及***
技术领域
本发明属于智能人机交互技术领域,更具体地,涉及一种融入多模态视觉信息的学习意图监测方法及***。
背景技术
随着现代化科学技术的不断发展,我国教育事业发展迅速,教育制度、素质教育、创新人才培养已逐渐成为人们的共识。毫无疑问,教育是每个国家最为看重的国家资源。教学场景也从单独课上这一场景已经发展为课下、线上等多样化形式,教育机器人助手辅助提高该环境下的教学质量以及陪伴学生提高上课效率是十分重要的意义。
学习意图是指人的心里活动指向和集中于某种事物的意愿,特别是表现在人对事物的关注点、对于事物投入的时间和精力。因此,学习意图可以反映一个人感兴趣的区域或者感兴趣的方向,这种特性被广泛应用,其中,研究课堂上的学生意愿也是人们重点关注的一个领域。但是,值得注意的是,课下学习者学习场景多样性、复杂性,导致头部姿态、视线估计以及表情识别任务准确性难以得到保证,从而导致学习意图判别有所偏差。
发明内容
针对现有技术的至少一个缺陷或改进需求,本发明提供了一种融入多模态视觉信息的学习意图监测方法及***,可以实现不同模态的信息互补,提高光照变化或复杂背景下的头部姿态识别精准度,从而提高学习意图判断精准度。
为实现上述目的,按照本发明的第一方面,提供了一种融入多模态视觉信息的学习意图监测方法,包括步骤:
分别采集学习者的红外图像数据和可见光图像数据;
分别对所述红外图像数据和所述可见光图像数据进行预处理;
将预处理后的所述红外图像数据和所述可见光图像数据输入到人脸检测器,获取所述红外图像数据的感兴趣区域图像和所述可见光图像数据的感兴趣区域图像;
将所述红外图像数据的感兴趣区域图像和所述可见光图像数据的感兴趣区域图像输入到图像融合模型;
将所述图像融合模块的输出数据输入到头部姿态识别模型,获取头部姿态识别数据,根据所述头部姿态识别数据判断学习者的学习意图。
优选的,所述分别采集学习者的红外图像数据和可见光图像数据包括步骤:
分别利用红外相机以及可见光相机记录学习者学习视频,再逐帧分解得到同一场景下同一时刻的红外图像数据和可见光图像数据。
优选的,所述分别对所述红外图像数据和所述可见光图像数据进行预处理包括步骤:
分别采用双线性内插值算法对所述红外图像数据和所述可见光图像数据进行图像缩放处理,图像缩放处理的方法是:将图像中缩放处理前的像素点的坐标记为(i,j),值为f(i,j),将缩放处理后的像素点的坐标记为(i+u,j+v),值为f(i+u,j+v),其中u和v为范围在[0,1)区间内的小数,f(i+u,j+v)可由缩放处理前的图像中坐标为(i,j),(i+1,j),(i,j+1),(i+1,j+1)所对应的四个像素的值决定,f(i+u,j+v)=(1-u)(1-v)f(i,j)+(1-u)vf(i,j+1)+u(1-v)f(i+1,j)+uvf(i+1,j+1)。
优选的,所述图像融合模型包括MCNet网络、RGB-Snet网络和拼接模块,所述MCNet网络用于提取所述红外图像数据的感兴趣区域图像的特征,所述RGB-Snet网络用于提取所述可见光图像数据的感兴趣区域图像的特征,所述拼接模块用于将所述MCNet网络提取的特征和所述RGB-Snet网络提取的特征进行融合。
优选的,所述RGB-Snet网络基于VGG16网络实现。
优选的,为了实现最大的可见光模态和红外模态之间的差异,在只有模态标签的可见光图像和红外图像集合上进行训练,在所述MCNet引入二值分类器Θ(Xi∣ΦM),该分类器采用softmax作为分类损失函数。
优选的,所述头部姿态估计模型是多损失的卷积神经网络模型,所述卷积神经网络模型利用ResNet50作为训练网络,所述卷积神经网络模型的损失函数包括头部姿态欧拉角三个角度的损失。
优选的,所述根据所述头部姿态估计数据判断学习者的学习意图包括步骤:
设置积极状态和消息状态的划分阈值,将小于所述划分阈值的头部姿态确定为积极状态,将大于所述划分阈值的头部姿态确定为消极状态;
判断预设时间段内积极状态和消极状态占比,根据所述占比确定学习者的学习意图。
按照本发明的第二方面,提供了一种融入多模态视觉信息的学习意图监测***,包括:
数据采集模块,用于分别采集学习者的红外图像数据和可见光图像数据;
预处理模块,用于分别对所述红外图像数据和所述可见光图像数据进行预处理;
检测模块,用于将预处理后的所述红外图像数据和所述可见光图像数据输入到人脸检测器,获取所述红外图像数据的感兴趣区域图像和所述可见光图像数据的感兴趣区域图像;
融合模块,用于将所述红外图像数据的感兴趣区域图像和所述可见光图像数据的感兴趣区域图像输入到图像融合模型;
识别模块,用于将所述图像融合模块的输出数据输入到头部姿态识别模型,获取头部姿态识别数据,根据所述头部姿态识别数据判断学习者的学习意图。
总体而言,本发明与现有技术相比,具有有益效果:
(1)本发明解决了在复杂光照环境变化情况下,学习者注意力的判别问题,对学习质量的提高和辅助教学具有重要意义。
(2)本发明将***移植到教学机器人助手内,克服传统侵入式设备严重影响学生舒适度的问题。
附图说明
图1是本发明实施例的学习意图监测方法流程图;
图2是本发明实施例的家庭环境下数据获取示意图;
图3是本发明实施例的外红-可见光头部姿态融合示意图;
图4是本发明实施例的学习意图判断机制示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明实施例的一种融入多模态视觉信息的学习意图监测方法,包括以下步骤:
(1)分别采集学习者的红外图像数据和可见光图像数据。
优选的,分别采集学习者的红外图像数据和可见光图像数据包括步骤:利用红外相机(波段850nm)以及可见光相机记录学习者学习视频。再逐帧分解得到同一场景下同一时刻的双模态头部姿态图像。
(2)分别对红外图像数据和可见光图像数据进行预处理。
优选的,分别采用双线性内插值算法对红外图像数据和可见光图像数据进行图像缩放处理,图像缩放处理的方法是:采用双线性内插值算法进行图像缩放,将浮点坐标(i,j)通过反向变换得到浮点坐标为(i+u,j+v),其中u和v为浮点坐标范围在[0,1)区间内的小数部分,因此,该目标像素点的值f(i+u,j+v)可由源图坐标为(i,j),(i+1,j),(i,j+1),(i+1,j+1)所对应的周围四个像素的值决定,也即:f(i+u,j+v)=(1-u)(1-v)f(i,j)+(1-u)vf(i,j+1)+u(1-v)f(i+1,j)+uvf(i+1,j+1)。
(3)将预处理后的红外图像数据和可见光图像数据输入到人脸检测器,获取红外图像数据的感兴趣区域图像和可见光图像数据的感兴趣区域图像
具体地,再以VGG网络构建一个人脸检测器,不同大小的卷积层后面加入了几个小检测模块(M1,M2,M3),每个小检测模块都会进行一个检测和分类处理,实现图像统一裁剪。
(4)将红外图像数据的感兴趣区域图像和可见光图像数据的感兴趣区域图像输入到图像融合模型。
基于双模态图像信息互补的特点进行红外光-可见光头部姿态融合,为后续头部姿态估计提供更加充分的特征信息。
优选的,图像融合模型包括MCNet网络、RGB-Snet网络和拼接模块,MCNet网络用于提取红外图像数据的感兴趣区域图像的特征,RGB-Snet网络用于提取可见光图像数据的感兴趣区域图像的特征,拼接模块用于将MCNet网络提取的特征和RGB-Snet网络提取的特征进行融合。
采用分阶段训练的方法对多模态融合网络进行训练,首先训练MCNet提取原始图像的浅层特征以及训练RGB-Snet提取深层特征,再选择桥节点将两者无缝拼接,最后将RGB流和IR流组合为多模态融合网络,充分融合跨模态和跨级互补。
优选的,RGB-Snet网络基于VGG16网络实现。在全连接(FC)层上进行了修改,以适应显著性检测任务。在RGB-SNet中,自适应FC层由3136个节点组成,通过sigmoid激活函数将深度表示映射到显著性概率。这样的设计考虑了完全卷积网络(FCN)和FC层在显著目标检测方面的区别,在FCN中,只有靠近图像中心的像素才能全局感知整个图像,而其他像素只能关注部分图像。相比之下,FC层中的每个节点都与图像中的所有像素完全连接。然后,3136个显著性概率被扭曲成56×56显著性地图。然后采用交叉熵损失算法,该算法融合了整个预测显著性图与真实显著性掩模之间的差异。这样,每个像素的显著性将与全局上下文进行推理,从而避免了局部区分模式的干扰。
优选的,为了测量RGB模态和IR模态之间的差异,给定RGB模态IR模态/>和假设类/>的分布,那么/>和/>之间的/>的散度表示为
其中Pr表示事件发生的概率,η表示二值分类器,sup表示上确界。
从公式(1)中可以看出,散度依赖假设类/>的分布区分/>样本的能力,经过检验/>散度可以进一步表示为
I[η(Xi)=0]表示二元示性函数,n1、n2表示RGB和IR模态下的样品数量,其中N=n1+n2
为了实现最大的模态差异,本发明实施例的学习意图监测方法核心是在神经网络架构的上下文中实现这个想法,方法上具体为在只有模态标签的RGB和IR图像集合上进行训练,MCNet促进了能够有效区分IR和RGB图像的特征。形式上,MCNet引入二值分类器Θ(Xi∣ΦM),该分类器采用softmax作为分类损失函数,且表示为
(5)将图像融合模块的输出数据输入到头部姿态识别模型,获取头部姿态识别数据,根据头部姿态识别数据判断学习者的学习意图。
优选的,头部姿态估计模型是多损失的卷积神经网络模型。将融合之后的图像输入到一个多损失(multi-loss)的卷积神经网络模型中,该模型利用ResNet50网络作为训练网络,在最后输出层修改了它的损失函数。使用3个分离的损失,即针对每一个欧拉角,单独计算其损失,每个损失由两部分组成:分块姿态分类与回归组件组成,得到学***转动角(yaw)、竖直转动角(pitch)以及滚动角(roll)准确角度。
优选的,根据头部姿态估计数据判断学习者的学习意图包括步骤:设置积极状态和消息状态的划分阈值,将小于划分阈值的头部姿态确定为积极状态,将大于划分阈值的头部姿态确定为消极状态;判断预设时间段内积极状态和消极状态占比,根据占比确定学习者的学习意图。
在一个实施例中,学习者在家庭环境中课下学习时,学习者学习意图集中与教学课程时头部转动幅度较小,经过头部姿态估计结果和统计得出,积极类的状态中学生的头部姿态变化量在正负30°的范围内,而消极类的变化量均大于30°。参照PERCLOS算法,每隔10秒统计该时段内头部偏离帧数所占比值,当比值超过80%时即判定在该时段内学生处于学习意图消极状态。
假设十分钟内判断头部姿态600次,根据十分钟内偏离情况计算第j个同学注意力状况,可以用公式(6):
本发明实施例的一种融入多模态视觉信息的学习意图监测***,包括:
数据采集模块,用于分别采集学习者的红外图像数据和可见光图像数据;
预处理模块,用于分别对红外图像数据和可见光图像数据进行预处理;
检测模块,用于将预处理后的红外图像数据和可见光图像数据输入到人脸检测器,获取红外图像数据的感兴趣区域图像和可见光图像数据的感兴趣区域图像;
融合模块,用于将红外图像数据的感兴趣区域图像和可见光图像数据的感兴趣区域图像输入到图像融合模型;
识别模块,用于将图像融合模块的输出数据输入到头部姿态识别模型,获取头部姿态识别数据,根据头部姿态识别数据判断学习者的学习意图。
优选的,图像融合模型包括MCNet网络、RGB-Snet网络和拼接模块,MCNet网络用于提取红外图像数据的感兴趣区域图像的特征,RGB-Snet网络用于提取可见光图像数据的感兴趣区域图像的特征,拼接模块用于将MCNet网络提取的特征和RGB-Snet网络提取的特征进行融合。
***的实现原理、技术效果与上述方法类似,此处不再赘述。
上述融入多模态视觉信息的学习意图监测方法和***可以移植到教学机器人里。
必须说明的是,上述任一实施例中,方法并不必然按照序号顺序依次执行,只要从执行逻辑中不能推定必然按某一顺序执行,则意味着可以以其他任何可能的顺序执行。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种融入多模态视觉信息的学习意图监测方法,其特征在于,包括步骤:
分别采集学习者的红外图像数据和可见光图像数据;
分别对所述红外图像数据和所述可见光图像数据进行预处理;
将预处理后的所述红外图像数据和所述可见光图像数据输入到人脸检测器,获取所述红外图像数据的感兴趣区域图像和所述可见光图像数据的感兴趣区域图像;
将所述红外图像数据的感兴趣区域图像和所述可见光图像数据的感兴趣区域图像输入到图像融合模型;其中,所述图像融合模型包括MCNet网络、RGB-Snet网络和拼接模块,所述MCNet网络用于提取所述红外图像数据的感兴趣区域图像的特征,所述RGB-Snet网络用于提取所述可见光图像数据的感兴趣区域图像的特征,所述拼接模块用于将所述MCNet网络提取的特征和所述RGB-Snet网络提取的特征进行融合;
将所述图像融合模型的输出数据输入到头部姿态识别模型,获取头部姿态识别数据,根据所述头部姿态识别数据判断学习者的学习意图;
所述根据所述头部姿态估计数据判断学习者的学习意图包括步骤:
设置积极状态和消极状态的划分阈值,将头部姿态变化量小于所述划分阈值的头部姿态确定为积极状态,将头部姿态变化量大于所述划分阈值的头部姿态确定为消极状态;
判断预设时间段内积极状态和消极状态占比,根据所述占比确定学习者的学习意图。
2.如权利要求1所述的一种融入多模态视觉信息的学习意图监测方法,其特征在于,所述分别采集学习者的红外图像数据和可见光图像数据包括步骤:
分别利用红外相机以及可见光相机记录学习者学习视频,再逐帧分解得到同一场景下同一时刻的红外图像数据和可见光图像数据。
3.如权利要求1所述的一种融入多模态视觉信息的学习意图监测方法,其特征在于,所述分别对所述红外图像数据和所述可见光图像数据进行预处理包括步骤:
分别采用双线性内插值算法对所述红外图像数据和所述可见光图像数据进行图像缩放处理,图像缩放处理的方法是:将图像中缩放处理前的像素点的坐标记为(i,j),值为f(i,j),将缩放处理后的像素点的坐标记为(i+u,j+v),值为f(i+u,j+v),其中u和v为范围在[0,1)区间内的小数,f(i+u,j+v)可由缩放处理前的图像中坐标为(i,j),(i+1,j),(i,j+1),(i+1,j+1)所对应的四个像素的值决定,f(i+u,j+v)=(1-u)(1-v)f(i,j)+(1-u)vf(i,j+1)+u(1-v)f(i+1,j)+uvf(i+1,j+1)。
4.如权利要求1所述的一种融入多模态视觉信息的学习意图监测方法,其特征在于,所述RGB-Snet网络基于VGG16网络实现。
5.如权利要求1所述的一种融入多模态视觉信息的学习意图监测方法,其特征在于,为了实现最大的可见光模态和红外模态之间的差异,在只有模态标签的可见光图像和红外图像集合上进行训练,在所述MCNet引入二值分类器Θ(Xi∣ΦM),该分类器采用softmax作为分类损失函数。
6.如权利要求1所述的一种融入多模态视觉信息的学习意图监测方法,其特征在于,所述头部姿态估计模型是多损失的卷积神经网络模型,所述卷积神经网络模型利用ResNet50作为训练网络,所述卷积神经网络模型的损失函数包括头部姿态欧拉角三个角度的损失。
7.一种融入多模态视觉信息的学习意图监测***,其特征在于,包括:
数据采集模块,用于分别采集学习者的红外图像数据和可见光图像数据;
预处理模块,用于分别对所述红外图像数据和所述可见光图像数据进行预处理;
检测模块,用于将预处理后的所述红外图像数据和所述可见光图像数据输入到人脸检测器,获取所述红外图像数据的感兴趣区域图像和所述可见光图像数据的感兴趣区域图像;
融合模块,用于将所述红外图像数据的感兴趣区域图像和所述可见光图像数据的感兴趣区域图像输入到图像融合模型;其中,所述图像融合模型包括MCNet网络、RGB-Snet网络和拼接模块,所述MCNet网络用于提取所述红外图像数据的感兴趣区域图像的特征,所述RGB-Snet网络用于提取所述可见光图像数据的感兴趣区域图像的特征,所述拼接模块用于将所述MCNet网络提取的特征和所述RGB-Snet网络提取的特征进行融合;
识别模块,用于将所述图像融合模型的输出数据输入到头部姿态识别模型,获取头部姿态识别数据,根据所述头部姿态识别数据判断学习者的学习意图;
所述根据所述头部姿态估计数据判断学习者的学习意图包括步骤:
设置积极状态和消极状态的划分阈值,将头部姿态变化量小于所述划分阈值的头部姿态确定为积极状态,将头部姿态变化量大于所述划分阈值的头部姿态确定为消极状态;
判断预设时间段内积极状态和消极状态占比,根据所述占比确定学习者的学习意图。
CN202110998162.9A 2021-08-27 2021-08-27 一种融入多模态视觉信息的学习意图监测方法及*** Active CN113723277B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110998162.9A CN113723277B (zh) 2021-08-27 2021-08-27 一种融入多模态视觉信息的学习意图监测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110998162.9A CN113723277B (zh) 2021-08-27 2021-08-27 一种融入多模态视觉信息的学习意图监测方法及***

Publications (2)

Publication Number Publication Date
CN113723277A CN113723277A (zh) 2021-11-30
CN113723277B true CN113723277B (zh) 2024-02-27

Family

ID=78678638

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110998162.9A Active CN113723277B (zh) 2021-08-27 2021-08-27 一种融入多模态视觉信息的学习意图监测方法及***

Country Status (1)

Country Link
CN (1) CN113723277B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115240402B (zh) * 2022-07-13 2023-04-07 北京拙河科技有限公司 一种观光车调度方法和***
CN115376161B (zh) * 2022-08-22 2023-04-04 北京航空航天大学 一种基于低分辨率红外阵列传感器的居家伴学***

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101383004A (zh) * 2007-09-06 2009-03-11 上海遥薇实业有限公司 一种红外和可见光图像相结合的乘客目标检测方法
CN105741375A (zh) * 2016-01-20 2016-07-06 华中师范大学 一种大视场双目视觉的红外图像考勤方法
CN108664932A (zh) * 2017-05-12 2018-10-16 华中师范大学 一种基于多源信息融合的学习情感状态识别方法
CN108921100A (zh) * 2018-07-04 2018-11-30 武汉高德智感科技有限公司 一种基于可见光图像与红外图像融合的人脸识别方法及***
CN109902603A (zh) * 2019-02-18 2019-06-18 苏州清研微视电子科技有限公司 基于红外图像的驾驶员身份识别认证方法和***
CN109949193A (zh) * 2019-04-02 2019-06-28 中国计量大学上虞高等研究院有限公司 可变光环境下学习注意力检测与预判装置和方法
CN110008822A (zh) * 2019-02-18 2019-07-12 武汉高德智感科技有限公司 一种基于红外传感器的姿态识别方法及***
CN110857064A (zh) * 2018-08-24 2020-03-03 上海汽车集团股份有限公司 一种驾驶意图指令生成的装置和方法
CN111160237A (zh) * 2019-12-27 2020-05-15 智车优行科技(北京)有限公司 头部姿态估计方法和装置、电子设备和存储介质
EP3709209A1 (en) * 2019-03-15 2020-09-16 Koninklijke Philips N.V. Device, system, method and computer program for estimating pose of a subject
CN111814733A (zh) * 2020-07-23 2020-10-23 深圳壹账通智能科技有限公司 基于头部姿态的专注度检测方法及装置
CN112487948A (zh) * 2020-11-27 2021-03-12 华中师范大学 一种基于多空间融合的学习者学习过程的专注度感知方法
CN112669249A (zh) * 2021-01-15 2021-04-16 西安中科立德红外科技有限公司 结合改进nsct变换和深度学习的红外与可见光图像融合方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101383004A (zh) * 2007-09-06 2009-03-11 上海遥薇实业有限公司 一种红外和可见光图像相结合的乘客目标检测方法
CN105741375A (zh) * 2016-01-20 2016-07-06 华中师范大学 一种大视场双目视觉的红外图像考勤方法
CN108664932A (zh) * 2017-05-12 2018-10-16 华中师范大学 一种基于多源信息融合的学习情感状态识别方法
CN108921100A (zh) * 2018-07-04 2018-11-30 武汉高德智感科技有限公司 一种基于可见光图像与红外图像融合的人脸识别方法及***
CN110857064A (zh) * 2018-08-24 2020-03-03 上海汽车集团股份有限公司 一种驾驶意图指令生成的装置和方法
CN110008822A (zh) * 2019-02-18 2019-07-12 武汉高德智感科技有限公司 一种基于红外传感器的姿态识别方法及***
CN109902603A (zh) * 2019-02-18 2019-06-18 苏州清研微视电子科技有限公司 基于红外图像的驾驶员身份识别认证方法和***
EP3709209A1 (en) * 2019-03-15 2020-09-16 Koninklijke Philips N.V. Device, system, method and computer program for estimating pose of a subject
CN109949193A (zh) * 2019-04-02 2019-06-28 中国计量大学上虞高等研究院有限公司 可变光环境下学习注意力检测与预判装置和方法
CN112464863A (zh) * 2019-04-02 2021-03-09 中国计量大学上虞高等研究院有限公司 可变光环境下学习注意力检测与预判装置
CN111160237A (zh) * 2019-12-27 2020-05-15 智车优行科技(北京)有限公司 头部姿态估计方法和装置、电子设备和存储介质
CN111814733A (zh) * 2020-07-23 2020-10-23 深圳壹账通智能科技有限公司 基于头部姿态的专注度检测方法及装置
CN112487948A (zh) * 2020-11-27 2021-03-12 华中师范大学 一种基于多空间融合的学习者学习过程的专注度感知方法
CN112669249A (zh) * 2021-01-15 2021-04-16 西安中科立德红外科技有限公司 结合改进nsct变换和深度学习的红外与可见光图像融合方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Infrared and Visible Cross-Modal Image Retrieval Through Shared Features;Fangcen Liu etc;《 IEEE Transactions on Circuits and Systems for Video Technology 》;第31卷(第11期);全文 *
基于RealSense的在线课堂注意力评测***设计;路远;李彦敏;;中国医学教育技术(第03期);全文 *
基于决策融合的红外与可见光图像人脸识别研究;赵云丰;尹怡欣;;激光与红外(第06期);全文 *
基于深度图像的多学习者姿态识别;张鸿宇;刘威;许炜;王辉;;计算机科学(第09期);第1-3节 *
张鸿宇 ; 刘威 ; 许炜 ; 王辉 ; .基于深度图像的多学习者姿态识别.计算机科学.2015,(第09期),第1-3节. *

Also Published As

Publication number Publication date
CN113723277A (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN110728209B (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN111611905B (zh) 一种可见光与红外融合的目标识别方法
CN111563452B (zh) 一种基于实例分割的多人体姿态检测及状态判别方法
Prates et al. Insulator visual non-conformity detection in overhead power distribution lines using deep learning
CN113723277B (zh) 一种融入多模态视觉信息的学习意图监测方法及***
CN110796018B (zh) 一种基于深度图像和彩色图像的手部运动识别方法
CN112036276A (zh) 一种人工智能视频问答方法
CN113239916B (zh) 一种表情识别及课堂状态评估方法、设备及介质
CN114898460B (zh) 一种基于图卷积神经网络的教师非言语行为检测方法
CN116310922A (zh) 石化厂区监控视频风险识别方法、***、电子设备及存储介质
CN112750128B (zh) 图像语义分割方法、装置、终端及可读存储介质
CN107729811A (zh) 一种基于场景建模的夜间火焰检测方法
Rao et al. Recognition of learners’ cognitive states using facial expressions in e-learning environments
CN114677586B (zh) 一种物理电路实验自动识别方法
CN113688789B (zh) 一种基于深度学习的在线学习投入度识别方法及***
CN112967317B (zh) 一种动态环境下基于卷积神经网络架构的视觉里程计方法
Tazhigaliyeva et al. Cyrillic manual alphabet recognition in RGB and RGB-D data for sign language interpreting robotic system (SLIRS)
CN114663910A (zh) 基于多模态学习状态分析***
CN113536926A (zh) 基于距离向量和多角度自适应网络的人体动作识别方法
Kadyrov et al. Automated Reading Detection in an Online Exam.
CN110458113A (zh) 一种人脸非配合场景下的小人脸识别方法
Zhu et al. Emotion Recognition in Learning Scenes Supported by Smart Classroom and Its Application.
CN116894978B (zh) 一种融合面部情绪与行为多特征的线上考试防作弊***
CN112597888B (zh) 一种针对cpu运算优化的在线教育场景学生注意力识别方法
CN117951632B (zh) 基于多模态原型网络的pu对比学习异常检测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant