CN110737339A - 基于深度学习的视觉—触觉交互模型构建方法 - Google Patents

基于深度学习的视觉—触觉交互模型构建方法 Download PDF

Info

Publication number
CN110737339A
CN110737339A CN201911029362.2A CN201911029362A CN110737339A CN 110737339 A CN110737339 A CN 110737339A CN 201911029362 A CN201911029362 A CN 201911029362A CN 110737339 A CN110737339 A CN 110737339A
Authority
CN
China
Prior art keywords
visual
task
tasks
model
tactile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911029362.2A
Other languages
English (en)
Other versions
CN110737339B (zh
Inventor
赵铁松
薛鸿
徐艺文
陈炜玲
乔杨珺
袁迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201911029362.2A priority Critical patent/CN110737339B/zh
Publication of CN110737339A publication Critical patent/CN110737339A/zh
Application granted granted Critical
Publication of CN110737339B publication Critical patent/CN110737339B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种基于深度学习的视觉—触觉交互模型构建方法。首先,基于设计的三种虚拟交互任务,获得不同任务下视觉注意力和触感控制之间的相关性,进行跨模态行为分析;其次,根据相关性,利用LSTM神经网络建立视觉—触觉交互预测模型,实现不同任务的交互模型,并进行性能对比和评价;最后,利用训练模型预测出的结果在虚拟控制任务中进行实施,判断任务中目标的完成情况。本发明方法较采用传统的基于机器学习的训练模型相比,基于深度学习的LSTM神经网络模型预测效果最好,并在非随机任务中任务完成度较高,优势明显。

Description

基于深度学习的视觉—触觉交互模型构建方法
技术领域
本发明涉及视觉—触觉多媒体交互技术领域,特别是一种基于深度学习的视觉—触觉交互模型构建方法。
背景技术
现代多媒体***中,视觉和听觉信息是普遍的。除了传统的视-听语言,触感信息将带来更真实、沉浸的体验,例如主端用户控制远程机械手臂与其所处的环境进行交互,用户不仅可感受到触觉反馈或者视觉信息来进一步调整远程控制过程。
在如上所述的触感驱动的过程中,融合了跨模态多感知信息并呈现给用户。然而,在机器智能时代,这些多感知信号没有整合在一起。所以,多感知信息的交互是非常关键的,这可以进一步增强***的服务质量(QoS)以及用户的体验质量(QoE)。人类一般通过视觉感知大部分外部信息,在多感知交互领域中视觉—触觉交互是一个有吸引力的话题,利用视觉注意力为触感控制提供指导更是一个新颖的方向。眼球追踪检测到的视觉注意力的变化有利于有效的触觉指导,提升体验感,例如残疾人的行为、运动、意图等。
目前,视觉—触觉交互的研究主要集中在利用视觉注意力进行简单任务上的分类与识别。从基于视觉注意力预测特定的目标,到进一步的预测触觉操作行为,例如区域、方向等,大多数现有的研究利用视觉注意力预测较为宽泛的触感操作行为,如目标、区域、方向等。因此,基于视觉注意力进行更加精细的触觉指导是必然趋势。本发明致力于更精细的操作任务,并在任务驱动的场景中建立跨模态视觉—触觉交互模型。
发明内容
本发明的目的在于提供一种基于深度学习的视觉—触觉交互模型构建方法,该方法较传统机器学习方法提高了触感控制指导的精度。
为实现上述目的,本发明的技术方案是:一种基于深度学习的视觉—触觉交互模型构建方法,包括如下步骤:
步骤S1、基于虚拟交互任务,得到不同虚拟交互任务下视觉注意力与触感控制之间的相关性;
步骤S2、使用LSTM长短期记忆神经网络,利用主端用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建及性能验证;
步骤S3、利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况。
在本发明一实施例中,所述步骤S1具体实现如下:
步骤S11、建立视觉—触觉交互***,该***包括眼球追踪平台和触感交互平台;
步骤S12、基于步骤S11建立的视觉—触觉交互***,在虚拟环境中设计三种虚拟交互任务,包括随机轨迹任务、固定轨迹任务与避障轨迹任务;采用主观测试获得包含记录任务数据的主观数据集,每个记录任务包含一对眼动信号序列和动觉位置序列的数据;
步骤S13、基于步骤S12获取到的视觉—触觉对数据集,对数据进行预处理,以实现跨模态信号的统一;具体包括对触感信号进行下采样以保持和眼动信号相同的采样率;对注视点坐标进行映射以保持和触感控制相同的Euclidean空间;对眼动信号采取移动平均滤波以避免不同用户注视习惯差异造成的不同程度信号噪声的影响;消除锋利的以及未采样到的眼动数据;
步骤S14、根据不同虚拟交互任务得到的有效数据集,针对每个记录任务计算每个坐标维度的相关性,最终每个记录任务的相关性为两个坐标维度相关性的平均,使用Person相关系数计算相关性,函数表达式如下:
Figure BDA0002249314570000021
其中,gi和pi分别表示一个记录任务中眼动坐标和动觉位置在每个样本的信号值,
Figure BDA0002249314570000022
Figure BDA0002249314570000023
分别表示一个记录任务中眼动坐标和动觉位置的平均值,n表示一个记录任务中的样本数量,γ表示计算的相关性值。
在本发明一实施例中,所述步骤S1具体实现如下:
步骤S21、读取数据集,对数据样本进行归一化,减少模型计算量,加速模型收敛并提高拟合效果;
步骤S22、载入LSTM神经网络,并根据具体要求添加新层,搭建视觉—触觉交互训练模型,针对具有不同相关性的任务分别构建一个模型;
步骤S23、引入训练效果评价指标MSE,对模型训练过程进行实时评价,实时保存训练模型和数据;
步骤S24、引入步骤S23训练的模型对测试集进行预测,使用MSE评价预测结果;
步骤S25、引入三种基于机器学习的方法与步骤S23训练的模型进行对比,分别为线性回归、K-NearestNeighbor回归与随机森林回归。
在本发明一实施例中,所述步骤S3具体实现如下:
步骤S31、在虚拟控制任务中验证模型的预测结果,针对测试集的每个记录任务,仅利用眼动信号预测出的动觉位置对目标进行控制,确定自动控制下任务目标能否完成;
步骤S32、引入性能评价指标任务完成度TAR,对任务完成情况进行评价,指标表达式如下:
Figure BDA0002249314570000031
其中,N表示成功完成任务的个数,Ntot表示任务的总个数。
相较于现有技术,本发明具有以下有益效果:本发明方法提供了一种新型的视觉—触觉交互模型,有效地提高了利用视觉注意力进行触感控制指导的精度,具有非常广泛的应用前景。
附图说明
图1是本发明实施例过程中的整体工作流程图。
图2是本发明实施例中的视觉-触觉交互模型图。
图3是本发明实施例中基于LSTM神经网络的视觉—触觉交互模型框架图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
本发明提供了一种基于深度学习的视觉—触觉交互模型构建方法,包括如下步骤:
步骤S1、基于虚拟交互任务,得到不同虚拟交互任务下视觉注意力与触感控制之间的相关性;
步骤S2、使用LSTM长短期记忆神经网络,利用主端用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建及性能验证;
步骤S3、利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况。
以下为本发明一具体实施例。
本实施提供一种基于深度学习的视觉—触觉交互模型构建方法,整体工作流程如图1所示,包括以下步骤:步骤S1:基于三种设计的虚拟交互任务,得到不同任务下视觉注意力与触感控制之间的相关性;步骤S2:使用LSTM长短期记忆神经网络,利用主端用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建及性能验证;步骤S3:利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况。
在本实施例中,所述步骤S1,基于三种设计的虚拟交互任务,得到不同任务下视觉注意力与触感控制之间的相关性,具体包括以下步骤:
步骤S11、为了探讨视觉注意力和触感控制之间的相关性,需要建立视觉—触觉交互***,该***包括眼球追踪平台和触感交互平台;
步骤S12、基于S11建立的交互***,在虚拟环境中设计三种交互任务,包括随机轨迹任务、固定轨迹任务与臂章轨迹任务;采用主观测试获得包含记录任务数据的主观数据集,每个记录任务包含一对包含眼动信号序列和动觉位置序列的数据;
步骤S13、基于S12获取到的视觉—触觉对数据集,对数据进行预处理,以实现跨模态信号的统一。具体包括对触感信号进行下采样以保持和眼动信号相同的采样率;对注视点坐标进行映射以保持和触感控制相同的Euclidean空间;对眼动信号采取移动平均滤波以避免不同用户注视习惯造成的不同程度信号噪声的影响;消除锋利的以及未采样到的眼动数据;
步骤S14、根据不同任务得到的有效数据集,针对每个记录任务计算每个坐标维度的相关性,最终每个记录任务的相关性为两个坐标维度相关性的平均,使用Person相关系数计算相关性,函数表达式如下:
Figure BDA0002249314570000041
其中,gi和pi分别表示一个记录任务中眼动坐标和动觉位置在每个样本的信号值,
Figure BDA0002249314570000042
分别表示一个记录任务中眼动坐标和动觉位置的平均值,n表示一个记录任务中的样本数量,γ表示计算的相关性值。
视觉-触觉交互模型如图2所述:在本实施例中,视觉注意力作为模型输入,触感控制的位置作为输出。B-LSTM神经网络框架图如图3所述:本实施例中,步骤S2采用双向LSTM神经网络,利用主端用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建,具体包括以下步骤:
步骤S21、读取数据集,对数据样本进行归一化,减少模型计算量,加速模型收敛并提高拟合效果;
步骤S22、载入LSTM神经网络,并根据具体要求添加新层,搭建视觉—触觉交互训练模型,针对具有不同相关性的任务分别构建一个模型;
步骤S23、引入训练效果评价指标MSE,对模型训练过程进行实时评价,实时保存训练模型和数据;
步骤S24、引入步骤S23训练的模型对测试集进行预测,使用MSE评价预测结果;
步骤S25、引入三种基于机器学习的方法与上述模型进行对比,分别为线性回归、K-Nearest Neighbor回归与随机森林回归。
进一步地,所述步骤S3利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况,具体包括以下步骤:
步骤S31、在虚拟控制任务中验证该模型的预测结果,针对测试集的每个记录任务,仅利用眼动信号预测出的动觉位置对目标进行控制,确定自动控制下任务目标能否完成;
步骤S32、引入性能评价指标任务完成度(TAR),对任务完成情况进行评价,指标表达式如下:
其中,N表示成功完成任务的个数,Ntot表示任务的总个数。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (4)

1.一种基于深度学习的视觉—触觉交互模型构建方法,其特征在于,包括如下步骤:
步骤S1、基于虚拟交互任务,得到不同虚拟交互任务下视觉注意力与触感控制之间的相关性;
步骤S2、使用LSTM长短期记忆神经网络,利用主端用户的视觉注意力预测触感控制下的动觉位置,实现视觉—触觉交互模型的构建及性能验证;
步骤S3、利用训练模型预测出的结果在控制任务中进行实施,判断任务中目标的完成情况。
2.根据权利要求1所述的基于深度学习的视觉—触觉交互模型构建方法,其特征在于,所述步骤S1具体实现如下:
步骤S11、建立视觉—触觉交互***,该***包括眼球追踪平台和触感交互平台;
步骤S12、基于步骤S11建立的视觉—触觉交互***,在虚拟环境中设计三种虚拟交互任务,包括随机轨迹任务、固定轨迹任务与避障轨迹任务;采用主观测试获得包含记录任务数据的主观数据集,每个记录任务包含一对眼动信号序列和动觉位置序列的数据;
步骤S13、基于步骤S12获取到的视觉—触觉对数据集,对数据进行预处理,以实现跨模态信号的统一;具体包括对触感信号进行下采样以保持和眼动信号相同的采样率;对注视点坐标进行映射以保持和触感控制相同的Euclidean空间;对眼动信号采取移动平均滤波以避免不同用户注视习惯差异造成的不同程度信号噪声的影响;消除锋利的以及未采样到的眼动数据;
步骤S14、根据不同虚拟交互任务得到的有效数据集,针对每个记录任务计算每个坐标维度的相关性,最终每个记录任务的相关性为两个坐标维度相关性的平均,使用Person相关系数计算相关性,函数表达式如下:
Figure FDA0002249314560000011
其中,gi和pi分别表示一个记录任务中眼动坐标和动觉位置在每个样本的信号值,
Figure FDA0002249314560000013
分别表示一个记录任务中眼动坐标和动觉位置的平均值,n表示一个记录任务中的样本数量,γ表示计算的相关性值。
3.根据权利要求1所述的基于深度学习的视觉—触觉交互模型构建方法,其特征在于,所述步骤S1具体实现如下:
步骤S21、读取数据集,对数据样本进行归一化,减少模型计算量,加速模型收敛并提高拟合效果;
步骤S22、载入LSTM神经网络,并根据具体要求添加新层,搭建视觉—触觉交互训练模型,针对具有不同相关性的任务分别构建一个模型;
步骤S23、引入训练效果评价指标MSE,对模型训练过程进行实时评价,实时保存训练模型和数据;
步骤S24、引入步骤S23训练的模型对测试集进行预测,使用MSE评价预测结果;
步骤S25、引入三种基于机器学习的方法与步骤S23训练的模型进行对比,分别为线性回归、K-Nearest Neighbor回归与随机森林回归。
4.根据权利要求1所述的基于深度学习的视觉—触觉交互模型构建方法,其特征在于,所述步骤S3具体实现如下:
步骤S31、在虚拟控制任务中验证模型的预测结果,针对测试集的每个记录任务,仅利用眼动信号预测出的动觉位置对目标进行控制,确定自动控制下任务目标能否完成;
步骤S32、引入性能评价指标任务完成度TAR,对任务完成情况进行评价,指标表达式如下:
Figure FDA0002249314560000021
其中,N表示成功完成任务的个数,Ntot表示任务的总个数。
CN201911029362.2A 2019-10-28 2019-10-28 基于深度学习的视觉—触觉交互模型构建方法 Active CN110737339B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911029362.2A CN110737339B (zh) 2019-10-28 2019-10-28 基于深度学习的视觉—触觉交互模型构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911029362.2A CN110737339B (zh) 2019-10-28 2019-10-28 基于深度学习的视觉—触觉交互模型构建方法

Publications (2)

Publication Number Publication Date
CN110737339A true CN110737339A (zh) 2020-01-31
CN110737339B CN110737339B (zh) 2021-11-02

Family

ID=69271612

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911029362.2A Active CN110737339B (zh) 2019-10-28 2019-10-28 基于深度学习的视觉—触觉交互模型构建方法

Country Status (1)

Country Link
CN (1) CN110737339B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111796708A (zh) * 2020-06-02 2020-10-20 南京信息工程大学 一种在触摸屏上再现图像三维形状特征的方法
CN111796679A (zh) * 2020-06-19 2020-10-20 武汉大学 一种远程电磁触觉再现***、磁场生成及触觉预测方法
CN112529062A (zh) * 2020-12-04 2021-03-19 齐鲁工业大学 一种基于灵巧手触觉信息的物体分类方法
CN113158493A (zh) * 2021-05-19 2021-07-23 苏州大学 纺织品虚拟触觉评价与预测方法及***
CN114863093A (zh) * 2022-05-30 2022-08-05 厦门大学 基于眼动技术的神经网络训练方法及建筑设计方法和***
CN116737051A (zh) * 2023-08-16 2023-09-12 北京航空航天大学 基于触控屏的视触结合交互方法、装置、设备和可读介质
CN116911079A (zh) * 2023-09-13 2023-10-20 江苏云幕智造科技有限公司 一种不完备模型的自演化建模方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951447A (zh) * 2014-03-25 2015-09-30 上海市玻森数据科技有限公司 全网舆情监控***
CN109214463A (zh) * 2018-09-25 2019-01-15 合肥优控科技有限公司 一种基于协同训练的地形分类方法
CN109923500A (zh) * 2016-08-22 2019-06-21 奇跃公司 具有深度学习传感器的增强现实显示装置
US20190236416A1 (en) * 2018-01-31 2019-08-01 Microsoft Technology Licensing, Llc Artificial intelligence system utilizing microphone array and fisheye camera
CN110162175A (zh) * 2019-05-16 2019-08-23 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951447A (zh) * 2014-03-25 2015-09-30 上海市玻森数据科技有限公司 全网舆情监控***
CN109923500A (zh) * 2016-08-22 2019-06-21 奇跃公司 具有深度学习传感器的增强现实显示装置
US20190236416A1 (en) * 2018-01-31 2019-08-01 Microsoft Technology Licensing, Llc Artificial intelligence system utilizing microphone array and fisheye camera
CN109214463A (zh) * 2018-09-25 2019-01-15 合肥优控科技有限公司 一种基于协同训练的地形分类方法
CN110162175A (zh) * 2019-05-16 2019-08-23 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、设备及存储介质

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111796708B (zh) * 2020-06-02 2023-05-26 南京信息工程大学 一种在触摸屏上再现图像三维形状特征的方法
CN111796708A (zh) * 2020-06-02 2020-10-20 南京信息工程大学 一种在触摸屏上再现图像三维形状特征的方法
CN111796679B (zh) * 2020-06-19 2022-07-05 武汉大学 一种远程电磁触觉再现***、磁场生成及触觉预测方法
CN111796679A (zh) * 2020-06-19 2020-10-20 武汉大学 一种远程电磁触觉再现***、磁场生成及触觉预测方法
CN112529062B (zh) * 2020-12-04 2021-06-15 齐鲁工业大学 一种基于灵巧手触觉信息的物体分类方法
CN112529062A (zh) * 2020-12-04 2021-03-19 齐鲁工业大学 一种基于灵巧手触觉信息的物体分类方法
CN113158493A (zh) * 2021-05-19 2021-07-23 苏州大学 纺织品虚拟触觉评价与预测方法及***
CN113158493B (zh) * 2021-05-19 2022-11-18 苏州大学 纺织品虚拟触觉评价与预测方法及***
WO2022242203A1 (zh) * 2021-05-19 2022-11-24 苏州大学 纺织品虚拟触觉评价与预测方法及***
CN114863093A (zh) * 2022-05-30 2022-08-05 厦门大学 基于眼动技术的神经网络训练方法及建筑设计方法和***
CN114863093B (zh) * 2022-05-30 2024-05-31 厦门大学 基于眼动技术的神经网络训练方法及建筑设计方法和***
CN116737051A (zh) * 2023-08-16 2023-09-12 北京航空航天大学 基于触控屏的视触结合交互方法、装置、设备和可读介质
CN116737051B (zh) * 2023-08-16 2023-11-24 北京航空航天大学 基于触控屏的视触结合交互方法、装置、设备和可读介质
CN116911079A (zh) * 2023-09-13 2023-10-20 江苏云幕智造科技有限公司 一种不完备模型的自演化建模方法及***
CN116911079B (zh) * 2023-09-13 2024-02-09 江苏云幕智造科技有限公司 一种不完备模型的自演化建模方法及***

Also Published As

Publication number Publication date
CN110737339B (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
CN110737339B (zh) 基于深度学习的视觉—触觉交互模型构建方法
US11670185B2 (en) Adaptive machine learning system
CN104318138B (zh) 一种验证用户身份的方法和装置
Brown et al. Finding waldo: Learning about users from their interactions
US10514799B2 (en) Deep machine learning to perform touch motion prediction
Hsiao et al. User interface based on natural interaction design for seniors
JP2020102194A (ja) コンテキストベースの深層知識追跡のためのシステム、方法及びプログラム
CN107656620B (zh) 虚拟对象控制方法、装置、电子设备及存储介质
CN103380405A (zh) 用于手势识别的用户界面、装置和方法
US20240153395A1 (en) Tracking concepts and presenting content in a learning system
CN105915987A (zh) 一种面向智能电视的隐式交互方法
Krishnaswamy et al. An evaluation framework for multimodal interaction
Santos-Torres et al. Exploring interaction mechanisms for map interfaces in virtual reality environments
Lam et al. The effects of system interpretation errors on learning new input mechanisms
Jiang et al. Application of Virtual Reality Human‐Computer Interaction Technology Based on the Sensor in English Teaching
CN110347323A (zh) 基于手部姿势来转录增强现实键盘输入
Matei et al. Engineering a digital twin for manual assembling
KR102406634B1 (ko) 미래 상호작용 예측 기반의 개인화 추천 방법 및 시스템
CN107102725B (zh) 一种基于体感手柄进行虚拟现实移动的控制方法及***
Xue et al. Visual attention and haptic control: A cross-study
Augstein et al. 3 Automated personalization of input methods and processes
Sibirtseva et al. Exploring temporal dependencies in multimodal referring expressions with mixed reality
Ju et al. Enhancing human–robot communication with a comprehensive language-conditioned imitation policy for embodied robots in smart cities
Thangarasu et al. Investing Novel Interaction Techniques Using DeepNets To Improve User Engagement and Usability In Human-Computer Interfaces
Fang et al. Virtual reality interaction based on visual attention and kinesthetic information

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant