CN118236066A - 一种基于眼动捕捉和追踪的注意力评估及训练***、方法 - Google Patents
一种基于眼动捕捉和追踪的注意力评估及训练***、方法 Download PDFInfo
- Publication number
- CN118236066A CN118236066A CN202410318506.0A CN202410318506A CN118236066A CN 118236066 A CN118236066 A CN 118236066A CN 202410318506 A CN202410318506 A CN 202410318506A CN 118236066 A CN118236066 A CN 118236066A
- Authority
- CN
- China
- Prior art keywords
- training
- user
- attention
- eye movement
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 136
- 230000004424 eye movement Effects 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000011156 evaluation Methods 0.000 claims abstract description 28
- 230000008569 process Effects 0.000 claims abstract description 15
- 238000012360 testing method Methods 0.000 claims description 37
- 210000001508 eye Anatomy 0.000 claims description 26
- 210000005252 bulbus oculi Anatomy 0.000 claims description 20
- 230000033001 locomotion Effects 0.000 claims description 20
- 210000001747 pupil Anatomy 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000270708 Testudinidae Species 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008449 language Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 206010003805 Autism Diseases 0.000 description 2
- 208000020706 Autistic disease Diseases 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 201000009487 Amblyopia Diseases 0.000 description 1
- 241000238588 Balanus Species 0.000 description 1
- 208000003174 Brain Neoplasms Diseases 0.000 description 1
- 208000016621 Hearing disease Diseases 0.000 description 1
- 208000036626 Mental retardation Diseases 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 208000027089 Parkinsonian disease Diseases 0.000 description 1
- 206010034010 Parkinsonism Diseases 0.000 description 1
- 208000004350 Strabismus Diseases 0.000 description 1
- 206010047513 Vision blurred Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 231100000871 behavioral problem Toxicity 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 208000030533 eye disease Diseases 0.000 description 1
- 208000013403 hyperactivity Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 206010029864 nystagmus Diseases 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000009894 physiological stress Effects 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000013077 scoring method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000021317 sensory perception Effects 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Abstract
本发明公开一种基于眼动捕捉和追踪的注意力评估及训练***、方法,涉及生物信号识别与控制领域。本发明采用眼动仪实现眼动追踪,替代了传统量表式评估和机械式训练,更具有准确性和标准化。利用眼动追踪与处理器中游戏任务相结合的方式,能够将训练过程游戏化,使治疗过程不在枯燥乏味,更有趣味性,通过提供针对性的训练任务,能够实现用户个性化的评估和反馈,以提高用户的专注力和持久力,改善学习和生活质量。同时,眼动仪和处理器的采用还可以节省大量的人力和训练成本。
Description
技术领域
本发明涉及生物信号识别与控制领域,特别是涉及一种基于眼动捕捉和追踪的注意力评估及训练***、方法。
背景技术
随着现代生活节奏的加快,人群面临的心理和生理压力与日俱增,导致注意力不集中成为一种常见问题。传统的注意力训练方法主要基于心理学理论,但这些方法往往忽视了个体差异和特殊需求。此外,传统的评估方法也存在操作复杂、准确性有限等问题。
近年来,眼动追踪技术作为一种无创、无痛、无害的生物信号检测手段,逐渐应用于医疗康复领域。通过对眼球运动的监测和分析,获取用户的眼球运动轨迹数据,能更准确地判断个体的视觉功能状况评估其注意力状态,为注意力相关疾病的诊断提供有力支持。同时,对于斜视和弱视等视力问题的检查,眼动追踪技术也可以发挥重要作用。此外,眼动追踪已被越来越多临床研究所采用,眼动行为分析还能用于眼病以及大脑和神经障碍的诊断,例如孤独症和帕金森病等,特别眼动追踪技术的引入还能诊断出患者视力模糊、阅读困难、眩晕等症状,通过分析其眼球震颤的频率、幅度以及与正常运动的差异,能够为后续的训练治疗方案制定提供重要参考。
对于学龄儿童,由于其身体和智力发展尚未完全成熟,注意力不集中不仅影响了儿童的学习成绩,还可能导致心理和行为问题。眼动捕捉的注意力训练需要充分考虑其在学业、游戏等方面的实际应用,提高其实用性和趣味性。
对于老人,随着年龄的增长,其身体和智力功能逐渐衰退,导致注意力下降。传统的训练方法往往无法充分激发老人的参与热情,且缺乏针对性强的训练方案。眼动捕捉的注意力训练需要能够激发老人的参与热情,提供个性化的训练方案,帮助他们改善生活质量,提高反应力。
对于各类智力障碍特殊人群,如脑瘤、孤独症、多动症、语言或精神发育迟缓、听觉障碍等,其注意力问题尤为突出。这些人群在认知、语言、感知等方面存在障碍,使得传统的评估和训练方法难以适用。因此,需要通过实时监测眼球运动数据,准确评估这些特殊人群的注意力状态,以提供一种更为准确、个性化的注意力训练方法。
目前,对于康复眼动仪训练注意力的研究尚处于起步阶段。虽然已有一些眼动仪被应用于心理学与神经科学、人体效能、临床研究等领域,但这些设备普遍存在操作复杂、数据分析不准确等问题。此外,现有的训练方案缺乏针对不同人群个体差异的个性化调整,训练效果有限。因此,有必要进一步研究和改进基于眼动捕捉和追踪的注意力评估及训练技术和方法,以提高其准确性和适用性。
发明内容
为解决现有技术存在的上述问题,本发明提供了一种基于眼动捕捉和追踪的注意力评估及训练***、方法。
为实现上述目的,本发明提供了如下方案:
一种基于眼动捕捉和追踪的注意力评估及训练***,所述***包括:
眼动仪,用于实时监测和捕捉用户的眼球运动数据;
处理器,与所述眼动仪连接,内置有数据库,用于基于所述眼球运动数据生成用户的注意力评估结果,并用于基于所述注意力评估结果和用户信息调取所述数据库中存储的软件程序,以匹配训练任务完成注意力训练,并生成训练报告。
可选地,所述处理器包括:
数据采集模块,与所述眼动仪连接,用于基于所述眼球运动数据得到注意力特征,并基于所述注意力特征生成用户的注意力评估结果;所述注意力特征包括用户进行观看和/或没有观看的位置、观看的时间、观看的注视点、观看的眼跳以及瞳孔变化;
用户管理模块,用于获取并管理用户信息以及设置个性化参数;所述用户信息包括性别、出生年月以及病史数据;
训练关卡模块,分别与所述数据采集模块和所述用户管理模块连接,用于基于用户的注意力评估结果以及用户信息、个性化参数提供不同难度的训练任务;
评估关卡模块,分别与所述眼动仪和所述训练关卡模块连接,用于基于实时采集的用户的眼球运动数据对用户的训练成果进行实时评估和反馈,并用于根据数据库的占比权重和用户的训练成果,生成用户的个性化测试报告。
可选地,所述训练关卡模块具有智能调整功能,以用于根据用户的训练成果,自动调整训练任务的速度、难度和内容。
可选地,所述处理器中设置有游戏引擎;
所述游戏引擎与所述评估关卡模块进行交互,所述游戏引擎用于基于所述软件程序生成训练任务的虚拟场景,以使用户在所述虚拟场景中完成训练任务。
可选地,所述处理器还包括:
显示模块,用于显示用于在注意力评估及训练过程中的数据;所述数据包括:注意力评估结果、训练报告、用户信息和训练任务的虚拟场景;
输入模块,用于输入软件程序和用户信息,用于设置个性化参数。
可选地,所述处理器还包括:
用户注册模块,用于提供用户注册功能。
可选地,所述游戏引擎包括:
选择单元,用于选择虚拟场景、训练任务的难度以及训练任务的内容。
可选地,所述处理器为计算机。
一种基于眼动捕捉和追踪的注意力评估及训练方法,所述方法应用于上述提供的***;所述方法包括:
实时获取用户的眼球运动数据;
基于所述眼球运动数据提取注意力特征;所述注意力特征包括用户进行观看和/或没有观看的位置、观看的时间、观看的注视点、观看的眼跳以及瞳孔变化;
基于所述注意力特征确定测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数;
基于测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数生成用户的注意力评估结果;
获取用户信息以及个性化参数;
基于用户的注意力评估结果以及用户信息、个性化参数调取不同难度的训练任务,并返回实时获取用户的眼球运动数据的步骤,直至达到设定的训练时间,生成训练报告。
可选地,基于测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数生成用户的注意力评估结果,具体包括:
基于测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数确定特征项评分;所述特征项评分包括:测试时间的评分、视线集中时间占比的评分、单次视线集中状态持续时间占比的评分、视线脱离次数的评分和眨眼次数的评分;
确定各特征项评分的加权和,并将所述加权和作为用户的注意力评分;
基于所述注意力评分确定用户的注意力评估结果。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明采用眼动仪实现眼动追踪,替代了传统量表式评估和机械式训练,更具有准确性和标准化。利用眼动追踪与游戏任务相结合的方式,能够将训练过程游戏化,使治疗过程不在枯燥乏味,更有趣味性,同时,眼动仪和处理器的采用还可以节省大量的人力和训练成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的基于眼动捕捉和追踪的注意力评估及训练***的结构示意图;
图2为本发明提供的基于眼动捕捉和追踪的注意力评估及训练***的架构图;
图3为本发明提供的注意力训练与评估的实施流程图;
图4为本发明提供的基于眼动捕捉和追踪的注意力评估及训练***的界面说明图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于眼动捕捉和追踪的注意力评估及训练***、方法,旨在解决传统训练方法不足之处,为医学康复领域提供一种更为准确、个性化的注意力训练方式。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明提供了一种基于眼动捕捉和追踪的注意力评估及训练***,如图1所示,该***包括:眼动仪和处理器。其中处理器可以采用计算机。其中,图1中的注意力训练***主要植入在计算机中,以通过软件程序的方式实现。
在实际应用过程中,眼动仪可以采用高精度传感器和算法,以实时监测和捕捉用户的眼球运动数据。其中,眼动仪可以记录的信息包括时间、注视POG、左眼POG、右眼POG,左右眼瞳孔、左右眼3D数据、光标位置、眨眼数据、瞳孔直径等信息,通过这些数据,可以准确评估用户的注意力状态。
眼动仪还可以具有无线传输功能,能够将采集的数据实时传输至计算机进行分析。
处理器与所述眼动仪连接,其内置有数据库,用于基于所述眼球运动数据生成用户的注意力评估结果,并用于基于所述注意力评估结果和用户信息调取所述数据库中存储的软件程序,以匹配训练任务完成注意力训练,并生成训练报告。
在实际应用过程中,所述处理器包括:数据采集模块、用户管理模块、训练关卡模块和评估关卡模块。
数据采集模块主要负责接收和处理眼动仪采集的数据。该模块对眼动仪采集的数据进行预处理、滤波和解析,以提取出与注意力相关的特征(即注意力特征),如记录用户观看(和没有观看)的位置,以及观看的时间,注视点、眼跳、瞳孔变化等。
通过对这些提取得到的特征进行分析,可以准确评估用户的注意力水平。数据采集模块还具有数据存储功能,能够将采集的数据存储在本地数据库中,以便后续分析和处理。
用户管理模块主要用于管理用户信息和设置个性化参数。该模块允许用户注册、登录和注销,并记录用户的个人信息、性别、出生年月、病史等数据。
通过用户管理模块进行训练进度对比,可以为用户提供个性化的训练方案和评估报告。
训练关卡模块主要用于根据用户的个性化参数和注意力水平,提供不同难度的训练任务。该模块通过生动活泼的图形、丰富多彩的颜色以及富有创意的游戏为媒介,吸引用户的注意力,提高其专注力和持久力。
进一步,训练关卡模块还具有智能调整功能,能够根据用户的训练表现和进步情况,自动调整训练任务的速度、难度和内容,以实现个性化的训练效果。
评估关卡模块主要用于用户的训练成果进行实时评估和反馈,该模块根据数据库的占比权重和用户的训练数据,生成个性化的测试报告,帮助用户了解自己的注意力状况和进步情况。
进一步,评估关卡模块还具有比较功能,能够将用户的注意力水平与自己或同龄人进行比较,以便用户更好地了解自己的注意力状况。
进一步,作为本发明的一个实施例,本发明提供的基于眼动捕捉和追踪的注意力评估及训练***在进行具体应用过程中,可以将该***设置为包括眼动仪设备、游戏引擎和电脑的结构。
其中,游戏引擎用于生成虚拟场景和任务,通过建立虚拟场景达到训练专注力的人机交互,用户需要在虚拟场景中完成各种任务,如寻找目标、跟踪动态对象等,以便提高自己的专注力和持久力。例如,采用unity游戏引擎重建龟兔赛跑的设定动态场景,利用SDK提供的输入数据,为游戏中的2D对象赋予了眼动追踪功能,用户扮演乌龟,***判断玩家的目光聚焦在乌龟的游戏对象上,乌龟便可以触发相应的游戏事件如奔跑、跳跃等动作,直到完成游戏任务。
眼动仪设备用于捕捉和记录用户的实时眼球运动数据,获取采样点,包括眼球位置、视点偏差、视点分布和瞳孔直径等。这些采集到的实时眼动数据将输入处理软件,利用眼动仪内置算法将数千个原始注视点聚类为百个左右的采样点,以提高数据处理效率,增加可视化效果。具体步骤包括:通过眼动采样设备获取单元的数据,根据预设的标定屏幕像素来提取眼动采样点数据。对这些数据进行初步筛选,排除超出预设屏幕像素范围的采样点,以确保数据的准确性和有效性。基于这些采样点,通过特定的算法和计算,最终得到动态焦点的位置和状态。通过上述步骤,能够准确、高效地获取和处理眼动数据,进一步分析用户的视觉注意力和行为模式。
计算机承担着储存用户训练数据的重要任务,确保这些数据的安全性、完整性及隐私性。这些数据不仅包括用户在训练过程中的各种信息,还涵盖了他们的训练成果和评估报告。通过这一数据库,用户可以随时查看自己的训练进度,以及注意力水平的变化。用户可以通过设备查看自己的训练进度和注意力水平的变化。这种互动性和透明度不仅增加了用户参与度,还有助于提高训练效果。
进一步,如图2所示,本发明利用先进的游戏引擎,为训练设计了多种场景和任务,关卡涵盖了基本认知、感知觉、数学、思维、社会行为和艺术等关键领域。为了赋予游戏中的虚拟角色,开发者使用C#语言编写脚本;这些脚本能够使游戏对象具备特效、响应和互动的能力,大大增强了训练的真实感和趣味性。眼动仪作为输入设备,用于收集用户的眼动追踪;而眼动追踪SDK负责接收来自眼动仪的眼动追踪数据,获取原始坐标点,并将数据处理和转换为可用的格式。SDK提供的实时数据在游戏中的2D对象能够感知到玩家的目光焦点,通过角色位置和眼动仪采集的原始数据进行分析计算相应的注意力分值,形成可视化的测试报告(评估报告和训练报告)。
进一步,作为本发明的一个实施例,上述提供的***的注意力训练与评估流程,如图3所示,包括:
S1、***启动与设备连接。
用户打开基于眼动捕捉和追踪的注意力评估及训练***的应用程序。
***自动检测并连接已配置的眼动仪和摄像头设备。
S2、用户登录与眼动仪测试。
用户输入个人信息并完成登录。
***启动眼动仪设备,用户开始视线校准。
用户进行测试端的视线测试。
S3.眼动数据采集。
视线校准后进行***配置,包括速率、显示视点、教学模式、控制端显示器、摄像头选择等。
眼动仪设备开始实时采集用户的眼动数据。眼动数据包括但不限于游戏时间、注视点、视线跟随、瞳孔大小、眨眼次数等。
S4、数据分析与反馈。
***对采集的眼动数据进行实时分析,提取视点相对位置、视点分布、视点偏差、瞳孔直径、瞳孔距离等关键指标。
根据分析结果,***为用户提供实时反馈,包括注意力集中时间、脑电波、注意力水平等。
S5、训练报告生成。
***根据用户的指标,生成注意力评估测试报告。
注意力评估测试报告中有测试者基本信息,测试数据,图表,评估结果。
S6.训练过程。
用户根据***提示进行训练任务,包括教学关卡、训练关卡、无限关卡。
有速度选择和难度选择和奖励机制。
***持续监测用户的眼动数据,进行实时分析和反馈。
进一步,作为本发明的一个实施例,如图4所示,本发明提供的基于眼动捕捉和追踪的注意力评估及训练***的显示界面包括用户注册、训练关卡以及评估关卡等界面。其中,用户注册界面用来注册用户档案包括输入用户信息,例如用户ID,姓名,性别,出生日期,备注等。
训练关卡用于指导用户进行训练注意力,用户可选择相应的游戏训练任务,包括游戏选择、场景选择及难度选择。游戏任务包括小鸭子游泳,走迷宫,找水果,海底世界等数十个小游戏。通过所述游戏训练用户的专注力。游戏中的设定源于常规的训练小游戏,例如趣味性的舒尔特方格,龟兔赛跑等,并结合儿童医师的意见和注意力评估表的参考,能给与更准确的指导意见。
评估关卡会令用户更具有沉浸感,训练场景可根据个人喜好选择,包括
场景色调、场景环境、场景干扰、无限关卡、游戏积分等,并且训练难度可分为A、B、C三个等级,且难度等级A>B>C;训练难度由速度或游戏机制决定,可由医师和用户个人情况自由选择。同时***会对用户注意力训练过程进行评估,实时采集用户的眼动数据,根据游戏关卡的难度等级和完成关卡耗费时间所评估训练效果,并对成绩进行跟踪对比帮助医师提供训练建议。
进一步,本发明还提供了一种基于眼动捕捉和追踪的注意力评估及训练方法,该方法应用于上述提供的***;所述方法包括:
步骤100:实时获取用户的眼球运动数据;
步骤101:基于所述眼球运动数据提取注意力特征;所述注意力特征包括用户进行观看和/或没有观看的位置、观看的时间、观看的注视点、观看的眼跳以及瞳孔变化;
步骤102:基于所述注意力特征确定测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数;
步骤103:基于测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数生成用户的注意力评估结果。
实际应用时,在目标角色沿固定路径移动的过程中,采用上述本发明提供的***评估测试者的视线集中状态。评估因素包括视线是否集中在目标上、视线跟随的持续时间、视线脱离的次数以及眨眼次数。根据这些数据,***计算出测试所用时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数。最后,综合这些结果,***给出注意力集中程度的评分。基于此,步骤103的实现过程包括:
1)基于测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数确定特征项评分;所述特征项评分包括:测试时间的评分、视线集中时间占比的评分、单次视线集中状态持续时间占比的评分、视线脱离次数的评分和眨眼次数的评分;
A、视线集中:根据目标角色与视线的距离来判定测试者是否在注释目标角色,当视线与目标的屏幕距离在设定的阈值以内(如24英寸1k屏幕300像素单位)时判定为视线集中,超出范围判定为视线脱离;
B、测试所用时长:目标角色从起点移动到终点所用时间,视线集中时角色才会移动,视线集中状态持续时间越长,角色移动越快,注意力集中情况会影响到测试时长;
C、测试所用时长评分:以理论上最快速到达终点的时间为标准时间t0,评分R0为100分,实际测试时长为tx,则测试评分Rtime为:
D、视线集中状态持续时间:以测试开始或以视线脱离转为视线集中状态为时间起点,以测试结束或从视线集中转为视线脱离状态为时间终点;
E、最长视线集中状态持续时间:所有视线集中状态持续时间中的最大值;
F、视线集中时间占比:视线集中状态持续时间的总和占测试时长的比例;
其中,Rfollow为视线集中时间占比,ti单次跟随持续时长,T为测试时长,单位为秒;
G、单次视线集中状态最长持续时间占比:最长视线集中状态持续时间占测试时长的比例;
其中,Rmaxfollow为单次视线集中状态持续时间占比,tmaxfollow单次跟随最长持续时间;
H、视线脱离次数:由视线集中转为视线脱离的次数;
I、视线脱离评分Rlost:采用一档一分制;
其中,xlost是一分钟的脱离次数,实际的脱离次数xreal_blink需要换算成一分钟的眨眼次数;
其中,xreal_lost为实际的脱离次数;
J、眨眼次数Rblink:测试过程中眨眼的次数;
眨眼评分方法:
其中,xblink是一分钟的眨眼次数,实际的眨眼次数xreal_blink需要换算成一分钟的眨眼次数;
其中,xreal_blink为实际的脱离次数;
2)确定各特征项评分的加权和,并将所述加权和作为用户的注意力评分;其中,最终注意力评分:测试所用时长评分、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数、眨眼次数的加权和;
R=∑Ri*αi。
其中,Ri为各项评分,包括Rtime,Rfollow,Rmaxfollow,Rlost,Rblink;αi为对应权重;
3)基于所述注意力评分确定用户的注意力评估结果。
步骤104:获取用户信息以及个性化参数;
步骤105:基于用户的注意力评估结果以及用户信息、个性化参数调取不同难度的训练任务,并返回实时获取用户的眼球运动数据的步骤,直至达到设定的训练时间,生成训练报告。
需要说明的是,本发明所涉及的对象信息(包括但不限于对象设备信息、对象个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经对象授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括上述各实施例的流程。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想,各个实施例之间相同相似部分互相参见即可;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于眼动捕捉和追踪的注意力评估及训练***,其特征在于,所述***包括:
眼动仪,用于实时监测和捕捉用户的眼球运动数据;
处理器,与所述眼动仪连接,内置有数据库,用于基于所述眼球运动数据生成用户的注意力评估结果,并用于基于所述注意力评估结果和用户信息调取所述数据库中存储的软件程序,以匹配训练任务完成注意力训练,并生成训练报告。
2.根据权利要求1所述的基于眼动捕捉和追踪的注意力评估及训练***,其特征在于,所述处理器包括:
数据采集模块,与所述眼动仪连接,用于基于所述眼球运动数据得到注意力特征,并基于所述注意力特征生成用户的注意力评估结果;所述注意力特征包括用户进行观看和/或没有观看的位置、观看的时间、观看的注视点、观看的眼跳以及瞳孔变化;
用户管理模块,用于获取并管理用户信息以及设置个性化参数;所述用户信息包括性别、出生年月以及病史数据;
训练关卡模块,分别与所述数据采集模块和所述用户管理模块连接,用于基于用户的注意力评估结果以及用户信息、个性化参数提供不同难度的训练任务;
评估关卡模块,分别与所述眼动仪和所述训练关卡模块连接,用于基于实时采集的用户的眼球运动数据对用户的训练成果进行实时评估和反馈,并用于根据数据库的占比权重和用户的训练成果,生成用户的个性化测试报告。
3.根据权利要求2所述的基于眼动捕捉和追踪的注意力评估及训练***,其特征在于,所述训练关卡模块具有智能调整功能,以用于根据用户的训练成果,自动调整训练任务的速度、难度和内容。
4.根据权利要求3所述的基于眼动捕捉和追踪的注意力评估及训练***,其特征在于,所述处理器中设置有游戏引擎;
所述游戏引擎与所述评估关卡模块进行交互,所述游戏引擎用于基于所述软件程序生成训练任务的虚拟场景,以使用户在所述虚拟场景中完成训练任务。
5.根据权利要求4所述的基于眼动捕捉和追踪的注意力评估及训练***,其特征在于,所述处理器还包括:
显示模块,用于显示用于在注意力评估及训练过程中的数据;所述数据包括:注意力评估结果、训练报告、用户信息和训练任务的虚拟场景;
输入模块,用于输入软件程序和用户信息,用于设置个性化参数。
6.根据权利要求4所述的基于眼动捕捉和追踪的注意力评估及训练***,其特征在于,所述处理器还包括:
用户注册模块,用于提供用户注册功能。
7.根据权利要求4所述的基于眼动捕捉和追踪的注意力评估及训练***,其特征在于,所述游戏引擎包括:
选择单元,用于选择虚拟场景、训练任务的难度以及训练任务的内容。
8.根据权利要求1所述的基于眼动捕捉和追踪的注意力评估及训练***,其特征在于,所述处理器为计算机。
9.一种基于眼动捕捉和追踪的注意力评估及训练方法,其特征在于,所述方法应用于如权利要求1-8任意一项所述的***;所述方法包括:
实时获取用户的眼球运动数据;
基于所述眼球运动数据提取注意力特征;所述注意力特征包括用户进行观看和/或没有观看的位置、观看的时间、观看的注视点、观看的眼跳以及瞳孔变化;
基于所述注意力特征确定测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数;
基于测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数生成用户的注意力评估结果;
获取用户信息以及个性化参数;
基于用户的注意力评估结果以及用户信息、个性化参数调取不同难度的训练任务,并返回实时获取用户的眼球运动数据的步骤,直至达到设定的训练时间,生成训练报告。
10.根据权利要求9所述的基于眼动捕捉和追踪的注意力评估及训练方法,其特征在于,基于测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数生成用户的注意力评估结果,具体包括:
基于测试时间、视线集中时间占比、单次视线集中状态持续时间占比、视线脱离次数和眨眼次数确定特征项评分;所述特征项评分包括:测试时间的评分、视线集中时间占比的评分、单次视线集中状态持续时间占比的评分、视线脱离次数的评分和眨眼次数的评分;
确定各特征项评分的加权和,并将所述加权和作为用户的注意力评分;
基于所述注意力评分确定用户的注意力评估结果。
Publications (1)
Publication Number | Publication Date |
---|---|
CN118236066A true CN118236066A (zh) | 2024-06-25 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220036752A1 (en) | Enhancing Cognition in the Presence of Distraction and/or Interruption | |
KR102477327B1 (ko) | 인지 능력 측정을 위한 프로세서 구현 시스템 및 방법 | |
CN106691476B (zh) | 基于眼动特征的图像认知心理分析*** | |
WO2020119355A1 (zh) | 自闭症谱系障碍患者的多模态情感认知能力的评估方法 | |
JP2018520820A (ja) | 視覚の様相を検査する方法及びシステム | |
CN108065942B (zh) | 一种针对东方人格特征的刺激信息的编制方法 | |
US11417045B2 (en) | Dialog-based testing using avatar virtual assistant | |
KR20160090065A (ko) | 시선 추적 기반 재활 시스템 | |
CN109645994A (zh) | 一种基于脑-机接口***辅助评估视觉定位的方法 | |
US10390696B2 (en) | Dynamic computer images for improving visual perception | |
CN113693552A (zh) | 视觉疲劳监测方法、装置、电子设备及可读存储介质 | |
Lee et al. | ADHD assessment and testing system design based on virtual reality | |
AU2017402745B2 (en) | Visual performance assessment | |
WO2022057840A1 (zh) | 脑认知功能检测*** | |
CN109938727A (zh) | 非人灵长类动物三维视觉刺激实验***和方法 | |
CN111743553A (zh) | 一种基于眼动数据的情感特征提取方法及*** | |
CN118236066A (zh) | 一种基于眼动捕捉和追踪的注意力评估及训练***、方法 | |
McCuaig et al. | Detecting learner frustration: towards mainstream use cases | |
Mekbib et al. | Designing a Smart Virtual Environment for Autism Spectrum Disorder Detection | |
Massoz | Non-invasive, automatic, and real-time characterization of drowsiness based on eye closure dynamics | |
Vancurik | Choking under pressure detection model based on expert system foundation using tennis performance variables for individual performance enhancement | |
CN114129164B (zh) | 一种自闭症谱系障碍风险检测***、检测终端及云服务器 | |
Ji et al. | Diagnostic and rehabilitation system for Alzheimer’s disease based on virtual reality technology in rehabilitation rooms | |
İnan et al. | Pupil dilation in time perception | |
Polascik | Gaze-tracking in piano players: Analysis of fixation patterns and methodological approaches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication |