CN111124124A - 一种基于眼动追踪技术的人机功效评估方法 - Google Patents

一种基于眼动追踪技术的人机功效评估方法 Download PDF

Info

Publication number
CN111124124A
CN111124124A CN201911354264.6A CN201911354264A CN111124124A CN 111124124 A CN111124124 A CN 111124124A CN 201911354264 A CN201911354264 A CN 201911354264A CN 111124124 A CN111124124 A CN 111124124A
Authority
CN
China
Prior art keywords
human
computer
eye movement
eye
efficacy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911354264.6A
Other languages
English (en)
Inventor
魏巍
王亚卓
赵英策
白杨
石鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Aircraft Design and Research Institute Aviation Industry of China AVIC
Original Assignee
Shenyang Aircraft Design and Research Institute Aviation Industry of China AVIC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Aircraft Design and Research Institute Aviation Industry of China AVIC filed Critical Shenyang Aircraft Design and Research Institute Aviation Industry of China AVIC
Priority to CN201911354264.6A priority Critical patent/CN111124124A/zh
Publication of CN111124124A publication Critical patent/CN111124124A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本申请属于飞行器交互技术领域,特别涉及一种基于眼动追踪技术的人机功效评估方法,包括如下步骤:设定人机功效中眼动追踪测量指标;设定飞行员执行与人机显示界面信息相关的指定任务;利用眼动追踪工具采集所有飞行员在执行预定任务时的眼动数据;对眼动数据进行概率统计分析以及人机功效性能评估。本申请的基于眼动追踪技术的人机功效评估方法,能够有效解决处理信息高度集成化后与飞行员工作负荷之间的矛盾,提升人机功效性能。

Description

一种基于眼动追踪技术的人机功效评估方法
技术领域
本申请属于飞行器交互技术领域,特别涉及一种基于眼动追踪技术的人机功效评估方法。
背景技术
随着军事信息高度集成化不断深入发展,对飞行员处理人机界面视觉感知各种信息的绩效要求越来越高。如何实现人机***设计的有效整合,并能充分、高效、安全地实现***性能,成为军机研制过程人机功效研究关注的重点。
视觉认知(眼动跟踪)生理评估方法具有实时性、无干扰性和有效性,能在军事装备的研制过程有效评估人机显示界面优劣以及执行任务过程中人的绩效,能够有效解决处理信息高度集成化后与飞行员工作负荷之间的矛盾,是提升人机功效性能的关键技术。
但目前针对人机界面功效评估方法暂未实现有效的评估分析方案。
发明内容
为了解决上述技术问题至少之一,本申请提供了一种基于眼动追踪技术的人机功效评估方法。
本申请公开了一种基于眼动追踪技术的人机功效评估方法,包括如下步骤:
步骤一、设定人机功效中眼动追踪测量指标;
步骤二、设定飞行员执行与人机显示界面信息相关的指定任务,其中,飞行员的数量为多个,且所有飞行员在同一任务限定时间内执行相同的指定任务;
步骤三、利用眼动追踪工具采集所有飞行员在执行预定任务时的眼动数据;
步骤四、对眼动数据进行概率统计分析,并根据分析结果进行人机功效性能评估。
根据本申请的至少一个实施方式,所述的基于眼动追踪技术的人机功效评估方法还包括:
步骤五、对眼动数据进行数据挖掘分析,进一步提出人机功效优化方案。
根据本申请的至少一个实施方式,在所述步骤五中,是根据数据挖掘中聚类算法计算飞行员眼动数据的类中心点,对比当前的人机显示界面中心点设计人机功效优化方案。
根据本申请的至少一个实施方式,在所述步骤一中,是根据人的生理机制设定人机功效中眼动追踪测量指标,其中包括:
将注视时间作为反映提取信息的难易程度和注意力分配情况的指标,将扫视幅度作为反映提取信息效率和信息加工难度的指标,将眨眼频率和瞳孔半径作为反映心理负荷大小的指标。
根据本申请的至少一个实施方式,所述步骤三中,眼动追踪工具为头戴式眼动追踪工具。
根据本申请的至少一个实施方式,在所述步骤四中,是根据概率统计方法计算飞行员眼动数据的期望值和方差,利用概率分布对执行指定任务的人机功效进行性能评估。
本申请至少存在以下有益技术效果:
本申请的基于眼动追踪技术的人机功效评估方法至少包括如下优点:
1)在人机显示界面研制过程中,可以在试验环境下,通过眼动追踪技术实现指定任务过程中人的绩效评估,如果眼动数据表征的指标存在不合理性,则需要对人机界面信息重新设计以便优化人机交互性能,避免交付后维护更改;
2)在人机显示界面研制结束后,仍可以采用此方法进行功效评估,为后续型号研制提供参考基准数据作为依据;
3)通过眼动追踪技术获得数据具有实时性、无干扰性、有效性,相比于问卷、视频记录等手段更能够客观定量的分析人机显示界面的人机功效性。
附图说明
图1是本申请基于眼动追踪技术的人机功效评估方法的流程示意图。
具体实施方式
为使本申请实施的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行更加详细的描述。在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本申请一部分实施例,而不是全部的实施例。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。下面结合附图对本申请的实施例进行详细说明。
本申请的基于眼动追踪技术的人机功效评估方法,主要解决的技术问题是:1)基于视觉通道的数据采集;2)装备研制各个阶段的人机功效中对人的绩效采集;3)客观定量的评估人机功效性能。
解决上述技术问题主要是通过以下几点改进实现的:
1)利用头戴式眼动追踪工具采集多名飞行员在指定时间内执行相同任务过程中的眼动数据,包括注视、扫视、眨眼和瞳孔数据,完成基于视觉通道的数据采集;2)眼动追踪技术是一种心理负荷分析手段,注视时间越长,表明目标任务越难被完成,识别速度越慢;眼跳幅度越大,表明获取目标任务越容易,识别速度越快;眨眼频率越低,瞳孔半径越大,则表明被试者更加集中于目标任务,心理负荷就越大;能够完成装备研制各个阶段的人机功效数据中对人的绩效采集;3)根据概率统计方法计算眼动数据的期望值和方差,根据数据挖掘分析进行眼动数据进行聚类分析,实现客观定量的评估人机功效性能。
下面结合附图1对本申请的基于眼动追踪技术的人机功效评估方法做进一步详细说明。
本申请公开了一种基于眼动追踪技术的人机功效评估方法,包括如下步骤:
步骤一、设定人机功效中眼动追踪测量指标。
具体地,是根据人的生理机制设定人机功效中眼动追踪测量指标;其中,指标可以包括包括注视(注视时间、注视序列、注视数目、注视位置、注视次数)、扫视(扫视频度、扫视时间、扫视幅度、扫视路径)、眨眼(眨眼频率、眨眼持续时间、眨眼间隔)和瞳孔(瞳孔直径、瞳孔扩张速度)。
本申请中,优选采取注视时间、扫视幅度、眨眼频率和瞳孔半径作为测量指标。
步骤二、设定飞行员(即被试者)执行与人机显示界面信息相关的指定任务,其中,飞行员的数量为多个,且所有飞行员在同一任务限定时间内执行相同的指定任务。
具体地,飞行员对人机显示界面进行监视及决策时,注意力受到试验环境、心理状态等多种因素的影响,为避免采集的眼动数据受到干扰,限定飞行员执行任务的时间和环境,即:在进行人机功效评估眼动数据采集过程中,需要多名飞行员在相同的试验环境中,相同的时间内,完成相同的指定任务。
步骤三、利用眼动追踪工具采集所有飞行员在执行预定任务时的眼动数据。
具体地,是通过头戴式眼动追踪工具采集眼动数据。
另外,由于眼动数据包含很多,为简化处理,优选将注视时间作为反映提取信息的难易程度和注意力分配情况的指标(注视时间越长,表明目标任务越难被完成,识别速度越慢);将扫视幅度作为反映提取信息效率和信息加工难度的指标(眼跳幅度越大,表明获取目标任务越容易,识别速度越快);将眨眼频率和瞳孔半径作为反映心理负荷大小的指标(眨眼频率越低,瞳孔半径越大,则表明被试者更加集中于目标任务,心理负荷就越大)。
步骤四、对眼动数据进行概率统计分析,并根据分析结果进行人机功效性能评估。
具体地,眼动数据采集完成后,对同一类眼动数据进行统计概率分析和数据挖掘分析。其中,统计概率分析用于确认工效性优良,数据挖掘分析则用于进一步挖掘提高工效性的策略和手段。
进一步,统计概率分析包括期望值和方差,方差较大表明数值相对与期望值分散分布,方差较小表明数值接近于期望值,若分散分布,则说明功效需要优化,反之则良好。期望值:E{x}=Σkxkpk,其中x为眼动数据,k为眼动数据个数,pk表示x=xk时的离散型概率P(x=xk);方差:V{x}=Σk(xkx)2pk;其中ηx=E{x}。
进一步,本申请的基于眼动追踪技术的人机功效评估方法还可以包括:
步骤五、对眼动数据进行数据挖掘分析,进一步提出人机功效优化方案。
具体地,是根据数据挖掘中聚类算法计算飞行员眼动数据的类中心点,对比当前的人机显示界面中心点设计人机功效优化方案;例如类中心点不一致,需进一步进行调整,提出更优人机功效方案。
数据挖掘分析采用K-means聚类算法,通过迭代的方法,逐次更新并确定各聚类中心的值,即本次任务中飞行员关注的目标信息。若类中心点分散,则说明功效需要改进优化,优化后的信息中心应使类中心点趋于一致。K-means聚类算法:为中心向量c1,c2,…,ck初始化k个种子,目标是最小化平方误差和定义为F=∑i=1 kp∈Ci dist(p,Ci)2。其中p是空间中的点,dist表示两点间的欧式距离,用各个聚类的中心向量作为新的中心,重复分组和确定中心直至算法收敛。
本申请的基于眼动追踪技术的人机功效评估方法,能够有效解决处理信息高度集成化后与飞行员工作负荷之间的矛盾,提升人机功效性能。视觉是用户和界面交互的直接途径,超过80%的信息都是通过眼睛获取的,获取的信息在大脑中进行处理从而影响用户的行为。并且,眼动追踪工具已经趋于成熟,性能可靠,基于眼动追踪技术的人机功效评估方法具有实时性、无干扰性和有效性的特点,能够客观定量的评估人机功效性能,解决了当前型号上人机功效评估手段的不足。
综上所述,本申请的基于眼动追踪技术的人机功效评估方法至少包括如下优点:
1)在人机显示界面研制过程中,可以在试验环境下,通过眼动追踪技术实现指定任务过程中人的绩效评估,如果眼动数据表征的指标存在不合理性,则需要对人机界面信息重新设计以便优化人机交互性能,避免交付后维护更改;
2)在人机显示界面研制结束后,仍可以采用此方法进行功效评估,为后续型号研制提供参考基准数据作为依据;
3)通过眼动追踪技术获得数据具有实时性、无干扰性、有效性,相比于问卷、视频记录等手段更能够客观定量的分析人机显示界面的人机功效性。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (6)

1.一种基于眼动追踪技术的人机功效评估方法,其特征在于,包括如下步骤:
步骤一、设定人机功效中眼动追踪测量指标;
步骤二、设定飞行员执行与人机显示界面信息相关的指定任务,其中,飞行员的数量为多个,且所有飞行员在同一任务限定时间内执行相同的指定任务;
步骤三、利用眼动追踪工具采集所有飞行员在执行预定任务时的眼动数据;
步骤四、对眼动数据进行概率统计分析,并根据分析结果进行人机功效性能评估。
2.根据权利要求1所述的基于眼动追踪技术的人机功效评估方法,其特征在于,还包括:
步骤五、对眼动数据进行数据挖掘分析,进一步提出人机功效优化方案。
3.根据权利要求2所述的基于眼动追踪技术的人机功效评估方法,其特征在于,在所述步骤五中,是根据数据挖掘中聚类算法计算飞行员眼动数据的类中心点,对比当前的人机显示界面中心点设计人机功效优化方案。
4.根据权利要求1所述的基于眼动追踪技术的人机功效评估方法,其特征在于,在所述步骤一中,是根据人的生理机制设定人机功效中眼动追踪测量指标,其中包括:
将注视时间作为反映提取信息的难易程度和注意力分配情况的指标,将扫视幅度作为反映提取信息效率和信息加工难度的指标,将眨眼频率和瞳孔半径作为反映心理负荷大小的指标。
5.根据权利要求1所述的基于眼动追踪技术的人机功效评估方法,其特征在于,所述步骤三中,眼动追踪工具为头戴式眼动追踪工具。
6.根据权利要求1所述的基于眼动追踪技术的人机功效评估方法,其特征在于,在所述步骤四中,是根据概率统计方法计算飞行员眼动数据的期望值和方差,利用概率分布对执行指定任务的人机功效进行性能评估。
CN201911354264.6A 2019-12-25 2019-12-25 一种基于眼动追踪技术的人机功效评估方法 Pending CN111124124A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911354264.6A CN111124124A (zh) 2019-12-25 2019-12-25 一种基于眼动追踪技术的人机功效评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911354264.6A CN111124124A (zh) 2019-12-25 2019-12-25 一种基于眼动追踪技术的人机功效评估方法

Publications (1)

Publication Number Publication Date
CN111124124A true CN111124124A (zh) 2020-05-08

Family

ID=70503043

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911354264.6A Pending CN111124124A (zh) 2019-12-25 2019-12-25 一种基于眼动追踪技术的人机功效评估方法

Country Status (1)

Country Link
CN (1) CN111124124A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113655883A (zh) * 2021-08-17 2021-11-16 中国人民解放军军事科学院战争研究院 一种人机界面眼动交互方式的工效学实验分析***及方法
CN113827239A (zh) * 2021-09-18 2021-12-24 中国人民解放军海军特色医学中心 一种采用视觉追踪设备评估飞行员视觉分配的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713728A (zh) * 2014-01-14 2014-04-09 东南大学 一种复杂***人机界面可用性的检测方法
US20160027336A1 (en) * 2012-04-23 2016-01-28 The Boeing Company Methods for Evaluating Human Performance in Aviation
CN106126786A (zh) * 2016-06-17 2016-11-16 中国航空无线电电子研究所 座舱显示器人机界面设计人机工效定量评估方法
CN109558005A (zh) * 2018-11-09 2019-04-02 中国人民解放军空军工程大学 一种自适应人机界面配置方法
CN110096328A (zh) * 2019-05-09 2019-08-06 中国航空工业集团公司洛阳电光设备研究所 一种基于飞行任务的hud界面优化布局自适应方法及***
US20190250408A1 (en) * 2018-02-12 2019-08-15 Thales Peripheral vision in a human-machine interface

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160027336A1 (en) * 2012-04-23 2016-01-28 The Boeing Company Methods for Evaluating Human Performance in Aviation
CN103713728A (zh) * 2014-01-14 2014-04-09 东南大学 一种复杂***人机界面可用性的检测方法
CN106126786A (zh) * 2016-06-17 2016-11-16 中国航空无线电电子研究所 座舱显示器人机界面设计人机工效定量评估方法
US20190250408A1 (en) * 2018-02-12 2019-08-15 Thales Peripheral vision in a human-machine interface
CN109558005A (zh) * 2018-11-09 2019-04-02 中国人民解放军空军工程大学 一种自适应人机界面配置方法
CN110096328A (zh) * 2019-05-09 2019-08-06 中国航空工业集团公司洛阳电光设备研究所 一种基于飞行任务的hud界面优化布局自适应方法及***

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
王庆敏等: "飞行员眼动追踪与航空工效学的研究现状", 《海军医学杂志》 *
王庆敏等: "飞行员眼动追踪与航空工效学的研究现状", 《海军医学杂志》, no. 01, 28 January 2016 (2016-01-28), pages 91 *
陈新泉: "《聚类算法中的优化方法应用》", 电子科技大学出版社, pages: 12 - 13 *
陈晓皎等: "基于眼动追踪实验的数字界面质量评估模型", 《东南大学学报(自然科学版)》, no. 01, 20 January 2017 (2017-01-20), pages 38 - 42 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113655883A (zh) * 2021-08-17 2021-11-16 中国人民解放军军事科学院战争研究院 一种人机界面眼动交互方式的工效学实验分析***及方法
CN113827239A (zh) * 2021-09-18 2021-12-24 中国人民解放军海军特色医学中心 一种采用视觉追踪设备评估飞行员视觉分配的方法

Similar Documents

Publication Publication Date Title
EP3617815B1 (en) Work support device, work support method, and work support program
Siuly et al. EEG signal classification based on simple random sampling technique with least square support vector machine
JP2022501718A (ja) ユーザ相互作用の高速且つ正確な追跡を使用する人間/コンピュータインターフェース
CN105894039A (zh) 情绪识别模型建立方法、情绪识别方法及装置、智能设备
CN109976525B (zh) 一种用户界面交互方法、装置及计算机设备
CN111124124A (zh) 一种基于眼动追踪技术的人机功效评估方法
CN111951637A (zh) 一种任务情景相关联的无人机飞行员视觉注意力分配模式提取方法
Das et al. Unsupervised approach for measurement of cognitive load using EEG signals
EP3617964A1 (en) Performance measurement device, performance measurement method and performance measurement program
CN113208593A (zh) 基于相关性动态融合的多模态生理信号情绪分类方法
WO2024032728A1 (zh) 一种智能人机协同***测评方法、装置及存储介质
Park et al. A POMDP approach to P300-based brain-computer interfaces
CN114983419B (zh) 一种基于脑电信号提升运动技能的康复装置
JP7387726B2 (ja) 着用者の視覚探索戦略に応じて視力矯正機器を適合させる方法
CN113974589B (zh) 多模态行为范式评估优化***及认知能力评价方法
Wang et al. Decoding pilot behavior consciousness of EEG, ECG, eye movements via an SVM machine learning model
CN109009098A (zh) 一种运动想象状态下的脑电信号特征识别方法
Li et al. Feature selection method based on Menger curvature and LDA theory for a P300 brain–computer interface
Yasemin et al. Single trial detection of error-related potentials in brain–machine interfaces: a survey and comparison of methods
CN114424941A (zh) 疲劳检测模型构建方法、疲劳检测方法、装置及设备
Baig et al. Analyzing novice and expert user’s cognitive load in using a multi-modal interface system
CN113507561B (zh) 一种基于眼动数据分析的个性化显示***设计方法
CN111967333B (zh) 一种信号生成方法、***、存储介质及脑机接口拼写器
Shen et al. Epilepsy analytic system with cloud computing
Brahmaiah et al. Accurate and Efficient Differentiation Between Normal and Epileptic Seizure of Eyes Using 13 Layer Convolution Neural Network.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200508

RJ01 Rejection of invention patent application after publication