CN103713728B - 一种复杂***人机界面可用性的检测方法 - Google Patents
一种复杂***人机界面可用性的检测方法 Download PDFInfo
- Publication number
- CN103713728B CN103713728B CN201410016744.2A CN201410016744A CN103713728B CN 103713728 B CN103713728 B CN 103713728B CN 201410016744 A CN201410016744 A CN 201410016744A CN 103713728 B CN103713728 B CN 103713728B
- Authority
- CN
- China
- Prior art keywords
- quality
- range
- twitching
- eyelid
- testing index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开一种基于眼动信号的复杂***人机界面可用性的检测方法。其中检测方法包括如下步骤:通过生态界面方法提取复杂***人机界面的任务信息;将提取信息按照不同的任务设计编入心理学实验软件,通过眼动仪采集操作员的眼动信息;根据眼动信息计算处理处理检测指标并完成可用性子特征质量检测;融合可用性子特征,检测人机界面可用性的优劣。其中检测***包括:人机界面任务信息提取模块、用户的眼动信号采集模块、眼动信号处理模块、可用性子特征检测模块和可用性检测模块。本发明通过眼动追踪技术,对复杂***人机界面可用性优劣进行检测并判断其是否符合人的使用需求,具有较好的实时性与较高的可信度。
Description
技术领域
本发明属于人机交互领域,涉及一种复杂***人机界面可用性的检测方法及***。
背景技术
复杂***人机界面是人机交互最重要的媒介,被广泛应用到战机船舶驾驶操纵、核电厂控制、战场指挥、汽车驾控等各种复杂的人机交互***和环境之中,作为人机信息交互的重要载体和媒介,它是用户获取信息、决策判断的重要依据,同时也是信息***能否实现精确、高效传递的关键因素。
复杂***人机界面设计的不合理性往往引起用户认知的差异以及决策判断的失误,最终导致发生重大操作事故。基于用户认知的差异性可以通过眼动信息进行判断,因此对于界面设计后的眼动质量评价,成为缩减事故发生概率的最有效的途径。通过对眼动资源投入特征、理解特征和复杂特征实施检测,实现对设计质量的控制和改进,从而优化复杂***人机界面的眼动综合质量。
眼动跟踪技术提供了一种可靠、有效、及时的视觉加工研究方法,目前被广泛应用于广告产品评估、用户行为分析、工效学研究、航天安全等领域。目前基于眼动跟踪技术的眼动指标评价主要针对两个及两个以上的界面开展比较性判断,同时也较少将眼动特征融合考虑,多从单特征进行眼动质量检测。基于现有眼动分析的质量检测方法,本发明创新性地将多个眼动特征融合,进行眼动综合质量判断;并从单方案设计界面考虑,这对多层级呈现信息的复杂人机界面,阐述眼动综合质量检测方法,在实际应用中可实施性高,解决单一设计方案的眼动综合质量优劣检测问题。
发明内容
本发明的目的在于提供一种复杂***人机界面可用性的检测***的检测方法;获取人机界面中的不同任务信息特征;依据不同任务特征的不同安排,获取并计算处理处理可用性子特征检测值;实现对复杂***环境下人机界面的可用性质量判断。
一种复杂***人机界面可用性的检测***的检测方法,包括以下步骤:
(1)任务信息提取。将界面信息按照信息操控、信息表现和信息显示进行提取,并进行不同任务特征的信息分类。
(2)眼动信息的信号采集。将提取的任务信息输入心理学实验软件中,按照不同分类进行记忆任务和搜索任务安排。通过计算处理处理机向用户依次呈现不同任务的安排,通过眼动追踪仪获取用户的眼动扫描和追踪数据,选取瞳孔直径、首次注视时间、注视时间、注视次数、回视时间、眨眼持续时间、眼跳幅度、眼跳时长。
(3)检测指标计算处理处理。根据眼动信号采集的眼动指标,计算处理处理可用性子特征的检测指标。
(4)可用性子特征的质量检测。根据(2)中可用性子特征检测指标的检测值,分析和计算处理处理可识别性、易理解性和复杂性的质量值。
(5)可用性质量检测。通过叠加融合可用性子特征的质量值,检测复杂***人机界面可用性的优劣。
步骤(1)中所述的任务信息提取是面向复杂***,提取方法更加符合人—任务—环境三者之间的信息自然流通特性。任务信息提取是指基于记忆、搜索任务和界面信息特征进行任务信息提取。首先以复杂***人机界面为主体,根据其内部信息元素因子层次结构划分,分为信息操控A、信息表现B、信息显示C结构层次。其次按照信息操作方式,分为可以进行人为操作的各种***功能按键与按钮信息与独立显示,不能进行人为操作的***功能信息。按照信息表现方式,分为以图形化的方式描述***信息、以文本数据的方式描述***信息、以符号形式描述***信息及以图形和文本结合的形式描述***信息。按照信息显示方式,分为动态、静态及动静混合。根据记忆和搜索任务,对以上层次结构的信息进行分类并归入不同的任务信息。
步骤(2)中所述的眼动信息的信号采集及安排阶段,采用双任务双实验步骤,有利于去除数据获取时的干扰性,提高数据采集的有效性。具体包括以下步骤:
1)任务:在复杂***综合显示界面前放置Hi-Speed型高精度眼动仪测试托架,iView PC测试计算处理处理机与Stimulus PC图像显示计算处理处理机通过TTL
triggers进行同步通讯。依次完成2种任务安排范式:记忆任务和搜索任务。
A、记忆任务:首先指示被试在记忆界面时努力记住某一范围内信息,在检测界面中判断信息是否与记忆中的相同,然后开始呈现记忆界面20000ms,黑屏1000ms之后出现检测界面,被试做出相应的判断之后快速按下反应键。
B、搜索任务:首先指示被试需要在界面中快速搜索某一信息并作出相应判断,然后呈现搜索信息1000ms,黑屏1000ms之后呈现搜索界面,被试快速并准确地做出判断并按下相应按键。
2)眼动信号采集:
通过眼动追踪仪获取用户的眼动扫描和追踪数据,选取瞳孔直径、首次注视时间、注视时间、注视次数、回视时间、眨眼持续时间、眼跳幅度、眼跳时长。
步骤(3)中所述的检测指标计算处理处理包括以下步骤:
A、可识别性的检测指标计算处理处理:
可识别性的检测指标包括平均瞳孔直径大小、眼跳平均速度和平均眨眼时长,分别为检测指标a、检测指标b和检测指标c。检测指标大小获取:
根据步骤(2)中A的注视点信息数据获取平均瞳孔直径大小;
根据步骤(2)中A的眼跳明细数据获取眼跳幅度和眼跳持续时间,计算处理处理眼跳平均速度:
眼跳平均速度=眼跳幅度/眼跳持续时间;
根据步骤(2)中A的眨眼明细数据获取眨眼持续时间,计算处理处理平均眨眼时长:
平均眨眼时长=累计眨眼持续时间/眨眼次数;
B、易理解性的检测指标计算处理处理:
易理解性的检测指标包括平均注视时长、回视时间比率和注视时间比率,分别为检测指标d、检测指标e和检测指标f。检测指标大小获取:
根据步骤(2)中A的注视点信息数据获取注视点呈现的时间和注视次数,计算处理处理平均注视时长:
平均注视时长=累计注视时长/注视次数;
根据步骤(2)中A的注视点信息数据获取回视时间,计算处理处理回视时间比率:
回视时间比率=累计回视时长/总注视时长;
根据步骤(2)中A的注视点信息数据获取总的注视时间,计算处理处理注视时间比率:注视时间比率=总注视时长/(总注视时长+累计眼跳时长);
C、复杂性的检测指标计算处理处理:
复杂性的检测指标包括眼跳时间比率、平均眼跳幅度和首次注视时间,分别为检测指标g、检测指标h和检测指标i。检测指标大小获取:
根据步骤(2)中B的眼跳明细数据获取眼跳时间,计算处理处理眼跳时间比率:
眼跳时间比率=累计眼跳时间/(总注视时间+累计眼跳时间)。
根据步骤(2)中B的眼跳明细数据获取眼跳幅度、眼跳数目,计算处理处理平均眼跳幅度:
平均眼跳幅度=累计眼跳幅度/眼跳数目;
根据步骤(2)中B的注视点信息数据获取首次注视时间;
步骤(4)中的可用性子特征的质量检测包括以下步骤:
A、可识别性质量检测:
(a)、提取检测指标值
平均瞳孔直径大小在2.0-2.6mm范围内时,指标值为0;平均瞳孔直径大小在2.6-2.8mm范围内时,指标值为1;平均瞳孔直径大小在2.8-3.5mm范围内时,指标值为2。
眼跳平均速度在0~200 deg/s范围内时,指标值为0;眼跳平均速度在200~450 deg/s范围内时,指标值为1;眼跳平均大于450 deg/s范围时,指标值为2。
平均眨眼时长在0~0.15s范围内时,指标值为0;平均眨眼时长在0.15~0.35s范围内时,指标值为1;平均眨眼时长大于0.35s范围时,指标值为2。
(b)、提取可识别性质量
可识别性质量={检测指标(a)值,检测指标(b)值,检测指标(c)值};
可识别性质量在0~1范围内时,可识别性质量优;可识别性质量在2~3范围内时,可识别性质量中等;可识别性质量在4~6范围内时,可识别性质量差。
B、易理解性质量检测:
(a)、提取检测指标值
平均注视时长在0~300ms范围内时,特征值为0;平均注视时长在300~500ms范围内时,特征值为1;平均注视时长大于500ms时,特征值为2。
回视时间比率在0%~10%范围内时,特征值为0;回视时间比率在10%~20%范围内时,特征值为1;回视时间比率在20%~100%范围内时,特征值为2。
注视时间比率在0%~80%范围内时,特征值为0;注视时间比率在80%~90%范围内时,特征值为1;注视时间比率在90%~100%范围内时,特征值为2。
(b)、提取易理解性质量
易理解性质量={检测指标(d)值,检测指标(e)值,检测指标(f)值};
易理解性质量在0~1范围内时,易理解性质量优;易理解性质量在2~3范围内时,易理解性质量中等;易理解性质量在4~6范围内时,易理解性质量差。
C、复杂性质量检测:
(a)、提取检测指标值
眼跳时间比率在0%~8%范围内时,特征值为0;眼跳时间比率在8%~15%范围内时,特征值为1;眼跳时间比率大于15%时,特征值为2。
平均眼跳幅度大于11°时,特征值为0;平均眼跳幅度在6°~11°范围内时,特征值为1;平均眼跳幅度在0°~6°范围内时,特征值为2;
首次注视时间大于600 ms时,特征值为0;首次注视时间在300~600 ms范围内时,特征值为1;首次注视时间在0~300 ms范围内时,特征值为2。
(b)、提取复杂性质量
复杂性质量={检测指标(g)值,检测指标(h)值,检测指标(i)值};
复杂性质量在0~1范围内时,复杂性质量优;复杂性质量在2~3范围内时,复杂性质量中等;复杂性质量在4~6范围内时,复杂性质量差。
步骤(5)中的可用性质量检测包括以下步骤:
可用性质量={可识别性特征质量,易理解性特征质量,复杂性特征质量};
可用性质量值在1~3范围内时,复杂***人机界面的可用性较优;可用性质量值在4~6范围内时,复杂***人机界面的可用性适中;可用性质量值在7~9范围内时,复杂***人机界面的可用性较差。
一种复杂***人机界面可用性的检测***,包括以下模块:
1)复杂***人机界面的任务信息提取模块;
2)将提取信息放入心理学实验软件,采集用户眼动信息的眼动信号采集模块;
3)与眼动信号采集模块相连,从眼动信息中分析和提取检测指标的眼动信号处理模块;
4)与眼动信号处理模块相连,分析融合检测指标的可用性子特征(可识别性、易理解性和复杂性)检测模块;
5)与可用性子特征检测模块相连,分析和融合可用性子特征的可用性检测模块。
本发明是一种复杂***人机界面可用性的检测方法,与现有技术相比,具有以下明显的优势和有益成果:
1)通过本发明中检测***对人机界面可用性多个子特征的检测,大大减少了繁复计算处理处理带来的工作量。
2)在该检测***和检测方法中,根据用户的眼动指标可以实现动态界面信息采集,获取更加真实的测试数据,并能够实现实时监测,节约了测试周期。
3)本发明检测***适用于不同的使用环境,并结合不同环境下的用户特性进行人机界面的可用性检测,可靠性高,测试结果的实用性强。
4)本发明检测***及方法可以对人机界面的多个复杂显示界面进行局部分离和整体整合的可用性评估,可以更加准确地反映人机界面可用性质量,灵活应用性强。
附图说明
图1是本发明的一种复杂***人机界面可用性的检测***示意图。
图2是本发明的一种复杂***人机界面可用性的检测方法示意图。
图3是本发明的实施例中检测方法的任务信息提取示意图。
图4是本发明的检测方法中的眼动实验平台工作场景图。
图5是本发明的检测方法中的任务安排范式图。
图6是本发明的检测方法中的人机界面可用性子特征检测流程图。
图7是本发明的检测方法中的人机界面可用性检测流程图。
具体实施方式
下面结合附图,对本发明一种复杂***人机界面可用性的检测***及方法做进一步详细描述。
如图1所示,一种一种复杂***人机界面可用性的检测方法,包括以下步骤:
(1)任务信息提取。将界面信息按照信息操控、信息表现和信息显示进行提取,并进行不同任务特征的信息分类。
(2)眼动信息的信号采集。将提取的任务信息输入E-prime中,按照不同分类进行记忆任务和搜索任务安排范式设计。通过计算处理处理机向用户依次呈现不同任务的安排,通过眼动追踪仪获取用户的眼动扫描和追踪数据,选取瞳孔直径、首次注视时间、注视时间、注视次数、回视时间、眨眼持续时间、眼跳幅度、眼跳时长。
(3)检测指标计算处理处理。根据眼动信号采集的眼动指标,计算处理处理可用性子特征的检测指标。
(4)可用性子特征的质量检测。根据(2)中可用性子特征检测指标的检测值,分析和计算处理处理可识别性、易理解性和复杂性的质量值。
(5)可用性质量检测。通过叠加融合可用性子特征的质量值,检测复杂***人机界面可用性的优劣。
实施例中对步骤(1)的说明:
如图2所示,步骤(1)中所述的任务信息提取是指基于记忆、搜索任务和界面信息特征进行任务信息提取。首先以复杂***人机界面为主体,根据其内部信息元素因子层次结构划分,分为信息操控A、信息表现B、信息显示C结构层次。其次按照信息操作方式,分为可以进行人为操作的各种***功能按键与按钮信息与不能进行人为操作的***功能信息。按照信息表现方式,分为以图形化的方式描述***信息、以文本数据的方式描述***信息、以符号形式描述***信息及以图形和文本结合的形式描述***信息。按照信息显示方式,分为采用动态方式显示***信息、采用静态方式描述***信息及动静混合。根据记忆和搜索任务,对以上层次结构的信息进行分类并归入不同的任务信息。
实施例中对步骤(2)的说明:
步骤(2)中所述的眼动信息的信号采集包括以下步骤:
A、安排:如图3是本发明中眼动实验平台工作场景图。在复杂***综合显示界面前放置Hi-Speed型高精度眼动仪测试托架,iView PC测试计算处理处理机与Stimulus PC图像显示计算处理处理机通过TTL
triggers进行同步通讯。如图4是本发明中检测方法的任务安排范式图,任务依次完成2种任务安排范式:记忆任务和搜索任务。
(a)、记忆任务:首先指示被试在记忆界面时努力记住某一范围内信息,在检测界面中判断信息是否与记忆中的相同,然后开始呈现记忆界面20000ms,黑屏1000ms之后出现检测界面,被试做出相应的判断之后快速按下反应键。
(b)、搜索任务:首先指示被试需要在界面中快速搜索某一信息并作出相应判断,然后呈现搜索信息1000ms,黑屏1000ms之后呈现搜索界面,被试快速并准确地做出判断并按下相应按键。
B、眼动信号采集:
通过眼动追踪仪获取用户的眼动扫描和追踪数据,选取瞳孔直径、首次注视时间、注视时间、注视次数、回视时间、眨眼持续时间、眼跳幅度、眼跳时长。
实施例中对步骤(3)的说明:
A、可识别性的检测指标计算处理处理:
可识别性的检测指标包括平均瞳孔直径大小、眼跳平均速度和平均眨眼时长,分别为检测指标a、检测指标b和检测指标c。检测指标大小获取:
根据步骤(2)中A的注视点信息数据获取平均瞳孔直径大小;
根据步骤(2)中A的眼跳明细数据获取眼跳幅度和眼跳持续时间,计算处理处理眼跳平均速度:
眼跳平均速度=眼跳幅度/眼跳持续时间;
根据步骤(2)中A的眨眼明细数据获取眨眼持续时间,计算处理处理平均眨眼时长:
平均眨眼时长=累计眨眼持续时间/眨眼次数;
B、易理解性的检测指标计算处理处理:
易理解性的检测指标包括平均注视时长、回视时间比率和注视时间比率,分别为检测指标d、检测指标e和检测指标f。检测指标大小获取:
根据步骤(2)中A的注视点信息数据获取注视点呈现的时间和注视次数,计算处理处理平均注视时长:
平均注视时长=累计注视时长/注视次数;
根据步骤(2)中A的注视点信息数据获取回视时间,计算处理处理回视时间比率:
回视时间比率=累计回视时长/总注视时长;
根据步骤(2)中A的注视点信息数据获取总的注视时间,计算处理处理注视时间比率:注视时间比率=总注视时长/(总注视时长+累计眼跳时长);
C、复杂性的检测指标计算处理处理:
复杂性的检测指标包括眼跳时间比率、平均眼跳幅度和首次注视时间,分别为检测指标g、检测指标h和检测指标i。检测指标大小获取:
根据步骤(2)中B的眼跳明细数据获取眼跳时间,计算处理处理眼跳时间比率:
眼跳时间比率=累计眼跳时间/(总注视时间+累计眼跳时间)。
根据步骤(2)中B的眼跳明细数据获取眼跳幅度、眼跳数目,计算处理处理平均眼跳幅度:
平均眼跳幅度=累计眼跳幅度/眼跳数目;
根据步骤(2)中B的注视点信息数据获取首次注视时间;
实施例中对步骤(4)的说明:
如图5所示,步骤(3)中检测指标进入步骤(4)中的可用性子特征的质量检测包括以下步骤:
A、可识别性质量检测:
(a)、提取检测指标值
平均瞳孔直径大小在2.6-2.8mm范围内,指标值为1。
眼跳平均速度在200~450 deg/s范围内,指标值为1。
平均眨眼时长大于0.35s范围,指标值为2。
(b)、提取可识别性质量
可识别性质量为4;可识别性质量在2~3范围内,即可识别性质量中等。
B、易理解性质量检测:
(a)、提取检测指标值
平均注视时长在0~300ms范围内,指标值为0。
回视时间比率在10%~20%范围内,指标值为1。
注视时间比率在90%~100%范围内,指标值为2。
(b)、提取易理解性质量
易理解性质量为3;易理解性质量在2~3范围内,即易理解性质量中等。
C、复杂性质量检测:
(a)、提取检测指标值
眼跳时间比率大于15%,指标值为2。
平均眼跳幅度在6°~11°范围内,指标值为1。
首次注视时间在0~300 ms范围内,指标值为2。
(b)、提取复杂性质量
复杂性质量为5;复杂性质量在4~6范围内,即复杂性质量差。
实施例中对步骤(5)的说明:
如图6所示,步骤(5)中的可用性质量检测包括以下步骤:
可用性质量={可识别性特征质量,易理解性特征质量,复杂性特征质量};
由于可用性质量在7~9范围内,因此判断基于此复杂***人机界面的可用性质量较差。
如图7所示,一种复杂***人机界面可用性的检测***,包括以下模块:
1)复杂***人机界面的任务信息提取模块;
2)将提取信息放入心理学实验软件,采集用户眼动信息的眼动信号采集模块;
3)与眼动信号采集模块相连,从眼动信息中分析和提取检测指标的眼动信号处理模块;
4)与眼动信号处理模块相连,分析融合检测指标的可用性子特征:可识别性、易理解性和复杂性检测模块;
5)与可用性子特征检测模块相连,分析和融合可用性子特征的可用性检测模块。
Claims (3)
1.一种复杂***人机界面可用性的检测方法,其特征在于,包括以下步骤:
(1)任务信息提取,将界面信息按照信息操控、信息表现和信息显示进行提取,并进行不同任务特征的信息分类,
(2)眼动信息的信号采集,将提取的任务信息输入心理学实验软件中,按照不同分类进行记忆任务和搜索任务安排范式设计,通过计算处理机向用户依次呈现不同任务的安排,通过眼动追踪仪获取用户的眼动扫描和追踪数据,选取瞳孔直径、首次注视时间、注视时间、注视次数、回视时间、眨眼持续时间、眼跳幅度、眼跳时长,
(3)检测指标计算处理,根据眼动信号采集的眼动指标,计算处理可用性子特征的检测指标,
(4)可用性子特征的质量检测,根据(2)中可用性子特征检测指标的检测值,分析和计算处理可识别性、易理解性和复杂性的质量值,
(5)可用性质量检测,通过叠加融合可用性子特征的质量值,检测复杂***人机界面可用性的优劣;
所述步骤(3)中的检测指标计算处理包括以下步骤:
A、可识别性的检测指标计算处理:
可识别性的检测指标包括平均瞳孔直径大小、眼跳平均速度和平均眨眼时长,分别为检测指标a、检测指标b和检测指标c,检测指标大小获取:
根据步骤(2)中获取平均瞳孔直径大小;
根据步骤(2)获取眼跳幅度和眼跳持续时间,计算处理眼跳平均速度:
眼跳平均速度=眼跳幅度/眼跳持续时间;
根据步骤(2)获取眨眼持续时间,计算处理平均眨眼时长:
平均眨眼时长=累计眨眼持续时间/眨眼次数;
B、易理解性的检测指标计算处理:
易理解性的检测指标包括平均注视时长、回视时间比率和注视时间比率,分别为检测指标d、检测指标e和检测指标f,检测指标大小获取:
根据步骤(2)获取注视点呈现的时间和注视次数,计算处理平均注视时长:
平均注视时长=累计注视时长/注视次数;
根据步骤(2)获取回视时间,计算处理回视时间比率:
回视时间比率=累计回视时长/总注视时长;
根据步骤(2)获取总的注视时间,计算处理注视时间比率:注视时间比率=总注视时长/(总注视时长+累计眼跳时长);
C、复杂性的检测指标计算处理:
复杂性的检测指标包括眼跳时间比率、平均眼跳幅度和首次注视时间,分别为检测指标g、检测指标h和检测指标i,检测指标大小获取:
根据步骤(2)获取眼跳时间,计算处理眼跳时间比率:
眼跳时间比率=累计眼跳时间/(总注视时间+累计眼跳时间),
根据步骤(2)获取眼跳幅度、眼跳数目,计算处理平均眼跳幅度:
平均眼跳幅度=累计眼跳幅度/眼跳数目;
根据步骤(2)获取首次注视时间。
2.如权利要求1所述的一种复杂***人机界面可用性的检测方法,其特征在于,所述步骤(4)中的可用性子特征的质量检测包括以下步骤:
A、可识别性质量检测:
(a)、提取检测指标值
平均瞳孔直径大小在2.0-2.6mm范围内时,指标值为0;平均瞳孔直径大小在2.6-2.8mm范围内时,指标值为1;平均瞳孔直径大小在2.8-3.5mm范围内时,指标值为2,
眼跳平均速度在0~200deg/s范围内时,指标值为0;眼跳平均速度在200~450deg/s范围内时,指标值为1;眼跳平均大于450deg/s范围时,指标值为2,
平均眨眼时长在0~0.15s范围内时,指标值为0;平均眨眼时长在0.15~0.35s范围内时,指标值为1;平均眨眼时长大于0.35s范围时,指标值为2,
(b)、提取可识别性质量
可识别性质量={检测指标a值,检测指标b值,检测指标c值};
可识别性质量在0~1范围内时,可识别性质量优;可识别性质量在2~3范围内时,可识别性质量中等;可识别性质量在4~6范围内时,可识别性质量差,
B、易理解性质量检测:
(a)、提取检测指标值
平均注视时长在0~300ms范围内时,特征值为0;平均注视时长在300~500ms范围内时,特征值为1;平均注视时长大于500ms时,特征值为2,
回视时间比率在0%~10%范围内时,特征值为0;回视时间比率在10%~20%范围内时,特征值为1;回视时间比率在20%~100%范围内时,特征值为2,
注视时间比率在0%~80%范围内时,特征值为0;注视时间比率在80%~90%范围内时,特征值为1;注视时间比率在90%~100%范围内时,特征值为2,
(b)、提取易理解性质量
易理解性质量={检测指标d值,检测指标e值,检测指标f值};
易理解性质量在0~1范围内时,易理解性质量优;易理解性质量在2~3范围内时,易理解性质量中等;易理解性质量在4~6范围内时,易理解性质量差,
C、复杂性质量检测:
(a)、提取检测指标值
眼跳时间比率在0%~8%范围内时,特征值为0;眼跳时间比率在8%~15%范围内时,特征值为1;眼跳时间比率大于15%时,特征值为2,
平均眼跳幅度大于11°时,特征值为0;平均眼跳幅度在6°~11°范围内时,特征值为1;平均眼跳幅度在0°~6°范围内时,特征值为2;
首次注视时间大于600ms时,特征值为0;首次注视时间在300~600ms范围内时,特征值为1;首次注视时间在0~300ms范围内时,特征值为2,
(b)、提取复杂性质量
复杂性质量={检测指标g值,检测指标h值,检测指标i值};
复杂性质量在0~1范围内时,复杂性质量优;复杂性质量在2~3范围内时,复杂性质量中等;复杂性质量在4~6范围内时,复杂性质量差。
3.如权利要求2所述的一种复杂***人机界面可用性的检测方法,其特征在于,所述步骤(5)中的可用性质量检测包括以下步骤:
可用性质量={可识别性质量,易理解性质量,复杂性质量};
可用性质量值在1~3范围内时,复杂***人机界面的可用性较优;可用性质量值在4~6范围内时,复杂***人机界面的可用性适中;可用性质量值在7~9范围内时,复杂***人机界面的可用性较差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410016744.2A CN103713728B (zh) | 2014-01-14 | 2014-01-14 | 一种复杂***人机界面可用性的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410016744.2A CN103713728B (zh) | 2014-01-14 | 2014-01-14 | 一种复杂***人机界面可用性的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103713728A CN103713728A (zh) | 2014-04-09 |
CN103713728B true CN103713728B (zh) | 2016-09-21 |
Family
ID=50406770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410016744.2A Active CN103713728B (zh) | 2014-01-14 | 2014-01-14 | 一种复杂***人机界面可用性的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103713728B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104503916A (zh) * | 2015-01-05 | 2015-04-08 | 中国石油大学(华东) | 一种***界面可用性定量评估方法 |
CN106126786B (zh) * | 2016-06-17 | 2019-12-27 | 中国航空无线电电子研究所 | 座舱显示器人机界面设计人机工效定量评估方法 |
CN106920129B (zh) * | 2017-03-09 | 2020-05-05 | 山东师范大学 | 一种基于眼动追踪的网络广告效果测评***及其方法 |
CN108804246A (zh) * | 2018-06-11 | 2018-11-13 | 上海理工大学 | 上肢康复机器人的可用性评价方法 |
CN109558005B (zh) * | 2018-11-09 | 2023-05-23 | 中国人民解放军空军工程大学 | 一种自适应人机界面配置方法 |
CN109649654B (zh) * | 2018-12-28 | 2021-09-14 | 东南大学 | 一种低空搜索定位方法 |
CN109917759B (zh) * | 2019-03-07 | 2021-12-10 | 河海大学常州校区 | 一种智能控制产线***信息呈现格式和功能布局方法 |
CN110704292B (zh) * | 2019-10-15 | 2020-11-03 | 中国人民解放军海军大连舰艇学院 | 一种显控界面设计的评价方法 |
CN110941733B (zh) * | 2019-10-15 | 2020-11-03 | 中国人民解放军海军大连舰艇学院 | 一体化界面信息多重融合展示方法 |
CN111124124A (zh) * | 2019-12-25 | 2020-05-08 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种基于眼动追踪技术的人机功效评估方法 |
CN111568367B (zh) * | 2020-05-14 | 2023-07-21 | 中国民航大学 | 一种识别和量化眼跳入侵的方法 |
CN115019570A (zh) * | 2021-03-03 | 2022-09-06 | 北京七鑫易维信息技术有限公司 | 一种智能教学*** |
CN113080532A (zh) * | 2021-05-14 | 2021-07-09 | 安徽中烟工业有限责任公司 | 基于眼动追踪技术的加热卷烟烟具用户体验量化分析方法 |
CN113655883B (zh) * | 2021-08-17 | 2022-10-14 | 中国人民解放军军事科学院战争研究院 | 一种人机界面眼动交互方式的工效学实验分析***及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102207822A (zh) * | 2011-05-04 | 2011-10-05 | 中兴通讯股份有限公司 | 一种人机交互的方法及装置 |
CN103473242A (zh) * | 2012-06-08 | 2013-12-25 | 腾讯科技(深圳)有限公司 | 一种基于网页内容的手写输入控制方法、***及浏览器 |
-
2014
- 2014-01-14 CN CN201410016744.2A patent/CN103713728B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102207822A (zh) * | 2011-05-04 | 2011-10-05 | 中兴通讯股份有限公司 | 一种人机交互的方法及装置 |
CN103473242A (zh) * | 2012-06-08 | 2013-12-25 | 腾讯科技(深圳)有限公司 | 一种基于网页内容的手写输入控制方法、***及浏览器 |
Non-Patent Citations (2)
Title |
---|
可用性测试中的视线追踪技术;张光强;《人类工效学》;20010430;9-14 * |
基于眼动跟踪技术的界面可用性评估;刘青等;《东南大学学报(自然科学版)》;20100228;331-334 * |
Also Published As
Publication number | Publication date |
---|---|
CN103713728A (zh) | 2014-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103713728B (zh) | 一种复杂***人机界面可用性的检测方法 | |
Li et al. | Effects of interface layout on the usability of in-vehicle information systems and driving safety | |
CN111104820A (zh) | 一种基于深度学习的手势识别方法 | |
CN109835260B (zh) | 一种车辆信息显示方法、装置、终端和存储介质 | |
CN104484644B (zh) | 一种手势识别方法和装置 | |
CN105701015B (zh) | 一种基于用户模型的智能手机人机界面可用性评估方法 | |
CN102087582A (zh) | 一种自动滚屏的方法及装置 | |
CN109117711B (zh) | 基于眼动数据的分层特征融合的专注度检测装置及方法 | |
CN109063545A (zh) | 一种疲劳驾驶检测方法及装置 | |
CN104392144A (zh) | 一种视觉信息界面出错因子的生理实验分析方法 | |
Wang et al. | Gaze-aware hand gesture recognition for intelligent construction | |
TW201830223A (zh) | 時間序列資料處理裝置及處理方法 | |
Zhao et al. | Eye moving behaviors identification for gaze tracking interaction | |
Ryabinin et al. | Visual analytics of gaze tracks in virtual reality environment | |
CN113052475A (zh) | 一种工程机械图标视觉绩效测试方法、装置及存储介质 | |
CN104850225A (zh) | 一种基于多层次融合的活动识别方法 | |
CN116013033A (zh) | 多源信号疲劳驾驶检测方法、装置及存储介质 | |
EP4261732A1 (en) | Vehicle bus topological graph display method and apparatus, and device | |
CN109917759A (zh) | 一种智能控制产线***信息呈现格式和功能布局方法 | |
JP2003058298A (ja) | 情報分類装置、情報分類方法、情報分類プログラム及びコンピュータ読み取り可能な記録媒体 | |
Holland et al. | Identifying usability issues via algorithmic detection of excessive visual search | |
Ding et al. | EEG-fest: few-shot based attention network for driver's drowsiness estimation with EEG signals | |
CN114327046B (zh) | 一种多模态人机交互与状态智能预警的方法、装置及*** | |
Husen et al. | Continuous Car Driving intention recognition with syntactic pattern approach | |
Tavakoli et al. | The impact of surrounding road objects and conditions on drivers abrupt heart rate changes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |