CN106169063A - 一种自动识别用户阅读兴趣区的方法 - Google Patents
一种自动识别用户阅读兴趣区的方法 Download PDFInfo
- Publication number
- CN106169063A CN106169063A CN201610461260.8A CN201610461260A CN106169063A CN 106169063 A CN106169063 A CN 106169063A CN 201610461260 A CN201610461260 A CN 201610461260A CN 106169063 A CN106169063 A CN 106169063A
- Authority
- CN
- China
- Prior art keywords
- user
- reading
- reading area
- fixation
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种自动识别用户阅读兴趣区的方法,通过眼动仪实时抓取用户阅读时的访问时间、注视次数、瞳孔直径等指标,并结合利用回视次数的关系矩阵,自动挖掘用户阅读的关注点和兴趣所在。本发明提高了用户阅读兴趣识别的准确度和针对性,可应用于识别用户的阅读兴趣,从而给用户更准确地推送其所感兴趣的阅读内容。
Description
技术领域
本发明属于用户心理学和信息学领域,具体涉及基于用户阅读心理和阅读行为分析的用户兴趣发现技术。
背景技术
用户对内容的关注点或兴趣,体现为他们某一方面的需求。Cho-Wei Shih等提出的信息需求雷达模型,量化了内容的需求程度。为帮助用户区分关注点,方便阅读,国家知识产权局在专利文献查看页面中,利用了高亮、高密、聚焦功能;针对用户兴趣的表达,缪涵琴开发出融合本体和用户兴趣的专利信息检索***,并设计了专利检索领域本体、国际专利分类表和用户兴趣模型的本体表示。
眼动技术是一种可靠、有效的方法,可分析读者在阅读过程中的注意力分配情况。浏览、访问或阅读中的眼动研究可充分挖掘用户潜在需求,其已在网站可用性、软硬件测试、教学研究、交互研究[20]及广告研究等方面得到广泛的应用。
现有研究往往通过用户浏览点击下载等来发现有用户的阅读兴趣,也有仅利用用户阅读过程中注视、凝视时间指标来计算用户的阅读兴趣,不能很好地挖掘用户的兴趣和需求所在,缺少一个一般地有效准确地识别用户阅读兴趣区的方法。
本发明为国家自然科学基金青年项目“专利文献的要素组合拓朴结构及向量空间语义表示与相似度计算研究”(项目编号:71403107),中国博士后科学基金第七批特别资助项目“综合位置和语义的专利文献核函数构造及相似度计算研究”(项目编号:2014T70491)的研究成果之一。
发明内容
本发明的目的在于提供一种自动识别用户阅读兴趣区的方法,为用户阅读兴趣区的识别提供一般方法,并提高识别的精准率和召回率。
一种自动识别用户阅读兴趣区的方法,其特征在于包括以下步骤:
步骤一,采集用户阅读过程中眼动行为数据;
步骤二,清洗眼动行为数据
基于眼动速度识别的基准值算法,I-VT处理工具自动将原始数据处理成注视点;当阅读区域变换的移动速度低于基准值30°/s时,数据被标记成注视点; ***将高于持续时间基准值60ms的注视点保留下来用于做进一步的分析,将低于持续时间基准值60ms的注视点去除不用于识别;
利用Tobii眼动仪自动根据将眼动行为数据中对瞳孔信息的识别准确度进行标识:代码0为准确值、代码1为估计值、代码2表示不确定值、代码3为数据缺失;剔除代码2、代码3所对应的数据值,只保留代码0和代码1对应的眼动行为数据,得清洗后的眼动行为数据;
步骤三,确定阅读眼动行为指标:相对访问时间、相对注视次数、瞳孔直径缩放比;
步骤四,计算所述阅读眼动行为指标权重;
步骤五,利用所述清洗后的眼动行为数据、阅读眼动行为指标、阅读眼动行为指标权重,计算用户对阅读区域的兴趣度;
步骤六,根据所述兴趣度的大小范围,判别用户感兴趣的阅读区域,从而识别用户阅读兴趣区,分为高兴趣区、一般兴趣区、低兴趣区。
所述阅读眼动行为指标还包括回视次数。
所述步骤一的具体过程如下:
利用Tobii Studio眼动仪记录用户阅读过程中眼动行为,所述眼动行为数据包括刺激材料名称、记录的时间、阅读区域面积、总访问时间、注视点、注视次数、左瞳孔直径、右瞳孔直径、左瞳孔有效性、右瞳孔有效性、眼动事件的持续时间、Hit;
所述Hit表示阅读区域激活及注视点在该阅读区域情况:0代表阅读区域被激活,但注视点未在阅读区域内,1代表阅读区域被激活且注视点在阅读区域内;所述注视点为当所述眼动的速度低于基准值30°/s时,所述眼动的数据被标记成注视点。
步骤三中所述的访问时间为:从首次注视阅读区域至注视移出该区的时间片段,统计阅读区域中的所有注视点的持续时间之和,包含回视时间;
用户对阅读区域x的相对访问时间
t为所述用户对阅读区域x的总访问时间,Sx为阅读区域x的面积,用像素表示,t′为该用户对所有阅读区域的单位面积访问时间之和,即k为阅读区域总数;
所述的注视次数为:各阅读区域内的所述注视点的个数表示用户在该阅读区域的注视次数;当用户眼球对注视的内容加工结束时,出现眼跳,开始下一次注视;利用注视次数反映用户阅读的熟练程度、加工策略以及阅读材料对用户的难易程度,估计用户阅读兴趣;注视点即信息块,信息块愈多表明用户关注的机会愈多、理解的可能性愈大;
用户对阅读区域x的相对注视次数c为用户对阅读区域x的注视次数,c′为该用户对所有阅读区域的单位面积注视次数之和,即
所述瞳孔直径缩放比为:将用户在某一阅读区域内所有注视点的瞳孔直径的平均值作为平均瞳孔直径;所述的瞳孔直径是用户左眼瞳孔直径和右眼瞳孔直径的平均;将所述阅读区域内的平均瞳孔直径除以该阅读区域所在整篇阅读对象内的平均瞳孔直径,作为所述阅读区域的瞳孔直径缩放比;用户对阅读区域x的瞳孔直径缩放比e为用户在阅读区域x的平均瞳孔直径,e′为用户在阅读区域x的总的平均瞳孔直径。
所述回视次数为:眼跳是注视之间飞快的扫视动作;所述回视是指回溯性的眼跳,是指用户在对阅读区域的第一遍注视后,对该阅读区域进行再阅读;用回溯性的眼跳和眼跳路线揭示用户对所述阅读区域的内容对照和兴趣联系的情况;所述回视次数包括回视出次数和回视入次数;所述回视出次数指注视点从所述阅读区域移出到其它区域的次数;回视入次数指注视点从其它区域移入到所述阅读区域的次数;
用户对阅读区域x的相对回视次数ri为该用户对阅读区域x与阅读区域y之间的回视次数,r为该用户对阅读区域所有的回视次数,I′y为该用户对阅读区域y不考虑回视次数时的兴趣度,q为该用户对阅读区域x有回视关系的其他阅读区域数。
所述步骤四中阅读眼动行为指标权重计算具体过程如下:
过程一,建立模糊互补矩阵F=(fij)n×n
i表示第i个指标;j表示第j个指标;
在0~1标度中,0表示j指标比i指标重要,0.5表示i指标、j指标同等重要,1表示i指标比j指标重要;基于此,且阅读访问时间更能体现用户兴趣,构造模 糊互补矩阵F:
过程二,建立模糊一致性矩阵P=(pij)n×n
对模糊互补矩阵F按行求和:
并通过如下数学变换:
得模糊一致性矩阵:
过程三,计算指标权重
利用模糊一致性矩阵P,通过方根法计算,得相对访问时间、相对注视次数、瞳孔直径缩放比及相对回视次数四项指标的权重系数W=(w1,w2,w3,w4);
在先不考虑回视次数的情况下,利用模糊一致性矩阵P,通过方根法计算,得访问时间、注视次数及瞳孔直径缩放比三项指标的权重系数W=(w1,w2,w3);
所述方根法为①②③i和j分别表示第i个指标和第j个指标;n表示指标的个数。
所述计算用户对阅读区域x的兴趣度Ix的具体过程如下:
下标y表示不同于x的一个阅读区域;
I′y表示只考虑在y阅读区域的相对访问时间Ty、相对注视次数Cy、瞳孔直径缩放比Ey三个指标时的兴趣度;
所述
Ix表示考虑在x阅读区域的相对访问时间Tx、相对注视次数Cx、瞳孔直径缩放比Ex以及用户对阅读区域x的相对回视次数Rx四个指标时的兴趣度。
具体实施方式
下面结合具体实施例,对本发明的技术方案做进一步详细说明。
以专利文献为例,对江苏大学农业工程、计算机科学和流体机械三个学科领域的30位从事科研的老师和研究生的进行实验,以自动识别科研用户对专利文献的阅读兴趣区。
使用Tobii T60XL宽屏眼动仪采集数据。
计算机自动根据专利文献的元数据项将专利文献划分为以下12个阅读区域,如表1所示。
表1阅读区域与专利文献元数据项内容对照表
阅读区域x或y取值为1到12。
步骤一,采集用户阅读专利文献过程中的眼动行为数据,采集26位用户各阅读一篇专利文献的眼动数据,包括记录开始时间、总访问时间、注视点、注视次数、左瞳孔直径、右瞳孔直径、左瞳孔有效性、右瞳孔有效性、Hit、阅读区域面积,相关定义如表2所示。
表2眼动行为数据解释
步骤二,清洗眼动行为数据,得清洗后的眼动行为数据:计算机***自动去除采样率低于80%的4个用户的采集数据,以26个有效数据进行识别;基于眼动速度识别的基准值算法,使用I-VT处理工具将原始数据处理成注视点;当阅读区域变换的移动速度低于基准值30°/s时,数据被标记成注视点;将高于持续时间基准值60ms的注视点保留下来用于做进一步的分析;将低于持续时间基准值60ms的注视点去除不用于识别;利用Tobii眼动仪自动将眼动行为数据根据识别准确度进行标识:代码0为准确值、代码1为估计值、代码2表示不确定值、代码3为数据缺失;剔除代码2、代码3所对应的数据值,只保留代码0和代码1对应的眼动行为数据。
步骤三,汇总26位用户的数据,确定阅读专利文献眼动行为指标:相对访问时间、相对注视次数、瞳孔直径缩放比,结果如表3所示。
表3阅读专利文献眼动行为指标值
回视次数指标关系矩阵如表4所示。
表4专利文献阅读区域的回视次数关系矩阵
步骤四,计算所述专利文献阅读眼动行为指标权重,计算具体过程如下:
过程一,建立模糊互补矩阵F=(fij)n×n
i表示第i个指标;j表示第j个指标;
在0~1标度中,0表示j指标比i指标重要,0.5表示i指标、j指标同等重要,1表示i指标比j指标重要;基于此,且阅读访问时间更能体现用户兴趣,构造模糊互补矩阵F:
过程二,建立模糊一致性矩阵P=(pij)n×n
对模糊互补矩阵F按行求和:
并通过如下数学变换:
得模糊一致性矩阵:
过程三,计算指标权重
利用模糊一致性矩阵R,通过方根法计算,得相对访问时间、相对注视次数、瞳孔直径缩放比及相对回视次数四项指标的权重系数W=(w1,w2,w3,w4)=(0.3519,0.1816,0.2849,0.1816);
在先不考虑回视次数的情况下,利用模糊一致性矩阵R,通过方根法计算,得访问时间、注视次数及瞳孔直径缩放比三项指标的权重系数W=(w1,w2,w3)=(0.4543,0.211,0.3347);
步骤五,利用所述清洗后的眼动行为数据、阅读眼动行为指标、阅读眼动行为指标权重,计算用户对阅读区域y的兴趣度Ix的具体过程如下:
下标y表示不同于x的一个阅读区域;
I′y表示只考虑在y阅读区域的相对访问时间Ty、相对注视次数Cy、瞳孔直径缩放比Ey三个指标时的兴趣度,结果如表5所示。
表5兴趣度I′y计算结果
Ix表示考虑在x阅读区域的相对访问时间Tx、相对注视次数Cx、瞳孔直径缩放比Ex以及用户对阅读区域x的相对回视次数Rx四个指标时的用户对专利文献各
阅读区的兴趣度Ix结果如表6所示。
表6最终兴趣度Ix计算结果
注:为了便于对比,兴趣度的数值同时扩大到原来的10倍。
步骤六,根据所述兴趣度的大小范围,判别用户感兴趣的阅读区域,从而识别用户阅读兴趣区,高感兴趣区、一般感兴趣区和低感兴趣区的兴趣度数值分别排在前25%,25%~70%(不包含25%)和70~100%(不包含70%)。从而识别用户高感兴趣区是AOI-3(名称、说明书摘要、摘要附图),AOI-5(独立权利要求)和AOI-6(从属权利要求);一般兴趣区域是AOI-9(技术方案),AOI-8(发明目的),AOI-11(具体实施方式),AOI-7(技术领域、背景技术)和AOI-10(有 益效果);低兴趣区是AOI-2(申请人及地址、发明人),AOI-1(申请日、优先权数据),AOI-12(说明书附图)和AOI-4(法律状态)。
设置评价等级集K={满意,比较满意,一般,不满意}={1,0.8,0.5,0}。评价实验结果表明:26位用户对本申请的兴趣区识别效果评价如下:其中,评价为满意的用户16人,评价为比较满意的用户6人,评价为一般的用户3人,评价为不满意的用户1人。实验综合评分为0.858分,说明本申请的自动识别用户阅读兴趣区的方法精准率和召回率很好。
Claims (6)
1.一种自动识别用户阅读兴趣区的方法,其特征在于包括以下步骤:
步骤一,采集用户阅读过程中眼动行为数据;
步骤二,清洗眼动行为数据
基于眼动速度识别的基准值算法,I-VT处理工具自动将原始数据处理成注视点;当阅读区域变换的移动速度低于基准值30°/s时,数据被标记成注视点;***将高于持续时间基准值60ms的注视点保留下来用于做进一步的分析,将低于持续时间基准值60ms的注视点去除不用于识别;
利用Tobii眼动仪自动根据将眼动行为数据中对瞳孔信息的识别准确度进行标识:代码0为准确值、代码1为估计值、代码2表示不确定值、代码3为数据缺失;剔除代码2、代码3所对应的数据值,只保留代码0和代码1对应的眼动行为数据,得清洗后的眼动行为数据;
步骤三,确定阅读眼动行为指标:相对访问时间、相对注视次数、瞳孔直径缩放比;
步骤四,计算所述阅读眼动行为指标权重;
步骤五,利用所述清洗后的眼动行为数据、阅读眼动行为指标、阅读眼动行为指标权重,计算用户对阅读区域的兴趣度;
步骤六,根据所述兴趣度的大小范围,判别用户感兴趣的阅读区域,从而识别用户阅读兴趣区,分为高兴趣区、一般兴趣区、低兴趣区。
2.根据权利要求1所述的一种自动识别用户阅读兴趣区的方法,其特征在于所述阅读眼动行为指标还包括相对回视次数;
用户对阅读区域x的相对回视次数ri为该用户对阅读区域x与阅读区域y之间的回视次数,r为该用户对阅读区域所有的回视次数,I′y为该用户对阅读区域y不考虑回视次数时的兴趣度,q为该用户对阅读区域x有回视关系的其他阅读区域数;
所述回视次数为:眼跳是注视之间飞快的扫视动作;所述回视是指回溯性的眼跳,是指用户在对阅读区域的第一遍注视后,对该阅读区域进行再阅读;用回溯性的眼跳和眼跳路线揭示用户对所述阅读区域的内容对照和兴趣联系的情况;所述回视次数包括回视出次数和回视入次数;所述回视出次数指注视点从所述阅读区域移出到其它区域的次数;回视入次数指注视点从其它区域移入到所述阅读区域的次数。
3.根据权利要求1所述的一种自动识别用户阅读兴趣区的方法,其特征在于所述步骤一的具体过程如下:
利用TobiiStudio眼动仪记录用户阅读过程中眼动行为,所述眼动行为数据包括刺激材料名称、记录的时间、阅读区域面积、总访问时间、注视点、注视次数、左瞳孔直径、右瞳孔直径、左瞳孔有效性、右瞳孔有效性、眼动事件的持续时间、Hit;
所述Hit表示阅读区域激活及注视点在该阅读区域情况:0代表阅读区域被激活,但注视点未在阅读区域内,1代表阅读区域被激活且注视点在阅读区域内;
所述注视点为当所述眼动的速度低于基准值30°/s时,所述眼动的数据被标记成注视点。
4.根据权利要求1所述的一种自动识别用户阅读兴趣区的方法,其特征在于步骤三中所述的访问时间为:从首次注视阅读区域至注视移出该区的时间片段,统计阅读区域中的所有注视点的持续时间之和,包含回视时间;
用户对阅读区域x的相对访问时间
t为所述用户对阅读区域x的总访问时间,Sx为阅读区域x的面积,用像素表示,t′为该用户对所有阅读区域的单位面积访问时间之和,即k为阅读区域总数;
所述的注视次数为:各阅读区域内的所述注视点的个数表示用户在该阅读区域的注视次数;当用户眼球对注视的内容加工结束时,出现眼跳,开始下一次注视;利用注视次数反映用户阅读的熟练程度、加工策略以及阅读材料对用户的难易程度,估计用户阅读兴趣;注视点即信息块,信息块愈多表明用户关注的机会愈多、理解的可能性愈大;
用户对阅读区域x的相对注视次数c为用户对阅读区域x的注视次数,c′为该用户对所有阅读区域的单位面积注视次数之和,即
所述瞳孔直径缩放比为:将用户在某一阅读区域内所有注视点的瞳孔直径的平均值作为平均瞳孔直径;所述的瞳孔直径是用户左眼瞳孔直径和右眼瞳孔直径的平均;将所述阅读区域内的平均瞳孔直径除以该阅读区域所在整篇阅读对象内的平均瞳孔直径,作为所述阅读区域的瞳孔直径缩放比;用户对阅读区域x的瞳孔直径缩放比e为用户在阅读区域x的平均瞳孔直径,e′为用户在阅读区域x的总的平均瞳孔直径。
5.根据权利要求1所述的一种自动识别用户阅读兴趣区的方法,其特征在于所述步骤四中阅读眼动行为指标权重计算具体过程如下:
过程一,建立模糊互补矩阵F=(fij)n×n
i表示第i个指标;j表示第j个指标;
在0~1标度中,0表示j指标比i指标重要,0.5表示i指标、j指标同等重要,1表示i指标比j指标重要;基于此,且阅读访问时间更能体现用户兴趣,构造模糊互补矩阵F:
过程二,建立模糊一致性矩阵P=(pij)n×n
对模糊互补矩阵F按行求和:
并通过如下数学变换:
得模糊一致性矩阵:
过程三,计算指标权重
利用模糊一致性矩阵P,通过方根法计算,得相对访问时间、相对注视次数、瞳孔直径缩放比及相对回视次数四项指标的权重系数W=(w1,w2,w3,w4);
在先不考虑回视次数的情况下,利用模糊一致性矩阵P,通过方根法计算,得相对访问时间、相对注视次数及瞳孔直径缩放比三项指标的权重系数W=(w1,w2,w3);
所述方根法为i和j分别表示第i个指标和第j个指标;n表示指标的个数。
6.根据权利要求1或4所述的一种自动识别用户阅读兴趣区的方法,其特征在于所述计算用户对阅读区域x的兴趣度Ix的具体过程如下:
I′y表示只考虑在y阅读区域的相对访问时间Ty、相对注视次数Cy、瞳孔直径缩放比Ey三个指标时的兴趣度;
所述
Ix表示考虑在x阅读区域的相对访问时间Tx、相对注视次数Cx、瞳孔直径缩放比Ex以及用户对阅读区域x的相对回视次数Rx四个指标时的兴趣度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610461260.8A CN106169063B (zh) | 2016-06-22 | 2016-06-22 | 一种自动识别用户阅读兴趣区的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610461260.8A CN106169063B (zh) | 2016-06-22 | 2016-06-22 | 一种自动识别用户阅读兴趣区的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106169063A true CN106169063A (zh) | 2016-11-30 |
CN106169063B CN106169063B (zh) | 2019-11-26 |
Family
ID=58064644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610461260.8A Expired - Fee Related CN106169063B (zh) | 2016-06-22 | 2016-06-22 | 一种自动识别用户阅读兴趣区的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106169063B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874170A (zh) * | 2017-02-10 | 2017-06-20 | 上海木爷机器人技术有限公司 | 兴趣内容识别方法及装置 |
CN106920129A (zh) * | 2017-03-09 | 2017-07-04 | 山东师范大学 | 一种基于眼动追踪的网络广告效果测评***及其方法 |
CN107180310A (zh) * | 2017-06-01 | 2017-09-19 | 三峡大学 | 一种自动确定施工现场安全标志牌布置区域的方法 |
CN107274223A (zh) * | 2017-06-13 | 2017-10-20 | 杭州电子科技大学 | 融合脑电信号与注视跟踪特征的广告评估方法 |
CN108052973A (zh) * | 2017-12-11 | 2018-05-18 | 中国人民解放军战略支援部队信息工程大学 | 基于多项眼动数据的地图符号用户兴趣分析方法 |
CN108304066A (zh) * | 2018-01-24 | 2018-07-20 | 三峡大学 | 安全标识视觉传达效果量化方法 |
CN109116974A (zh) * | 2017-06-23 | 2019-01-01 | 中兴通讯股份有限公司 | 锁屏图片的确定方法及推送方法,终端,网络服务器设备 |
CN110634356A (zh) * | 2019-04-13 | 2019-12-31 | 北京一目了然教育科技有限公司 | 一种基于眼动追踪技术训练阅读能力的方法 |
CN113591550A (zh) * | 2021-06-17 | 2021-11-02 | 湖南大学 | 一种基于瞳孔变化的个人喜好自动检测模型构建方法、装置、设备及介质 |
CN113655882A (zh) * | 2021-08-17 | 2021-11-16 | 中国人民解放军军事科学院战争研究院 | 一种基于眼动数据测量的人机界面信息筛选方法 |
CN114201031A (zh) * | 2020-09-17 | 2022-03-18 | 北京七鑫易维信息技术有限公司 | 针对眼动跟踪的时间统计方法及装置 |
CN117058748A (zh) * | 2023-09-07 | 2023-11-14 | 杭州励普科技有限公司 | 一种基于深度阅读识别的电子文档阅读方法和*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102496012A (zh) * | 2011-12-14 | 2012-06-13 | 上海海事大学 | 结合眼动追踪和历史行为挖掘潜在需求的装置和方法 |
CN103999032A (zh) * | 2011-12-12 | 2014-08-20 | 英特尔公司 | 显示元素中所包括的感兴趣的区域的兴趣度分数 |
CN104516498A (zh) * | 2013-10-04 | 2015-04-15 | 由田新技股份有限公司 | 记录阅读行为的方法及装置 |
WO2016012458A1 (en) * | 2014-07-21 | 2016-01-28 | Tobii Ab | Method and apparatus for detecting and following an eye and/or the gaze direction thereof |
CN105426399A (zh) * | 2015-10-29 | 2016-03-23 | 天津大学 | 一种基于眼动的提取图像兴趣区域的交互式图像检索方法 |
US20160132752A1 (en) * | 2013-11-12 | 2016-05-12 | Fuji Xerox Co., Ltd. | Classifying User Activities Using Eye Fixation Clustering, Fixation Features, and Regions of Interest |
-
2016
- 2016-06-22 CN CN201610461260.8A patent/CN106169063B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103999032A (zh) * | 2011-12-12 | 2014-08-20 | 英特尔公司 | 显示元素中所包括的感兴趣的区域的兴趣度分数 |
CN102496012A (zh) * | 2011-12-14 | 2012-06-13 | 上海海事大学 | 结合眼动追踪和历史行为挖掘潜在需求的装置和方法 |
CN104516498A (zh) * | 2013-10-04 | 2015-04-15 | 由田新技股份有限公司 | 记录阅读行为的方法及装置 |
US20160132752A1 (en) * | 2013-11-12 | 2016-05-12 | Fuji Xerox Co., Ltd. | Classifying User Activities Using Eye Fixation Clustering, Fixation Features, and Regions of Interest |
WO2016012458A1 (en) * | 2014-07-21 | 2016-01-28 | Tobii Ab | Method and apparatus for detecting and following an eye and/or the gaze direction thereof |
CN105426399A (zh) * | 2015-10-29 | 2016-03-23 | 天津大学 | 一种基于眼动的提取图像兴趣区域的交互式图像检索方法 |
Non-Patent Citations (4)
Title |
---|
SANTELLA A ETAL.: "Robust clustering of eye movement recordings for quantification of visual interest", 《EYE TRACKING RESEARCH & APPLICATION SYMPOSIUM,》 * |
苌道方 等: "考虑行为和眼动跟踪的用户兴趣模型", 《河南科技大学学报: 自然科学版》 * |
闫国利 等: "阅读研究中的主要眼动指标评述", 《心理科学进展》 * |
黄细燕 等: "供应链协同中供应商梯形模糊评价研究", 《供应链管理》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874170A (zh) * | 2017-02-10 | 2017-06-20 | 上海木爷机器人技术有限公司 | 兴趣内容识别方法及装置 |
CN106874170B (zh) * | 2017-02-10 | 2020-11-03 | 上海木木聚枞机器人科技有限公司 | 兴趣内容识别方法及装置 |
CN106920129B (zh) * | 2017-03-09 | 2020-05-05 | 山东师范大学 | 一种基于眼动追踪的网络广告效果测评***及其方法 |
CN106920129A (zh) * | 2017-03-09 | 2017-07-04 | 山东师范大学 | 一种基于眼动追踪的网络广告效果测评***及其方法 |
CN107180310A (zh) * | 2017-06-01 | 2017-09-19 | 三峡大学 | 一种自动确定施工现场安全标志牌布置区域的方法 |
CN107274223A (zh) * | 2017-06-13 | 2017-10-20 | 杭州电子科技大学 | 融合脑电信号与注视跟踪特征的广告评估方法 |
CN107274223B (zh) * | 2017-06-13 | 2020-08-25 | 杭州电子科技大学 | 融合脑电信号与注视跟踪特征的广告评估方法 |
CN109116974A (zh) * | 2017-06-23 | 2019-01-01 | 中兴通讯股份有限公司 | 锁屏图片的确定方法及推送方法,终端,网络服务器设备 |
CN108052973A (zh) * | 2017-12-11 | 2018-05-18 | 中国人民解放军战略支援部队信息工程大学 | 基于多项眼动数据的地图符号用户兴趣分析方法 |
CN108052973B (zh) * | 2017-12-11 | 2020-05-05 | 中国人民解放军战略支援部队信息工程大学 | 基于多项眼动数据的地图符号用户兴趣分析方法 |
CN108304066A (zh) * | 2018-01-24 | 2018-07-20 | 三峡大学 | 安全标识视觉传达效果量化方法 |
CN110634356A (zh) * | 2019-04-13 | 2019-12-31 | 北京一目了然教育科技有限公司 | 一种基于眼动追踪技术训练阅读能力的方法 |
CN114201031A (zh) * | 2020-09-17 | 2022-03-18 | 北京七鑫易维信息技术有限公司 | 针对眼动跟踪的时间统计方法及装置 |
CN113591550A (zh) * | 2021-06-17 | 2021-11-02 | 湖南大学 | 一种基于瞳孔变化的个人喜好自动检测模型构建方法、装置、设备及介质 |
CN113591550B (zh) * | 2021-06-17 | 2024-03-26 | 湖南大学 | 一种个人喜好自动检测模型构建方法、装置、设备及介质 |
CN113655882A (zh) * | 2021-08-17 | 2021-11-16 | 中国人民解放军军事科学院战争研究院 | 一种基于眼动数据测量的人机界面信息筛选方法 |
CN117058748A (zh) * | 2023-09-07 | 2023-11-14 | 杭州励普科技有限公司 | 一种基于深度阅读识别的电子文档阅读方法和*** |
Also Published As
Publication number | Publication date |
---|---|
CN106169063B (zh) | 2019-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106169063A (zh) | 一种自动识别用户阅读兴趣区的方法 | |
Fox et al. | Random item effects modeling for cross-national survey data | |
Elazar et al. | How large are lions? inducing distributions over quantitative attributes | |
CN105893523B (zh) | 利用答案相关性排序的评估度量来计算问题相似度的方法 | |
Hartson et al. | Criteria for evaluating usability evaluation methods | |
CN101408886B (zh) | 通过分析文档的段落来选择该文档的标签 | |
CN101408887A (zh) | 推荐词条以指定本体空间 | |
Mota-Vargas et al. | Taxonomy and ecological niche modeling: Implications for the conservation of wood partridges (genus Dendrortyx) | |
CN106776672A (zh) | 技术发展脉络图确定方法 | |
CN107885857B (zh) | 一种搜索结果页用户行为模式挖掘方法、装置及*** | |
CN102194134B (zh) | 基于统计学习对生物特征识别***的性能指标进行预测的方法 | |
Xu et al. | Improving quality of training data for learning to rank using click-through data | |
CN109086794A (zh) | 一种基于t-lda主题模型的驾驶行为模式识方法 | |
CN112069329A (zh) | 文本语料的处理方法、装置、设备及存储介质 | |
Sheridan | Patterns in the policies: affirmative action in Australia | |
CN103150476B (zh) | 一种基于数据站场的***效能评估方法 | |
Zinnen et al. | Niche ecology in Floristic Quality Assessment: Are species with higher conservatism more specialized? | |
Flores et al. | Trend analyses of major contributions in The Counseling Psychologist cited from 1986 to 1996: Impact and implications | |
Kubiatko et al. | Comparison of the effects of gender variable on attitudes towards the teaching profession by random and fixed effects model: Meta-Analysis | |
Foord et al. | Surrogates of spider diversity, leveraging the conservation of a poorly known group in the Savanna Biome of South Africa | |
Hutt et al. | How clumpy is my image? Evaluating crowdsourced annotation tasks | |
Fotheringham | Analysing numerical spatial data | |
Rousseau et al. | Do a field list of internationally visible journals and their journal impact factors depend on the initial set of journals? A research proposal | |
DeRuiter et al. | Learning disability classification by Bayesian aggregation of test results | |
White et al. | Testing measures of animal social association by computer simulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20191126 Termination date: 20200622 |
|
CF01 | Termination of patent right due to non-payment of annual fee |