CN109255342A - 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和*** - Google Patents
一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和*** Download PDFInfo
- Publication number
- CN109255342A CN109255342A CN201811383677.2A CN201811383677A CN109255342A CN 109255342 A CN109255342 A CN 109255342A CN 201811383677 A CN201811383677 A CN 201811383677A CN 109255342 A CN109255342 A CN 109255342A
- Authority
- CN
- China
- Prior art keywords
- point
- eye movement
- class
- cluster
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于眼动数据两步聚类的图像感兴趣区域提取方法,包括预聚类阶段和聚类阶段;其中预聚类阶段旨在剔除眼动数据中的噪声点,输入测试图片上的多人眼动轨迹点数据,将每两人的轨迹点数据合并进行聚类,以点层面和类层面的识别标准对噪声点剔除,保留属于有效注视过程的眼动轨迹点。聚类阶段旨在从有效眼动轨迹点中提取感兴趣区域,以所有属于有效注视过程的眼动轨迹点作为输入,首先对点进行聚类,其中每一类代表一个感兴趣区域,中心代表感兴趣区域位置,类内点数则代表区域吸引注意力的多少。本发明通过两步聚类对多人轨迹点进行分析,所得感兴趣区域提取结果更加符合人类视觉注意模式,具有更好的稳定性和抗噪声干扰能力。
Description
技术领域
本发明涉及眼动数据分析领域,特别涉及一种基于眼动数据两步聚类的感兴趣区域提取方法和***。
背景技术
眼动仪可用于记录人眼处理视觉信息时的眼动特征,包括眼球位置、注视时长及注视位置等相关信息,随着眼动仪硬件及相关软件的智能化发展,眼动数据广泛应用于心理学、医学等学术研究领域和广告、网页优化等商业领域。其中,对眼动仪的应用热点之一在于通过用户的眼动数据分布特征找到用户对某一视觉目标的感兴趣区域。相应地,根据眼动轨迹数据提取图像感兴趣区域也成为眼动数据分析的研究重点之一。
对眼动数据的分析需首先对原始的文本形式输出的眼动数据进行读取和显示。由于眼动仪以固定的频率对注视位置进行记录,人眼在一定时间内对于视觉目标的注视表现为分布在注视区域上的离散点集。因此,视觉目标上包含了较多注视点的位置即代表该区域吸引了较多的视觉注意,可视作观察者的感兴趣区域。
目前,许多现有的图像感兴趣区域提取方法采取手动标注的方式,根据不同的应用场景对感兴趣区域进行形状随机的框选;或将图像分割为规则网格,以多个网格单元的组合定义一个感兴趣区域。这类方式对于由形状规则的内容组成的视觉目标较为有效,例如文本、脸部图像等。而当目标中包含不同形状、随机分布的内容时,如自然场景图像等,人工标注的方式则无法高效地完成感兴趣区域提取的任务,尤其是图像数量较多时,人工标注的方式需要耗费大量时间和人力。
针对以上所述背景及问题,需要一种基于眼动轨迹数据的方法,能够从眼动仪采集的眼动轨迹数据中自动识别观察者感兴趣区域,且更加符合观察者的视觉注意行为模式。与上述传统方法不同,本发明提出的算法基于两步聚类,对多人眼动轨迹数据进行有效的去噪及聚类,最终以每个眼动数据类代表图像上观察者感兴趣的区域,即包含较多眼动注视点的区域。
发明内容
本发明的目的在于针对多人眼动轨迹数据,提出一种基于两步聚类的图像感兴趣区域提取的技术方案。
本发明的技术方案提供一种基于眼动数据两步聚类的图像感兴趣区域提取方法,包括预聚类阶段和聚类阶段,
所述预聚类阶段进行眼动数据噪声点的剔除,包含以下步骤:
步骤1.1,读入测试图片上多个观察者产生的眼动轨迹点数据,假设有N个观察者浏览了该测试图片,则产生N组眼动轨迹点记录;
步骤1.2,将每两个观察者的眼动轨迹点数据合并进行聚类,将其分为若干类;
步骤1.3,基于上述聚类结果中的每个类进行噪声检测,并设定点层面及类层面噪声检测准则;
步骤1.4,对图像上每两个观察者合并后的眼动轨迹点重复以上步骤1.2-1.3,得到剔除噪声后的预聚类结果,即属于有效注视过程的眼动轨迹点;
所述聚类阶段进行感兴趣区域的提取,包含以下步骤:
步骤2.1,合并所有经过噪声剔除的属于有效注视过程的眼动轨迹点为一个点集,
步骤2.2,对合并后的点集进行聚类,经过聚类得到的眼动轨迹点类即可代表图像感兴趣区域,以聚类后每类的中心点代表感兴趣区域位置,类中点的数量代表感兴趣区域所吸引注意力的多少。
进一步的,步骤1.1中对每个观察者n,其眼动轨迹点记录可表达为每个点空间坐标的集合如下:
其中,In为观察者n所产生的眼动轨迹点数目。
进一步的,步骤1.2中采用近邻传播聚类方法进行聚类,具体过程如下,
步骤1.2.1,计算轨迹点间的相似度,构成相似度矩阵,其中相似度以负欧氏距离度量,以遵循两点距离越近,则相似度越高的原则;相似度计算公式如下:
其中,s(i,j)为点i与点j的相似度,xi,yi,xj,yi分别为点i与点j的横纵坐标,Q为两个点集中注视点的总数目;
对集合中每两个点计算相似度后构成相似度矩阵如下:
此外,将相似度矩阵对角线上元素s(k,k)(k=1,2,...,Q),即自相似度,设为相同的值,代表每个点成为聚类中心的可能性相同;
步骤1.2.2,基于局部相似度矩阵及近邻传播聚类的消息传递机制,在轨迹数据点间定义两类消息Responsibility和Availability,并将所有点的两类消息分别组成两个初始消息矩阵RQ×Q和AQ×Q;Responsibility为自数据点向候选中心点传递的消息,是数据点表达各个候选中心适合成为其中心的程度的消息,其初始值计算公式如下:
其中,i代表第i个轨迹点,其取值为1,2,...,n;k代表作为候选中心点的第k个轨迹点,其取值为1,2,...,n;k′为除k外的其他候选中心点;R(i,k)为第i点向候选中心点k传递的消息,即Responsibility;Sim(i,k)为第i点与第k点的相似度;Sim(i,k′)则为第i点与除第k点外的其他候选中心点间的相似度;
Availability为自候选中心向数据点传递的消息,是候选中心表达其对于成为各点中心的适合程度的消息,其初始值为0;
步骤1.2.3,对两类消息分别更新如下:
其中,i′代表除第i点和第k点外的其他轨迹点;A(i,k′)为自除第k点外的其他候选中心点向第i点传递的消息;R(i′,k)为除第i点外的其他数据点i′向候选中心点k传递的消息,i′≠i且i′≠k;
步骤1.2.4,为去除来自其他点的Responsibility过大的影响,以不同的方式更新A(k,k)如下:
步骤1.2.5,为避免可能出现的数值振荡,在更新后为所有新消息增加阻尼如下:
R(i,k)=(1-λ)R(i,k)+λrold(i,k)
A(i,k)=(1-λ)A(i,k)+λaold(i,k)
其中,λ为阻尼系数,λ∈(0,1);rold(i,k)与aold(i,k)分别为两类消息在前一次传递中的值;
步骤1.2.6,重复以上步骤1.2.3-1.2.5,至矩阵R与前一次传递得到的矩阵Rold相等时则停止消息传递过程;
步骤1.2.7,将以上步骤所得Responsibility矩阵与Availability矩阵相加得到矩阵E作为聚类的依据如下:
步骤1.2.8,取矩阵E的对角线元素E(k,k),若E(k,k)>0,则对应的轨迹点即被选为聚类中心,其他非中心的轨迹点将会被分配至与其具有最大相似度的聚类中心点所代表的类中。
进一步的,步骤1.3的具体实现方式如下,
步骤1.3.1,计算每个点i与其所属类的中心点C的欧式距离D(i,C),若满足以下条件:
D(i,C)>μ+fσ,
则将该点i标记为噪声并剔除,其中,μ,σ分别为类中所有点与中心点间距离的平均值及标准差,f用于控制噪声检测的尺度;
步骤1.3.2,计算每个类中的轨迹点的总时长,若时长满足以下条件:
Dur<100ms,
则将该类整体标记为噪声,并整体剔除。
进一步的,每个类中的轨迹点的总时长可结合眼动仪设备频率,通过点的数量进行判断。
进一步的,步骤2.2中同样采用邻传播聚类方法进行聚类,具体实现方式和步骤1.2相同。
本发明还提供一种基于眼动数据两步聚类的感兴趣区域提取***,其特征在于:包括预聚类模块和聚类模块;
所述预聚类模块用于进行眼动数据噪声点的剔除,包含以下子模块:
眼动轨迹点数据读取子模块,用于读入测试图片上多个观察者产生的眼动轨迹点数据,假设有N个观察者浏览了该测试图片,则产生N组眼动轨迹点记录;
眼动轨迹点数据合并及聚类子模块,用于将每两个观察者的眼动轨迹点数据合并进行聚类,将其分为若干类;
噪声检测子模块,用于基于上述聚类结果中的每个类进行噪声检测,并设定点层面及类层面噪声检测准则;
有效注视眼动轨迹点获取子模块,用于对图像上每两个观察者合并后的眼动轨迹点重复以上眼动轨迹点数据合并及聚类子模块和噪声检测子模块,得到剔除噪声后的预聚类结果,即属于有效注视过程的眼动轨迹点;
所述聚类模块用于进行感兴趣区域的提取,包含以下子模块:
有效注视眼动轨迹点合并子模块,用于合并所有经过噪声剔除的属于有效注视过程的眼动轨迹点为一个点集,
图像感兴趣区域获取子模块,用于对合并后的点集进行聚类,经过聚类得到的眼动轨迹点类即可代表图像感兴趣区域,以聚类后每类的中心点代表感兴趣区域位置,类中点的数量代表感兴趣区域所吸引注意力的多少。
进一步的,眼动轨迹点数据读取子模块中对每个观察者n,其眼动轨迹点记录可表达为每个点空间坐标的集合如下:
其中,In为观察者n所产生的眼动轨迹点数目。
进一步的,眼动轨迹点数据合并及聚类子模块中采用近邻传播聚类方法进行聚类,具体过程如下,
步骤1.2.1,计算轨迹点间的相似度,构成相似度矩阵,其中相似度以负欧氏距离度量,以遵循两点距离越近,则相似度越高的原则;相似度计算公式如下:
其中,s(i,j)为点i与点j的相似度,xi,yi,xj,yj分别为点i与点j的横纵坐标,Q为两个点集中注视点的总数目;
对集合中每两个点计算相似度后构成相似度矩阵如下:
此外,将相似度矩阵对角线上元素s(k,k)(k=1,2,...Q),即自相似度,设为相同的值,代表每个点成为聚类中心的可能性相同;
步骤1.2.2,基于局部相似度矩阵及近邻传播聚类的消息传递机制,在轨迹数据点间定义两类消息Responsibility和Availability,并将所有点的两类消息分别组成两个初始消息矩阵RQ×Q和AQ×Q;Responsibility为自数据点向候选中心点传递的消息,是数据点表达各个候选中心适合成为其中心的程度的消息,其初始值计算公式如下:
其中,i代表第i个轨迹点,其取值为1,2,...,n;k代表作为候选中心点的第k个轨迹点,其取值为1,2,...,n;k′为除k外的其他候选中心点;R(i,k)为第i点向候选中心点k传递的消息,即Responsibility;Sim(i,k)为第i点与第k点的相似度;Sim(i,k′)则为第i点与除第k点外的其他候选中心点间的相似度;
Availability为自候选中心向数据点传递的消息,是候选中心表达其对于成为各点中心的适合程度的消息,其初始值为0;
步骤1.2.3,对两类消息分别更新如下:
其中,i′代表除第i点和第k点外的其他轨迹点;A(i,k′)为自除第k点外的其他候选中心点向第i点传递的消息;R(i′,k)为除第i点外的其他数据点i′向候选中心点k传递的消息,i′≠i且i′≠k;
步骤1.2.4,为去除来自其他点的Responsibility过大的影响,以不同的方式更新A(k,k)如下:
步骤1.2.5,为避免可能出现的数值振荡,在更新后为所有新消息增加阻尼如下:
R(i,k)=(1-λ)R(i,k)+λrold(i,k)
A(i,k)=(1-λ)A(i,k)+λaold(i,k)
其中,λ为阻尼系数,λ∈(0,1);rold(i,k)与aold(i,k)分别为两类消息在前一次传递中的值;
步骤1.2.6,重复以上步骤1.2.3-1.2.5,至矩阵R与前一次传递得到的矩阵Rold相等时则停止消息传递过程;
步骤1.2.7,将以上步骤所得Responsibility矩阵与Availability矩阵相加得到矩阵E作为聚类的依据如下:
步骤1.2.8,取矩阵E的对角线元素E(k,k),若E(k,k)>0,则对应的轨迹点即被选为聚类中心,其他非中心的轨迹点将会被分配至与其具有最大相似度的聚类中心点所代表的类中。
进一步的,噪声检测子模块的具体实现方式如下,
步骤1.3.1,计算每个点i与其所属类的中心点C的欧式距离D(i,C),若满足以下条件:
D(i,C)>μ+fσ,
则将该点i标记为噪声并剔除,其中,μ,σ分别为类中所有点与中心点间距离的平均值及标准差,f用于控制噪声检测的尺度;
步骤1.3.2,计算每个类中的轨迹点的总时长,若时长满足以下条件:
Dur<100ms,
则将该类整体标记为噪声,并整体剔除。
本发明与现有技术相比具有以下优点:
1.本发明利用多人眼动轨迹数据提取感兴趣区域,避免单独观察者在观察视觉目标时可能出现的特殊情况的影响,具有更高的抗干扰能力,更加符合观察者的一般视觉注意模式;
2.本发明排除了轨迹点聚类过程中对聚类数目的人为限定,使结果更加符合客观情况,包容性更强;
3.本发明的去噪过程充分考虑了不同类型的噪声,结合眼动数据的实际,从不同层面进行噪声的识别及剔除,使得感兴趣区域的提取结果更加准确。
附图说明
图1为本发明所述技术的框架图。
具体实施方式
本发明首先依次对每两个观察者的眼动轨迹数据进行聚类,得到每两个观察者数据的聚类结果,对每个类在点层面和类层面分别进行噪声点的检测和剔除,得到包含属于注视过程的有效眼动轨迹点;其次对剔除噪声后的预聚类结果合并为一组后再次进行聚类,得到最终的聚类结果,其中每一类代表图像中的一个感兴趣区域位置。
本发明技术方案可采用计算机软件方式支持自动运行流程。以下结合附图和实施例详细说明本发明技术方案。
实施例包括预聚类阶段和聚类阶段,
1.所述预聚类阶段进行眼动数据噪声点的剔除,包含以下子步骤:
步骤1.1读入测试图片上多个观察者产生的眼动轨迹点数据。本实施例共涉及6个观察者,即有6组眼动轨迹点记录,对每个观察者n,其眼动轨迹点记录可表达为每个点空间坐标的集合如下:
其中,In为观察者n所产生的眼动轨迹点数目。
步骤1.2将每两个观察者的眼动轨迹点数据合并进行聚类。基于近邻传播聚类的原理,对每两个观察者m,n的轨迹数据Gmn={Gm,Gn|m,n=1,2,...,6}进行聚类,针对参与聚类的点集Gmn,近邻传播聚类的具体过程如下:
步骤1.2.1计算轨迹点间的相似度,构成相似度矩阵。其中相似度以负欧氏距离度量,以遵循两点距离越近,则相似度越高的原则。相似度计算公式如下:
其中,s(i,j)为点i与点j的相似度,xi,yi,xj,yj分别为点i与点j的横纵坐标,Q为两个点集中注视点的总数目。
对集合中每两个点计算相似度后构成相似度矩阵如下:
此外,将相似度矩阵对角线上元素s(k,k)(k=1,2,...,Q),即自相似度,设为相同的值,代表每个点成为聚类中心的可能性相同,取值大小决定类别数目的多少。具体实施时可由本领域技术人员自行选择。本实施例中选择用矩阵所有元素的中值作为自相似度的值,以得到较为适中的类别数。
步骤1.2.2基于局部相似度矩阵及近邻传播聚类的消息传递机制,在轨迹数据点间定义两类消息Responsibility和Availability,并将所有点的两类消息分别组成两个初始消息矩阵RQ×Q和AQ×Q。Responsibility为自数据点向候选中心点传递的消息,是数据点表达各个候选中心适合成为其中心的程度的消息,其初始值计算公式如下:
其中,i代表第i个轨迹点,其取值为1,2,...,n;k代表作为候选中心点的第k个轨迹点,其取值为1,2,...,n;k′为除k外的其他候选中心点;R(i,k)为第i点向候选中心点k传递的消息,即Responsibility;Sim(i,k)为第i点与第k点的相似度;Sim(i,k′)则为第i点与除第k点外的其他候选中心点间的相似度。
Availability为自候选中心向数据点传递的消息,是候选中心表达其对于成为各点中心的适合程度的消息,其初始值为0。
步骤1.2.3对两类消息分别更新如下:
其中,i′代表除第i点和第k点外的其他轨迹点;A(i,k′)为自除第k点外的其他候选中心点向第i点传递的消息;R(i′,k)为除第i点外的其他数据点i′向候选中心点k传递的消息,i′≠i且i′≠k.
步骤1.2.4特别地,为去除来自其他点的Responsibility过大的影响,以不同的方式更新A(k,k)如下:
步骤1.2.5为避免可能出现的数值振荡,在更新后为所有新消息增加阻尼如下:
R(i,k)=(1-λ)R(i,k)+λrold(i,k)
A(i,k)=(1-λ)A(i,k)+λaold(i,k)
其中,λ为阻尼系数,λ∈(0,1);其具体值可由本领域技术人员自行设定,本实施例中设定λ=0.8。rold(i,k)与aold(i,k)分别为两类消息在前一次传递中的值。
步骤1.2.6重复以上步骤1.2.3-1.2.5,至矩阵R与前一次传递得到的矩阵Rold相等时则停止消息传递过程。
步骤1.2.7将以上步骤所得Responsibility矩阵与Availability矩阵相加得到矩阵E作为聚类的依据如下:
步骤1.2.8取矩阵E的对角线元素E(k,k),若E)k,k)>0,则对应的轨迹点即被选为聚类中心,其他非中心的轨迹点将会被分配至与其具有最大相似度的聚类中心点所代表的类中,本实施例中最终得到的聚类中心为374。
步骤1.3基于上述聚类结果中的每个类进行噪声检测,设定点层面及类层面噪声检测准则,具体步骤如下:
步骤1.3.1计算每个点i与其所属类的中心点C的欧式距离D(i,C),若满足以下条件:
D(i,C)>μ+fσ,
则将该点i标记为噪声并剔除。其中,μ,σ分别为类中所有点与中心点间距离的平均值及标准差,f用于控制噪声检测的尺度,具体实施时可由本领域技术人员自行选择。本实施例中设定f=3。
步骤1.3.2计算每个类中的轨迹点的总时长,若时长满足以下条件:
Dur<100ms,
则将该类整体标记为噪声,并整体剔除。其中,时长可结合眼动仪设备频率,通过点的数量进行判断。本实施例中数据采集频率为240Hz,因此当类中点数少于24个时,即剔除该类。
步骤1.4对图像上每两个观察者合并后的眼动轨迹点重复以上步骤1.2-1.3,得到剔除噪声后的预聚类结果,即属于有效注视过程的眼动轨迹点。本实施例中共有原始眼动轨迹点4302个,经过上述预聚类阶段的噪声剔除后,保留属于有效注视过程的眼动轨迹点3674个。
2.所述聚类阶段进行感兴趣区域的提取,包含以下子步骤:
步骤2.1合并所有经过噪声剔除的属于的注视过程的眼动轨迹点为一个点集,在本实施例中为一个包含全部3674个点的类。
步骤2.2基于近邻传播聚类原理对点集进行聚类,聚类过程与上述步骤1.2相同。经过聚类得到的眼动轨迹点类即可代表图像感兴趣区域。本实施例中最终得到4类点集,代表图像上4个感兴趣区域。以聚类后每类的中心点代表感兴趣区域位置,类中点的数量代表感兴趣区域所吸引注意力的多少。
本发明实施例还提供一种基于眼动数据两步聚类的感兴趣区域提取***,其特征在于:包括预聚类模块和聚类模块;
所述预聚类模块用于进行眼动数据噪声点的剔除,包含以下子模块:
眼动轨迹点数据读取子模块,用于读入测试图片上多个观察者产生的眼动轨迹点数据,假设有N个观察者浏览了该测试图片,则产生N组眼动轨迹点记录;
眼动轨迹点数据合并及聚类子模块,用于将每两个观察者的眼动轨迹点数据合并进行聚类,将其分为若干类;
噪声检测子模块,用于基于上述聚类结果中的每个类进行噪声检测,并设定点层面及类层面噪声检测准则;
有效注视眼动轨迹点获取子模块,用于对图像上每两个观察者合并后的眼动轨迹点重复以上眼动轨迹点数据合并及聚类子模块和噪声检测子模块,得到剔除噪声后的预聚类结果,即属于有效注视过程的眼动轨迹点;
所述聚类模块用于进行感兴趣区域的提取,包含以下子模块:
有效注视眼动轨迹点合并子模块,用于合并所有经过噪声剔除的属于有效注视过程的眼动轨迹点为一个点集,
图像感兴趣区域获取子模块,用于对合并后的点集进行聚类,经过聚类得到的眼动轨迹点类即可代表图像感兴趣区域,以聚类后每类的中心点代表感兴趣区域位置,类中点的数量代表感兴趣区域所吸引注意力的多少。
各模块及子模块的具体实现方式和各步骤相应,本发明不予撰述。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明,本发明所属技术领域的技术人员可对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但不会偏离本发明的精神或超越所附权利要求书所定义的范围。
Claims (10)
1.一种基于眼动数据两步聚类的感兴趣区域提取方法,其特征在于:包括预聚类阶段和聚类阶段;
所述预聚类阶段进行眼动数据噪声点的剔除,包含以下步骤:
步骤1.1,读入测试图片上多个观察者产生的眼动轨迹点数据,假设有N个观察者浏览了该测试图片,则产生N组眼动轨迹点记录;
步骤1.2,将每两个观察者的眼动轨迹点数据合并进行聚类,将其分为若干类;
步骤1.3,基于上述聚类结果中的每个类进行噪声检测,并设定点层面及类层面噪声检测准则;
步骤1.4,对图像上每两个观察者合并后的眼动轨迹点重复以上步骤1.2-1.3,得到剔除噪声后的预聚类结果,即属于有效注视过程的眼动轨迹点;
所述聚类阶段进行感兴趣区域的提取,包含以下步骤:
步骤2.1,合并所有经过噪声剔除的属于有效注视过程的眼动轨迹点为一个点集,
步骤2.2,对合并后的点集进行聚类,经过聚类得到的眼动轨迹点类即可代表图像感兴趣区域,以聚类后每类的中心点代表感兴趣区域位置,类中点的数量代表感兴趣区域所吸引注意力的多少。
2.如权利要求1所述的一种基于眼动数据两步聚类的感兴趣区域提取方法,其特征在于:步骤1.1中对每个观察者n,其眼动轨迹点记录可表达为每个点空间坐标的集合如下:
其中,In为观察者n所产生的眼动轨迹点数目。
3.如权利要求2所述的一种基于眼动数据两步聚类的感兴趣区域提取方法,其特征在于:步骤1.2中采用近邻传播聚类方法进行聚类,具体过程如下,
步骤1.2.1,计算轨迹点间的相似度,构成相似度矩阵,其中相似度以负欧氏距离度量,以遵循两点距离越近,则相似度越高的原则;相似度计算公式如下:
其中,s(i,j)为点i与点j的相似度,xi,yi,xj,yj分别为点i与点j的横纵坐标,Q为两个点集中注视点的总数目;
对集合中每两个点计算相似度后构成相似度矩阵如下:
此外,将相似度矩阵对角线上元素s(k,k)(k=1,2,...,Q),即自相似度,设为相同的值,代表每个点成为聚类中心的可能性相同;
步骤1.2.2,基于局部相似度矩阵及近邻传播聚类的消息传递机制,在轨迹数据点间定义两类消息Responsibility和Availability,并将所有点的两类消息分别组成两个初始消息矩阵RQ×Q和AQ×Q;Responsibility为自数据点向候选中心点传递的消息,是数据点表达各个候选中心适合成为其中心的程度的消息,其初始值计算公式如下:
其中,i代表第i个轨迹点,其取值为1,2,...,n;k代表作为候选中心点的第k个轨迹点,其取值为1,2,...,n;k′为除k外的其他候选中心点;R(i,k)为第i点向候选中心点k传递的消息,即Responsibility;Sim(i,k)为第i点与第k点的相似度;Sim(i,k′)则为第i点与除第k点外的其他候选中心点间的相似度;
Availability为自候选中心向数据点传递的消息,是候选中心表达其对于成为各点中心的适合程度的消息,其初始值为0;
步骤1.2.3,对两类消息分别更新如下:
其中,i′代表除第i点和第k点外的其他轨迹点;A(i,k′)为自除第k点外的其他候选中心点向第i点传递的消息;R(i′,k)为除第i点外的其他数据点i′向候选中心点k传递的消息,i′≠i且i′≠k;
步骤1.2.4,为去除来自其他点的Responsibility过大的影响,以不同的方式更新A(k,k)如下:
步骤1.2.5,为避免可能出现的数值振荡,在更新后为所有新消息增加阻尼如下:
R(i,k)=(1-λ)R(i,k)+λrold(i,k)
A(i,k)=(1-λ)A(i,k)+λaold(i,k)
其中,λ为阻尼系数,λ∈(0,1);rold(i,k)与aold(i,k)分别为两类消息在前一次传递中的值;
步骤1.2.6,重复以上步骤1.2.3-1.2.5,至矩阵R与前一次传递得到的矩阵Rold相等时则停止消息传递过程;
步骤1.2.7,将以上步骤所得Responsibility矩阵与Availability矩阵相加得到矩阵E作为聚类的依据如下:
步骤1.2.8,取矩阵E的对角线元素E(k,k),若E(k,k)>0,则对应的轨迹点即被选为聚类中心,其他非中心的轨迹点将会被分配至与其具有最大相似度的聚类中心点所代表的类中。
4.如权利要求1所述的一种基于眼动数据两步聚类的感兴趣区域提取方法,其特征在于:步骤1.3的具体实现方式如下,
步骤1.3.1,计算每个点i与其所属类的中心点C的欧式距离D(i,C),若满足以下条件:
D(i,C)>μ+fσ,
则将该点i标记为噪声并剔除,其中,μ,σ分别为类中所有点与中心点间距离的平均值及标准差,f用于控制噪声检测的尺度;
步骤1.3.2,计算每个类中的轨迹点的总时长,若时长满足以下条件:
Dur<100ms,
则将该类整体标记为噪声,并整体剔除。
5.如权利要求4所述的一种基于眼动数据两步聚类的感兴趣区域提取方法,其特征在于:每个类中的轨迹点的总时长可结合眼动仪设备频率,通过点的数量进行判断。
6.如权利要求3所述的一种基于眼动数据两步聚类的感兴趣区域提取方法,其特征在于:
步骤2.2中同样采用邻传播聚类方法进行聚类,具体实现方式和步骤1.2相同。
7.一种基于眼动数据两步聚类的感兴趣区域提取***,其特征在于:包括预聚类模块和聚类模块;
所述预聚类模块用于进行眼动数据噪声点的剔除,包含以下子模块:
眼动轨迹点数据读取子模块,用于读入测试图片上多个观察者产生的眼动轨迹点数据,假设有N个观察者浏览了该测试图片,则产生N组眼动轨迹点记录;
眼动轨迹点数据合并及聚类子模块,用于将每两个观察者的眼动轨迹点数据合并进行聚类,将其分为若干类;
噪声检测子模块,用于基于上述聚类结果中的每个类进行噪声检测,并设定点层面及类层面噪声检测准则;
有效注视眼动轨迹点获取子模块,用于对图像上每两个观察者合并后的眼动轨迹点重复以上眼动轨迹点数据合并及聚类子模块和噪声检测子模块,得到剔除噪声后的预聚类结果,即属于有效注视过程的眼动轨迹点;
所述聚类模块用于进行感兴趣区域的提取,包含以下子模块:
有效注视眼动轨迹点合并子模块,用于合并所有经过噪声剔除的属于有效注视过程的眼动轨迹点为一个点集,
图像感兴趣区域获取子模块,用于对合并后的点集进行聚类,经过聚类得到的眼动轨迹点类即可代表图像感兴趣区域,以聚类后每类的中心点代表感兴趣区域位置,类中点的数量代表感兴趣区域所吸引注意力的多少。
8.如权利要求7所述的一种基于眼动数据两步聚类的感兴趣区域提取***,其特征在于:眼动轨迹点数据读取子模块中对每个观察者n,其眼动轨迹点记录可表达为每个点空间坐标的集合如下:
其中,In为观察者n所产生的眼动轨迹点数目。
9.如权利要求8所述的一种基于眼动数据两步聚类的感兴趣区域提取***,其特征在于:眼动轨迹点数据合并及聚类子模块中采用近邻传播聚类方法进行聚类,具体过程如下,
步骤1.2.1,计算轨迹点间的相似度,构成相似度矩阵,其中相似度以负欧氏距离度量,以遵循两点距离越近,则相似度越高的原则;相似度计算公式如下:
其中,s(i,j)为点i与点j的相似度,xi,yi,xj,yj分别为点i与点j的横纵坐标,Q为两个点集中注视点的总数目;
对集合中每两个点计算相似度后构成相似度矩阵如下:
此外,将相似度矩阵对角线上元素s(k,k)(k=1,2,...,Q),即自相似度,设为相同的值,代表每个点成为聚类中心的可能性相同;
步骤1.2.2,基于局部相似度矩阵及近邻传播聚类的消息传递机制,在轨迹数据点间定义两类消息Responsibility和Availability,并将所有点的两类消息分别组成两个初始消息矩阵RQ×Q和AQ×Q;Responsibility为自数据点向候选中心点传递的消息,是数据点表达各个候选中心适合成为其中心的程度的消息,其初始值计算公式如下:
其中,i代表第i个轨迹点,其取值为1,2,...,n;k代表作为候选中心点的第k个轨迹点,其取值为1,2,...,n;k′为除k外的其他候选中心点;R(i,k)为第i点向候选中心点k传递的消息,即Responsibility;Sim(i,k)为第i点与第k点的相似度;Sim(i,k′)则为第i点与除第k点外的其他候选中心点间的相似度;
Availability为自候选中心向数据点传递的消息,是候选中心表达其对于成为各点中心的适合程度的消息,其初始值为0;
步骤1.2.3,对两类消息分别更新如下:
其中,i′代表除第i点和第k点外的其他轨迹点;A(i,k′)为自除第k点外的其他候选中心点向第i点传递的消息;R(i′,k)为除第i点外的其他数据点i′向候选中心点k传递的消息,i′≠i且i′≠k;
步骤1.2.4,为去除来自其他点的Responsibility过大的影响,以不同的方式更新A(k,k)如下:
步骤1.2.5,为避免可能出现的数值振荡,在更新后为所有新消息增加阻尼如下:
R(i,k)=(1-λ)R(i,k)+λrold(i,k)
A(i,k)=(1-λ)A(i,k)+λaold(i,k)
其中,λ为阻尼系数,λ∈(0,1);rold(i,k)与aold(i,k)分别为两类消息在前一次传递中的值;
步骤1.2.6,重复以上步骤1.2.3-1.2.5,至矩阵R与前一次传递得到的矩阵Rold相等时则停止消息传递过程;
步骤1.2.7,将以上步骤所得Responsibility矩阵与Availability矩阵相加得到矩阵E作为聚类的依据如下:
步骤1.2.8,取矩阵E的对角线元素E(k,k),若E(k,k)>0,则对应的轨迹点即被选为聚类中心,其他非中心的轨迹点将会被分配至与其具有最大相似度的聚类中心点所代表的类中。
10.如权利要求7所述的一种基于眼动数据两步聚类的感兴趣区域提取***,其特征在于:噪声检测子模块的具体实现方式如下,
步骤1.3.1,计算每个点i与其所属类的中心点C的欧式距离D(i,C),若满足以下条件:
D(i,C)>μ+fσ,
则将该点i标记为噪声并剔除,其中,μ,σ分别为类中所有点与中心点间距离的平均值及标准差,f用于控制噪声检测的尺度;
步骤1.3.2,计算每个类中的轨迹点的总时长,若时长满足以下条件:
Dur<100ms,
则将该类整体标记为噪声,并整体剔除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811383677.2A CN109255342B (zh) | 2018-11-20 | 2018-11-20 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811383677.2A CN109255342B (zh) | 2018-11-20 | 2018-11-20 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109255342A true CN109255342A (zh) | 2019-01-22 |
CN109255342B CN109255342B (zh) | 2020-07-10 |
Family
ID=65043861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811383677.2A Active CN109255342B (zh) | 2018-11-20 | 2018-11-20 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109255342B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887583A (zh) * | 2019-03-11 | 2019-06-14 | 数坤(北京)网络科技有限公司 | 基于医生行为的数据获取方法/***、医学图像处理*** |
CN110097074A (zh) * | 2019-03-19 | 2019-08-06 | 中国科学院信息工程研究所 | 一种基于序列相似度的车辆轨迹压缩方法 |
CN110166839A (zh) * | 2019-06-15 | 2019-08-23 | 韶关市启之信息技术有限公司 | 一种验证视频是否被观看的方法与*** |
CN110276334A (zh) * | 2019-06-28 | 2019-09-24 | 海马汽车有限公司 | 一种针对用户车辆使用情况的分析方法及*** |
CN110781846A (zh) * | 2019-10-30 | 2020-02-11 | 江苏开放大学(江苏城市职业学院) | 一种融合视觉广度特点的视觉注意计算方法 |
CN111309144A (zh) * | 2020-01-20 | 2020-06-19 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
CN112836747A (zh) * | 2021-02-02 | 2021-05-25 | 首都师范大学 | 眼动数据的离群处理方法及装置、计算机设备、存储介质 |
CN115761871A (zh) * | 2022-12-01 | 2023-03-07 | 北京中科睿医信息科技有限公司 | 基于眼动检测的检测图像生成方法、装置、设备及介质 |
EP4354378A1 (en) * | 2022-10-11 | 2024-04-17 | Kingfar International Inc. | Method and apparatus for generating group eye movement trajectory, computing device, and storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916338A (zh) * | 2010-09-08 | 2010-12-15 | 浙江大学 | 一种自适应的视点平滑滤波数据处理方法 |
CN102096757A (zh) * | 2010-09-08 | 2011-06-15 | 浙江大学 | 一个基于时域约束的注视点聚类数据处理方法 |
CN103500011A (zh) * | 2013-10-08 | 2014-01-08 | 百度在线网络技术(北京)有限公司 | 眼动轨迹规律分析方法和装置 |
CN103903276A (zh) * | 2014-04-23 | 2014-07-02 | 吉林大学 | 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法 |
CN104010179A (zh) * | 2014-06-12 | 2014-08-27 | 山东大学 | 基于立体多画的多用户聚类与视点计算***及方法 |
CN104700090A (zh) * | 2015-03-25 | 2015-06-10 | 武汉大学 | 基于密度的眼动注视点测定方法及*** |
CN105141970A (zh) * | 2015-07-03 | 2015-12-09 | 哈尔滨工业大学深圳研究生院 | 一种基于三维模型几何信息的纹理图像压缩方法 |
CN108415955A (zh) * | 2018-02-06 | 2018-08-17 | 杭州电子科技大学 | 一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法 |
-
2018
- 2018-11-20 CN CN201811383677.2A patent/CN109255342B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916338A (zh) * | 2010-09-08 | 2010-12-15 | 浙江大学 | 一种自适应的视点平滑滤波数据处理方法 |
CN102096757A (zh) * | 2010-09-08 | 2011-06-15 | 浙江大学 | 一个基于时域约束的注视点聚类数据处理方法 |
CN103500011A (zh) * | 2013-10-08 | 2014-01-08 | 百度在线网络技术(北京)有限公司 | 眼动轨迹规律分析方法和装置 |
CN103903276A (zh) * | 2014-04-23 | 2014-07-02 | 吉林大学 | 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法 |
CN104010179A (zh) * | 2014-06-12 | 2014-08-27 | 山东大学 | 基于立体多画的多用户聚类与视点计算***及方法 |
CN104700090A (zh) * | 2015-03-25 | 2015-06-10 | 武汉大学 | 基于密度的眼动注视点测定方法及*** |
CN105141970A (zh) * | 2015-07-03 | 2015-12-09 | 哈尔滨工业大学深圳研究生院 | 一种基于三维模型几何信息的纹理图像压缩方法 |
CN108415955A (zh) * | 2018-02-06 | 2018-08-17 | 杭州电子科技大学 | 一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法 |
Non-Patent Citations (4)
Title |
---|
YINGXUE ZHANG ET.AL.: ""Revisiting Visual Attention Identification Based on Eye Tracking Data Analytics"", 《VCIP 2016》 * |
YUKIHIRO HAMASUNA ET.AL.: ""Sequential Extraction By Using Two Types of Crisp Possibilistic Clustering"", 《2013 IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS》 * |
吴志强等: ""两步聚类分析在图书馆门禁数据挖掘中的研究"", 《四川图书馆学报》 * |
闫苗苗等: ""基于感兴趣区域图像眼动数据库的建立"", 《西安理工大学学报》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887583B (zh) * | 2019-03-11 | 2020-12-22 | 数坤(北京)网络科技有限公司 | 基于医生行为的数据获取方法/***、医学图像处理*** |
CN109887583A (zh) * | 2019-03-11 | 2019-06-14 | 数坤(北京)网络科技有限公司 | 基于医生行为的数据获取方法/***、医学图像处理*** |
CN110097074A (zh) * | 2019-03-19 | 2019-08-06 | 中国科学院信息工程研究所 | 一种基于序列相似度的车辆轨迹压缩方法 |
CN110166839A (zh) * | 2019-06-15 | 2019-08-23 | 韶关市启之信息技术有限公司 | 一种验证视频是否被观看的方法与*** |
CN110276334A (zh) * | 2019-06-28 | 2019-09-24 | 海马汽车有限公司 | 一种针对用户车辆使用情况的分析方法及*** |
CN110781846A (zh) * | 2019-10-30 | 2020-02-11 | 江苏开放大学(江苏城市职业学院) | 一种融合视觉广度特点的视觉注意计算方法 |
CN110781846B (zh) * | 2019-10-30 | 2021-02-09 | 江苏开放大学(江苏城市职业学院) | 一种融合视觉广度特点的视觉注意计算方法 |
CN111309144A (zh) * | 2020-01-20 | 2020-06-19 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
CN111309144B (zh) * | 2020-01-20 | 2022-02-01 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
CN112836747A (zh) * | 2021-02-02 | 2021-05-25 | 首都师范大学 | 眼动数据的离群处理方法及装置、计算机设备、存储介质 |
EP4354378A1 (en) * | 2022-10-11 | 2024-04-17 | Kingfar International Inc. | Method and apparatus for generating group eye movement trajectory, computing device, and storage medium |
CN115761871A (zh) * | 2022-12-01 | 2023-03-07 | 北京中科睿医信息科技有限公司 | 基于眼动检测的检测图像生成方法、装置、设备及介质 |
CN115761871B (zh) * | 2022-12-01 | 2023-08-11 | 北京中科睿医信息科技有限公司 | 基于眼动检测的检测图像生成方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109255342B (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255342A (zh) | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和*** | |
Barberá | Less is more? How demographic sample weights can improve public opinion estimates based on Twitter data | |
CN102804208B (zh) | 为视觉搜索应用自动挖掘名人的个人模型 | |
US20160239738A1 (en) | Question recommending method, apparatus and system | |
CN110162703A (zh) | 内容推荐方法、训练方法、装置、设备及存储介质 | |
CN102542492B (zh) | 视觉广告效果评估***及方法 | |
CN105389562B (zh) | 一种时空约束的监控视频行人重识别结果的二次优化方法 | |
CN109002492B (zh) | 一种基于LightGBM的绩点预测方法 | |
CN106650273A (zh) | 一种行为预测方法和装置 | |
CN105718873A (zh) | 基于双目视觉的人流分析方法 | |
CN109902681B (zh) | 用户群体关系确定方法、装置、设备及存储介质 | |
CN103620590A (zh) | 用于图像至文本以及文本至图像的关联的***和方法 | |
Sun et al. | Opinion spam detection based on heterogeneous information network | |
CN108897750A (zh) | 融合多元上下文信息的个性化地点推荐方法及设备 | |
Abdine et al. | Political communities on Twitter: case study of the 2022 French presidential election | |
CN108921096A (zh) | 时间跟踪方法、装置、设备及计算机可读介质 | |
CN102866997B (zh) | 用户数据的处理方法和装置 | |
Priya et al. | Personality prediction using digital footprints to analyze kids activities | |
CN111768031A (zh) | 一种基于arma算法预测人群聚集趋势的方法 | |
JP2021002230A (ja) | 属性推定装置、属性推定方法及びプログラム | |
Kandiga et al. | Image Processing and Location based Image Querier (LBIQ) | |
Han et al. | Exploring commercial gentrification using Instagram data | |
CN112529623B (zh) | 恶意用户的识别方法、装置和设备 | |
CN117541448A (zh) | 智能化社区共享活动服务方法 | |
TWI818213B (zh) | 商品推薦系統與方法及電腦可讀媒介 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |