CN111353429A - 基于眼球转向的感兴趣度方法与*** - Google Patents
基于眼球转向的感兴趣度方法与*** Download PDFInfo
- Publication number
- CN111353429A CN111353429A CN202010128432.6A CN202010128432A CN111353429A CN 111353429 A CN111353429 A CN 111353429A CN 202010128432 A CN202010128432 A CN 202010128432A CN 111353429 A CN111353429 A CN 111353429A
- Authority
- CN
- China
- Prior art keywords
- eyeball
- characteristic
- video
- target
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000005252 bulbus oculi Anatomy 0.000 title claims abstract description 235
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000011159 matrix material Substances 0.000 claims abstract description 112
- 238000012545 processing Methods 0.000 claims description 37
- 238000000605 extraction Methods 0.000 claims description 26
- 230000009471 action Effects 0.000 claims description 21
- 238000002372 labelling Methods 0.000 claims description 17
- 230000004927 fusion Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 10
- 210000001508 eye Anatomy 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 45
- 230000033001 locomotion Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000000717 retained effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频的眼球转向确定方法,包括:获取目标视频,所述目标视频为目标用户观看目标产品的视频;将所述目标视频输入至眼球转向特征识别模型中,以得到眼球转向特征队列矩阵;基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度。本发明还公开了一种基于视频的眼球转向确定***。本发明通过对目标视频输入至眼球转向特征识别模型获取眼球转向特征队列矩阵,再由眼球转向特征队列矩阵获取对应的目标产品的目标转向角度及目标转向时间,因而提高了眼球追踪的准确度。
Description
技术领域
本发明实施例涉及计算机视觉技术领域,尤其涉及一种基于视频的眼球转向确定方法与***。
技术背景
人眼追踪被长期运用于研究个体的视觉注意力,最常用的眼球跟踪技术是瞳孔中心角膜反射技术(pupil centre corneal reflection简称PCCR)。PCCR技术的原理是,通过物理追踪设备的摄像头捕捉,光源对瞳孔照射形成高度可见反射的图像,这些图像将被用于确定光源在角膜和瞳孔中的反射情况,最后通过对角膜、瞳孔反射形成向量夹角与其他几何特征计算,得出人眼注视的方向。但是该方案与光源的相关性大,干扰因素多,识别不准确。
目前在人工智能方面的视觉应用还是以图像处理为主,或者是视频分解成一帧一帧的图片,本质上还是以单帧图像为基础进行的应用。并没有对视频之间的关系进行关联,不能体现图片与图片间的相关性和连续性。针对眼球跟踪时,准确性不够。
发明内容
有鉴于此,本发明实施例的目的是提供一种基于视频的眼球转向确定方法与***,提高了眼球追踪的准确度。
为实现上述目的,本发明实施例提供了一种基于视频的眼球转向确定方法,包括:
获取目标视频,所述目标视频为目标用户观看目标产品的视频;
对所述目标视频进行眼球特征标注,得到标注视频;
将所述标注视频输入至眼球转向特征识别模型中,其中,所述眼球转向特征识别模型包括眼球特征提取层、帧关系处理层以及眼球转向动作识别层;
通过所述眼球特征提取层将所述标注视频的每帧图像转化成特征矩阵,并将每帧图像对应的特征矩阵输入至所述帧关系处理层;
所述帧关系处理层根据所述特征矩阵对应的视频时间点对所述每帧图像的特征矩阵进行排序,得到特征队列,并将所述特征队列输入至所述眼球转向动作识别层;
所述眼球转向动作识别层对所述特征队列进行特征融合,得到眼球转向特征队列矩阵,并基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度。
进一步地,基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度之后,还包括:
获取所述眼球转向特征队列矩阵对应的视频时间点;
计算所述眼球转向特征队列矩阵中的第一个特征矩阵对应的视频时间点到最后一个特征矩阵对应的视频时间点之间的距离,作为眼球转向时间。
进一步地,所述对所述目标视频进行眼球特征标注,得到标注视频包括:
识别所述目标视频中每帧图像的眼球特征;
通过标注框对所述眼球特征所在的区域进行框选,得到标注视频。
进一步地,通过所述眼球特征提取层将所述标注视频的每帧图像转化成特征矩阵包括:
确定所述标注视频的每帧图像的眼球关键点,所述眼球关键点包括128个关键点或者256个关键点;
获取所述每帧图像的眼球关键点的像素点坐标;
根据所述每帧图像的所述眼球关键点建立特征矩阵,所述特征矩阵包括128个或者256个像素点坐标。
进一步地,所述至眼球转向动作识别层对所述特征队列进行特征融合,得到眼球转向特征队列矩阵包括:
计算相邻帧图像的差分图像特征,以判断相邻帧图像对应的眼球特征是否相同;
如果相同,则保留其中一帧图像对应的特征矩阵,并从所述特征队列中删除另一个相同的特征矩阵,直到所述特征队列中的特征矩阵均不同,得到目标特征队列;
将所述眼球转向特征队列矩阵
中的特征矩阵进行组合,得到所述眼球转向特征队列矩阵。
进一步地,计算相邻帧所述目标图像的差分图像特征,以判断相邻帧所述目标图像对应的眼球特征是否相同包括:
获取相邻帧图像的像素点坐标;
对所述相邻帧图像的像素点坐标进行差分运算,得到差分图像特征;
将所述差分图像特征与预先设置的二值化阈值进行比对,以判断相邻帧所述目标图像对应的眼球特征是否相同。
进一步地,基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度包括:
以目标用户的眼球的中心位置为原点,对所述目标视频中产品的位置进行坐标标注;
计算所述眼球转向特征队列矩阵的矩阵值,得到目标转向角度。
为实现上述目的,本发明实施例还提供了一种基于视频的眼球转向确定***,包括:
获取模块,用于获取目标视频,所述目标视频为目标用户观看目标产品的视频;
标注模块,用于对所述目标视频进行眼球特征标注,得到标注视频;
输入模块,用于将所述标注视频输入至眼球转向特征识别模型中,其中,所述眼球转向特征识别模型包括眼球特征提取层、帧关系处理层以及眼球转向动作识别层;
转化模块,用于通过所述眼球特征提取层将所述标注视频的每帧图像转化成特征矩阵,并将每帧图像对应的特征矩阵输入至所述帧关系处理层;
特征排序模块,用于所述帧关系处理层根据所述特征矩阵对应的视频时间点对所述每帧图像的特征矩阵进行排序,得到特征队列,并将所述特征队列输入至所述眼球转向动作识别层;
特征融合与输出模块,用于所述眼球转向动作识别层对所述特征队列进行特征融合,得到眼球转向特征队列矩阵,并基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度。
为实现上述目的,本发明实施例还提供了一种计算机设备,所述计算机设备包括存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的基于视频的眼球转向确定方法的步骤。
为实现上述目的,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序可被至少一个处理器所执行,以使所述至少一个处理器执行如上所述的基于视频的眼球转向确定方法的步骤。
本发明实施例提供的基于视频的眼球转向确定方法与***,通过对目标视频进行标注得到标注视频,将标注视频输入至眼球转向特征识别模型获取眼球转向特征队列矩阵,再基于眼球转向特征队列矩阵获取对应的目标用户的目标转向角度,因而提高了眼球追踪的准确度。
附图说明
图1为本发明基于视频的眼球转向确定方法实施例一的流程图。
图2为本发明实施例图1中步骤S102的流程图。
图3为本发明实施例图1中步骤S106的流程图。
图4为本发明实施例图1中步骤S110的流程图。
图5为本发明实施例图4中步骤S110A的流程图。
图6为本发明实施例图1中步骤S110另一实施例的流程图。
图7为本发明实施例一中步骤S111以及步骤S112的流程图。
图8为本发明基于视频的眼球转向确定***实施例二的程序模块示意图。
图9为本发明计算机设备实施例三的硬件结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
参阅图1,示出了本发明实施例一之基于视频的眼球转向确定方法的步骤流程图。可以理解,本方法实施例中的流程图不用于对执行步骤的顺序进行限定。下面以计算机设备2为执行主体进行示例性描述。具体如下。
步骤S100,获取目标视频,所述目标视频为目标用户观看目标产品的视频。
具体地,通过摄像头拍摄目标用户观看目标产品的过程,得到目标视频,将目标视频传输至计算机设备2以供处理。
步骤S102,对所述目标视频进行眼球特征标注,得到标注视频。
具体地,将目标视频的每帧图像进行图像分割、物体检测、图片加注等处理,得到标注视频。
示例性地,参阅图2,步骤S102进一步包括:
步骤S102A,识别所述目标视频中每帧图像的眼球特征。
具体地,通过眼球关键点检测,识别出目标视频中每帧图像的眼球特征。
步骤S102B,通过标注框对所述眼球特征所在的区域进行框选,得到标注视频。
具体地,通过标注框框选出每帧视频的眼球关键点对应的区域,得到标注视频。并且标注眼球朝向,以获取目标视频中眼球转向运动区域。
步骤S104,将所述标注视频输入至眼球转向特征识别模型中,其中,所述眼球转向特征识别模型包括眼球特征提取层、帧关系处理层以及眼球转向动作识别层。
具体地,眼球转向特征识别模型为预先训练的模型,用以对标注视频进行分析,并得到眼球转向特征队列矩阵。基于深度学习网络模型预先训练眼球转向特征识别模型:
获取大量样本视频数据,并识别每个样本视频数据中的每帧样本眼球特征区域,以得到样本图像;按照时间序列对样本图像进行标注,得到标注样本图像;将标注样本图像输入至深度神经网络中,深度神经网络的CNN卷积层提取标注样本图像的样本特征向量;将样本特征向量通过像素处理计算相邻帧标注样本图像之间差异,得到差异值;根据差异值对相同的样本图像进行删除,得到特征队列;通过全连接输出层输出基于特征队列得到的眼球转向特征队列矩阵。特征提取方法包括但不限于基于深度神经网络的面部特征提取算法和基于几何特征的眼球转向特征提取算法。
示例性地,所述眼球特征提取层,用于从所述目标视频的每帧图像中提取目标用户的眼球特征,并将所述眼球特征转换成特征矩阵;
所述帧关系处理层,用于根据所述目标视频的每帧图像的视频时间点,确定每帧带有眼球特征的图像之间的帧关系;以及
所述眼球转向动作识别层,用于根据所述帧关系与所述特征矩阵确定目标用户的眼球转向特征队列矩阵。
步骤S106,通过所述眼球特征提取层将所述标注视频的每帧图像转化成特征矩阵,并将每帧图像对应的特征矩阵输入至所述帧关系处理层。
具体地,眼球特征提取层将该目标视频拆分为每一帧图像,并从每帧图像中提取出眼球转向,得到每帧图像各自对应的特征。眼球特征由多个关键点组成,可以为128个或512个关键点组成的特征矩阵。
示例性地,参阅图3,步骤S106进一步包括:
步骤S106A,确定所述标注视频的每帧图像的眼球关键点,所述眼球关键点包括128个关键点或者256个关键点。
具体地,眼球特征提取层将该标注视频拆分为每一帧图像,并从每帧图像中提取出眼球转向特征,得到每帧图像各自对应的特征矩阵。眼球特征由多个眼球关键点组成,可以为128个或512个关键点。
步骤S106B,获取所述每帧图像的眼球关键点的像素点坐标。
具体地,获取每个眼球关键点的像素点坐标,首先将每帧图像进行灰度化处理,得到二维灰度图像,再转化为二维坐标。
步骤S106C,根据所述每帧图像的所述眼球关键点建立特征矩阵,所述特征矩阵包括128个或者256个像素点坐标。
具体地,将像素点坐标进行排序,得到128行或者256行、2列形式的特征矩阵。
步骤S108,所述帧关系处理层根据所述特征矩阵对应的视频时间点对所述每帧图像的特征矩阵进行排序,得到特征队列,并将所述特征队列输入至所述眼球转向动作识别层。
具体地,帧关系处理层计算相邻视频时间点的对应的特征矩阵,以判断是否对该帧图像进行处理。帧关系处理层对相邻两帧图像进行差分运算,以得到差分图像特征,通过差分图像特征分析得到眼球转向的运动路线,即,当相邻两帧图像的差分图像特征由变化到保持不变时,表示此时眼球转向以完成转向运动;当相邻两帧图像的差分图像特征由不变到变化时,表示此时眼球开始进行眼球转向运动,得到此时的特征队列。将每帧图像的特征矩阵按视频时间点的先后顺序进行排列,得到特征队列,便于后续的计算。将特征队列作为每帧图像各自对应的特征之间的帧关系。
步骤S110,所述眼球转向动作识别层对所述特征队列进行特征融合,得到眼球转向特征队列矩阵,并基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度。
具体地,眼球转向特征层对特征队列进行查重处理,将队列中相同的特征进行删除,以得到不同眼球特征的目标特征队列,并且将该目标特征队列的数组按时间顺序进行组合,得到眼球转向特征队列矩阵。
示例性地,参阅图4,步骤S110进一步包括:
步骤S110A,计算相邻帧图像的差分图像特征,以判断相邻帧图像对应的眼球特征是否相同。
具体地,通过差分运算计算相邻帧图像的特征矩阵之间的差值,得到差分图像特征。当相邻两帧图像的差分图像特征由变化到保持不变时,表示此时眼球转向以完成转向运动;当相邻两帧图像的差分图像特征由不变到变化时,表示此时眼球开始进行眼球转向运动。
步骤S110B,如果相同,则保留其中一帧图像对应的特征矩阵,并从所述特征队列中删除另一个相同的特征矩阵,直到所述特征队列中的特征矩阵均不同,得到目标特征队列。
具体地,如果相同,则保留一帧眼球特征对应的特征矩阵,保留的特征可以为后一个或者前一个。如果保留的眼球特征为最后一个相同的眼球特征,则表明该特征队列包括了转向时间;如果保留的眼球特征不是最后一个相同特征,则表明该特征队列没有包括转向时间。当特征队列中的特征矩阵均不同,即眼球转向均不同,表示该特征队列对应的多帧图像,为眼球运动区域。
步骤S110C,将所述目标特征队列中的特征矩阵进行组合,得到所述眼球转向特征队列矩阵。
具体地,目标特征队列包括有目标转向角度,目标转向角度对应于特征队列,将特征队列的特征矩阵,按时间顺序进行组合,得到眼球转向特征队列矩阵。
示例性地,参阅图5,步骤S110A进一步包括:
步骤S110A1,获取相邻帧图像的像素点坐标。
具体地,设置当前第一帧图像为F_k(x,y),第二帧图像为F_(k-1)(x,y),(x,y)为每帧图像中的像素点坐标。
步骤S110A2,对所述相邻帧图像的像素点坐标进行差分运算,得到差分图像特征。
具体地,参见差分运算公式D_k(x,y)=|F_k(x,y)-F_(k-1)(x,y)|进行计算;D_k(x,y)为差分图像特征。
步骤S110A3,将所述差分图像特征与预先设置的二值化阈值进行比对,以判断相邻帧所述目标图像对应的眼球特征是否相同。
具体地,以公式|D_k(x,y)|>T将差分图像特征与预先设置的二值化阈值进行比对,若大于则表示不同,小于表示相同。
示例性地,参阅图6,步骤S110进一步包括:
步骤S1101,以目标用户的眼球的中心位置为原点,对所述目标视频中产品的位置进行坐标标注。
具体地,目标视频中具有多个产品,将每个产品的位置,以目标用户的眼球的中心位置为原点,进行坐标标注,以便将基于眼球转向特征队列矩阵计算得到的目标转向角度,对应到目标产品。也可根据产品的坐标计算出每个产品相对于眼球的中心位置的角度。
步骤S1102,计算所述眼球转向特征队列矩阵的矩阵值,得到目标转向角度。
具体地,计算出目标特征队列对应的眼球转向特征队列矩阵的矩阵值,得到目标用户的目标转向角度,将目标转向角度对应于坐标上,得到目标产品。若目标转向角度对应的位置有偏差,选择最靠近该目标转向角度的产品作为目标产品。
示例性地,参阅图7,所述方法还包括:
步骤S111,获取所述眼球转向特征队列矩阵对应的视频时间点。
具体地,获取眼球转向特征队列矩阵对应的多个帧图像对应的视频时间点,由于帧关系处理层中已经得到,可进行时间标注,以便进行获取。
步骤S112,计算所述眼球转向特征队列矩阵中的第一个特征矩阵对应的视频时间点到最后一个特征矩阵对应的视频时间点之间的距离,作为眼球转向时间。
具体地,将最后帧图像的时间减去首帧图像的时间,得到目标产品的目标转向时间。目标转向时间的倒数即为感兴趣度,转向时间越长,倒数越小,说明感兴趣度越大。
实施例二
请继续参阅图8,示出了本发明基于视频的眼球转向确定***实施例二的程序模块示意图。在本实施例中,基于视频的眼球转向确定***20可以包括或被分割成一个或多个程序模块,一个或者多个程序模块被存储于存储介质中,并由一个或多个处理器所执行,以完成本发明,并可实现上述基于视频的眼球转向确定方法。本发明实施例所称的程序模块是指能够完成特定功能的一系列计算机程序指令段,比程序本身更适合于描述基于视频的眼球转向确定***20在存储介质中的执行过程。以下描述将具体介绍本实施例各程序模块的功能:
第一获取模块200,用于获取目标视频,所述目标视频为目标用户观看目标产品的视频。
具体地,通过摄像头拍摄目标用户观看目标产品的过程,得到目标视频,将目标视频传输至计算机设备2以供处理。
标注模块202,用于对所述目标视频进行眼球特征标注,得到标注视频。
示例性地,所述标注模块202还用于:
识别所述目标视频中每帧图像的眼球特征。
具体地,通过眼球关键点检测,识别出目标视频中每帧图像的眼球特征。
通过标注框对所述眼球特征所在的区域进行框选,得到标注视频。
具体地,通过标注框框选出每帧视频的眼球关键点对应的区域,得到标注视频。并且标注眼球朝向,以获取目标视频中眼球转向运动区域。
输入模块204,用于将所述标注视频输入至眼球转向特征识别模型中,其中,所述眼球转向特征识别模型包括眼球特征提取层、帧关系处理层以及眼球转向动作识别层。
具体地,眼球转向特征识别模型为预先训练的模型,用以对标注视频进行分析,并得到眼球转向特征队列矩阵。基于深度学习网络模型预先训练眼球转向特征识别模型:
获取大量样本视频数据,并识别每个样本视频数据中的每帧样本眼球特征区域,以得到样本图像;按照时间序列对样本图像进行标注,得到标注样本图像;将标注样本图像输入至深度神经网络中,深度神经网络的CNN卷积层提取标注样本图像的样本特征向量;将样本特征向量通过像素处理计算相邻帧标注样本图像之间差异,得到差异值;根据差异值对相同的样本图像进行删除,得到特征队列;通过全连接输出层输出基于特征队列得到的眼球转向特征队列矩阵。特征提取方法包括但不限于基于深度神经网络的面部特征提取算法和基于几何特征的眼球转向特征提取算法。
示例性地,所述眼球特征提取层,用于从所述目标视频的每帧图像中提取目标用户的眼球特征,并将所述眼球特征转换成特征矩阵;
所述帧关系处理层,用于根据所述目标视频的每帧图像的视频时间点,确定每帧带有眼球特征的图像之间的帧关系;以及
所述眼球转向动作识别层,用于根据所述帧关系与所述特征矩阵确定目标用户的眼球转向特征队列矩阵。
转化模块206,用于通过所述眼球特征提取层将所述标注视频的每帧图像转化成特征矩阵,并将每帧图像对应的特征矩阵输入至所述帧关系处理层。
具体地,眼球特征提取层将该目标视频拆分为每一帧图像,并从每帧图像中提取出眼球转向,得到每帧图像各自对应的特征。眼球特征由多个关键点组成,可以为128个或512个关键点组成的特征矩阵。
示例性地,所述转化模块206还用于:
确定所述标注视频的每帧图像的眼球关键点,所述眼球关键点包括128个关键点或者256个关键点。
具体地,眼球特征提取层将该标注视频拆分为每一帧图像,并从每帧图像中提取出眼球转向特征,得到每帧图像各自对应的特征矩阵。眼球特征由多个眼球关键点组成,可以为128个或512个关键点。
获取所述每帧图像的眼球关键点的像素点坐标。
具体地,获取每个眼球关键点的像素点坐标,首先将每帧图像进行灰度化处理,得到二维灰度图像,再转化为二维坐标。
根据所述每帧图像的所述眼球关键点建立特征矩阵,所述特征矩阵包括128个或者256个像素点坐标。
具体地,将像素点坐标进行排序,得到128行或者256行、2列形式的特征矩阵。
特征排序模块208,用于所述帧关系处理层根据所述特征矩阵对应的视频时间点对所述每帧图像的特征矩阵进行排序,得到特征队列,并将所述特征队列输入至所述眼球转向动作识别层。
具体地,帧关系处理层计算相邻视频时间点的对应的特征矩阵,以判断是否对该帧图像进行处理。帧关系处理层对相邻两帧图像进行差分运算,以得到差分图像特征,通过差分图像特征分析得到眼球转向的运动路线,即,当相邻两帧图像的差分图像特征由变化到保持不变时,表示此时眼球转向以完成转向运动;当相邻两帧图像的差分图像特征由不变到变化时,表示此时眼球开始进行眼球转向运动,得到此时的特征队列。将每帧图像的特征矩阵按视频时间点的先后顺序进行排列,得到特征队列,便于后续的计算。将特征队列作为每帧图像各自对应的特征之间的帧关系。
特征融合与输出模块210,用于所述眼球转向动作识别层对所述特征队列进行特征融合,得到眼球转向特征队列矩阵,并基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度。
具体地,眼球转向特征层对特征队列进行查重处理,将队列中相同的特征进行删除,以得到不同眼球特征的目标特征队列,并且将该目标特征队列的数组按时间顺序进行组合,得到眼球转向特征队列矩阵。
示例性地,所述特征融合与输出模块210还用于:
计算相邻帧图像的差分图像特征,以判断相邻帧图像对应的眼球特征是否相同。
具体地,通过差分运算计算相邻帧图像的特征矩阵之间的差值,得到差分图像特征。当相邻两帧图像的差分图像特征由变化到保持不变时,表示此时眼球转向以完成转向运动;当相邻两帧图像的差分图像特征由不变到变化时,表示此时眼球开始进行眼球转向运动。
如果相同,则保留其中一帧图像对应的特征矩阵,并从所述特征队列中删除另一个相同的特征矩阵,直到所述特征队列中的特征矩阵均不同,得到目标特征队列。
具体地,如果相同,则保留一个眼球特征,保留的特征可以为后一个或者前一个。如果保留的眼球特征为最后一个相同的眼球特征,则表明该特征队列包括了转向时间;如果保留的眼球特征不是最后一个相同特征,则表明该特征队列没有包括转向时间。当目标特征队列中的特征矩阵均不同,即眼球转向均不同,表示该目标特征队列对应的多帧图像,为眼球运动区域。
将所述目标特征队列中的特征矩阵进行组合,得到所述眼球转向特征队列矩阵。
具体地,目标特征队列包括有目标转向角度,目标转向角度对应于特征队列,将特征队列的特征矩阵,按时间顺序进行组合,得到眼球转向特征队列矩阵。
示例性地,所述特征融合与输出模块210进一步用于:
获取相邻帧图像的像素点坐标。
具体地,设置当前第一帧图像为F_k(x,y),第二帧图像为F_(k-1)(x,y),(x,y)为每帧图像中的像素点坐标。
对所述相邻帧图像的像素点坐标进行差分运算,得到差分图像特征。
具体地,参见差分运算公式D_k(x,y)=|F_k(x,y)-F_(k-1)(x,y)|进行计算;D_k(x,y)为差分图像特征。
将所述差分图像特征与预先设置的二值化阈值进行比对,以判断相邻帧所述目标图像对应的眼球特征是否相同。
具体地,以公式|D_k(x,y)|>T将差分图像特征与预先设置的二值化阈值进行比对,若大于则表示不同,小于表示相同。
示例性地,所述特征融合与输出模块210还用于:
以目标用户的眼球的中心位置为原点,对所述目标视频中产品的位置进行坐标标注。
具体地,目标视频中具有多个产品,将每个产品的位置,以目标用户的眼球的中心位置为原点,进行坐标标注,以便将基于眼球转向特征队列矩阵计算得到的目标转向角度,对应到目标产品。也可根据产品的坐标计算出每个产品相对于眼球的中心位置的角度。
计算所述目标特征队列的矩阵值,得到目标转向角度。
具体地,计算出目标特征队列对应的眼球转向特征队列矩阵的矩阵值,得到目标用户的目标转向角度,将目标转向角度对应于坐标上,得到目标产品。若目标转向角度对应的位置有偏差,选择最靠近该目标转向角度的产品作为目标产品。
实施例三
参阅图9,是本发明实施例三之计算机设备的硬件架构示意图。本实施例中,所述计算机设备2是一种能够按照事先设定或者存储的指令,自动进行数值计算和/或信息处理的设备。该计算机设备2可以是机架式服务器、刀片式服务器、塔式服务器或机柜式服务器(包括独立的服务器,或者多个服务器所组成的服务器集群)等。如图9所示,所述计算机设备2至少包括,但不限于,可通过***总线相互通信连接存储器21、处理器22、网络接口23、以及基于视频的眼球转向确定***20。其中:
本实施例中,存储器21至少包括一种类型的计算机可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器21可以是计算机设备2的内部存储单元,例如该计算机设备2的硬盘或内存。在另一些实施例中,存储器21也可以是计算机设备2的外部存储设备,例如该计算机设备2上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器21还可以既包括计算机设备2的内部存储单元也包括其外部存储设备。本实施例中,存储器21通常用于存储安装于计算机设备2的操作***和各类应用软件,例如实施例二的基于视频的眼球转向确定***20的程序代码等。此外,存储器21还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器22在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器22通常用于控制计算机设备2的总体操作。本实施例中,处理器22用于运行存储器21中存储的程序代码或者处理数据,例如运行基于视频的眼球转向确定***20,以实现实施例一的基于视频的眼球转向确定方法。
所述网络接口23可包括无线网络接口或有线网络接口,该网络接口23通常用于在所述服务器2与其他电子装置之间建立通信连接。例如,所述网络接口23用于通过网络将所述服务器2与外部终端相连,在所述服务器2与外部终端之间的建立数据传输通道和通信连接等。所述网络可以是企业内部网(Intranet)、互联网(Internet)、全球移动通讯***(Global System of Mobile communication,GSM)、宽带码分多址(Wideband CodeDivision Multiple Access,WCDMA)、4G网络、5G网络、蓝牙(Bluetooth)、Wi-Fi等无线或有线网络。需要指出的是,图9仅示出了具有部件20-23的计算机设备2,但是应理解的是,并不要求实施所有示出的部件,可以替代的实施更多或者更少的部件。
在本实施例中,存储于存储器21中的所述基于视频的眼球转向确定***20还可以被分割为一个或者多个程序模块,所述一个或者多个程序模块被存储于存储器21中,并由一个或多个处理器(本实施例为处理器22)所执行,以完成本发明。
例如,图8示出了所述实现基于视频的眼球转向确定***20实施例二的程序模块示意图,该实施例中,所述基于视频的眼球转向确定***20可以被划分为获取模块200、标注模块202、输入模块204、转化模块206、特征排序模块208以及特征融合与输出模块210。其中,本发明所称的程序模块是指能够完成特定功能的一系列计算机程序指令段,比程序更适合于描述所述基于视频的眼球转向确定***20在所述计算机设备2中的执行过程。所述程序模块200-210的具体功能在实施例二中已有详细描述,在此不再赘述。
实施例四
本实施例还提供一种计算机可读存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机程序,程序被处理器执行时实现相应功能。本实施例的计算机可读存储介质用于存储基于视频的眼球转向确定***20,被处理器执行时实现实施例一的基于视频的眼球转向确定方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种基于视频的眼球转向确定方法,其特征在于,包括:
获取目标视频,所述目标视频为目标用户观看目标产品的视频;
对所述目标视频进行眼球特征标注,得到标注视频;
将所述标注视频输入至眼球转向特征识别模型中,其中,所述眼球转向特征识别模型包括眼球特征提取层、帧关系处理层以及眼球转向动作识别层;
通过所述眼球特征提取层将所述标注视频的每帧图像转化成特征矩阵,并将每帧图像对应的特征矩阵输入至所述帧关系处理层;
所述帧关系处理层根据所述特征矩阵对应的视频时间点对所述每帧图像的特征矩阵进行排序,得到特征队列,并将所述特征队列输入至所述眼球转向动作识别层;
所述眼球转向动作识别层对所述特征队列进行特征融合,得到眼球转向特征队列矩阵,并基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度。
2.根据权利要求1所述的方法,其特征在于,基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度之后,还包括:
获取所述眼球转向特征队列矩阵对应的视频时间点;
计算所述眼球转向特征队列矩阵中的第一个特征矩阵对应的视频时间点到最后一个特征矩阵对应的视频时间点之间的距离,作为眼球转向时间。
3.根据权利要求1所述的方法,其特征在于,对所述目标视频进行眼球特征标注,得到标注视频包括:
识别所述目标视频中每帧图像的眼球特征;
通过标注框对所述眼球特征所在的区域进行框选,得到标注视频。
4.根据权利要求1所述的方法,其特征在于,通过所述眼球特征提取层将所述标注视频的每帧图像转化成特征矩阵包括:
确定所述标注视频的每帧图像的眼球关键点,所述眼球关键点包括128个关键点或者256个关键点;
获取所述每帧图像的眼球关键点的像素点坐标;
根据所述每帧图像的所述眼球关键点建立特征矩阵,所述特征矩阵包括128个或者256个像素点坐标。
5.根据权利要求4所述的方法,其特征在于,所述眼球转向动作识别层对所述特征队列进行特征融合,得到眼球转向特征队列矩阵包括:
计算相邻帧图像的差分图像特征,以判断相邻帧图像对应的眼球特征是否相同;
如果相同,则保留其中一帧图像对应的特征矩阵,并从所述特征队列中删除另一个相同的特征矩阵,直到所述特征队列中的特征矩阵均不同,得到目标特征队列;
将所述目标特征队列中的特征矩阵进行组合,得到所述眼球转向特征队列矩阵。
6.根据权利要求5所述的方法,其特征在于,计算相邻帧所述目标图像的差分图像特征,以判断相邻帧所述目标图像对应的眼球特征是否相同包括:
获取相邻帧图像的像素点坐标;
对所述相邻帧图像的像素点坐标进行差分运算,得到差分图像特征;
将所述差分图像特征与预先设置的二值化阈值进行比对,以判断相邻帧所述目标图像对应的眼球特征是否相同。
7.根据权利要求5所述的方法,其特征在于,基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度包括:
以目标用户的眼球的中心位置为原点,对所述目标视频中产品的位置进行坐标标注;
计算所述眼球转向特征队列矩阵的矩阵值,得到目标转向角度。
8.一种基于视频的眼球转向确定***,其特征在于,包括:
获取模块,用于获取目标视频,所述目标视频为目标用户观看目标产品的视频;
标注模块,用于对所述目标视频进行眼球特征标注,得到标注视频;
输入模块,用于将所述标注视频输入至眼球转向特征识别模型中,其中,所述眼球转向特征识别模型包括眼球特征提取层、帧关系处理层以及眼球转向动作识别层;
转化模块,用于通过所述眼球特征提取层将所述标注视频的每帧图像转化成特征矩阵,并将每帧图像对应的特征矩阵输入至所述帧关系处理层;
特征排序模块,用于所述帧关系处理层根据所述特征矩阵对应的视频时间点对所述每帧图像的特征矩阵进行排序,得到特征队列,并将所述特征队列输入至所述眼球转向动作识别层;
特征融合与输出模块,用于所述眼球转向动作识别层对所述特征队列进行特征融合,得到眼球转向特征队列矩阵,并基于所述眼球转向特征队列矩阵确定所述目标用户的目标转向角度。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,所述计算机程序可被所述处理器执行时实现如权利要求1-7中任一项所述的基于视频的眼球转向确定方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序可被至少一个处理器所执行,以使所述至少一个处理器执行如权利要求1-7中任一项所述的基于视频的眼球转向确定方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010128432.6A CN111353429A (zh) | 2020-02-28 | 2020-02-28 | 基于眼球转向的感兴趣度方法与*** |
PCT/CN2021/071261 WO2021169642A1 (zh) | 2020-02-28 | 2021-01-12 | 基于视频的眼球转向确定方法与*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010128432.6A CN111353429A (zh) | 2020-02-28 | 2020-02-28 | 基于眼球转向的感兴趣度方法与*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111353429A true CN111353429A (zh) | 2020-06-30 |
Family
ID=71195806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010128432.6A Pending CN111353429A (zh) | 2020-02-28 | 2020-02-28 | 基于眼球转向的感兴趣度方法与*** |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111353429A (zh) |
WO (1) | WO2021169642A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112053600A (zh) * | 2020-08-31 | 2020-12-08 | 上海交通大学医学院附属第九人民医院 | 眼眶内窥镜导航手术训练方法、装置、设备、及*** |
WO2021169642A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳壹账通智能科技有限公司 | 基于视频的眼球转向确定方法与*** |
CN115544473A (zh) * | 2022-09-09 | 2022-12-30 | 苏州吉弘能源科技有限公司 | 一种光伏发电站运维终端登录控制*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105677024A (zh) * | 2015-12-31 | 2016-06-15 | 北京元心科技有限公司 | 一种眼动检测跟踪方法、装置及其用途 |
CN107679448A (zh) * | 2017-08-17 | 2018-02-09 | 平安科技(深圳)有限公司 | 眼球动作分析方法、装置及存储介质 |
CN109359512A (zh) * | 2018-08-28 | 2019-02-19 | 深圳壹账通智能科技有限公司 | 眼球位置追踪方法、装置、终端及计算机可读存储介质 |
US20190294240A1 (en) * | 2018-03-23 | 2019-09-26 | Aisin Seiki Kabushiki Kaisha | Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program |
CN110555426A (zh) * | 2019-09-11 | 2019-12-10 | 北京儒博科技有限公司 | 视线检测方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353429A (zh) * | 2020-02-28 | 2020-06-30 | 深圳壹账通智能科技有限公司 | 基于眼球转向的感兴趣度方法与*** |
-
2020
- 2020-02-28 CN CN202010128432.6A patent/CN111353429A/zh active Pending
-
2021
- 2021-01-12 WO PCT/CN2021/071261 patent/WO2021169642A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105677024A (zh) * | 2015-12-31 | 2016-06-15 | 北京元心科技有限公司 | 一种眼动检测跟踪方法、装置及其用途 |
CN107679448A (zh) * | 2017-08-17 | 2018-02-09 | 平安科技(深圳)有限公司 | 眼球动作分析方法、装置及存储介质 |
US20190294240A1 (en) * | 2018-03-23 | 2019-09-26 | Aisin Seiki Kabushiki Kaisha | Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program |
CN109359512A (zh) * | 2018-08-28 | 2019-02-19 | 深圳壹账通智能科技有限公司 | 眼球位置追踪方法、装置、终端及计算机可读存储介质 |
CN110555426A (zh) * | 2019-09-11 | 2019-12-10 | 北京儒博科技有限公司 | 视线检测方法、装置、设备及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021169642A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳壹账通智能科技有限公司 | 基于视频的眼球转向确定方法与*** |
CN112053600A (zh) * | 2020-08-31 | 2020-12-08 | 上海交通大学医学院附属第九人民医院 | 眼眶内窥镜导航手术训练方法、装置、设备、及*** |
CN115544473A (zh) * | 2022-09-09 | 2022-12-30 | 苏州吉弘能源科技有限公司 | 一种光伏发电站运维终端登录控制*** |
CN115544473B (zh) * | 2022-09-09 | 2023-11-21 | 苏州吉弘能源科技有限公司 | 一种光伏发电站运维终端登录控制*** |
Also Published As
Publication number | Publication date |
---|---|
WO2021169642A1 (zh) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110909651B (zh) | 视频主体人物的识别方法、装置、设备及可读存储介质 | |
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
CN112597941B (zh) | 一种人脸识别方法、装置及电子设备 | |
EP3161728B1 (en) | Hierarchical interlinked multi-scale convolutional network for image parsing | |
CN109960742B (zh) | 局部信息的搜索方法及装置 | |
CN111797657A (zh) | 车辆周边障碍检测方法、装置、存储介质及电子设备 | |
CN109858333B (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
CN111626123A (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
WO2023010758A1 (zh) | 一种动作检测方法、装置、终端设备和存储介质 | |
CN111062263B (zh) | 手部姿态估计的方法、设备、计算机设备和存储介质 | |
WO2021169642A1 (zh) | 基于视频的眼球转向确定方法与*** | |
CN115427982A (zh) | 用于使用卷积神经网络标识数字视频中的人体行为的方法、***和介质 | |
CN112560796A (zh) | 人体姿态实时检测方法、装置、计算机设备及存储介质 | |
US20230334893A1 (en) | Method for optimizing human body posture recognition model, device and computer-readable storage medium | |
CN114049512A (zh) | 模型蒸馏方法、目标检测方法、装置及电子设备 | |
CN113496208B (zh) | 视频的场景分类方法及装置、存储介质、终端 | |
CN112528974B (zh) | 测距方法、装置、电子设备及可读存储介质 | |
CN111914762A (zh) | 基于步态信息的身份识别方法及装置 | |
CN113706481A (zh) | ***质量检测方法、装置、计算机设备和存储介质 | |
CN112200056A (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN112101195A (zh) | 人群密度预估方法、装置、计算机设备和存储介质 | |
CN113780145A (zh) | ***形态检测方法、装置、计算机设备和存储介质 | |
CN111652181B (zh) | 目标跟踪方法、装置及电子设备 | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子*** | |
CN115577768A (zh) | 半监督模型训练方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200630 |
|
WD01 | Invention patent application deemed withdrawn after publication |