CN110658907A - 一种获取用户行为数据的方法及装置 - Google Patents

一种获取用户行为数据的方法及装置 Download PDF

Info

Publication number
CN110658907A
CN110658907A CN201810688360.3A CN201810688360A CN110658907A CN 110658907 A CN110658907 A CN 110658907A CN 201810688360 A CN201810688360 A CN 201810688360A CN 110658907 A CN110658907 A CN 110658907A
Authority
CN
China
Prior art keywords
user
user interface
attention
sight
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810688360.3A
Other languages
English (en)
Inventor
孔喆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Health Information Technology Ltd
Original Assignee
Alibaba Health Information Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Health Information Technology Ltd filed Critical Alibaba Health Information Technology Ltd
Priority to CN201810688360.3A priority Critical patent/CN110658907A/zh
Publication of CN110658907A publication Critical patent/CN110658907A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Physics & Mathematics (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施方式公开了一种获取用户行为数据的方法及装置,应用于具有深度传感装置的客户端设备,所述方法包括:利用所述客户端设备上的深度传感装置获取用户视线在用户界面上的关注点;跟踪所述关注点,获取所述用户视线在所述用户界面上的停留时长及关注范围;基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据。利用本申请的技术方案,可以在用户毫无感知的情况下,采集到用户的视觉行为数据,提升获取的用户行为数据的准确性。

Description

一种获取用户行为数据的方法及装置
技术领域
本申请涉及数据采集技术领域,特别涉及一种获取用户行为数据的方法及装置。
背景技术
近年来,由于大数据的迅速发展,用户行为数据越来越变成一种具有高价值的信息资产。在获得用户授权的情况下,获取用户的行为数据,并根据所述行为数据对用户行为进行分析,以获得高价值的数据结果,对引导用户行为、提出市场策略等具有十分重要的意义。
现有技术中,通常通过应用埋点的方式获取用户行为数据。在利用应用埋点方式获取用户行为数据的过程中,可以在应用中设置需要关注的事件(如点击、浏览等事件)。然后可以监听应用运行过程中的事件,当需要关注的事件发生时,可以进行数据采集,并将采集到的数据发送至服务器。需要监听的事件通常由操作***、浏览器、APP框架等平台提供,也可以是在基础事件之上进行触发条件的自定义事件(如点击某一个特定按钮)。一般情况下,埋点可以通过监测分析工具提供的SDK来进行编程实现。
但是,通过埋点方式获取的用户行为数据在一定程度上存在偏差,导致统计得到的数据结果不够准确。因此,现有技术中亟需一种能够准确地获取用户行为数据的方式。
发明内容
本申请实施方式的目的是提供一种获取用户行为数据的方法及装置,可以在用户毫无感知的情况下,采集到用户的视觉行为数据,提升获取的用户行为数据的准确性。
具体地,所述获取用户行为数据的方法及装置是这样实现的:
一种获取用户行为数据的方法,应用于具有深度传感装置的客户端设备,所述方法包括:
利用所述客户端设备上的深度传感装置获取用户视线在用户界面上的关注点;
跟踪所述关注点,获取所述用户视线在所述用户界面上的停留时长及关注范围;
基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据。
一种获取用户行为数据的设备,所述设备包括深度传感装置、显示器、处理器以及用于存储处理器可执行指令的存储器,其中,
所述显示器,用于显示用户界面;
所述深度传感装置,用于确定用户视线在用户界面上的关注点,并跟踪所述关注点,获取所述用户视线在所述用户界面上的停留时长及关注范围;
所述处理器执行所述指令时实现:基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据。
一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现上述任一实施例所述方法的步骤。
本申请实施例提供的获取用户行为数据的方法及装置,可以利用现有的具有深度传感装置的客户端设备的硬件条件,获取用户实现在用户界面上的关注点,并通过所述关注点获取用户视线在所述用户界面上的行为数据。利用本申请提供的方法,可以在用户毫无感知的情况下,采集到用户的行为数据,相对于现有技术中在客户端应用中埋点采集数据的方式,本申请提供的方法采集到的用户行为数据更加接近于真实的情况,这样,对后续利用用户行为数据进行数据指标统计、用户界面的布局调整、展示内容优化等具有实际的参考价值。
附图说明
为了更清楚地说明本申请实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种应用场景的示意图;
图2是本申请实施例提供的一种应用场景的示意图;
图3是本申请实施例提供的一种应用场景的示意图;
图4是本申请实施例提供的一种应用场景的示意图;
图5是本申请提供的获取用户行为数据的方法的一种实施例的方法流程图;
图6是本申请提供的获取用户行为数据设备的一种实施例的模块结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施方式中的附图,对本申请实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本申请一部分实施方式,而不是全部的实施方式。基于本申请中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都应当属于本申请保护的范围。
为了方便本领域技术人员理解本申请实施例提供的技术方案,下面首先对技术方案实现的技术环境进行说明。现有技术中利用应用埋点方式获取用户行为数据的方法包括以下步骤。首先,在应用内设置需要关注的事件,在用户访问应用的过程中,监听用户的操作行为所触发的事件,当出现需要关注的事件时,可以将相应的数据发布给服务器。服务器可以对获取的用户行为数据进行分析处理,统计出用户在所关注的页面驻留时长、点击预设事件发生的频率,进而得出数据结果,如转换率等。最后,可以通过可视化的数据看板等方式展示所述数据结果,后续还可以对所述数据结果进行解读。
数据结果可以反映用户行为发生的真实情况,比如数据结果可以包括以下内容:“购买按钮平均每天被点击1800万次”、“有30%的在产品详情页停留15s-30s的用户购买了产品”、“访问过某产品3次以上的用户均是20-30岁的年龄段”。但是现有技术中获取用户行为数据的方式存在统计偏差的问题,为了获取上述数据结果“有30%的在产品详情页停留15s-30s的用户购买了产品”,需要统计用户在产品详情页上停留的时间,现有的方式主要是统计用户从打开页面到离开页面的时间。但是在很多情况下,用户的关注点也许不在客户端页面上,有可能用户暂且搁置客户端设备,去做其他事情,其关注点并不在客户端页面上。也就是说,类似于上述用户在产品详情页上的停留时间等数据结果,存在数据结果偏高的可能性。
基于类似于上文所述的技术需求,本申请提供一种获取用户行为数据的方法,该方法可以基于用户视线在客户端显示器上的关注点,采集得到更加准确、更加细粒度的用户行为数据,以统计得到更加准确、可靠的数据结果。
下面通过一个具体的应用场景说明本申请提供的实施例方法,如图1所示,用户正在使用手机浏览应用,当用户在浏览手机应用A的过程中,手机应用A可以调用客户端设备上的双目摄像头获取用户视线在手机展示界面上的关注点。在具体的实施过程中,可以基于手机平面建立空间坐标系,如图1所示,可以建立平行于手机平面并指向用户右手的方向为X轴方向,平行于手机平面并垂直于X轴的方向为Y轴方向,垂直于手机平面向外的方向为Z轴。基于上述建立的空间坐标系,可以获取用户的双目瞳孔的位置以及双目的注视方向。如图2所示,构建以双目的注视方向、瞳孔之间的连线的三角平面,并确定该三角平面与Z轴之间的夹角,然后,可以基于瞳孔的位置以及所述夹角,计算得到用户视线在手机屏幕上的关注点。如图3所示,可以计算得到用户视线在手机屏幕上的关注点为图中的灰色圆点处。此后,可以跟踪所述跟踪点,获取用户视线在手机展示界面的停留时长以及关注范围,并基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据。
在另一个场景中,在获取到用户视线在手机展示界面上的视觉活动数据之后,可以结合手机展示界面展示的内容统计所述视觉活动数据。在一个示例中,可以利用所述停留时长即所述关注范围统计用户视线在用户界面上各个位置处的总停留时长。基于所述总停留时长可以获取各个用户在用户界面上各个区域出的关注程度,例如有些用户习惯于关注手机屏幕的上方,有些用户习惯于关注手机屏幕的右下角。可以基于用户对用户界面上各个区域的关注程度,在用户偏好的位置处设置提醒消息等,如广告推送消息等。
在另一个示例中,用户正在浏览某电商平台的购物应用,如图4所示,该购物应用的产品购买页面一共划分为四个主要区域,包括产品图片展示区域、产品标题展示区域、产品详情介绍区域以及产品评论区域。通过该用户一个月内在该购物应用内的活动数据,统计得到用户视线在各个区域内的浏览次数,本场景中,可以设置当用户视线在区域内停留时长超过三秒,可记为一次浏览。如图4所示,根据对活动数据的统计得到,用户共浏览产品图片展示区域3700次,浏览产品标题展示区域1000次,浏览产品详情介绍区域900次,浏览产品评论区域1800次。另外,还可以根据浏览次数的多少,利用颜色深浅标记处用户对各个区域的关注程度,颜色越深,表示用户越关注该区域的展示内容。后续地,还可以利用上述统计数据对各个区域的展示内容进行调整,获取用户的兴趣点、偏好等等。
下面结合附图对本申请所述的获取用户行为数据的方法进行详细的说明。图5是本申请提供的获取用户行为数据的方法的一种实施例的方法流程图。虽然本申请提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在所述方法中可以包括更多或者更少的操作步骤。在逻辑性上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本申请实施例提供的执行顺序。所述方法在实际中的获取用户行为数据的过程中,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
具体的本申请提供的获取用户行为数据的方法的一种实施例如图5所示,所述方法应用于具有深度传感装置的客户端设备,所述方法可以包括:
S501:利用所述客户端设备上的深度传感装置获取用户视线在用户界面上的关注点。
S503:跟踪所述关注点,获取所述用户视线在所述用户界面上的停留时长及关注范围。
S505:基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据。
本申请提供的获取用户行为数据方法可以应用于具有深度传感装置的客户端设备,所述深度传感装置可以用于确定用户瞳孔的位置以及测量瞳孔距离客户端设备的距离。本实施例中,所述深度传感装置可以包括下述中的至少一种:双目摄像装置、双红外传感器、单摄像装置及红外传感器、飞行时间(Time of Flight)传感器。典型的,所述客户端设备例如可以包括具有双摄像头的手机、平板电脑等设备。当用户面向客户端设备显示屏的时候,所述客户端设备上的深度传感装置可以获取用户瞳孔的活动状态。本实施例中,所述深度传感装置可以固定安装于所述客户端设备上,如集成于所述客户端设备中,也可以通过轴轮等部件连接于所述客户端设备上,本申请对于深度传感装置的安装方式不做限制。本实施例中,可以利用所述客户端设备上的所述深度传感装置获取用户视线在用户界面上的关注点。并跟踪所述关注点,获取所述用户视线在所述用户界面上的行为数据。
在本申请的一个实施例中,在利用所述深度传感装置获取用户视线在用户界面上的关注点的过程中,可以基于所述客户端设备建立空间坐标系。在一个具体的示例中,可以基于客户端设备显示屏所在平面的三维坐标体系,例如,可以设置平行于所述显示屏并指向用户右手的方向为x轴正方向,平行于所述显示屏、垂直于x轴并指向所述显示屏下方的方向为y轴正方向,垂直于xoy平面、从所述显示屏指向外部的方向为z轴正方向。当然,在其他实施例中,所述空间坐标系还可以包括其他种类的坐标系,如极坐标系、球面坐标系、柱坐标系等等,本申请对于建立的坐标系的种类不做限制。
本实施例中,在基于所述客户端设备建立空间坐标系之后,还可以获取用户的瞳孔在所述空间坐标系中的位置,以及用户视线与用户界面之间的角度。在一个实施例中,可以利用所述深度传感装置定位到用户瞳孔的位置,还可以通过测距的方式获取用户的瞳孔在所述空间坐标系中的位置,以及用户视线与用户界面之间的角度。在本实施例中,获取到用户的瞳孔在所述空间坐标系中的位置,以及用户视线与用户界面之间的角度,还可以根据所述位置以及所述角度计算用户视线与所述用户界面之间的交汇点,并将所述交汇点作为所述用户视线在所述用户界面上的关注点。在一个具体的示例中,可以按照以下三个步骤结算得到用户视线在所述用户界面上的关注点:
1、利用所述深度传感装置测量出双眼的空间位置,以双眼位置的平均值作为中心点,该中心点到客户端显示屏平面的距离为d;
2、根据图像分析,由所述深度传感装置分别计算出双眼的注视方向,以双眼的注视方向以及瞳孔之间的连线构建三角平面,该三角平面与用户垂直于所述客户端显示屏的方向之间的夹角为θ;
3、通过d和θ,计算出用户视线在用户界面上的关注点。
需要说明的是,本申请可以通过双目摄像装置、双红外传感器、单摄像装置及红外传感器、飞行时间传感器中任意一种获取瞳孔的空间位置以及角度。对于双目摄像装置而言,可以通过两个摄像装置的位置差计算得到瞳孔的空间位置以及角度。对于双红外传感器或者单摄像装置及红外传感器而言,可以利用其中一个红外传感器向用户的面部投影多个红外光点,并利用另一个红外传感器或者单摄像头获取红外光点在面部反射回来的深度。飞行时间传感器可以向人脸发出经调制的近红外光,遇用户瞳孔后反射,传感器可以通过计算光线发射和反射时间差或相位差,计算出人脸器官之间的距离,以产生深度信息,如瞳孔的空间位置以及角度。当然,在本申请的实施例中,能够基于客户端设备已有的其他深度传感装置,而不需要佩戴眼球跟踪眼镜等其他辅助设备,即在用户毫无感知的情况下,获取到用户对用户界面的关注点。
本实施例中,在获取到用户视线在用户界面的关注点之后,还可以跟踪所述关注点,获取所述用户视线在所述用户界面上的停留时长及关注范围,并基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据。在本申请的一个实施例中,所述视觉活动数据可以包括下述中的至少一种:
所述用户视线在所述用户界面上停留时长超过预设时长的关注范围;
所述用户视线在所述用户界面上停留时长超过预设时长的关注范围所对应的信息。
本实施例中,所述用户视线在所述用户界面上的停留时长可以反映用户对某个用户界面的关注程度,停留时长越长,用户对用户界面的关注程度越高。在一个示例中,用户从打开某个应用之后,视线一直停留于该应用的用户界面上,通过统计用户视线在该应用的用户界面上的停留时长,可以确定用户对该应用的关注程度。所述用户视线在所述用户界面上的关注范围可以精确地反映用户视线在所述用户界面上局部区域的关注程度。在一个示例中,用户在实际浏览用户界面的过程中,往往只会关注所述用户界面中的一部分区域,例如,在客户端上浏览商品信息时,可以重点关注商品的图片以及价格。在本实施例中,可以获取用户视线在所述用户界面上的关注范围,即在上述示例中,可以根据获取到的该用户在所述用户界面上的关注范围,确定该用户比较关注商品的图片以及价格。在本实施例中,还可以获取用户视线在所述用户界面上停留时长超过预设时长的关注范围,以进一步获取用户重点关注的区域。例如在商品展示页面中,可以播放关于商品的视频信息,若用户长时间观看商品的视频信息,则可以通过本实施例通过的方式捕捉到用户对所述商品视频信息的关注程度。另外,在另一个实施例中,还可以获取所述用户视线在所述用户界面上停留时长超过预设时长的关注范围所对应的信息,这样可以在获取到用户视线在用户界面上的关注范围的情况下,还可以获取到该关注范围内的信息,如该关注范围内的具体内容是什么,在上述示例中,若用户长时间关注用户界面的某个区域,则可以该区域内的内容,如在商品展示页面中,该区域的内容可以为商品的用户评价信息等,在此,可以根据用户的视线活动,获取到用户关注到的具体评价信息。
在本申请的一个实施例中,还可以预先设置关注范围,如在商品展示页面中的商品视频展示区域、评论区域、商品详情介绍区域等等。在设置完成预设关注范围之后,可以获取各个用户的用户视线在所述预设关注范围内的停留时长。当然,可以确定用户视线停留时长越长,表示用户越关注该预设关注范围内的信息。后续地,还可以通过多个用户对所述预设关注范围的关注时长,当多个用户对某个预设关注范围的关注时长越久,可以表明该预设关注范围的内容的重要性,那么对于运营商来说,可以加强对该预设关注范围内容的编辑效果,提升该预设关注范围内容的趣味性。
本实施例中,所述视觉活动数据可以包括如上所述的用户对部分预设关注范围的关注程度,用户对整个用户界面的关注程度,用户对客户端设备中安装的不同应用的关注程度等等。后续,在统计得到用户对所述用户界面的关注程度之后,可以根据所述视觉活动数据对应用的展示内容,展示布局等进行调整,如增加用户感兴趣的区域的展示内容,去掉用户不感兴趣的区域或者板块。
在本申请的一个实施例中,可以对所述停留时长以及所述关注范围进行统计分析,获取所述用户对所述用户界面的关注程度。在一个实施例中,可以分别对所述停留时长以及所述关注范围进行统计处理,获取所述用户界面上各个位置处的停留总时长。例如,各个用户对用户界面上不同位置处的偏好程度是不相同的,部分用户偏好关注用户界面偏上的位置,部分用户偏好关注用户界面右下角的位置处等等。本实施例中,通过统计得到的用户实现在用户界面上各个位置处的停留总时长,可以反映出用户对所述用户界面上各个位置的偏好程度。另外,还可以在所述用户界面的各个位置上设置与所述停留总时长相匹配的标记,所述标记例如可以包括热力图、颜色深浅标记等等。
在本申请的一个实施例中,还可以录制用户关注过的用户界面的图像。具体地,可以跟踪所述关注点,捕捉所述用户视线关注过的用户界面的图像以及所述用户视线在所述用户界面上的关注范围。在具体实施过程中,可以在用户视线关注用户界面时,控制所述客户端设备捕捉所述用户视线所关注的用户界面的图像以及所述用户视线在所述用户界面上的关注范围。在一个具体的示例中,当用户浏览客户端设备展示的商品展示界面且用户视线接触到显示屏时,可以捕捉当前客户端设备展示的用户界面的图像,并统计用户视线在所述用户界面上的关注范围,在商品展示界面中,所述关注范围可以包括商品图片展示区域、用户评价区域、商品标题区域、商品介绍区域等等。
在本申请的一个实施例中,在捕捉待用户视线关注过的用户界面的图像以及所述用户视线在所述用户界面上的关注范围之后,还可以将捕捉的相似程度大于预设阈值的用户界面的图像进行合并处理。本实施例中,相似的图像可以包括图像之间的布局相似,如同样是某电商平台的商品展示界面,对于商品展示界面,一般具有比较相似的布局结构,基于此,可以将相似程度大于预设阈值的用户界面的图像进行合并处理,所述预设阈值例如可以包括80%、87%、95%等等。本实施例中,所述合并处理方式可以包括保留用户界面的布局框架。在将相似的用户界面的图像进行合并处理之后,可以对所述图像上的关注范围进行统计处理,获取合并后的图像上各个区域的关注程度。所述关注程度可以包括所述合并后的图像上各个区域被用户关注过的总次数,例如在商品展示界面中,根据一个月的数据统计,商品图片展示区域的关注总次数为3700次,用户评价区域的关注总次数为1800次,商品介绍区域的关注总次数为900次。在获取到所述合并后的图像上各个区域的关注程度之后,可以在所述合并后的图像上标记所述各个区域的所述关注程度。在一个实施例中,可以利用颜色深浅标记所述各个区域的所述关注程度。在另一个实施例中,可以利用关注程度数据标记所述各个区域的所述关注程度。本实施例中,通过标记各个区域的所述关注程度之后,可以快速获取到用户对用户界面上兴趣点,并根据所述兴趣点对所述用户界面的展示内容或者展示方式进行调整,增强用户界面对用户的指导作用,并增强用户的使用体验感。
本申请实施例提供的获取用户行为数据的方法,可以利用现有的具有深度传感装置的客户端设备的硬件条件,获取用户实现在用户界面上的关注点,并通过所述关注点获取用户视线在所述用户界面上的行为数据。利用本申请提供的方法,可以在用户毫无感知的情况下,采集到用户的行为数据,相对于现有技术中在客户端应用中埋点采集数据的方式,本申请提供的方法采集到的用户行为数据更加接近于真实的情况,这样,对后续利用用户行为数据进行数据指标统计、用户界面的布局调整、展示内容优化等具有实际的参考价值。
如图6所示,本申请另一方面还提供一种获取用户行为数据的设备,图6是本申请提供的获取用户行为数据的设备的一种实施例的模块结构示意图,所述装置包括深度传感装、显示器、处理器以及用于存储处理器可执行指令的存储器,其中,
所述显示器,用于显示用户界面;
所述深度传感装,用于确定用户视线在用户界面上的关注点,并跟踪所述关注点,获取所述用户视线在所述用户界面上的停留时长及关注范围;
所述处理器执行所述指令时实现:基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据。
可选的,在本申请的一个实施例中,所述视觉活动数据可以包括下述中的至少一种:
所述用户视线在所述用户界面上停留时长超过预设时长的关注范围;
所述用户视线在所述用户界面上停留时长超过预设时长的关注范围所对应的信息。
可选的,在本申请的一个实施例中,所述处理器在实现步骤基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据时包括:
确定所述关注点落入所述用户界面内的预设关注范围内;
获取所述用户视线在所述预设关注范围内的停留时长。
可选的,在本申请的一个实施例中,所述深度传感装置包括下述中的至少一种:双目摄像装置、双红外传感器、单摄像装置及红外传感器、飞行时间(Time of Flight)传感器。
可选的,在本申请的一个实施例中,所述深度传感装置在确定用户视线在用户界面上的关注点时包括:
基于所述设备建立空间坐标系;
利用所述设备上的深度传感装置获取用户的瞳孔在所述空间坐标系中的位置,以及用户视线与用户界面之间的角度;
根据所述位置和所述角度计算用户视线与所述用户界面之间的交汇点,将所述交汇点作为所述用户视线在所述用户界面上的关注点。
可选的,在本申请的一个实施例中,所述处理器在实现步骤对所述停留时长以及所述关注范围进行统计分析,获取所述用户对所述用户界面的关注程度时包括:
分别对所述停留时长以及所述关注范围进行统计处理,获取所述用户界面上各个位置处的停留总时长;
在所述用户界面的各个位置上设置与所述停留总时长相匹配的标记。
可选的,在本申请的一个实施例中,所述处理器在实现步骤基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据时包括:
跟踪所述关注点,捕捉所述用户视线关注过的用户界面的图像以及所述用户视线在所述用户界面上的关注范围。
可选的,在本申请的一个实施例中,所述处理器在实现步骤所述跟踪所述关注点,捕捉所述用户视线关注过的用户界面的图像之后,还包括:
将捕捉的相似程度大于预设阈值的用户界面的图像进行合并处理;
对所述图像上的关注范围进行统计处理,获取合并后的图像上各个区域的关注程度;
在所述合并后的图像上标记所述各个区域的所述关注程度。
本申请另一方面还提供一种获取用户行为数据的装置,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现上述任一实施例所述方法的步骤。
本申请另一方面还提供一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现上述任一实施例所述方法的步骤。
所述计算机可读存储介质可以包括用于存储信息的物理装置,通常是将信息数字化后再以利用电、磁或者光学等方式的媒体加以存储。本实施例所述的计算机可读存储介质有可以包括:利用电能方式存储信息的装置如,各式存储器,如RAM、ROM等;利用磁能方式存储信息的装置如,硬盘、软盘、磁带、磁芯存储器、磁泡存储器、U盘;利用光学方式存储信息的装置如,CD或DVD。当然,还有其他方式的可读存储介质,例如量子存储器、石墨烯存储器等等。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片2。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog2。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施方式或者实施方式的某些部分所述的方法。
虽然通过实施方式描绘了本申请,本领域普通技术人员知道,本申请有许多变形和变化而不脱离本申请的精神,希望所附的权利要求包括这些变形和变化而不脱离本申请的精神。

Claims (20)

1.一种获取用户行为数据的方法,其特征在于,应用于具有深度传感装置的客户端设备,所述方法包括:
利用所述客户端设备上的深度传感装置获取用户视线在用户界面上的关注点;
跟踪所述关注点,获取所述用户视线在所述用户界面上的停留时长及关注范围;
基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据。
2.根据权利要求1所述的方法,其特征在于,所述视觉活动数据包括下述中的至少一种:
所述用户视线在所述用户界面上停留时长超过预设时长的关注范围;
所述用户视线在所述用户界面上停留时长超过预设时长的关注范围所对应的信息。
3.根据权利要求1所述的方法,其特征在于,所述基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据包括:
确定所述关注点落入所述用户界面内的预设关注范围内;
获取所述用户视线在所述预设关注范围内的停留时长。
4.根据权利要求1所述的方法,其特征在于,所述深度传感装置包括下述中的至少一种:双目摄像装置、双红外传感器、单摄像装置及红外传感器、飞行时间(Time of Flight)传感器。
5.根据权利要求4所述的方法,其特征在于,所述利用所述客户端设备上的深度传感装置获取用户视线在用户界面上的关注点包括:
基于所述客户端设备建立空间坐标系;
利用所述客户端设备上的深度传感装置获取用户的瞳孔在所述空间坐标系中的位置,以及用户视线与用户界面之间的角度;
根据所述位置和所述角度计算用户视线与所述用户界面之间的交汇点,将所述交汇点作为所述用户视线在所述用户界面上的关注点。
6.根据权利要求1所述的方法,其特征在于,所述基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据包括:
对所述停留时长以及所述关注范围进行统计分析,获取所述用户对所述用户界面的关注程度。
7.根据权利要求6所述的方法,其特征在于,所述对所述停留时长以及所述关注范围进行统计分析,获取所述用户对所述用户界面的关注程度包括:
分别对所述停留时长以及所述关注范围进行统计处理,获取所述用户界面上各个位置处的停留总时长;
在所述用户界面的各个位置上设置与所述停留总时长相匹配的标记。
8.根据权利要求1所述的方法,其特征在于,所述基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据包括:
跟踪所述关注点,捕捉所述用户视线关注过的用户界面的图像以及所述用户视线在所述用户界面上的关注范围。
9.根据权利要求8所述的方法,其特征在于,在所述跟踪所述关注点,捕捉所述用户视线关注过的用户界面的图像之后,所述方法还包括:
将捕捉的相似程度大于预设阈值的用户界面的图像进行合并处理;
对所述图像上的关注范围进行统计处理,获取合并后的图像上各个区域的关注程度;
在所述合并后的图像上标记所述各个区域的所述关注程度。
10.一种获取用户行为数据的设备,其特征在于,所述设备包括深度传感装置、显示器、处理器以及用于存储处理器可执行指令的存储器,其中,
所述显示器,用于显示用户界面;
所述深度传感装置,用于确定用户视线在用户界面上的关注点,并跟踪所述关注点,获取所述用户视线在所述用户界面上的停留时长及关注范围;
所述处理器执行所述指令时实现:基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据。
11.根据权利要求10所述的设备,其特征在于,所述视觉活动数据包括下述中的至少一种:
所述用户视线在所述用户界面上停留时长超过预设时长的关注范围;
所述用户视线在所述用户界面上停留时长超过预设时长的关注范围所对应的信息。
12.根据权利要求10所述的设备,其特征在于,所述处理器在实现步骤基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据时包括:
确定所述关注点落入所述用户界面内的预设关注范围内;
获取所述用户视线在所述预设关注范围内的停留时长。
13.根据权利要求10所述的设备,其特征在于,所述深度传感装置包括下述中的至少一种:双目摄像装置、双红外传感器、单摄像装置及红外传感器、飞行时间(Time of Flight)传感器。
14.根据权利要求13所述的设备,其特征在于,所述深度传感装置在确定用户视线在用户界面上的关注点时包括:
基于所述设备建立空间坐标系;
利用所述设备上的深度传感装置获取用户的瞳孔在所述空间坐标系中的位置,以及用户视线与用户界面之间的角度;
根据所述位置和所述角度计算用户视线与所述用户界面之间的交汇点,将所述交汇点作为所述用户视线在所述用户界面上的关注点。
15.根据权利要求10所述的设备,其特征在于,所述处理器在实现步骤基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据时包括:
对所述停留时长以及所述关注范围进行统计分析,获取所述用户对所述用户界面的关注程度。
16.根据权利要求15所述的设备,其特征在于,所述处理器在实现步骤对所述停留时长以及所述关注范围进行统计分析,获取所述用户对所述用户界面的关注程度时包括:
分别对所述停留时长以及所述关注范围进行统计处理,获取所述用户界面上各个位置处的停留总时长;
在所述用户界面的各个位置上设置与所述停留总时长相匹配的标记。
17.根据权利要求10所述的设备,其特征在于,所述处理器在实现步骤基于所述停留时长及所述关注范围,确定所述用户在所述用户界面上的视觉活动数据时包括:
跟踪所述关注点,捕捉所述用户视线关注过的用户界面的图像以及所述用户视线在所述用户界面上的关注范围。
18.根据权利要求17所述的设备,其特征在于,所述处理器在实现步骤所述跟踪所述关注点,捕捉所述用户视线关注过的用户界面的图像之后,还包括:
将捕捉的相似程度大于预设阈值的用户界面的图像进行合并处理;
对所述图像上的关注范围进行统计处理,获取合并后的图像上各个区域的关注程度;
在所述合并后的图像上标记所述各个区域的所述关注程度。
19.一种获取用户行为数据的装置,其特征在于,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现权利要求1至9中任一项所述方法的步骤。
20.一种计算机可读存储介质,其特征在于,其上存储有计算机指令,所述指令被执行时实现权利要求1至9中任一项所述方法的步骤。
CN201810688360.3A 2018-06-28 2018-06-28 一种获取用户行为数据的方法及装置 Pending CN110658907A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810688360.3A CN110658907A (zh) 2018-06-28 2018-06-28 一种获取用户行为数据的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810688360.3A CN110658907A (zh) 2018-06-28 2018-06-28 一种获取用户行为数据的方法及装置

Publications (1)

Publication Number Publication Date
CN110658907A true CN110658907A (zh) 2020-01-07

Family

ID=69026360

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810688360.3A Pending CN110658907A (zh) 2018-06-28 2018-06-28 一种获取用户行为数据的方法及装置

Country Status (1)

Country Link
CN (1) CN110658907A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110704292A (zh) * 2019-10-15 2020-01-17 中国人民解放军海军大连舰艇学院 一种显控界面设计的评价方法
CN111798457A (zh) * 2020-06-10 2020-10-20 上海众言网络科技有限公司 图像视觉重量确定方法、装置和图像评价方法
CN111966280A (zh) * 2020-08-19 2020-11-20 浙江百应科技有限公司 一种基于用户在终端滑动手势绘制热力图的方法及装置
CN113126877A (zh) * 2021-05-18 2021-07-16 中国银行股份有限公司 界面使用情况分析方法及装置
CN113129801A (zh) * 2021-04-14 2021-07-16 Oppo广东移动通信有限公司 控制方法及装置、移动终端和存储介质
CN116137003A (zh) * 2023-04-04 2023-05-19 深圳柯赛标识智能科技有限公司 基于大数据的智能广告终端及广告发布方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106598257A (zh) * 2016-12-23 2017-04-26 北京奇虎科技有限公司 基于移动终端的阅读控制方法及装置
CN107957779A (zh) * 2017-11-27 2018-04-24 海尔优家智能科技(北京)有限公司 一种利用眼部动作控制信息搜索的方法及装置
CN107957775A (zh) * 2016-10-18 2018-04-24 阿里巴巴集团控股有限公司 虚拟现实空间环境中的数据对象交互方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107957775A (zh) * 2016-10-18 2018-04-24 阿里巴巴集团控股有限公司 虚拟现实空间环境中的数据对象交互方法及装置
CN106598257A (zh) * 2016-12-23 2017-04-26 北京奇虎科技有限公司 基于移动终端的阅读控制方法及装置
CN107957779A (zh) * 2017-11-27 2018-04-24 海尔优家智能科技(北京)有限公司 一种利用眼部动作控制信息搜索的方法及装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110704292A (zh) * 2019-10-15 2020-01-17 中国人民解放军海军大连舰艇学院 一种显控界面设计的评价方法
CN110704292B (zh) * 2019-10-15 2020-11-03 中国人民解放军海军大连舰艇学院 一种显控界面设计的评价方法
CN111798457A (zh) * 2020-06-10 2020-10-20 上海众言网络科技有限公司 图像视觉重量确定方法、装置和图像评价方法
CN111798457B (zh) * 2020-06-10 2021-04-06 上海众言网络科技有限公司 图像视觉重量确定方法、装置和图像评价方法
CN111966280A (zh) * 2020-08-19 2020-11-20 浙江百应科技有限公司 一种基于用户在终端滑动手势绘制热力图的方法及装置
CN113129801A (zh) * 2021-04-14 2021-07-16 Oppo广东移动通信有限公司 控制方法及装置、移动终端和存储介质
CN113126877A (zh) * 2021-05-18 2021-07-16 中国银行股份有限公司 界面使用情况分析方法及装置
CN113126877B (zh) * 2021-05-18 2022-07-05 中国银行股份有限公司 界面使用情况分析方法及装置
CN116137003A (zh) * 2023-04-04 2023-05-19 深圳柯赛标识智能科技有限公司 基于大数据的智能广告终端及广告发布方法

Similar Documents

Publication Publication Date Title
CN110658907A (zh) 一种获取用户行为数据的方法及装置
CA3151944C (en) Virtual fitting systems and methods for spectacles
US11650659B2 (en) User input processing with eye tracking
JP6681342B2 (ja) 行動イベント計測システム及び関連する方法
Mulfari et al. Using Google Cloud Vision in assistive technology scenarios
CN102087582B (zh) 一种自动滚屏的方法及装置
KR102092931B1 (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
CN107666987A (zh) 机器人过程自动化
Toyama et al. A mixed reality head-mounted text translation system using eye gaze input
JP2019512793A (ja) バイオメトリック情報を交換するように構成された頭部搭載型ディスプレイシステム
CN104685449A (zh) 基于用户的目光的用户界面元素焦点
Kato et al. DejaVu: integrated support for developing interactive camera-based programs
CN108958577B (zh) 基于可穿戴设备的窗口操作方法、装置、穿戴设备及介质
US20180210546A1 (en) Pose-invariant eye-gaze tracking using a single commodity camera
US20190286229A1 (en) Eye tracking method, electronic device, and non-transitory computer readable storage medium
CN111736691A (zh) 头戴显示设备的交互方法、装置、终端设备及存储介质
TW201947455A (zh) 車輛損傷識別的處理方法、處理設備、客戶端及伺服器
KR20190067433A (ko) 텍스트-리딩 기반의 리워드형 광고 서비스 제공 방법 및 이를 수행하기 위한 사용자 단말
CN107220230A (zh) 一种信息采集方法和装置,以及一种智能终端
CN109543563A (zh) 安全提示方法、装置、存储介质及电子设备
US20200242659A1 (en) Media Content Tracking
CN111723758A (zh) 视频信息的处理方法、装置、电子设备及存储介质
Othman et al. CrowdEyes: Crowdsourcing for robust real-world mobile eye tracking
TW201709022A (zh) 非接觸式控制系統及方法
Emami et al. Impact of Design Decisions in Scanpath Modeling

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200107