CN114022642B - 时空行为轨迹采集、生成方法、装置、设备、***及存储介质 - Google Patents

时空行为轨迹采集、生成方法、装置、设备、***及存储介质 Download PDF

Info

Publication number
CN114022642B
CN114022642B CN202111172921.2A CN202111172921A CN114022642B CN 114022642 B CN114022642 B CN 114022642B CN 202111172921 A CN202111172921 A CN 202111172921A CN 114022642 B CN114022642 B CN 114022642B
Authority
CN
China
Prior art keywords
point
displacement
sampling
points
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111172921.2A
Other languages
English (en)
Other versions
CN114022642A (zh
Inventor
赵起超
杨苒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kingfar International Inc
Original Assignee
Kingfar International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kingfar International Inc filed Critical Kingfar International Inc
Priority to CN202111172921.2A priority Critical patent/CN114022642B/zh
Publication of CN114022642A publication Critical patent/CN114022642A/zh
Priority to EP22822259.2A priority patent/EP4184445A4/en
Priority to PCT/CN2022/095697 priority patent/WO2023056753A1/zh
Application granted granted Critical
Publication of CN114022642B publication Critical patent/CN114022642B/zh
Priority to US18/087,875 priority patent/US20230126200A1/en
Priority to ZA2024/02551A priority patent/ZA202402551B/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请涉及一种时空行为轨迹采集、生成方法、装置、设备、***及存储介质,其方法包括:获取包含多个采样点的第一时间序列,采样点为现实显示设备的投射点;对于任一采样点,基于当前采样点的采样时刻设置窗口时间,并在窗口时间内查找第一个采样点和最后一个采样点,以第一设备位置为圆心,第一设备位置为当前采样点所对应的现实显示设备的中心点,计算第一个采样点与最后一个采样点之间的角速率,若角速率大于预设角速率阈值,则将当前采样点作为位移点;对多个采样点执行上述处理,得到包含多个位移点的第二时间序列;基于多个位移点绘制移动轨迹图。本申请可实现在虚拟现实或混合现实场景中人体移动的时间与空间信息全面、完整、***的记录。

Description

时空行为轨迹采集、生成方法、装置、设备、***及存储介质
技术领域
本申请涉及时空分析技术领域,尤其是涉及一种时空行为轨迹采集、生成方法、装置、设备、***及存储介质。
背景技术
被试在虚拟现实或混合现实场景中的时空行为数据,是研究虚拟现实或混合现实场景是否符合用户期许的重要指标,因此,将时空分析引入虚拟现实、混合现实,对于扩增虚拟现实、混合现实技术的功能有着重要意义。为了分析虚拟现实中的时空行为,需要以科学的评价指标和客观量化的数据做支撑,及获得被试在虚拟现实、混合现实场景中的移动轨迹,以便于分析虚拟现实、混合现实场景的用户满意度。
目前,时空行为分析与虚拟现实、混合现实技术的结合尚未起步,且当前的虚拟现实、混合现实空间定位技术,例如激光定位、红外光定位、超声波定位等,仅能实时标定被试及交互设备在虚拟三维空间中的位置,局限于虚拟现实或混合现实场景的构造和展示,无法对被试在虚拟现实或混合现实场景中移动的空间信息进行全面、完整、***的记录。
发明内容
为了实现对被试在虚拟现实或混合现实场景中移动的空间信息进行全面、完整、***的记录,本申请提供一种时空行为轨迹采集、生成方法、装置、设备、***及存储介质。
第一方面,本申请提供了一种时空行为轨迹采集、生成方法,采用如下的技术方案:
一种时空行为轨迹采集、生成方法,包括:
获取包含多个采样点的第一时间序列,所述采样点为现实显示设备的投射点;
对于任一采样点进行第一处理,所述第一处理包括:基于当前采样点的采样时刻设置窗口时间,并在所述窗口时间内查找第一个采样点和最后一个采样点,以第一设备位置为圆心,所述第一设备位置为当前采样点所对应的现实显示设备的中心点,计算所述第一个采样点与所述最后一个采样点之间的角速率,若所述角速率大于预设角速率阈值,则将所述当前采样点作为位移点;
对所述多个采样点进行所述第一处理,得到包含多个位移点的第二时间序列;
基于所述多个位移点绘制移动轨迹图。
通过采用上述技术方案,基于指示被试位置的多个采样点,通过设置窗口时间、角速率等参数评价每一采样点,可以快速去除偏移程度小的采样点,从中筛选出符合要求的位移点,进而通过位移点绘制移动轨迹图,既可以提升绘图效率,又可以对被试在虚拟现实或混合现实场景中的移动轨迹进行清楚描述,进而对被试在虚拟现实或混合现实场景中移动的空间信息全面、完整、***的记录,为后续的时空数据分析提供数据支撑,以分析虚拟现实或混合现实场景的用户满意度。
可选的,所述窗口时间的中间时刻为所述当前采样点的采样时刻,所述窗口时间包含至少三个采样点对应的采样时刻。
可选的,在所述对于任一采样点,基于当前采样点的采样时刻设置窗口之前,还包括:
若所述第一时间序列中两个相邻的采样点之间的时间间隔位于预设间隔区间,则在所述两个相邻的采样点之间进行空隙数据填补。
通过采用上述技术方案,对于没有采集到被试位置数据的无效采样区间进行数据填补,以便保障被试移动轨迹的连续性。
可选的,所述在所述两个相邻的采样点之间进行空隙数据填补包括:
在所述两个相邻的采样点之间的连线上按照第一间距填补采样点,所述第一间距由所述两个相邻的采样点之间的距离以及所述两个相邻的采样点之间的无效采样点的数量计算得到,所述无效采样点的数量由所述两个相邻的采样点之间的时间间隔以及采样周期计算得到。
可选的,在所述基于所述多个位移点绘制移动轨迹图之前,还包括:
若所述第二时间序列中两个相邻的位移点之间的时间间隔小于第一时间间隔阈值,则判断所述两个相邻的位移点分别与第二设备位置的连线形成的夹角是否不大于预设角度阈值,其中,所述第二设备位置为所述两个相邻的位移点中采样时刻落后的位移点所对应的现实显示设备的中心点;
若是,则将所述两个相邻的位移点合并为一个新的位移点。
通过采用上述技术方案,将符合角度要求的两个相邻位移点进行融合,既能减少后续数据的运算量,又能保证提取的位移点能够准确反应被试的实际移动。
可选的,在所述基于所述多个位移点绘制移动轨迹图之前,还包括:
对于任一位移点,若被试位于当前位移点的持续时间小于第二时间间隔阈值,则丢弃所述当前位移点,所述被试位于当前位移点的持续时间为所述当前位移点与下一个位移点的采样时刻之间的时间间隔。
通过采用上述技术方案,如果被试在当前位移点的持续时间不符合要求,则被认定为无用位移点,可以减少数据量,以保障计算机运算能力。
可选的,所述移动轨迹图包括位移路线图;所述基于多个所述位移点绘制移动轨迹图包括:
获取每个位移点的显示参数,所述显示参数包括颜色、方向和面积,其中,所述方向为上一个位移点指向当前位移点,所述面积与被试位于所述当前位移点的持续时间呈正相关,所述被试位于所述当前位移点的持续时间为所述当前位移点与下一个位移点的采样时刻之间的时间间隔;
基于所述每个位移点的显示参数生成所述位移路线图。
可选的,所述移动轨迹图包括轨迹热图;所述基于多个所述位移点绘制移动轨迹图包括:
获取至少一个SOI区域,并统计所述至少一个SOI区域内的位移点数量;
对于任一SOI区域,基于被试位于各位移点的持续时间以及单位面积内位移点的数量确定颜色强度值,基于所述颜色强度值在当前SOI区域内绘制所述轨迹热图,其中,所述被试位于各位移点的持续时间为所述各位移点与下一个位移点的采样时刻之间的时间间隔。
可选的,在所述基于所述多个位移点绘制移动轨迹图之后,还包括:
获取被试在每个所述位移点的眼动数据和/或生理体征数据,将每个所述位移点的眼动数据和/或生理体征数据标注在所述移动轨迹图中;
其中,所述生理体征数据包括脑电、肌电、心率、血压、脉搏、体温、呼吸频率中的至少一种。
可选的,还包括:
获取至少一个SOI区域;
提取所述至少一个SOI区域内的位移点并生成各SOI区域的受访问评估数据,对所述各SOI区域的受访问评估数据中的访问次数、总停留时间和访问时间占比做归一化处理,加权求和得到各SOI区域的受访问评估指标;和/或,
提取所述至少一个SOI区域内的眼动数据并生成各SOI区域的受注视评估数据,对所述各SOI区域的受注视评估数据中的被注视总时长、被注视次数以及被注视时间占比做归一化处理后,加权求和得到各SOI区域的受注视评估指标;和/或,
提取所述至少一个SOI区域内的生理体征数据并生成各SOI区域的生理体征变化评估数据,对所述各SOI区域的生理体征变化评估数据做归一化处理后,加权求和得到各SOI区域的生理体征变化评估指标。
第二方面,本申请提供了一种时空行为轨迹采集、生成装置,采用如下的技术方案:
一种时空行为轨迹采集、生成装置,包括:
采样点获取模块,用于获取包含多个采样点的第一时间序列,所述采样点为现实显示设备的投射点;
位移点获取模块,用于对于任一采样点进行第一处理,所述第一处理包括:基于当前采样点的采样时刻设置窗口时间,并在所述窗口时间内查找第一个采样点和最后一个采样点,以第一设备位置为圆心,所述第一设备位置为当前采样点所对应的现实显示设备的中心点,计算所述第一个采样点与所述最后一个采样点之间的角速率,若所述角速率大于预设角速率阈值,则将所述当前采样点作为位移点;对所述多个采样点进行所述第一处理,得到包含多个位移点的第二时间序列;以及,
绘制模块,用于基于所述多个位移点绘制移动轨迹图。
第三方面,本申请提供一种电子设备,采用如下的技术方案:
一种电子设备,包括存储器和处理器;所述存储器上存储有能够被所述处理器加载并执行如第一方面任一种方法的计算机程序。
第四方面,本申请提供了一种时空行为轨迹采集、生成***,采用如下的技术方案:
一种时空行为轨迹采集、生成***,包括现实显示设备以及如第三方面所述的电子设备;
所述现实显示设备用于基于预设采样频率采集现实显示设备的投射点坐标,并向所述电子设备发送所述现实显示设备的投射点坐标;
所述电子设备用于获取所述现实显示设备的投射点坐标并基于所述现实显示设备的投射点坐标生成所述包含多个采样点的第一时间序列。
第五方面,本申请提供了一种计算机可读存储介质,采用如下的技术方案:
一种计算机可读存储介质,存储有能够被处理器加载并执行如第一方面任一种所述的方法的计算机程序。
附图说明
图1是本申请实施例提供的一种时空行为轨迹采集、生成方法的流程示意图。
图2是本申请实施例提供的以3T为窗口时间的采样点的时间分布示意图。
图3是本申请实施例提供的以3T为窗口时间的采样点的空间分布示意图。
图4是本申请实施例提供的填补采样点的示意图。
图5是本申请实施例提供的合并位移点的示意图。
图6是本申请实施例提供的一种位移路线图的平面示意图。
图7是本申请实施例提供的一种时空行为轨迹采集、生成装置的结构框图。
图8是本申请实施例提供的一种电子设备的结构框图。
图9是本申请实施例提供的一种时空行为轨迹采集、生成***的结构框图。
具体实施方式
以下结合附图,对本申请中的技术方案作进一步详细说明。
首先简单介绍本申请实施例中涉及的主要术语和涉及到的虚拟现实、混合现实定位技术,涉及到的主要术语如下:
被试:在虚拟现实或混合现实场景中进行操作的客观主体。
SOI:虚拟现实或混合现实场景中的特定区域,该区域为研究者重点关注部分。
虚拟现实场景:虚拟现实***中,被试所处的进行游览与交互的三维或二维场景,如三维模型场景、全景图片、全景视频等。
混合现实场景:混合现实***中,合并现实和虚拟场景而产生的新的可视化环境。
现实显示设备的投射点:现实显示设备包括VR显示设备和MR显示设备;在虚拟现实场景中,从VR显示设备的中心点发射一条垂直射线到虚拟现实场景中的地面,该射线与地面网格接触的点,即为VR显示设备的投射点;在混合现实场景中,从MR显示设备的中心点发射一条垂直射线到混合现实场景中的地面,该射线与地面网格接触的点,即为MR显示设备的投射点。
位移路线图:根据被试在虚拟现实或混合现实场景地面上不同时刻的现实显示设备的投射点绘制的、以箭头形式呈现的被试在虚拟现实或混合现实场景中的位移路线图。
虚拟现实、混合现实定位技术主要有以下几种:
激光定位:利用定位光塔,对定位空间发射横竖两个方向扫射的激光,被定位的现实显示设备上安装有多个激光感应接收器,通过计算两束光线到达定位物体的角度差,解算出被试的坐标。
红外线定位:采用摄像头拍摄室内场景,追踪现实显示设备上主动发光的标记点,不同定位点使用不同颜色进行区分。
超声波定位:超声波定位***中包括应答器和主测距器,应答器被部署在室内的多个地方,而现实显示设备携带主测距器,通过发射无线电波,利用声呐的原理,测出现实显示设备到至少三个应答器的距离,然后在已知应答器坐标的前提下,利用三角形算法计算出主测距器的位置,即完成对被试的室内定位。
在一个具体的场景中,以个体在VR虚拟超市环境下的时空行为研究为背景,将超市不同产品区域划分不同的SOI兴趣区域,研究个体在超市内的行走轨迹以及进入不同兴趣区域的发生顺序性,就可以分析不同性别的个体在不同时空位置下的消费行为轨迹及停留时间的差异性。
本申请实施例公开一种时空行为轨迹采集、生成方法,其应用于电子设备,电子设备包括但不限于:移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端,还可以为服务器等。
请参阅图1,一种时空行为轨迹采集、生成方法,主要包括以下步骤:
步骤S101,获取包含多个采样点的第一时间序列,采样点为现实显示设备的投射点;
具体而言,被试佩戴的现实显示设备内通过其内置的位置传感器按照预设采样频率采集被试的位置数据,并通过无线或有线传输方式实时发送至电子设备,电子设备将接收到的位置数据按照采样时刻的先后顺序排列得到第一时间序列。
本实施例中,采样点与被试的位置数据一一对应,被试的位置数据是指被试佩戴的现实显示设备的投射点的坐标,采样点即为其对应的采样时刻的现实显示设备的投射点。坐标获取方法可参考前述激光、红外线、超声波等定位技术;现实显示设备可以是但不限于VR头盔、VR眼镜等虚拟现实设备,对此本实施例不做具体限定。
步骤S102,对于任一采样点,基于当前采样点的采样时刻设置窗口时间,并在窗口时间内查找第一个采样点和最后一个采样点,以第一设备位置为圆心,第一设备位置为当前采样点所对应的现实显示设备的中心点,计算第一个采样点与最后一个采样点之间的角速率,若角速率大于预设角速率阈值,则将当前采样点作为位移点;对多个采样点进行上述处理,得到包含多个位移点的第二时间序列;
一般第一时间序列中的采样点个数较多,为了减少***记录和分析的数据量,需要筛选出具有代表性的位移点。而具有代表性的位移点则是表示被试偏移幅度大的采样点,因为相对位移小的采样点不利于后续的移动轨迹绘制,不仅会影响绘图效率,还会导致被试在虚拟现实或混合现实场景中的移动轨迹描述不清晰的问题。因此相对位移非常小的采样点,可以忽略不计。在绘制移动轨迹图前,需要先对所有采样点进行筛选,选取可以用于绘制移动轨迹图的位移点。
由于被试的身高存在较大的差异性,其步伐大小受身高的影响较大,因此,如果直接使用被试的位移距离判断被试的偏移程度,容易造成判断结果偏差。相比于位移距离的判定方法,本申请实施例使用角速率因素可以快速判断被试的偏移程度,可以有效规避身高因素,能够更为准确地评价采样点的偏移程度。
步骤S102中,窗口时间的中间时刻为当前采样点的采样时刻,窗口时间包含至少三个采样点对应的采样时刻,即窗口时间应不小于两个采样周期(2T)。
当然,窗口时间也需要设置上限值,该上限值可以设置为4T、6T或8T,即窗口时间应不大于4T、6T或8T。
图2示出了以3T为窗口时间的采样点的时间分布图。请参阅图2,该窗口时间内存在三个采样点A、B和C,其中,采样点B的采样时刻t2为该窗口时间的中间时刻,采样点A为该窗口时间内的第一个采样点,采样点B为该窗口时间内的最后一个采样点,采样点A的采样时刻t1早于采样点C的采样时刻t3。
步骤S102中,当前采样点对应的第一设备位置为被试佩戴的现实显示设备的中心点,将该中心点分别与第一个采样点和最后一个采样点用直线相连,两条直线相交形成第二夹角,根据第二夹角以及第一个采样点和最后一个采样点之间的 时间间隔计算第一个采样点与最后一个采样点之间的角速率。
图3示出了图2所示的三个采样点的空间分布图。请参阅图3,点B’为采样点B对应的第一设备位置,直线AB’与B’C相交形成夹角θ,然后根据ω=θ/(t3-t1)计算采样点A与采样点C之间的角速率。
本实施例中,预设角速率阈值可根据经验设置,例如35度/秒,对此本实施例不做具体限定。
步骤S103,基于多个位移点绘制移动轨迹图。
作为本申请实施例的一种可选实施方式,由于步骤S101中的某些采样时刻可能因为现实显示设备自身的原因未采集到被试的位置数据,因此,会出现多个无效采样点,步骤S101中获取的多个采样点可能是不连续的。
应理解,如果出现了数据丢失的情况,那么对于最终得到的移动轨迹而言,会与实际出现较大的偏离,不利于后期的数据分析,因此对于丢失的部分,需要进行填补,具体做法如下:
若第一时间序列中两个相邻的采样点之间的时间间隔位于预设间隔区间,则在两个相邻的采样点之间进行空隙数据填补。
其中,在第一时间序列上两个相邻的采样点是指两个采样点的采样时刻是相邻的;该预设间隔区间的下限值可为T,上限值的数值可与现实显示设备的间隔参数P相同,该间隔参数是基于现实显示设备自身的位移算法的来的,即只要在时间序列上两个相邻的采样点之间的时间间隔位于(T,P],就可以在这两个相邻的采样点之间***采样点。
可选的,在两个相邻的采样点之间的连线上按照第一间距填补采样点,第一间距由两个相邻的采样点之间的距离以及两个相邻的采样点之间的无效采样点的数量计算得到,无效采样点的数量由两个相邻的采样点之间的时间间隔以及采样周期计算得到。
请参阅图4,利用直线将采样点D和G相连,通过公式d=s/(n+1)计算第一间距,式中,s为采样点D和G之间的直线距离,n为两个采样点D和G之间的无效采样点的数量。已知两个相邻的采样点D、G之间的时间间隔为3T,可知采样点D和G之间存在两个无效采样点,即n=2。根据计算得到的第一间距d,在直线DG上依次***采样点E和F,数据填补后的采样点D、E、F和G之间任意两个相邻的采样点之间的距离均为第一间距d。
电子设备将填补处理后的多个采样点按照采样时刻的先后顺序排列得到第一时间序列。
需要说明的是,若第一时间序列中的两个相邻的采样点之间的时间间隔等于T,则说明这两个相邻的采样点之间不存在无效采样点;若第一时间序列中的两个相邻的采样点之间的时间间隔大于预设间隔区间的上限值P,则作断点处理,不填充采样点。
作为本申请实施例的一种可选实施方式,如果第二时间序列中的两个相邻位移点相距太近,会影响后续的移动轨迹图的生成,因此需要将其合并。同样,相比于位移距离的判定方法,本申请实施例使用角度因素判断被试的偏移程度,可以有效规避身高因素,能够更为准确地判断位移点的偏移程度。具体方法如下:
若第二时间序列中两个相邻的位移点之间的时间间隔小于第一时间间隔阈值,则判断两个相邻的位移点分别与第二设备位置的连线形成的夹角是否不大于预设角度阈值,其中,第二设备位置为两个相邻的位移点中采样时刻落后的位移点所对应的现实显示设备的中心点;若是,则将两个相邻的位移点合并为一个新的位移点。
请参阅图5,第二时间序列中的两个相邻的位移点H和I,位移点H的采样时刻t4早于位移点I的采样时刻t5,被试位于位移点I的现实显示设备的中心点I’为第二设备位置,位移点H和I分别与中心点I’的连线所呈夹角α,若α小于第一时间间隔阈值,则将位移点H和I合并为一个新的位移点。
合并的具体做法可以是:将位移点H和I相连,并取中点J为新的位移点,去掉位移点H和I。位移点J的采样时刻t6是位移点H的采样时刻t4与位移点I的采样时刻t5的中间时刻。
本实施例中,第一时间间隔阈值的数值可与现实显示设备的间隔参数P相同。
作为本申请实施例的一种可选实施方式,为了减少数据量,提升绘图效率,可以对被试停留时间短的位移点进行舍弃;另外,如果被试在某一位移点停留时间越长,则说明其对该位置的兴趣越大,而用户兴趣、满意度是研究被试的移动轨迹的目标,因此,对于被试停留时间非常短的位移点可以进行舍弃。具体方法如下:
对于任一位移点,若被试位于当前位移点的持续时间小于第二时间间隔阈值,则丢弃当前位移点,被试位于当前位移点的持续时间为当前位移点与下一个位移点的采样时刻之间的时间间隔,下一个位移点为第二时间序列中与当前位移点相邻且采样时刻落后的位移点。
本实施例中,第二时间间隔阈值根据经验值设置,例如60ms,对此本实施例不做具体限定。
需要注意的是,若需要对位移点进行合并,则需要在融合处理之后再进行位移点的舍弃处理。
本实施例中,移动轨迹图用于描述被试在虚拟现实或混合现实场景中的移动轨迹,以便对被试在虚拟现实或混合现实场景中的时空行为进行分析,其可以包括但不限于位移路线图和轨迹热图,对此本实施例不做具体限定。
以下以位移路线图和轨迹热图为例,分别对基于多个位移点绘制移动轨迹图进行说明。
当通过多个位移点绘制位移路线图时,首先获取每个位移点的显示参数,然后基于每个位移点的显示参数生成位移路线图。每个位移点都被赋予相同的图形,例如箭头,显示参数即为图形的颜色、方向和面积参数。
请参阅图6,箭头的方向用于指示被试的移动趋势,即总是由上一个位移点指向当前位移点,上一个位移点的采样时刻早于当前位移点的采样时刻。箭头的面积与被试位于当前位移点的持续时间呈正相关,即被试位于当前位移点的持续时间越长,箭头的面积越大,例如被试位于当前位移点的持续时间每增加1s,箭头面积扩大10%。箭头的颜色可预先设置,为区分不同被试的移动轨迹,不同被试的箭头颜色设置为不同。
通过上述显示参数的设定规则,可更直观地观察到不同被试的移动轨迹以及比较每个被试在虚拟现实或混合现实场景中各区域的停留长短,便于后续分析被试的感兴趣程度。
当通过多个位移点绘制轨迹热图时,首先获取虚拟现实或混合现实场景中的至少一个SOI区域,并统计至少一个SOI区域内的位移点数量;对于任一SOI区域,基于被试位于各位移点的持续时间以及单位面积内位移点的数量确定颜色强度值,基于颜色强度值在当前SOI区域内绘制轨迹热图,其中,被试位于各位移点的持续时间为各位移点与下一个位移点的采样时刻之间的时间间隔。
可以基于区域内位移点数量以及区域内位移点的持续时间总长来对各SOI区域排序,具体的,可以为区域内位移点数量以及区域内位移点的持续时间总长设置评分标准,根据各区域的得分进行排序,得分高的SOI区域的颜色强度值也高。
总体来说,位移点分布较多和/或位移点的持续时间较长的SOI区域,其颜色强度值要高于其它SOI区域,从颜色强度可以快速观察到被试对哪一SOI区域更感兴趣。
本实施例中,位移路线图、轨迹热图均可加载于在二维或三维地图中。
需要注意的是,本申请实施例中提及相邻关系均是指时间概念上的相邻,而非空间概念上的相邻。
作为本申请实施例的一种可选实施方式,在步骤S103之后,还可以获取被试在每个位移点的眼动数据和/或生理体征数据,将每个位移点的眼动数据和/或生理体征数据标注在移动轨迹图中。其中,生理体征数据包括脑电、肌电、心率、血压、脉搏、体温、呼吸频率中的至少一种。
进一步地,在绘制轨迹热图时,获取虚拟现实或混合现实场景中的至少一个SOI区域,此时可以对各SOI区域内的位移点和/或眼动数据和/或生理体征数据进行处理,得到各SOI区域的各类评估指标。具体如下:
(1)提取至少一个SOI区域内的位移点并生成各SOI区域的受访问评估数据,对各SOI区域的受访问评估数据中的访问次数、总停留时间和访问时间占比做归一化处理,加权求和得到各SOI区域的受访问评估指标;
访问次数、总停留时间以及访问时间占比的量纲并不同一,在进行归一化处理后(可以将数据映射到0~1范围之内),通过加权求和,得到受访问评估指标。受访问评估指标的数值越高,表示被试与SOI区域的交互程度越高,SOI区域对于被试的吸引力越高。
(2)提取至少一个SOI区域内的眼动数据并生成各SOI区域的受注视评估数据,对各SOI区域的受注视评估数据中的被注视总时长、被注视次数以及被注视时间占比做归一化处理后,加权求和得到各SOI区域的受注视评估指标;
被注视总时长、被注视次数以及被注视时间占比的量纲并不同一,在进行归一化处理后(可以将数据映射到0~1范围之内),通过加权求和,得到受注视评估指标。受注视评估指标的数值越高,表示被试与SOI区域的交互程度越高,SOI区域对于被试的吸引力越高。
(3)提取至少一个SOI区域内的生理体征数据并生成各SOI区域的生理体征变化评估数据,对各SOI区域的生理体征变化评估数据做归一化处理后,加权求和得到各SOI区域的生理体征变化评估指标。
以脑电和呼吸频率为例,可以采用脑电信号和呼吸频率的标准差作为脑电变化数据和呼吸频率变化数据,在进行归一化处理后(可以将数据映射到0~1范围之内),通过加权求和,得到生理体征变化评估指标。生理体征变化评估指标的数值越高,表示SOI区域对于被试情绪的激发程度越高,也即吸引效果越好。
本可选实施方式中,将各SOI区域的受访问评估数据、受注视评估数据和/或生理体征变化评估数据作为评估元素关联于各SOI区域的设定评估指标,以获得相应的评估结果。
请参阅图7,本申请实施例还提供了一种时空行为轨迹采集、生成装置,主要包括:
采样点获取模块201,用于获取包含多个采样点的第一时间序列,采样点为现实显示设备的投射点;
位移点获取模块202,用于对于任一采样点,基于当前采样点的采样时刻设置窗口时间,并在窗口时间内查找第一个采样点和最后一个采样点,以第一设备位置为圆心,所述第一设备位置为当前采样点所对应的现实显示设备的中心点,计算第一个采样点与最后一个采样点之间的角速率,若角速率大于预设角速率阈值,则将当前采样点作为位移点;对多个采样点进行上述处理,得到包含多个位移点的第二时间序列;以及,
绘制模块203,用于基于多个位移点绘制移动轨迹图。
作为本实施例的一种可选实施方式,窗口时间的中间时刻为当前采样点的采样时刻,窗口时间包含至少三个采样点对应的采样时刻。
作为本实施例的一种可选实施方式,还包括填补模块,用于在对于任一采样点,基于当前采样点的采样时刻设置窗口之前,若第一时间序列中两个相邻的采样点之间的时间间隔位于预设间隔区间,则在两个相邻的采样点之间进行空隙数据填补。
本可选实施方式,填补模块具体用于在两个相邻的采样点之间的连线上按照第一间距填补采样点,第一间距由两个相邻的采样点之间的距离以及两个相邻的采样点之间的无效采样点的数量计算得到,无效采样点的数量由两个相邻的采样点之间的时间间隔以及采样周期计算得到。
作为本实施例的一种可选实施方式,还包括融合模块,用于在基于多个位移点绘制移动轨迹图之前,若第二时间序列中两个相邻的位移点之间的时间间隔小于第一时间间隔阈值,则判断两个相邻的位移点分别与第二设备位置的连线形成的夹角是否不大于预设角度阈值,其中,第二设备位置为两个相邻的位移点中采样时刻落后的位移点所对应的现实显示设备的中心点;若是,则将两个相邻的位移点合并为一个新的位移点。
作为本实施例的一种可选实施方式,还包括丢弃模块,用于在基于多个位移点绘制移动轨迹图之前,对于任一位移点,若被试位于当前位移点的持续时间小于第二时间间隔阈值,则丢弃当前位移点,被试位于当前位移点的持续时间为当前位移点与下一个位移点的采样时刻之间的时间间隔。
作为本实施例的一种可选实施方式,移动轨迹图包括位移路线图;绘制模块203具体用于获取每个位移点的显示参数,显示参数包括颜色、方向和面积,其中,方向为上一个位移点指向当前位移点,面积与被试位于当前位移点的持续时间呈正相关,被试位于当前位移点的持续时间为当前位移点与下一个位移点的采样时刻之间的时间间隔;基于每个位移点的显示参数生成位移路线图。
作为本实施例的一种可选实施方式,移动轨迹图包括轨迹热图;绘制模块203具体用于获取至少一个SOI区域,并统计至少一个SOI区域内的位移点数量;对于任一SOI区域,基于被试位于各位移点的持续时间以及单位面积内位移点的数量确定颜色强度值,基于颜色强度值在当前SOI区域内绘制轨迹热图,其中,被试位于各位移点的持续时间为各位移点与下一个位移点的采样时刻之间的时间间隔。
作为本实施例的一种可选实施方式,在基于多个位移点绘制移动轨迹图之后,还包括:标注模块,用于获取被试在每个位移点的眼动数据和/或生理体征数据,将每个位移点的眼动数据和/或生理体征数据标注在移动轨迹图中;其中,生理体征数据包括脑电、肌电、心率、血压、脉搏、体温、呼吸频率中的至少一种。
本可选实施方式中,还包括:
SOI区域获取模块,用于获取至少一个SOI区域;
第一提取模块,用于提取至少一个SOI区域内的位移点并生成各SOI区域的受访问评估数据,对各SOI区域的受访问评估数据中的访问次数、总停留时间和访问时间占比做归一化处理,加权求和得到各SOI区域的受访问评估指标;和/或,
第二提取模块,用于提取至少一个SOI区域内的眼动数据并生成各SOI区域的受注视评估数据,对各SOI区域的受注视评估数据中的被注视总时长、被注视次数以及被注视时间占比做归一化处理后,加权求和得到各SOI区域的受注视评估指标;和/或,
第三提取模块,用于提取至少一个SOI区域内的生理体征数据并生成各SOI区域的生理体征变化评估数据,对各SOI区域的生理体征变化评估数据做归一化处理后,加权求和得到各SOI区域的生理体征变化评估指标。
在一个例子中,以上任一装置中的单元可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个专用集成电路(application specificintegratedcircuit,ASIC),或,一个或多个数字信号处理器(digital signal processor,DSP),或,一个或者多个现场可编程门阵列(field programmable gate array,FPGA),或这些集成电路形式中至少两种的组合。
再如,当装置中的单元可以通过处理元件调度程序的形式实现时,该处理元件可以是通用处理器,例如中央处理器(central processing unit,CPU)或其它可以调用程序的处理器。再如,这些单元可以集成在一起,以片上***(system-on-a-chip,SOC)的形式实现。
在本申请中可能出现的对各种消息/信息/设备/网元/***/装置/动作/操作/流程/概念等各类客体进行了赋名,可以理解的是,这些具体的名称并不构成对相关客体的限定,所赋名称可随着场景,语境或者使用习惯等因素而变更,对本申请中技术术语的技术含义的理解,应主要从其在技术方案中所体现/执行的功能和技术效果来确定。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
还应理解,诸如第一和第二之类的关系术语仅仅用来将一个实体或者操作与另一个实体或者操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
还应理解,在本申请的各个实施例中,如果没有特殊说明以及逻辑冲突,不同的实施例之间的术语和/或描述具有一致性、且可以相互引用,不同的实施例中的技术特征根据其内在的逻辑关系可以组合形成新的实施例。
请参阅图8,本申请实施例还提供一种电子设备,电子设备300包括存储器301、处理器302和通信总线303。
存储器301可用于存储指令、程序、代码、代码集或指令集。存储器301可以包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作***的指令、用于至少一个功能的指令以及用于实现上述实施例提供的时空行为轨迹采集,生成方法的指令等;存储数据区可存储上述实施例提供的时空行为轨迹采集,生成方法中涉及到的数据等。
处理器302可以包括一个或者多个处理核心。处理器302通过运行或执行存储在存储器301内的指令、程序、代码集或指令集,调用存储在存储器301内的数据,执行本申请的各种功能和处理数据。处理器302可以为特定用途集成电路(Application SpecificIntegrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital Signal Processing Device,DSPD)、可编程逻辑装置(ProgrammableLogic Device,PLD)、现场可编程门阵列(Field Programmable Gate Array,FPGA)、中央处理器(Central Processing Unit,CPU)、控制器、微控制器和微处理器中的至少一种。可以理解地,对于不同的设备,用于实现上述处理器302功能的电子器件还可以为其它,本申请实施例不作具体限定。
通信总线303可包括一通路,在上述组件之间传送信息。通信总线303可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA (ExtendedIndustry Standard Architecture,扩展工业标准结构)总线等。通信总线303可以分为地址总线、数据总线、控制总线等。为便于表示,图3中仅用一个双箭头表示,但并不表示仅有一根总线或一种类型的总线。
其中,电子设备300包括但不限于:移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端,还可以为服务器等。图8示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
请参阅图9,本申请实施例还提供一种时空行为轨迹采集,生成***,该***包括现实显示设备400以及电子设备300。其中,现实显示设备400用于基于预设采样频率采集现实显示设备的投射点坐标,并向电子设备300发送位置数据。
电子设备300用于获取现实显示设备的投射点坐标并基于现实显示设备的投射点坐标生成包含多个采样点的第一时间序列,对于任一采样点,基于当前采样点的采样时刻设置窗口时间,并在窗口时间内查找第一个采样点和最后一个采样点,以第一设备位置为圆心,第一设备位置为当前采样点所对应的现实显示设备的中心点,计算第一个采样点与最后一个采样点之间的角速率,若角速率大于预设角速率阈值,则将当前采样点作为位移点;对多个采样点进行上述处理,得到包含多个位移点的第二时间序列;基于多个位移点绘制并显示虚拟现实或混合现实场景中的移动轨迹图。
基于指示被试位置的多个采样点,通过设置窗口时间、角速率等参数评价每一采样点,快速去除偏移程度小的采样点,从中筛选出符合要求的位移点,进而通过位移点绘制移动轨迹图,既可以提升绘图效率,又可以对被试在虚拟现实或混合现实场景中的移动轨迹进行清楚描述,进而对被试在虚拟现实或混合现实场景中移动的空间信息全面、完整、***的记录,为后续的时空数据分析提供数据支撑,以分析虚拟现实或混合现实场景的用户满意度。
本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个计算机可读存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的计算机可读存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本具体实施方式的实施例均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。

Claims (13)

1.一种时空行为轨迹采集、生成方法,其特征在于,包括:
获取包含多个采样点的第一时间序列,所述采样点为现实显示设备的投射点;
对于任一采样点进行第一处理,所述第一处理包括:基于当前采样点的采样时刻设置窗口时间,并在所述窗口时间内查找第一个采样点和最后一个采样点,以第一设备位置为圆心,所述第一设备位置为当前采样点所对应的现实显示设备的中心点,计算所述第一个采样点与所述最后一个采样点之间的角速率,若所述角速率大于预设角速率阈值,则将所述当前采样点作为位移点;
对所述多个采样点进行所述第一处理,得到包含多个位移点的第二时间序列;
基于所述多个位移点绘制移动轨迹图;
在所述基于所述多个位移点绘制移动轨迹图之前,还包括:
若所述第二时间序列中两个相邻的位移点之间的时间间隔小于第一时间间隔阈值,则判断所述两个相邻的位移点分别与第二设备位置的连线形成的夹角是否不大于预设角度阈值,其中,所述第二设备位置为所述两个相邻的位移点中采样时刻落后的位移点所对应的现实显示设备的中心点;
若是,则将所述两个相邻的位移点合并为一个新的位移点。
2.根据权利要求1所述的方法,其特征在于,所述窗口时间的中间时刻为所述当前采样点的采样时刻,所述窗口时间包含至少三个采样点对应的采样时刻。
3.根据权利要求1或者2所述的方法,其特征在于,在所述对于任一采样点,基于当前采样点的采样时刻设置窗口之前,还包括:
若所述第一时间序列中两个相邻的采样点之间的时间间隔位于预设间隔区间,则在所述两个相邻的采样点之间进行空隙数据填补。
4.根据权利要求3所述的方法,其特征在于,所述在所述两个相邻的采样点之间进行空隙数据填补包括:
在所述两个相邻的采样点之间的连线上按照第一间距填补采样点,所述第一间距由所述两个相邻的采样点之间的距离以及所述两个相邻的采样点之间的无效采样点的数量计算得到,所述无效采样点的数量由所述两个相邻的采样点之间的时间间隔以及采样周期计算得到。
5.根据权利要求1或者2所述的方法,其特征在于,在所述基于所述多个位移点绘制移动轨迹图之前,还包括:
对于任一位移点,若被试位于当前位移点的持续时间小于第二时间间隔阈值,则丢弃所述当前位移点,所述被试位于当前位移点的持续时间为所述当前位移点与下一个位移点的采样时刻之间的时间间隔;
其中,被试为在虚拟现实或混合现实场景中进行操作的客观主体。
6.根据权利要求1或者2所述的方法,其特征在于,所述移动轨迹图包括位移路线图;所述基于多个所述位移点绘制移动轨迹图包括:
获取每个位移点的显示参数,所述显示参数包括颜色、方向和面积,其中,所述方向为上一个位移点指向当前位移点,所述面积与被试位于所述当前位移点的持续时间呈正相关,所述被试位于所述当前位移点的持续时间为所述当前位移点与下一个位移点的采样时刻之间的时间间隔;
基于所述每个位移点的显示参数生成所述位移路线图。
7.根据权利要求1或者2所述的方法,其特征在于,所述移动轨迹图包括轨迹热图;所述基于多个所述位移点绘制移动轨迹图包括:
获取至少一个SOI区域,并统计所述至少一个SOI区域内的位移点数量;
对于任一SOI区域,基于被试位于各位移点的持续时间以及单位面积内位移点的数量确定颜色强度值,基于所述颜色强度值在当前SOI区域内绘制所述轨迹热图,其中,所述被试位于各位移点的持续时间为所述各位移点与下一个位移点的采样时刻之间的时间间隔。
8.根据权利要求1或者2所述的方法,其特征在于,在所述基于所述多个位移点绘制移动轨迹图之后,还包括:
获取被试在每个所述位移点的眼动数据和/或生理体征数据,将每个所述位移点的眼动数据和/或生理体征数据标注在所述移动轨迹图中;
其中,所述生理体征数据包括脑电、肌电、心率、血压、脉搏、体温、呼吸频率中的至少一种。
9.根据权利要求8所述的方法,其特征在于,还包括:
获取至少一个SOI区域;
提取所述至少一个SOI区域内的位移点并生成各SOI区域的受访问评估数据,对所述各SOI区域的受访问评估数据中的访问次数、总停留时间和访问时间占比做归一化处理,加权求和得到各SOI区域的受访问评估指标;和/或,
提取所述至少一个SOI区域内的眼动数据并生成各SOI区域的受注视评估数据,对所述各SOI区域的受注视评估数据中的被注视总时长、被注视次数以及被注视时间占比做归一化处理后,加权求和得到各SOI区域的受注视评估指标;和/或,
提取所述至少一个SOI区域内的生理体征数据并生成各SOI区域的生理体征变化评估数据,对所述各SOI区域的生理体征变化评估数据做归一化处理后,加权求和得到各SOI区域的生理体征变化评估指标。
10.一种时空行为轨迹采集、生成装置,其特征在于,包括:
采样点获取模块,用于获取包含多个采样点的第一时间序列,所述采样点为现实显示设备的投射点;
位移点获取模块,用于对于任一采样点进行第一处理,所述第一处理包括:基于当前采样点的采样时刻设置窗口时间,并在所述窗口时间内查找第一个采样点和最后一个采样点,以第一设备位置为圆心,所述第一设备位置为当前采样点所对应的现实显示设备的中心点,计算所述第一个采样点与所述最后一个采样点之间的角速率,若所述角速率大于预设角速率阈值,则将所述当前采样点作为位移点;对所述多个采样点进行所述第一处理,得到包含多个位移点的第二时间序列;以及,
绘制模块,用于基于所述多个位移点绘制移动轨迹图;
还包括融合模块,用于在基于多个位移点绘制移动轨迹图之前,若第二时间序列中两个相邻的位移点之间的时间间隔小于第一时间间隔阈值,则判断两个相邻的位移点分别与第二设备位置的连线形成的夹角是否不大于预设角度阈值,其中,第二设备位置为两个相邻的位移点中采样时刻落后的位移点所对应的现实显示设备的中心点;若是,则将两个相邻的位移点合并为一个新的位移点。
11.一种电子设备,其特征在于,包括存储器和处理器;所述存储器上存储有能够被所述处理器加载并执行如权利要求1至9任一项所述方法的计算机程序。
12.一种时空行为轨迹采集、生成***,其特征在于,包括现实显示设备以及如权利要求11所述的电子设备;
所述现实显示设备用于基于预设采样频率采集现实显示设备的投射点坐标,并向所述电子设备发送所述现实显示设备的投射点坐标;
所述电子设备用于获取所述现实显示设备的投射点坐标并基于所述现实显示设备的投射点坐标生成所述包含多个采样点的第一时间序列。
13.一种计算机可读存储介质,其特征在于,存储有能够被处理器加载并执行如权利要求1至9任一项所述方法的计算机程序。
CN202111172921.2A 2021-10-08 2021-10-08 时空行为轨迹采集、生成方法、装置、设备、***及存储介质 Active CN114022642B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202111172921.2A CN114022642B (zh) 2021-10-08 2021-10-08 时空行为轨迹采集、生成方法、装置、设备、***及存储介质
EP22822259.2A EP4184445A4 (en) 2021-10-08 2022-05-27 METHOD, APPARATUS, APPARATUS, SYSTEM AND STORAGE MEDIUM FOR COLLECTING SPATIO-TEMPORAL BEHAVIORS AND FOR GENERATING A SPATIO-TEMPORAL BEHAVIOR TRACE
PCT/CN2022/095697 WO2023056753A1 (zh) 2021-10-08 2022-05-27 时空行为轨迹采集、生成方法、装置、设备、***及存储介质
US18/087,875 US20230126200A1 (en) 2021-10-08 2022-12-23 Method, apparatus, device, system and storage medium for collecting spatiotemporal behaviors and generating a spatiotemporal behavior track
ZA2024/02551A ZA202402551B (en) 2021-10-08 2024-04-02 Method, apparatus, device, system and storage medium for collecting spatiotemporal behaviors and generating a spatiotemporal behavior track

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111172921.2A CN114022642B (zh) 2021-10-08 2021-10-08 时空行为轨迹采集、生成方法、装置、设备、***及存储介质

Publications (2)

Publication Number Publication Date
CN114022642A CN114022642A (zh) 2022-02-08
CN114022642B true CN114022642B (zh) 2022-07-19

Family

ID=80055553

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111172921.2A Active CN114022642B (zh) 2021-10-08 2021-10-08 时空行为轨迹采集、生成方法、装置、设备、***及存储介质

Country Status (5)

Country Link
US (1) US20230126200A1 (zh)
EP (1) EP4184445A4 (zh)
CN (1) CN114022642B (zh)
WO (1) WO2023056753A1 (zh)
ZA (1) ZA202402551B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114022642B (zh) * 2021-10-08 2022-07-19 北京津发科技股份有限公司 时空行为轨迹采集、生成方法、装置、设备、***及存储介质
CN116859246B (zh) * 2023-07-25 2024-05-07 上海思格源智能科技有限公司 一种电池电芯自动识别方法及***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106123893A (zh) * 2016-06-15 2016-11-16 北京奇虎科技有限公司 空间活动轨迹生成方法、装置
CN108332771A (zh) * 2018-01-12 2018-07-27 四川斐讯信息技术有限公司 一种在复杂环境中计算运动距离的方法及***
CN110941996A (zh) * 2019-11-04 2020-03-31 深圳市唯特视科技有限公司 一种基于生成对抗网络的目标及轨迹增强现实方法和***
CN111983210A (zh) * 2020-06-29 2020-11-24 北京津发科技股份有限公司 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置
WO2021133964A1 (en) * 2019-12-27 2021-07-01 Lyft, Inc. Systems and methods for presenting a reconstructed representation of a moving object detected in a scene
CN113064540A (zh) * 2021-03-23 2021-07-02 网易(杭州)网络有限公司 基于游戏的绘制方法、绘制装置、电子设备及存储介质
WO2021147905A1 (zh) * 2020-01-20 2021-07-29 北京津发科技股份有限公司 三维空间内注视行为的识别方法、装置及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10686972B2 (en) * 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
US11188146B2 (en) * 2015-10-17 2021-11-30 Arivis Ag Direct volume rendering in virtual and/or augmented reality
CN107239144B (zh) * 2017-06-09 2020-02-07 歌尔股份有限公司 一种设备的输入方法和装置
US10942564B2 (en) * 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
CN109271030B (zh) * 2018-09-25 2020-12-22 华南理工大学 一种三维空间下注视点轨迹多维度比较方法
US11583178B2 (en) * 2018-10-23 2023-02-21 Burke Neurological Institute Systems and methods for evaluating contrast sensitivity and other visual metrics
US11256342B2 (en) * 2019-04-03 2022-02-22 Facebook Technologies, Llc Multimodal kinematic template matching and regression modeling for ray pointing prediction in virtual reality
CN109961106B (zh) * 2019-04-18 2022-03-18 北京百度网讯科技有限公司 轨迹分类模型的训练方法和装置、电子设备
CN111265225B (zh) * 2020-01-20 2022-04-12 北京津发科技股份有限公司 移动终端可用性的选择方法及装置
CN114022642B (zh) * 2021-10-08 2022-07-19 北京津发科技股份有限公司 时空行为轨迹采集、生成方法、装置、设备、***及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106123893A (zh) * 2016-06-15 2016-11-16 北京奇虎科技有限公司 空间活动轨迹生成方法、装置
CN108332771A (zh) * 2018-01-12 2018-07-27 四川斐讯信息技术有限公司 一种在复杂环境中计算运动距离的方法及***
CN110941996A (zh) * 2019-11-04 2020-03-31 深圳市唯特视科技有限公司 一种基于生成对抗网络的目标及轨迹增强现实方法和***
WO2021133964A1 (en) * 2019-12-27 2021-07-01 Lyft, Inc. Systems and methods for presenting a reconstructed representation of a moving object detected in a scene
WO2021147905A1 (zh) * 2020-01-20 2021-07-29 北京津发科技股份有限公司 三维空间内注视行为的识别方法、装置及存储介质
CN111983210A (zh) * 2020-06-29 2020-11-24 北京津发科技股份有限公司 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置
CN113064540A (zh) * 2021-03-23 2021-07-02 网易(杭州)网络有限公司 基于游戏的绘制方法、绘制装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
马晓辉.基于VR的医院应急疏散认知试验与时空行为研究.《中国优秀硕士学位论文全文数据库(电子期刊)工程科技II辑》.2020,全文. *

Also Published As

Publication number Publication date
ZA202402551B (en) 2024-04-24
WO2023056753A1 (zh) 2023-04-13
US20230126200A1 (en) 2023-04-27
EP4184445A1 (en) 2023-05-24
EP4184445A4 (en) 2024-01-03
CN114022642A (zh) 2022-02-08

Similar Documents

Publication Publication Date Title
CN114022642B (zh) 时空行为轨迹采集、生成方法、装置、设备、***及存储介质
CN107820593B (zh) 一种虚拟现实交互方法、装置及***
CN111598900B (zh) 一种图像区域分割模型训练方法、分割方法和装置
US8666790B2 (en) Point of view shopper camera system with orientation sensor
CN108594999B (zh) 用于全景图像展示***的控制方法和装置
CN103984763B (zh) 一种轨迹图显示设备、方法和监控终端
CN108200334B (zh) 图像拍摄方法、装置、存储介质及电子设备
CN110059624B (zh) 用于检测活体的方法和装置
JP2010061452A (ja) 端末装置、情報処理方法及びプログラム
CN112927363A (zh) 体素地图构建方法及装置、计算机可读介质和电子设备
CN111983210B (zh) 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置
CN107256082B (zh) 一种基于网络一体化和双目视觉技术的投掷物弹道轨迹测算***
CN113115229A (zh) 一种基于北斗网格码的人员轨迹追踪方法及***
CN112733620A (zh) 信息提示方法、装置、存储介质及电子设备
US11062140B2 (en) Display method, electronic device and storage medium having the same
Tian et al. Behavior analysis of indoor escape route-finding based on head-mounted vr and eye tracking
CN115205330A (zh) 轨迹信息生成方法、装置、电子设备和计算机可读介质
CN114860786A (zh) 轨迹显示方法、电子设备、存储介质和程序产品
Bazo et al. Baptizo: A sensor fusion based model for tracking the identity of human poses
Li et al. Location and model reconstruction algorithm for overlapped and sheltered spherical fruits based on geometry
CN109359543B (zh) 一种基于骨骼化的人像检索方法及装置
Othman et al. CrowdEyes: Crowdsourcing for robust real-world mobile eye tracking
CN106454233A (zh) 人群聚集的智能监控方法和***
Cao et al. Towards activity recognition through multidimensional mobile data fusion with a smartphone and deep learning
CN115168628A (zh) 信息推荐方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant