CN117120958A - 压力检测 - Google Patents

压力检测 Download PDF

Info

Publication number
CN117120958A
CN117120958A CN202280025296.5A CN202280025296A CN117120958A CN 117120958 A CN117120958 A CN 117120958A CN 202280025296 A CN202280025296 A CN 202280025296A CN 117120958 A CN117120958 A CN 117120958A
Authority
CN
China
Prior art keywords
user
experience
environment
determining
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280025296.5A
Other languages
English (en)
Inventor
B·帕斯里
G·H·姆里肯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Priority claimed from PCT/US2022/020494 external-priority patent/WO2022212052A1/en
Publication of CN117120958A publication Critical patent/CN117120958A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本文所公开的各种具体实施包括在内容的呈现期间确定用户的压力水平的设备、***和方法。例如,示例性过程可包括:在环境中的体验期间获得与用户相关联的生理数据;基于该环境的传感器数据来确定该体验的上下文;基于获得的生理数据和该体验的该上下文来确定在该体验的一部分期间该用户的压力水平;以及基于该压力水平在该体验期间提供反馈机制。

Description

压力检测
技术领域
本公开整体涉及经由电子设备呈现内容,并且更具体地,涉及在电子内容的呈现期间和/或基于电子内容的呈现和用户的环境来确定用户的压力水平的***、方法和设备。
背景技术
在查看和/或收听在电子设备上的内容时用户的压力水平可能对用户的体验有显著影响。例如,压力意识可帮助促进更有意义的体验,诸如观看教育或娱乐内容、学***的改进的技术可增强用户的享受、理解和对内容的学***信息来提供用户更可能享受、理解和从中学习的更好且更有针对性的用户体验。
发明内容
本文所公开的各种具体实施包括评价用户的生理数据(例如,注视特性)和用户的体验的上下文以预测压力水平(例如,预测用户何时正在经历压力)并且基于该用户的压力水平来提供反馈机制(例如,向用户提供通知)的设备、***和方法。可基于用户的压力水平和压力类型来呈现不同的反馈机制。例如,反馈机制可提供简单的通知、推荐冥想或创建放松的VR空间以鼓励降低的压力水平。聚合的数据可用于压力训练程序(例如,如果用户每天早晨冥想/练***的帮助程度)。
生理数据可用于确定压力水平。例如,一些具体实施可识别用户的眼睛特性(例如,眨眼率、稳定注视方向、扫视幅度/速度和/或瞳孔半径)、皮肤电活动、心率和/或移动对应于“平静”压力水平而不是“苦恼”压力水平。
上下文可另外用于确定压力水平。例如,对体验的场景分析可确定对与被呈现给用户的内容相关联的视觉和/或听觉属性(例如,在视频内容中呈现什么)和/或与用户的环境相关联的属性(例如,用户在哪里、用户在做什么、什么对象在附近)的场景理解。所呈现的内容和用户的环境两者的这些属性可改进对用户的压力水平的确定。
一些具体实施提高了压力水平评价准确度,例如,提高了对用户压力水平的评价。一些具体实施通过基于所识别的压力水平提供通知(例如,通知用户他们在紧张的体验期间展现出比正常压力水平更高的压力水平)来改善用户体验。一些具体实施通过提供最小化或避免中断或干扰用户体验的压力水平评价来改善用户体验,例如,而不会显著地中断用户的注意力或执行任务的能力。在一个方面,本文所述的过程确定用户处于“高压力”状态中并且帮助用户平静下来,例如,基于检测到与压力状态对应的生理机能,设备可提供放松的内容(例如,冥想虚拟内容、放松音乐等)。
在一些具体实施中,可基于用户的环境的特性(例如,真实世界物理环境、虚拟环境或每一者的组合)来选择反馈机制。设备(例如,手持式设备、膝上型电脑、台式电脑或头戴式设备(HMD))向用户提供真实世界物理环境、扩展现实(XR)环境或每一者的组合(例如,混合现实环境)的体验(例如,视觉体验和/或听觉体验)。该设备利用一个或多个传感器获得与用户相关联的生理数据(例如,脑电图(EEG)幅度、瞳孔调制、眼睛注视扫视、心率、皮肤电活动/皮肤电导等)。基于所获得的生理数据,本文所述的技术可确定用户在体验(例如,学***3(例如,平静、积极压力、忧虑等)和压力类型(例如,身体、认知、社交等)。基于生理数据和相关联的生理响应,该技术可向用户提供当前压力水平与体验的预期压力水平不同的反馈,推荐该体验的类似内容或类似部分,并且/或者调整对应于该体验的内容或反馈机制。
生理响应数据诸如EEG振幅/频率、瞳孔调制、眼睛注视扫视、心率、皮肤电活动(EDA)等的可取决于个人、他或她前方的场景的特性(例如,视频内容)、围绕用户的物理环境的属性(包括用户的活动/移动)以及在其中呈现的反馈机制。当用户执行需要变化的压力水平的任务时,诸如与视频(例如,高压力视频,诸如在XR中走木板)的交互,可在使用具有眼睛跟踪技术(和其他生理传感器)的设备的同时获得生理响应数据。在一些具体实施中,可使用其他传感器(诸如EEG传感器或EDA传感器)来获得生理响应数据。观察对体验的生理响应数据的重复测量可给出关于在不同时间尺度上对用户的潜在压力状态的见解。这些压力度量可用于在体验期间提供反馈。
若干不同的体验可利用本文所述的关于评价压力水平的技术。例如,学***静下来。另一个示例可以是通知需要就正在创建高压力环境的他或她的当前任务短暂休息的工作者的工作场所体验。例如,向可能在长时间外科手术期间变得有点累的外科医生提供反馈、提醒进行长时间驾驶的卡车驾驶员他或她正在失去专注并可能需要靠边停车进行睡眠等。本文所述的技术可针对可能需要某种类型的反馈机制来进入或维持一个或多个特定压力水平的任何用户和体验定制。
一些具体实施评价生理数据和其他用户信息以帮助改善用户体验。在此类过程中,例如应当通过确保用户理解并同意用户数据的使用、理解使用什么类型的用户数据、控制用户数据的收集和使用以及限制用户数据的分配(例如,通过确保用户数据在用户的设备上被本地处理)来尊重用户偏好和隐私。用户应当具有关于是否获得或使用他们的用户数据或以其他方式打开和关闭获得或使用用户信息的任何特征选择加入或选择退出的选项。此外,每个用户应当具有访问以及以其他方式找出***已经收集或确定的关于他或她的任何东西的能力。
一般来说,本说明书中所描述的主题的一个创新方面可体现于包括以下动作的方法中:在环境中的体验期间获得与用户相关联的生理数据;基于该环境的传感器数据来确定该体验的上下文;基于获得的生理数据和该体验的上下文来确定用户在该体验的一部分期间的压力水平;以及基于该压力水平来提供反馈机制。
这些实施方案和其他实施方案均可任选地包括以下特征中的一个或多个特征。
在一些方面,在该体验的该部分期间确定用户的压力水平还包括基于传感器数据来确定用户的压力类型,并且在该体验期间提供反馈机制还基于该压力类型。
在一些方面,该方法还包括基于压力水平来向用户提供通知。在一些方面,该方法还包括基于用户的压力水平来定制包括在体验中的内容。
在一些方面,该压力水平是第一压力水平,并且该方法还包括使用传感器获得与该用户对反馈机制的生理响应相关联的第一生理数据,以及基于该用户对该反馈机制的该生理响应来确定该用户的第二压力水平。
在一些方面,该方法还包括基于该用户对该反馈机制的该生理响应来评价该用户的该第二压力水平,并且通过将该第二压力水平与该第一压力水平进行比较来确定该反馈机制是否减小了该用户的压力。
在一些方面,确定该体验的该上下文包括基于该环境的该传感器数据来生成对该环境的场景理解,该场景理解包括该环境的视觉属性或听觉属性,以及基于对该环境的该场景理解来确定该体验的该上下文。
在一些方面,该传感器数据包括图像数据,并且生成该场景理解至少基于执行该图像数据的语义分割以及基于该语义分割来检测该环境内的一个或多个对象。在一些方面,该传感器数据包括该用户的位置数据,并且确定该体验的该上下文包括基于该位置数据来确定该用户在该环境内的位置。
在一些方面,确定该体验的该上下文包括基于对该环境的该场景理解来确定该用户的活动。在一些方面,确定该体验的该上下文包括基于用户的计划表来确定该用户的活动。
在一些方面,确定该体验的该上下文包括确定该用户正在食用食物。在一些方面,该压力水平和该反馈机制是基于该用户食用食物来确定的。
在一些方面,该生理数据包括与该用户相关联的皮肤温度、呼吸、光电容积描记图(PPG)、皮肤电活动(EDA)、眼睛注视跟踪和瞳孔移动中的至少一者。
在一些方面,使用统计的或基于机器学***。在一些方面,该方法还包括基于压力水平来向用户提供通知。在一些方面,该方法还包括识别该体验的与该压力水平相关联的部分。在一些方面,该方法还包括基于该用户的压力水平来定制该体验的内容。
在一些方面,该设备是头戴式设备(HMD),并且该环境包括扩展现实环境。
根据一些具体实施中,非暂态计算机可读存储介质中存储有指令,所述指令是计算机可执行的以执行或使得执行本文所述的任何方法。根据一些具体实施,一种设备包括一个或多个处理器、非暂态存储器以及一个或多个程序;该一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且该一个或多个程序包括用于执行或使执行本文所述方法中的任一种的指令。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1示出了根据一些具体实施的显示视觉和/或听觉体验并从用户获得生理数据的设备。
图2示出了根据一些具体实施的图1的用户的瞳孔,其中瞳孔的直径随时间变化。
图3示出了根据一些具体实施的基于生理数据和上下文数据来检测观看内容的用户的压力水平。
图4示出了根据一些具体实施的用于基于生理数据和上下文数据来检测观看内容的用户的压力水平的***图。
图5是根据一些具体实施的用于基于生理数据和上下文数据来预测观看内容的用户的压力水平并且基于该压力水平来提供反馈机制的方法的流程图表示。
图6示出了根据一些具体实施的示例性设备的设备部件。
图7示出了根据一些具体实施的示例性头戴式设备(HMD)。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的***、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将会知道,其他有效方面或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的***、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
图1示出了真实世界环境5,该真实世界环境包括具有显示器15的设备10。在一些具体实施中,设备10向用户25显示内容20,以及与内容20相关联的视觉特性30。例如,内容20可以是按钮、用户界面图标、文本框、图形等。在一些具体实施中,与内容20相关联的视觉特性30包括诸如色调、饱和度、尺寸、形状、空间频率、运动、突出显示等的视觉特性。例如,内容20可被显示为具有覆盖或包围内容20的绿色突出显示的视觉特性30。
在一些具体实施中,内容20可以是视觉体验(例如,教育体验),并且视觉体验的视觉特性30可在视觉体验期间持续地改变。如本文所用,短语“体验”是指在此期间用户使用电子设备并具有一个或多个压力水平的时间段。在一个示例中,用户具有其中用户在持有、佩戴或接近包括获得指示用户的压力水平的生理数据的一个或多个传感器的电子设备时感知真实世界环境的体验。在另一个示例中,用户具有其中用户感知由电子设备显示的内容而相同或另一个电子器件获得生理数据(例如,瞳孔数据、EEG数据等)以评价用户的压力水平的体验。在另一个示例中,用户具有其中用户持有、佩戴或接近提供指导体验的一连串可听或视觉指令的电子设备的体验。例如,指令可指示用户在体验的特定时间段期间具有特定压力水平,例如,指示用户将他或她的注意力聚焦到教育视频的特定部分,等等。在这样的体验期间,相同或另一个电子设备可获得生理数据以评价用户的压力水平。
在一些具体实施中,视觉特性30是用户的特定于体验的反馈机制(例如,关于在体验期间专注在特定任务(诸如在教育/学习体验的特定部分期间集中注意力)上的视觉或音频提示)。在一些具体实施中,视觉体验(例如,内容20)可占据显示器15的整个显示区域。例如,在教育体验期间,内容20可以是烹饪视频或图像序列,其可包括视觉和/或音频提示作为向用户呈现的引起注意的视觉特性30。本文将进一步讨论可针对内容20显示的其他视觉体验和关于视觉特性30的视觉和/或音频提示。
设备10经由传感器35从用户25获得生理数据(例如,EEG振幅/频率、瞳孔调制、眼睛注视扫视等)。例如,设备10获得瞳孔数据40(例如,眼睛注视特性数据)。尽管本文讨论的该示例和其他示例示出了在真实世界环境5中的单个设备10,但是本文公开的技术适用于多个设备和多个传感器,以及其他真实世界环境/体验。例如,设备10的功能可由多个设备执行。
在一些具体实施中,如图1所示,设备10是手持电子设备(例如,智能手机或平板电脑)。在一些具体实施中,设备10是膝上型计算机或台式计算机。在一些具体实施中,设备10具有触控板,并且在一些具体实施中,设备10具有触敏显示器(也称为“触摸屏”或“触摸屏显示器”)。在一些具体实施中,设备10是可穿戴头戴式显示器(“HMD”)。
在一些具体实施中,设备10包括用于检测眼睛位置和眼睛移动的眼睛跟踪***。例如,眼睛跟踪***可包括一个或多个红外(IR)发光二极管(LED)、眼睛跟踪相机(例如,近红外(NIR)照相机)和向用户25的眼睛发射光(例如,NIR光)的照明源(例如,NIR光源)。此外,设备10的照明源可发射NIR光以照明用户25的眼睛,并且NIR相机可捕获用户25的眼睛的图像。在一些具体实施中,可分析由眼睛跟踪***捕获的图像以检测用户25的眼睛的位置和移动,或检测关于眼睛的其他信息诸如瞳孔扩张或瞳孔直径。此外,从眼睛跟踪图像估计的注视点可使得能够与设备10的近眼显示器上示出的内容进行基于注视的交互。
在一些具体实施中,设备10具有图形用户界面(GUI)、一个或多个处理器、存储器以及存储在存储器中的用于执行多个功能的一个或多个模块、程序或指令集。在一些具体实施中,用户25通过触敏表面上的手指接触和手势与GUI进行交互。在一些具体实施中,这些功能包括图像编辑、绘图、呈现、文字处理、网页创建、盘编辑、电子表格制作、玩游戏、接打电话、视频会议、收发电子邮件、即时消息通信、健身支持、数字摄影、数字视频录制、网页浏览、数字音乐播放和/或数字视频播放。用于执行这些功能的可执行指令可被包括在被配置用于由一个或多个处理器执行的计算机可读存储介质或其他计算机程序产品中。
在一些具体实施中,设备10采用各种生理传感器、检测或测量***。所检测的生理数据可包括但不限于:EEG、心电图(ECG)、肌电图(EMG)、功能近红外光谱信号(fNIRS)、血压、皮肤电导或瞳孔响应。设备10可通信地耦接到附加传感器。例如,传感器17(例如,EDA传感器)可经由有线或无线连接通信地耦接到设备10,并且传感器17可位于用户25的皮肤上(例如,如所示在手臂上,或放置在用户的手部/手指上)。例如,传感器17可用于检测EDA(例如,皮肤电导)、心率或利用与用户皮肤的接触的其他生理数据。此外,设备10(使用一个或多个传感器)可同时检测多种形式的生理数据,以便受益于生理数据的同步采集。此外,在一些具体实施中,生理数据表示非自愿数据,即,不受意识控制的响应。例如,瞳孔响应可表示非自愿移动。
在一些具体实施中,用户25的一只或两只眼睛45(包括用户25的一个或两个瞳孔50)以瞳孔响应的形式呈现生理数据(例如,瞳孔数据40)。用户25的瞳孔响应经由视神经和动眼神经颅神经导致瞳孔50的尺寸或直径的变化。例如,瞳孔响应可包括收缩响应(瞳孔缩小),即,瞳孔变窄,或扩张响应(瞳孔散大),即,瞳孔加宽。在一些具体实施中,设备10可检测表示时变瞳孔直径的生理数据的图案。
在一些具体实施中,瞳孔响应可响应于用户25的一个或两个耳朵60检测到的听觉反馈(例如,对用户的音频通知)。例如,设备10可包括经由声波14投射声音的扬声器12。设备10可包括其他音频源,例如用于头戴式耳机的头戴式耳机插孔、与外部扬声器的无线连接等。
图2示出了图1的用户25的瞳孔50,其中瞳孔50的直径随时间变化。瞳孔直径跟踪可能潜在地指示用户的生理状态。如图2所示,当前生理状态(例如,当前瞳孔直径)与过去生理状态(例如,过去瞳孔直径55)相比可能变化。例如,当前生理状态可包括当前瞳孔直径并且过去生理状态可包括过去瞳孔直径。
生理数据可随时间而变化,并且设备10可使用生理数据来测量用户对视觉特性30的生理响应或用户与内容20交互的意图中的一者或两者。例如,当由设备10呈现内容20诸如内容体验(例如,冥想环境)列表时,用户25可选择体验而无需用户25完成物理按钮按下。在一些具体实施中,生理数据可包括经由眼睛跟踪技术(例如经由HMD)测量的在用户25扫视内容20之后瞳孔50的半径对视觉或听觉刺激的生理响应。在一些具体实施中,生理数据包括经由EEG技术测量的EEG振幅/频率数据或从EMG传感器或运动传感器测量的EMG数据。
返回到图1,物理环境是指人们在没有电子设备帮助的情况下能够对其感测和/或与其交互的物理世界。物理环境可包括物理特征,诸如物理表面或物理对象。
例如,物理环境对应于包括物理树木、物理建筑物和物理人的物理公园。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。相反,扩展现实(XR)环境是指人们经由电子设备感测和/或交互的完全或部分模拟的环境。例如,XR环境可包括增强现实(AR)内容、混合现实(MR)内容、虚拟现实(VR)内容等。在XR***的情况下,跟踪人的物理运动的一个子集或其表示,并且作为响应,以符合至少一个物理定律的方式调节在XR环境中模拟的一个或多个虚拟对象的一个或多个特征。如一个示例,XR***可以检测头部移动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。如另一示例,XR***可以检测呈现XR环境的电子设备(例如,移动电话、平板电脑、膝上型电脑等)的移动,并且作为响应,以类似于此类视图和声音在物理环境中将如何改变的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),XR***可响应于物理运动的表示(例如,声音命令)来调节XR环境中图形内容的特征。
有许多不同类型的电子***使人能够感测和/或与各种XR环境交互。示例包括头戴式***、基于投影的***、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为设计用于放置在人的眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入***(例如,具有或不具有触觉反馈的可穿戴或手持式控制器)、智能电话、平板电脑、以及台式/膝上型计算机。头戴式***可具有集成不透明显示器和一个或多个扬声器。另选地,头戴式***可被配置为接受外部不透明显示器(例如,智能电话)。头戴式***可结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式***可具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一些具体实施中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的***可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影***也可以被配置为将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
图3示出了基于生理数据和上下文数据来检测观看内容的用户的压力水平。具体地,图3示出了在内容呈现期间在环境304中向用户(例如,图1的用户25)呈现内容302,其中用户经由获得的生理数据具有对内容的生理响应(例如,用户看向如由眼睛注视特征数据检测到的内容的部分)。例如,在内容呈现时刻310,向用户呈现包括视觉内容(例如,视频)的内容302,并且用户的生理数据诸如眼睛注视特性数据312、瞳孔数据314、EDA数据316和心率数据318被监测为基线。然后,在内容呈现时刻320,内容302和环境304正被上下文分析指令集分析以确定用户的体验(例如,在观看电子设备诸如HMD上的视频内容时呈现在当前物理环境中的体验)的上下文数据。确定体验的上下文数据可涉及使用计算机视觉来生成对物理环境(例如,环境304)的视觉和/或听觉属性的场景理解,诸如用户在哪里、用户正在做什么、什么对象在附近。附加地或另选地,确定体验的上下文数据可涉及确定对内容呈现(例如,内容302,诸如视频)的视觉和/或听觉属性的场景理解。例如,内容302和环境304可包括可由对象检测算法、面部检测算法等检测到的用户视野内的一个或多个人、对象或其他背景对象。
在(例如,通过生理数据指令集)分析用户的生理数据并且(例如,通过上下文指令集)分析内容302和/或环境304的上下文数据之后的一时段之后,利用反馈机制334向用户呈现内容呈现时刻330,因为压力水平评价是用户可能已经呈现比期望的更高的压力水平。例如,用户在工作时展现出高压力水平,并且反馈机制向用户指示这种情况,并且可向用户提供用于平静的一些替代方案(例如,冥想音乐、放松的XR环境等)。如图所示,压力水平曲线图340提供了将用户的检测到的压力水平和与该压力相关联的表现水平进行比较的可能使用情况。例如,对于展现高压力水平(例如,“忧虑”水平)的上述示例,然后反馈机制可警告用户该高水平以尝试并使他们平静到合理的压力水平(例如,“积极压力”水平),其中“最佳表现”可与那些水平相关联。另外,还已知的是,低水平压力(例如,“平静”水平)可能与较低水平的表现相关联,因为用户可能厌烦。因此,在工作场所环境中,本文所述的过程可检测这种低水平的压力,并且提供反馈机制以警告用户这种当前表现度量并且提供关于增加压力水平并且因此又增加表现的方式的建议(例如,告诉用户休息和锻炼)。用户的压力水平评价可在内容302的整个呈现期间被连续地监测。
反馈机制334可包括视觉呈现。例如,可出现图标,或者可出现指示用户注意的文本框。在一些具体实施中,反馈机制334可包括听觉刺激。例如,可呈现空间化音频以将用户的注意力重定向到内容呈现的特定区域(例如,如果确定用户正展现出高压力,则可以将用户的注意力转向内容中的一些放松内容)。在一些具体实施中,反馈机制334可包括视觉内容的整个显示(例如,在设备的整个显示上的放松视频)。另选地,反馈机制334可包括围绕设备的显示器的框架的视觉内容(例如,在移动设备上,创建显示器的虚拟框架以从特定压力水平获取用户的注意力)。在一些具体实施中,反馈机制334可包括视觉内容(例如,通知窗口、图标或本文所述的其他视觉内容)和/或听觉刺激的组合。例如,通知窗口或箭头可将用户引导到特定内容区域,并且可呈现引导用户的音频信号。这些视觉和/或听觉提示可帮助将用户引导到特定反馈机制,这些特定反馈机制可帮助用户应对不同压力水平以增加他或她的表现水平(针对工作体验),或仅为了舒适地观看内容302(例如,如果确定用户处于紧张的环境或情况中则提供冥想)。
在一些具体实施中,反馈机制334可用于压力进食检测和反馈(例如,理解用户的状态(压力)以帮助用户)。例如,压力水平和反馈机制334可基于如在环境的上下文中确定的食用食物的用户(例如,特定食物或食用特定食物的用户的图像)来确定。例如,压力检测和关于用户正在吃什么或要吃什么(例如,一袋薯片)的上下文感知,可向用户提供有用的反馈(例如,以更健康的方式来冥想或缓解压力)。具体地,电子设备10可基于所获取的用户和/或用户环境的图像来采用对象检测/分类不健康食物算法。因此,当用户正在或将要食用被分类为不健康的食物(或一定量的食物)时,可向用户提供通知(视觉和/或听觉通知)以鼓励用户找到更健康的方式来应对检测到的压力。
随着时间的推移,用户的压力和食物食用可被跟踪以识别可被提供给用户以帮助用户理解他或她的行为和/或习惯的相关性和信息。提供给用户的反馈可使得用户能够理解、领会和识别他或她的习惯和用于应对压力的机制以及/或者随着时间改变此类习惯。提供给用户的反馈可鼓励用户用健康的压力缓解替代方案代替不健康的食物食用行为和习惯。在一些具体实施中,***在提供反馈时考虑用户的偏好、目标和/或历史。例如,基于用户识别的改善健康的目标,对用户的反馈可鼓励用户在紧张的时间期间锻炼或冥想而不是食用不健康的食物。
图4是根据一些具体实施的示例性环境400的***流程图,其中压力水平评价***可基于生理数据和上下文数据来评价用户的压力水平,并且在内容的呈现内提供反馈机制。在一些具体实施中,示例性环境400的***流程是在设备(例如,图1的设备10)诸如移动设备、台式电脑、膝上型电脑或服务器设备上执行的。示例性环境400的内容可显示在具有用于显示图像的屏幕(例如,显示器15)和/或用于查看立体图像的屏幕的设备(例如,图1的设备10)上,诸如HMD。在一些具体实施中,示例性环境400的***流程在处理逻辑部件(包括硬件、固件、软件或其组合)上执行。在一些具体实施中,在执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器上执行示例性环境400的***流程。
示例性环境400的***流程:获取内容(例如,视频内容或一系列图像数据)并将其呈现给用户;针对上下文数据分析内容和/或环境;在内容的呈现期间获得与用户相关联的生理数据;基于用户的生理数据和上下文数据来评价用户的压力水平;以及基于压力水平来提供反馈机制(例如,基于高压力阈值和/或低压力阈值的通知/警告)。例如,本文所述的压力水平评价技术通过提供基于用户的压力水平的反馈机制(例如,通知、听觉信号、警告、图标等,其警告用户在内容的呈现期间他们可能处于特定的压力水平),基于所获得的生理数据来确定用户在体验(例如,观看视频)期间的压力水平。
示例性环境400包括内容指令集410,该内容指令集被配置有可由处理器执行以提供和/或跟踪要在设备(例如,图1的设备10)上显示的内容402的指令。例如,当用户在物理环境404内(例如,房间、室外等)时,内容指令集410向用户25提供包括内容402的内容呈现时刻412。例如,内容402可包括背景图像和声音数据(例如,视频)。内容呈现时刻412可以是XR体验(例如,教育体验),或者内容呈现时刻412可以是包括某种CGR内容和物理环境的一些图像的MR体验。另选地,用户可穿戴HMD并经由实时相机视图看向真实物理环境,或者HMD允许用户观看显示器,诸如佩戴用户可通过其观看的智能眼镜,但是仍呈现视觉提示和/或音频提示。在体验期间,当用户25正在查看内容402时,可监测用户的眼睛的瞳孔数据414(例如,瞳孔数据40诸如眼睛注视特性数据)并将其作为生理数据415发送。另外,可监测其他生理数据并将其作为生理数据415(诸如EDA数据416和心率数据418)发送。
环境400还包括生理跟踪指令集430,以使用本文所讨论的技术中的一种或多种技术或可能适当的其他技术来跟踪用户的生理属性作为生理跟踪数据432。例如,生理跟踪指令集430可从观看内容402的用户25获取生理数据415(例如,瞳孔数据414)。附加地或另选地,用户25可佩戴传感器425(例如,图1的传感器17,诸如EEG传感器、EDA传感器、心率传感器等),该传感器生成传感器数据426(例如,EEG数据、EDA数据416、心率数据418)作为附加生理数据。因此,当内容402作为内容呈现时刻412呈现给用户时,生理数据415(例如,瞳孔数据414)和/或传感器数据426被发送到生理跟踪指令集430,以使用本文所讨论的技术中的一种或多种技术或可能适当的其他技术来跟踪用户的生理属性作为生理跟踪数据432。
在示例性具体实施中,环境400还包括上下文指令集440,该上下文指令集被配置有可由处理器执行以获得呈现给用户的体验数据(例如,内容402)和其他传感器数据(例如,环境404的图像数据、用户25的面部和/或眼睛的图像数据等)并生成上下文数据442(例如,识别内容402和环境404的人、对象等)的指令。例如,上下文指令集440从传感器420(例如,RGB相机、深度相机等)获取内容402和传感器数据421(例如,图像数据),并且在用户正在观看内容402(例如,第一次观看的内容/视频)的呈现时基于内容的识别区域来确定上下文数据442。另选地,上下文指令集440从上下文数据库445中选择与内容402相关联的上下文数据(例如,在内容402先前被上下文指令集分析的情况下,即,先前观看/分析的视频)。在一些具体实施中,上下文指令集440生成与内容402和/或环境404相关联的场景理解作为上下文数据442。例如,可利用场景理解来跟踪在内容402的呈现期间用户可能专注于什么、或者用户在哪里、用户正在做什么、关于环境404在用户附近有什么物理对象或人的整体上下文。
在示例性具体实施中,环境400还包括压力水平指令集450,该压力水平指令集被配置有可由处理器执行以使用本文所讨论的技术中的一种或多种技术或可能适当的其他技术基于生理响应(例如,眼睛注视响应)来评价用户的压力水平的指令。例如,可评价压力水平,诸如确定用户的压力水平相对于指示符诸如图3的压力水平曲线图340的位置。具体地,压力水平指令集450从生理跟踪指令集430获取生理跟踪数据432并且从上下文指令集440获取上下文数据442(例如,场景理解数据),并且在内容402的呈现期间以及基于用户正在观看内容402的物理环境404的属性来确定用户25的压力水平。例如,上下文数据442可提供场景分析,该场景分析可由压力水平指令集450使用以理解人正在看什么、他们在哪里等,并且改善压力水平的确定。在一些具体实施中,压力水平指令集450然后可基于压力水平评价向内容指令集410提供反馈数据452(例如,视觉和/或听觉提示)。例如,在教育体验期间发现所定义的高/低水平的压力的标志并提供表现反馈可增强用户的学习体验,提供来自教育会话的附加益处,并且提供经指导且支持的教导方法(例如,支架式教导方法)以使用户通过其教育实践。
在一些具体实施中,可由内容指令集410利用反馈数据452来向用户25呈现音频和/或视觉反馈提示或机制以在高水平压力情况(例如,关于即将到来的测试的过度焦虑)期间放松并专注于呼吸上。在教育体验中,基于来自压力水平指令集450的表明用户25因为用户25厌烦而正在走神(例如,低水平压力指示)的评价,对用户的反馈提示可以是温和提醒(例如,舒缓或平静的视觉和/或音频警报)以重新开始学习任务。
图5是示出示例性方法500的流程图。在一些具体实施中,设备诸如设备10(图1)执行方法500的技术,以基于生理数据和上下文数据来评价观看内容的用户的压力水平,并且基于检测到的压力水平来提供反馈机制。在一些具体实施中,在移动设备、台式电脑、膝上型电脑、HMD或服务器设备上执行方法500的技术。在一些具体实施中,在处理逻辑部件(包括硬件、固件、软件或它们的组合)上执行方法500。在一些具体实施中,在执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器上执行方法500。
在框502处,方法500在环境中的体验期间获得与用户相关联的生理数据(例如,EEG振幅/频率、瞳孔调制、眼睛注视扫视、EDA、心率等)。例如,获得生理数据可涉及获得眼睛的图像或EOG数据,从该图像或EOG数据可确定注视方向/移动。获得生理数据可涉及经由手表上的传感器获得眼睛的图像或EOG数据,从该图像或EOG数据可确定注视方向/移动、皮肤电活动/皮肤电导、心率。另外,经由HMD的面部识别可被包括作为生理数据(例如,用户面部的重建)。
在一些具体实施中,获得与用户的生理响应相关联的生理数据包括监测在内容的呈现或用户执行任务之后的预先确定的时间内发生的响应或缺乏响应。例如,***可在视频内的事件之后等待多达五秒以查看用户是否看向特定方向(例如,生理响应)。
在一些具体实施中,获得生理数据(例如,瞳孔数据40)与可涉及获得可从中确定注视方向和/或移动的眼睛的图像或心电图信号(EOG)数据的用户的注视相关联。在一些具体实施中,生理数据包括与用户相关联的皮肤温度、呼吸、光电容积描记图(PPG)、皮肤电活动(EDA)、眼睛注视跟踪和瞳孔移动中的至少一者。
一些具体实施获得生理数据和其他用户信息以帮助改善用户体验。在此类过程中,例如应当通过确保用户理解并同意用户数据的使用、理解使用什么类型的用户数据、控制用户数据的收集和使用以及限制用户数据的分配(例如,通过确保用户数据在用户的设备上被本地处理)来尊重用户偏好和隐私。用户应当具有关于是否获得或使用他们的用户数据或以其他方式打开和关闭获得或使用用户信息的任何特征选择加入或选择退出的选项。此外,每个用户将具有访问以及以其他方式找出***已经收集或确定的关于他或她的任何东西的能力。用户数据安全地存储在用户的设备上。用作机器学习模型的输入的用户数据被安全地存储在用户的设备上,例如,以确保用户的隐私。用户的设备可以具有安全存储区域,例如,安全隔区,用于保护某些用户信息,例如来自图像传感器和用于面部识别、面部识别或生物识别的其他传感器的数据。与用户的身体和/或注意力状态相关联的用户数据可存储在此类安全隔区中,从而限制对用户数据的访问并且限制用户数据向其他设备的传输,以确保用户数据安全地保持在用户的设备上。可以禁止用户数据离开用户设备,并且可以仅在机器学习模型和用户设备上的其他过程中使用。
在框504处,方法500基于环境的传感器数据来确定体验的上下文。例如,确定上下文可涉及使用计算机视觉来生成对环境的视觉和/或听觉属性的场景理解—用户在哪里、用户正在做什么、什么对象在附近。另外,可生成对呈现给用户的内容的场景理解,该场景理解包括用户正在观看的内容的视觉和/或听觉属性。
在一些方面,分析所呈现的内容和环境的不同上下文以确定用户在哪里、用户正在做什么、环境中或内容内的什么对象或人在附近、用户早先做什么(例如,在早晨冥想)。另外,上下文分析可包括图像分析(语义分割)、音频分析(振动声音)、位置传感器(用户所在的位置)、运动传感器(快速移动的车辆),以及甚至访问其他用户数据(例如,用户的日历)。在示例性具体实施中,方法500还可包括通过基于环境的传感器数据来生成对环境的场景理解来确定体验的上下文,该场景理解包括环境的视觉或听觉属性,以及基于对环境的场景理解来确定体验的上下文。
在一些具体实施中,传感器数据包括图像数据,并且生成场景理解至少基于执行该图像数据的语义分割以及基于该语义分割来检测该环境内的一个或多个对象。在一些具体实施中,确定体验的上下文包括基于对环境的场景理解来确定用户的活动。在一些具体实施中,传感器数据包括用户的位置数据,并且确定体验的上下文包括基于该位置数据来确定用户在环境内的位置。
在一些具体实施中,确定体验的上下文可涉及识别用户正与之交互的对象或个人。确定体验的上下文可涉及确定用户正在与另一个人对话。确定体验的上下文可涉及确定与另一个人的交互或会话可能(或不可能)引起用户的紧张状态。评价个人是否更可能或更不可能引起对用户的紧张响应可涉及识别个人,并且基于个人的外观、基于个人的动作和/或基于个人参与的活动对个人进行分类。例如,如果其他个人在工作时被识别为用户的老板,则老板可经由面部识别被识别,或者被分类为监督同事。当与被分类为他或她的老板的个人交互时,然后可基于他或她的压力水平来跟踪用户的压力。当评估压力治疗技术以更好地应对高压力情况时,向用户(或他或她的治疗师)提供关于用户与他或她的老板交互时的更高压力水平的反馈可以是有用的。
在一些具体实施中,确定体验的上下文可涉及确定用户体验的特定位置(例如,特定房间、建筑物等)或多或少可能导致紧张状态(例如,基于在那里发生的过去的紧张体验)的场景理解或场景知识。确定体验的场景理解或场景知识可涉及监测可引起压力的场景的低水平特性。例如,作为场景理解或场景知识的一部分,可监测和分析巨大的噪声、隐约的声音、明亮光闪烁、警笛声、隆隆声等。另外,场景知识可提供特定活动或内容可能麻烦或有压力的信息。例如,场景知识可包括用户当前正在参与的体验或事件,诸如参加面试、阅读烦扰的新闻故事、观看恐怖电影、玩暴力的视频游戏等等。理解场景知识可涉及其他紧张的体验,诸如威胁刺激(例如,攻击性狗)、对关爱的人造成的伤害、对用户感知到的物理危险(例如,迎面而来的汽车)、网络欺凌、被人当面斥责等。确定体验的上下文可涉及基于对环境的场景理解来确定用户活动和/或环境的类型。
在一些具体实施中,确定体验的上下文包括基于用户的计划表来确定用户的活动。例如,***可访问用户的日历以确定当特定压力水平被评价时特定事件是否正在发生(例如,用户参加重要会议或课程迟到了,或者被安排在不久的将来在小组前发言)。
在框506,方法500基于获得的生理数据和体验的上下文来确定用户在体验的一部分期间的压力水平。例如,机器学***和/或压力类型(例如,身体、认知、社交等)。例如,可确定、聚合和使用一个或多个胜利特性来使用统计或机器学***分类。在一些具体实施中,可将响应与用户自己的先前响应或典型的用户对类似体验和/或类似环境属性的类似内容的压力水平进行比较。
在一些具体实施中,确定用户具有特定压力阈值(例如,高、低等)包括将压力水平确定为滑动尺度。例如,***可将压力水平确定为可基于用户体验期间示出的内容的类型来定制的压力气压计。如果有高压力水平,在用于教育的情况下,则内容开发者可设计用于体验的环境,该环境将向用户提供用于学***以在体验期间学习。
在一些具体实施中,可使用统计的或基于机器学***。例如,确定用户具有压力水平包括使用基准真值数据训练的机器学***标签来标记体验的部分。例如,为了确定包括自我评价的基准真值数据,可在不同的时间间隔(例如,每30秒)提示一组对象,同时观看烹饪指导视频。另选地或附加地,包括在观看视频时的自我评价的基准真值数据包括不同的示例压力事件。例如,当用户佩戴HMD时,不同的压力事件可在XR环境中显示并在每个压力事件与每个对象之间转换。“压力事件”可包括高压力事件,诸如在高楼上的虚拟板上行走(例如,身体压力事件)、让用户进行数学测试(例如,认知压力事件)、或者模拟用户必须向一群人进行呈现(例如,社交压力事件)。另外,较低压力事件也可被包括用于记录低压力水平,或者在高压力事件之间,或者分开显示(例如,具有平静声音/音乐的调解视频)。在每个“压力事件”之后,可在视频内容中的特定压力事件时或之后提示每个对象输入他或她的压力水平。
在一些具体实施中,可确定、聚合和使用一个或多个瞳孔或EEG特性来使用统计或机器学***分类。在一些具体实施中,基于将生理数据的可变性与阈值比较来对生理数据分类。例如,如果在初始时段期间(例如,30秒至60秒)确定用户的EEG数据的基线,并且在听觉刺激之后的后续时段(例如,5秒)期间,EEG数据在后续时段期间偏离EEG基线超过+/-10%,则本文所述的技术可将用户分类为从高压力水平转变并进入第二低压力水平。类似地,基于心率数据和/或EDA数据的可变性与特定阈值进行比较来对心率数据和/或EDA数据进行分类。
在一些具体实施中,机器学***)。这些问题的答案可在问题之前的时间生成标签,并且深度神经网络或深度长短期存储器(LSTM)网络可能学***、高压力水平等)的该用户或任务的特征的组合。
在一些具体实施中,可获得或生成上下文分析,以确定用户正在专注于什么内容,该内容正在创建压力水平的增加(或减少)(例如,在社交交互期间的人),这可包括对内容和/或物理环境的场景理解。在示例性具体实施中,方法500还可包括识别与压力水平相关联的体验的部分。例如,识别与特别高的压力水平(例如,超过高压力阈值)相关联的体验的一部分,该数据可向用户提供类似内容或该内容的各部分的推荐(或劝诫)或帮助内容开发者为将来的用户改进该内容。例如,内容开发者的目的可能是增加视频游戏中的压力、减少针对冥想体验的压力、或者在用户在学***)。
在框508处,方法500基于压力水平在体验期间提供反馈机制。所确定的压力水平可用于经由可帮助用户的反馈机制向用户提供反馈、向用户提供统计数据和/或帮助内容创建者改善体验的内容。
在一些具体实施中,预测压力类型(例如,身体、认知、社交)可被本文所述的过程利用。在示例性具体实施中,在体验的一部分期间确定用户的压力水平还包括基于传感器数据来确定用户的压力类型,并且在体验期间提供反馈机制还基于压力类型。例如,如果用户正在体验高水平压力并且压力类型被确定为认知压力(例如,为测试学***以找到更好水平的压力(例如,学***)的视频和/或听觉内容(例如,对“进行深呼吸”的通知,或者添加放松音乐)。
在一些具体实施中,可基于确定压力水平(例如,玩激烈的视频游戏)不同于体验的预期压力水平(例如,内容开发者想要增加视频游戏的特定部分的压力水平)来向用户提供反馈。在一些具体实施中,方法500还可包括响应于确定压力水平与体验预期的第二压力水平不同而在体验期间呈现反馈(例如,音频反馈,诸如“控制您的呼吸”、视觉反馈等)。在一个示例中,在教育体验的用户正在为困难的测试学***来确定呈现反馈来指示用户专注于呼吸上。
在一些具体实施中,本文所述的方法可被实现用于压力进食检测和反馈(例如,理解用户的状态(压力)以帮助用户)。在方法500的示例性具体实施中,确定体验的上下文包括确定用户正在食用食物、特定类型的食物和/或一定量的食物。另外,可基于用户食用食物来确定压力水平和反馈机制。例如,压力检测和关于用户正在吃什么或要吃什么(例如,一袋薯片)的上下文感知,可向用户提供有用的反馈(例如,以更健康的方式来冥想或缓解压力)。具体地,电子设备10可基于所获取的用户和/或用户环境的图像来采用对象检测/分类不健康食物算法(例如,经由图4的压力水平指令集450)。因此,当用户正在或将要食用被分类为不健康的食物类型或一定量的食物时,可向用户提供通知(视觉和/或听觉通知)以鼓励用户找到更健康的方式来应对检测到的压力。
在一些具体实施中,确定体验的上下文涉及识别与体验分离的环境的属性(例如,人、事件、特性等),例如,该属性可能对用户的压力水平有影响。确定体验的上下文可涉及识别对象和/或确定环境中的对象接近用户(例如,在用户的阈值距离内)并且因此更可能引起或以其他方式影响用户的压力水平。确定体验的上下文可涉及确定环境中的刺激与用户的压力水平相关联,其中刺激与体验分离。例如,这可涉及确定用户的房子中的犬吠正在增加用户的压力水平。
在一些具体实施中,压力水平是第一压力水平,并且该方法还包括使用传感器获得与用户对反馈机制的生理响应(或缺少响应)相关联的第一生理数据(例如,EEG振幅、瞳孔移动等),以及基于用户对反馈机制的生理响应来确定用户的第二压力水平。在一些具体实施中,该方法还包括基于用户对反馈机制的生理响应来评价用户的第二压力水平,并且通过将第二压力水平与第一压力水平进行比较来确定反馈机制是否减小了用户的压力。例如,可将压力水平与用户自己的先前响应或对类似刺激的典型的用户响应比较。可使用统计的或基于机器学***。另外,所确定的压力水平可用于向用户提供反馈、使用户重新取向、向用户提供统计数据或帮助内容创建者;使用情况包括冥想、学习、呼吸、工作日。
在一些具体实施中,提供反馈机制包括提供图形指示符或声音,该图形指示符或声音被配置为将压力水平改变为与用户在体验的部分期间在任务中展现的压力(例如,如由生理数据和/或上下文数据检测到的压力)对应的第二压力水平。在一些具体实施中,提供反馈机制包括提供用于从与任务相关联的内容倒回或提供休息的机制(例如,在烹饪视频期间倒回以重放最后的步骤,或暂停教育课程以进行学***建议用于另一体验的时间。
在一些具体实施中,方法500还包括基于压力水平来调整对应于体验的内容(例如,针对用户的压力水平定制)。例如,可基于确定在所呈现的体验期间的压力水平和在其中呈现的体验或内容的变化来提供针对内容开发员的内容推荐。例如,当提供特定类型的内容时,用户可能很专注。在一些具体实施中,方法500还可包括基于内容与体验的相似性来识别内容,并且基于确定用户在体验期间具有压力水平(例如,走神)来向用户提供内容推荐。在一些具体实施中,方法500还可包括基于用户的压力水平来定制包括在体验中的内容(例如,将内容分成更小的块)。
在一些具体实施中,可基于与体验的预期压力水平不同的压力水平来与体验对应地调整体验的内容。例如,可由有经验的开发员调整内容以改善所记录的内容以用于用户或其他用户的后续使用。在一些具体实施中,方法500还可包括响应于确定压力水平与旨在用于体验的第二压力水平不同而调整对应于体验的内容。
在一些具体实施中,本文所述的技术基于识别用户与体验的典型的交互来从用户获得生理数据(例如,瞳孔数据40、EEG振幅/频率数据、瞳孔调制、眼睛注视扫视、心率数据、EDA数据等)。例如,技术可确定用户的眼睛注视特性的可变性与同体验的交互相关。另外,本文所述的技术然后可调整体验的视觉特性,或者调整/改变与反馈机制相关联的声音,以增强与同体验和/或同在体验内呈现的反馈机制的将来交互相关联的生理响应数据。此外,在一些具体实施中,在用户与体验交互之后改变反馈机制告知在与体验或体验的特定段的后续交互中用户的生理响应。例如,用户可呈现与体验内的改变相关联的预期生理响应。因此,在一些具体实施中,技术基于预期生理响应来识别用户与体验交互的意图。例如,技术可通过基于用户与体验的交互来捕获或存储用户的生理数据来调适或训练指令集,并且可通过在预期所增强/更新的体验的呈现中识别用户的生理响应来检测用户与体验交互的将来意图。
在一些具体实施中,估计器或统计学习方法用于更好地理解或预测生理数据(例如,瞳孔数据特性、EEG数据、EDA数据、心率数据等)。例如,可通过用替换数据对数据集进行采样(例如,自助法)来估计EEG数据的统计数据。
在一些具体实施中,可对技术进行多组用户生理数据的训练,然后单独地适应于每个用户。例如,内容创建者可基于用户生理数据来定制教育体验(例如,指导烹饪视频),诸如用户可能要求背景音乐、不同的环境照明来进行学习,或要求或多或少的音频或视觉提示来继续维持冥想。
在一些具体实施中,体验的定制可由用户控制。例如,用户可选择他或她想要的体验,诸如他或她可选择周围环境、背景场景、音乐等。另外,用户可变更提供反馈机制的阈值。例如,用户可基于会话的先前体验来定制触发反馈机制的灵敏度。例如,用户可能期望没有那么多反馈通知并在触发通知之前允许某种程度的走神(例如,眼睛位置偏差)。因此,当满足更高标准时,可在触发阈值时定制特定体验。例如,在一些体验(诸如教育体验)中,用户可能不想在学习会话期间受到打扰,即使他或她因短暂地看向不同区域片刻(例如,少于30秒)来思考他或她刚刚阅读的内容而短暂地盯着任务或走神也是如此。然而,如果学生/读者走神达较长时段(例如,长于或等于30秒),则他或她将希望通过提供反馈机制诸如听觉通知(例如,“醒来”)被给予通知。
在一些具体实施中,在评估将所呈现的内容或反馈机制调节或调整多少以增强用户25对视觉特性30(例如,反馈机制)的生理响应(例如,瞳孔响应)时,本文描述的技术可将对用户25的现实世界环境5(例如,视觉品质诸如亮度、对比度、语义背景)作出解释。
在一些具体实施中,生理数据(例如,瞳孔数据40)可随时间而变化,并且本文描述的技术可使用生理数据来检测模式。在一些具体实施中,图案是生理数据从一个时间到另一个时间的变化,并且在一些其他具体实施中,图案是一段时间内生理数据的一系列变化。基于检测到模式,本文所述的技术可识别用户的压力水平(例如,高压力事件)的变化,并且然后,可在体验期间向用户25提供反馈机制(例如,关于专注于呼吸上的视觉或听觉提示)以返回预期状态(例如,较低压力水平)。例如,可通过检测在用户的注视特性、心率和/或PDA数据中的模式来识别用户25的压力水平,可调整与体验相关联的视觉或听觉提示(例如,表明“专注于呼吸上”的语音的反馈机制还可包括视觉提示或场景的周围环境的变化),并且与所调整的体验相比的用户的注视特性、心率和/或PDA数据可用于确认用户的压力水平。
在一些具体实施中,本文描述的技术可利用训练或校准序列来适应特定用户25的特定生理特性。在一些具体实施中,该技术向用户25呈现训练场景,在该场景中指示用户25与屏幕项目(例如,反馈对象)进行交互。通过向用户25提供已知意图或感兴趣区域(例如,经由指令),该技术可记录用户的生理数据(例如,瞳孔数据40)并识别与用户的生理数据相关联的模式。在一些具体实施中,该技术可改变与内容20相关联的视觉特性30(例如,反馈机制),以便进一步适应用户25的独特生理特性。例如,该技术可指示用户在数到三时主观上选择屏幕中心的与所识别的区域相关联的按钮,并记录用户的生理数据(例如,瞳孔数据40)以识别与用户的压力水平相关联的模式。此外,该技术可改变或变更与反馈机制相关联的视觉特性,以便识别与用户对变更的视觉特性的生理响应相关联的模式。在一些具体实施中,与用户25的生理响应相关联的图案被存储在与该用户相关联的用户配置文件中,并且可在将来的任何时间更新或重新校准该用户配置文件。例如,在用户体验期间可随时间推移自动修改用户配置文件以提供更个性化的用户体验(例如,在学习时用于最佳学习体验的个人教育体验)。
在一些具体实施中,应用机器学习模型(例如,经训练的神经网络)来识别生理数据中的模式,包括在特定体验(例如,教育、冥想、指导等)期间识别对内容(例如,图1的内容20)的呈现的生理响应。此外,该机器学习模型可用于将这些模式与对应于用户25与体验进行交互的兴趣或意图的指示的学习模式相匹配。在一些具体实施中,本文描述的技术可学习特定于特定用户25的模式。例如,该技术可从确定峰模式表示用户25响应于在内容内的特定视觉特性30的兴趣或意图的指示开始学习,并且使用该信息以随后识别类似的峰模式作为用户25的兴趣或意图的另一个指示。这种学习可考虑到用户与多个视觉特性30的相对交互,以便进一步调整视觉特性30并增强用户对体验和所呈现的内容的生理响应(例如,专注于内容的特定区域而不是其他分散注意力的区域)。
在一些具体实施中,用户25的头部27的位置和特征(例如,眼睛、鼻部或鼻孔的边缘)由设备10提取并且用于查找用户25的眼睛45的粗略位置坐标,从而简化精确眼睛45特征(例如,位置、注视方向等)的确定,并且使得注视特性测量更可靠和稳健。此外,设备10可容易地将头部27的3D部件的位置与通过眼睛部件图像分析获得的注视角度信息组合,以便识别用户25在任何给定时间观看到的给定屏幕对象。在一些具体实施中,使用3D标测结合注视跟踪允许用户25自由地移动他或她的头部27和眼睛45,同时减少或消除使用头部27上的传感器或发射器主动跟踪头部27的需要。
通过跟踪眼睛45,一些具体实施减少了在用户25移动他或她的头部27之后重新校准用户25的需要。在一些具体实施中,设备10使用深度信息来跟踪瞳孔50的移动,由此使得能够基于用户25的单次校准来计算可靠的呈现的瞳孔直径。利用诸如瞳孔中心角膜反射(PCCR)、瞳孔跟踪和瞳孔形状的技术,设备10可从头部27的定点计算瞳孔直径以及眼睛45的注视角度,并且使用头部27的位置信息以便重新计算注视角度和其他注视特性测量。除了减少的重新校准之外,跟踪头部27的进一步有益效果可包括减少光投射源的数量并减少用于跟踪眼睛45的相机的数量。
在一些具体实施中,本文描述的技术可在用户注视方向上的位置处识别呈现在设备10的显示器15上的内容内的特定对象。此外,该技术可响应于从用户25接收的口头言语命令以及用户25的识别的压力水平来改变与特定对象或总体内容体验相关联的视觉特性30的状态。例如,在内容内的特定对象可以是与软件应用程序相关联的图标,并且用户25可注视该图标,说出单词“选择”以选择该应用程序,并且可对该图标应用突出显示效果。然后,该技术可响应于视觉特性30(例如,反馈机制)而使用另外的生理数据(例如,瞳孔数据40)来进一步将用户25的压力水平识别为对用户的言语命令的确认。在一些具体实施中,该技术可响应于用户注视的方向而识别给定交互式项目,并且响应于生理数据(例如,注视特性的可变性)而操纵该给定交互式项目。然后,该技术可基于用响应于与体验的交互(例如,在激烈的视频游戏内交互)的生理数据进一步识别用户的压力水平来确认用户注视的方向。在一些具体实施中,该技术可基于识别的兴趣或意图来移除交互式项目或对象。在其他具体实施中,在确定了用户25的兴趣或意图时,技术可自动捕获内容的图像。
图6是示例性设备600的框图。设备600示出了设备10的示例性设备配置。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,设备10包括一个或多个处理单元602(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备和传感器606、一个或多个通信接口608(例如,USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE、SPI、I2C和/或相似类型的接口)、一个或多个编程(例如,I/O)接口610、一个或多个显示器612、一个或多个面向内部和/或面向外部的图像传感器***614、存储器620以及用于互连这些部件和各种其他部件的一条或多条通信总线604。
在一些具体实施中,一条或多条通信总线604包括互连并控制***部件之间的通信的电路。在一些具体实施中,该一个或多个I/O设备及传感器606包括以下各项中的至少一者:惯性测量单元(IMU)、加速度计、磁力计、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测仪、心率监测仪、血氧传感器、血糖传感器等)、一个或多个麦克风、一个或多个扬声器、触觉引擎或者一个或多个深度传感器(例如,结构光、飞行时间等),等等。
在一些具体实施中,一个或多个显示器612被配置为向用户呈现物理环境或图形环境的视图。在一些具体实施中,一个或多个显示器612对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射器显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电***(MEMS)和/或类似显示器类型。在一些具体实施中,一个或多个显示器612对应于衍射、反射、偏振、全息等波导显示器。例如,设备10包括单个显示器。又如,设备10包括针对用户的每只眼睛的显示器。
在一些具体实施中,该一个或多个图像传感器***614被配置为获得对应于物理环境5的至少一部分的图像数据。例如,该一个或多个图像传感器***614包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、单色相机、IR相机、深度相机、基于事件的相机等。在各种具体实施中,一个或多个图像传感器***614还包括发射光的照明源,诸如闪光灯。在各种具体实施中,该一个或多个图像传感器***614还包括相机上图像信号处理器(ISP),该ISP被配置为对图像数据执行多个处理操作。
存储器620包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些具体实施中,存储器620包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器620任选地包括与一个或多个处理单元602远程定位的一个或多个存储设备。存储器620包括非暂态计算机可读存储介质。
在一些具体实施中,存储器620或存储器620的非暂态计算机可读存储介质存储任选的操作***630和一个或多个指令集640。操作***630包括用于处理各种基础***服务和用于执行硬件相关任务的过程。在一些具体实施中,指令集640包括由以电荷形式存储的二进制信息定义的可执行软件。在一些具体实施中,指令集640是能够由一个或多个处理单元602执行以实施本文所述技术中的一种或多种的软件。
指令集640包括内容指令集642、生理跟踪指令集644、上下文指令集646和压力水平指令集648。指令集640可体现为单个软件可执行文件或多个软件可执行文件。
在一些具体实施中,内容指令集642可由处理单元602执行以提供和/或跟踪用于在设备上显示的内容。内容指令集642可被配置为随时间而监测和跟踪内容(例如,在体验诸如教育会话期间)和/或识别出现在内容内的变化事件。在一些具体实施中,内容指令集642可被配置为使用本文讨论的技术中的一种或多种技术或可能适当的其他技术来将变化事件添加到内容(例如,反馈机制)中。出于这些目的,在各种具体实施中,该指令包括指令和/或用于该指令的逻辑以及启发法和用于该启发法的元数据。
在一些具体实施中,生理跟踪指令集644可由处理单元602执行以使用本文所讨论的技术中的一种或多种技术或可能适当的其他技术来跟踪用户的生理属性(例如,EEG振幅/频率、瞳孔调制、眼睛注视扫视、心率、EDA数据等)。出于这些目的,在各种具体实施中,该指令包括指令和/或用于该指令的逻辑以及启发法和用于该启发法的元数据。
在一些具体实施中,上下文指令集646可由处理单元602执行以使用本文中所讨论的技术中的一种或多种技术(例如,对象检测、面部辨识等)或可能适当的其他技术来确定体验和/或环境的上下文(例如,创建场景理解以确定内容中或环境中的对象或人、用户在哪里、用户正在观看什么等)。出于这些目的,在各种具体实施中,该指令包括指令和/或用于该指令的逻辑以及启发法和用于该启发法的元数据。
在一些具体实施中,压力水平指令集648可由处理单元602执行以使用本文所讨论的技术中的一种或多种技术或可能适当的其他技术基于内容和/或环境的生理数据(例如,眼睛注视响应)和上下文数据来评价用户的压力水平(例如,高压力、低压力等)。出于这些目的,在各种具体实施中,该指令包括指令和/或用于该指令的逻辑以及启发法和用于该启发法的元数据。
尽管指令集640被示出为驻留在单个设备上,但应当理解,在其他具体实施中,元件的任何组合可位于单独的计算设备中。此外,图6更多地用作存在于特定具体实施中的各种特征部的功能描述,该各种特征部与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。指令集的实际数量以及如何在其中分配特征将根据具体实施而变化,并且可以部分地取决于为特定具体实施选择的硬件、软件和/或固件的特定组合。
图7示出了根据一些具体实施的示例性头戴式设备700的框图。头戴式设备700包括容纳头戴式设备700的各种部件的外壳701(或封装件)。外壳701包括(或耦接到)设置在外壳701的近侧(用户25的)端部处的眼垫(未示出)。在各种具体实施中,眼垫是塑料或橡胶件,其舒适且贴合地将头戴式设备700保持在用户25的面部上的适当位置(例如,围绕用户25的眼睛)。
外壳701容纳显示器710,该显示器显示图像、朝向用户25的眼睛发射光或将光发射到该用户的眼睛上。在各种具体实施中,显示器710通过具有一个或多个透镜705的目镜发射光,该透镜折射由显示器710发射的光,使显示器对用户25显示为比从眼睛到显示器710的实际距离更远的虚拟距离。为了用户25能够聚焦在显示器710上,在各种具体实施中,虚拟距离至少大于眼睛的最小焦距(例如,8cm)。此外,为了提供更好的用户体验,在各种具体实施中,虚拟距离大于1米。
外壳701还容纳跟踪***,该跟踪***包括一个或多个光源722、相机724和控制器780。一个或多个光源722将光发射到用户25的眼睛上,其反射为可由相机724检测的光图案(例如,闪光圈)。基于该光图案,控制器780可确定用户25的眼睛跟踪特征。例如,控制器780可确定用户25的注视方向和/或眨眼状态(睁眼或闭眼)。又如,控制器780可确定瞳孔中心、瞳孔大小或关注点。因此,在各种具体实施中,光由一个或多个光源722发射,从用户25的眼睛反射,并且由相机724检测。在各种具体实施中,来自用户25的眼睛的光在到达相机724之前从热镜反射或通过目镜。
外壳701还容纳包括一个或多个音频源726的音频***,控制器780可按照本文所述的技术利用该一个或多个音频源经由声波14向用户耳朵60提供音频。例如,音频源726可提供声音以用于背景声音和可在3D坐标系中空间上呈现的反馈机制两者。音频源726可包括扬声器、与外部扬声器***(诸如头戴式耳机)的连接或经由无线连接而连接的外部扬声器。
显示器710发射第一波长范围内的光,并且一个或多个光源722发射第二波长范围内的光。类似地,相机724检测第二波长范围内的光。在各种具体实施中,第一波长范围是可见波长范围(例如,可见光谱内大约为400-700nm的波长范围),并且第二波长范围是近红外波长范围(例如,近红外光谱内约为700-1400nm的波长范围)。
在各种具体实施中,眼睛跟踪(或者具体地,确定的注视方向)用于使用户能够进行交互(例如,用户25通过观看显示器710上的选项来选择它),提供有孔的渲染(例如,在用户25正在观看的显示器710的区域中呈现更高的分辨率并且在显示器710上的其他地方呈现更低的分辨率),或者校正失真(例如,对于要在显示器710上提供的图像)。
在各种具体实施中,该一个或多个光源722朝向用户25的眼睛发射光,该光以多个闪烁的形式反射。
在各种具体实施中,相机724是基于帧/快门的相机,其以帧速率在特定时间点或多个时间点生成用户25的眼睛的图像。每个图像包括对应于图像的像素的像素值的矩阵,所述像素对应于相机的光传感器矩阵的位置。在具体实施中,每个图像用于通过测量与用户瞳孔中的一者或两者相关联的像素强度的变化来测量或跟踪瞳孔扩张。
在各种具体实施中,相机724是包括在多个相应位置处的多个光传感器(例如,光传感器矩阵)的事件相机,该事件相机响应于特定光传感器检测到光强度变化而生成指示特定光传感器的特定位置的事件消息。
应当理解,上文所描述的具体实施以示例的方式引用,并且本公开不限于上文已特别示出和描述的内容。相反地,范围包括上文所描述的各种特征的组合和子组合两者,以及本领域的技术人员在阅读前述描述时将想到的并且在现有技术中未公开的所述各种特征的变型和修改。
如上所述,本发明技术的一个方面是收集和使用生理数据以改善用户在与电子内容进行交互方面的电子设备体验。本公开设想,在一些情况下,该所收集的数据可包括唯一地识别特定人员或者可用于识别特定人员的兴趣、特点或倾向性的个人信息数据。此类个人信息数据可包括生理数据、人口数据、基于位置的数据、电话号码、电子邮件地址、家庭地址、个人设备的设备特征或任何其他个人信息。
本公开认识到在本发明技术中使用此类个人信息数据可用于使用户受益。例如,个人信息数据可用于改进电子设备的交互和控制能力。因此,使用此类个人信息数据使得能够对电子设备进行有计划的控制。此外,本公开还预期个人信息数据有益于用户的其他用途。
本公开还设想到负责此类个人信息和/或生理数据的收集、分析、公开、传送、存储或其他用途的实体将遵守已确立的隐私政策和/或隐私实践。具体地,此类实体应当实行并坚持使用被公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和实践。例如,来自用户的个人信息应当被收集用于实体的合法且合理的用途,并且不在这些合法用途之外共享或出售。另外,此类收集应当仅在用户知情同意之后进行。另外,此类实体应采取任何所需的步骤,以保障和保护对此类个人信息数据的访问,并且确保能够访问个人信息数据的其他人遵守他们的隐私政策和程序。另外,这种实体可使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。
不管前述情况如何,本公开还设想用户选择性地阻止使用或访问个人信息数据的具体实施。即本公开预期设想可提供硬件元件或软件元件,以防止或阻止对此类个人信息数据的访问。例如,就为用户定制的内容递送服务而言,本发明的技术可被配置为在注册服务期间允许用户选择“加入”或“退出”参与对个人信息数据的收集。在另一示例中,用户可选择不为目标内容递送服务提供个人信息数据。在又一示例中,用户可选择不提供个人信息,但允许传输匿名信息以用于改进设备的功能。
因此,虽然本公开广泛地覆盖了使用个人信息数据来实现一个或多个各种所公开的实施方案,但本公开还预期各种实施方案也可在无需访问此类个人信息数据的情况下被实现。即,本发明技术的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正常进行。例如,可通过基于非个人信息数据或绝对最低量的个人信息诸如与用户相关联的设备所请求的内容、对内容递送服务可用的其他非个人信息或公开可用的信息来推断偏好或设置,从而选择内容并将该内容递送至用户。
在一些实施方案中,使用仅允许数据的所有者解密存储的数据的公钥/私钥***来存储数据。在一些其他具体实施中,数据可匿名存储(例如,无需识别和/或关于用户的个人信息,诸如法定姓名、用户名、时间和位置数据等)。这样,其他用户、黑客或第三方就无法确定与存储的数据相关联的用户的身份。在一些具体实施中,用户可从不同于用于上载存储的数据的用户设备的用户设备访问他或她的存储的数据。在这些情况下,用户可能需要提供登录凭据以访问其存储的数据。
本文阐述了许多具体细节以提供对要求保护的主题的全面理解。然而,本领域的技术人员将理解,可以在没有这些具体细节的情况下实践要求保护的主题。在其他实例中,没有详细地介绍普通技术人员已知的方法、装置或***,以便不使要求保护的主题晦涩难懂。
除非另外特别说明,否则应当理解,在整个说明书中,利用诸如“处理”、“计算”、“计算出”、“确定”和“标识”等术语的论述是指计算设备的动作或过程,诸如一个或多个计算机或类似的电子计算设备,其操纵或转换表示为计算平台的存储器、寄存器或其他信息存储设备、传输设备或显示设备内的物理电子量或磁量的数据。
本文论述的一个或多个***不限于任何特定的硬件架构或配置。计算设备可以包括部件的提供以一个或多个输入为条件的结果的任何合适的布置。合适的计算设备包括基于多用途微处理器的计算机***,其访问存储的软件,该软件将计算***从通用计算装置编程或配置为实现本发明主题的一种或多种具体实施的专用计算装置。可以使用任何合适的编程、脚本或其他类型的语言或语言的组合来在用于编程或配置计算设备的软件中实现本文包含的教导内容。
本文所公开的方法的具体实施可以在这样的计算设备的操作中执行。上述示例中呈现的框的顺序可变化,例如,可将框重新排序、组合或者分成子框。某些框或过程可以并行执行。
本文中“适用于”或“被配置为”的使用意味着开放和包容性的语言,其不排除适用于或被配置为执行额外任务或步骤的设备。另外,“基于”的使用意味着开放和包容性,因为“基于”一个或多个所述条件或值的过程、步骤、计算或其他动作在实践中可以基于额外条件或超出所述的值。本文包括的标题、列表和编号仅是为了便于解释而并非旨在为限制性的。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种对象,但是这些对象不应当被这些术语限定。这些术语只是用于将一个对象与另一对象区分开。例如,第一节点可以被称为第二节点,并且类似地,第二节点可以被称为第一节点,其改变描述的含义,只要所有出现的“第一节点”被一致地重命名并且所有出现的“第二节点”被一致地重命名。第一节点和第二节点都是节点,但它们不是同一个节点。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求中所使用的那样,单数形式的“一个”和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”或“包含”在本说明书中使用时指定存在所陈述的特征、整数、步骤、操作、对象或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、对象、部件或其分组。
如本文所使用的,术语“如果”可被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。
本发明的前述描述和概述应被理解为在每个方面都是例示性和示例性的,而非限制性的,并且本文所公开的本发明的范围不仅由例示性具体实施的详细描述来确定,而是根据专利法允许的全部广度。应当理解,本文所示和所述的具体实施仅是对本发明原理的说明,并且本领域的技术人员可以在不脱离本发明的范围和实质的情况下实现各种修改。

Claims (28)

1.一种认知状态评价的方法,所述方法包括:
在包括处理器的设备处:
在环境中的体验期间获得与用户相关联的生理数据;
基于所述环境的传感器数据来确定所述体验的上下文;
基于获得的生理数据和所述体验的所述上下文来确定所述用户在所述体验的一部分期间的压力水平;以及
基于所述压力水平来提供反馈机制。
2.根据权利要求1所述的方法,其中确定所述用户在所述体验的所述一部分期间的压力水平还包括基于所述传感器数据来确定所述用户的压力类型,并且在所述体验期间提供所述反馈机制还基于所述压力类型。
3.根据权利要求1或2所述的方法,还包括基于所述压力水平来向所述用户提供通知。
4.根据权利要求1至3中任一项所述的方法,还包括基于所述用户的所述压力水平来定制包括在所述体验中的内容。
5.根据权利要求1至4中任一项所述的方法,其中所述压力水平是第一压力水平,所述方法还包括:
使用传感器获得与所述用户对所述反馈机制的生理响应相关联的第一生理数据;以及
基于所述用户对所述反馈机制的所述生理响应来确定所述用户的第二压力水平。
6.根据权利要求5所述的方法,还包括:
基于所述用户对所述反馈机制的所述生理响应来评价所述用户的所述第二压力水平;以及
通过将所述第二压力水平与所述第一压力水平进行比较来确定所述反馈机制是否减小了所述用户的压力。
7.根据权利要求1至6中任一项所述的方法,其中确定所述体验的所述上下文包括:
基于所述环境的所述传感器数据来生成对所述环境的场景理解,所述场景理解包括所述环境的视觉属性或听觉属性;以及
基于对所述环境的所述场景理解来确定所述体验的所述上下文。
8.根据权利要求7所述的方法,其中所述传感器数据包括图像数据,并且生成所述场景理解至少基于执行所述图像数据的语义分割以及基于所述语义分割来检测所述环境内的一个或多个对象。
9.根据权利要求7所述的方法,其中确定所述体验的所述上下文包括基于对所述环境的所述场景理解来确定所述用户的活动。
10.根据权利要求7所述的方法,其中确定所述体验的所述上下文包括基于所述场景理解来确定所述用户在物理环境中的位置。
11.根据权利要求7所述的方法,其中确定所述体验的所述上下文包括基于所述场景理解来确定对象在物理环境中靠近所述用户。
12.根据权利要求1至10中任一项所述的方法,其中确定所述体验的所述上下文包括识别所述环境的与正被呈现给所述用户的内容分离的属性。
13.根据权利要求1至12中任一项所述的方法,其中确定所述体验的所述上下文包括确定所述环境中的刺激与所述用户的所述压力水平相关联,其中所述刺激与正被呈现的内容分离。
14.根据权利要求1至13中任一项所述的方法,其中所述传感器数据包括所述用户的位置数据,并且确定所述体验的所述上下文包括基于所述位置数据来确定所述用户在所述环境内的位置。
15.根据权利要求1至13中任一项所述的方法,其中确定所述体验的所述上下文包括基于用户的计划表来确定所述用户的活动。
16.根据权利要求1至13中任一项所述的方法,其中确定所述体验的所述上下文包括确定所述用户正在食用食物。
17.根据权利要求15所述的方法,其中所述压力水平和所述反馈机制是基于所述用户食用食物来确定的。
18.根据权利要求1至17中任一项所述的方法,其中所述生理数据包括与所述用户相关联的皮肤温度、呼吸、光电容积描记图(PPG)、皮肤电活动(EDA)、眼睛注视跟踪和瞳孔移动中的至少一者。
19.根据权利要求1至18中任一项所述的方法,其中使用统计的或基于机器学***。
20.根据权利要求1至19中任一项所述的方法,还包括基于所述压力水平来向所述用户提供通知。
21.根据权利要求1至20中任一项所述的方法,还包括识别所述体验的与所述压力水平相关联的部分。
22.根据权利要求1至21中任一项所述的方法,还包括基于所述用户的所述压力水平来定制所述体验的内容。
23.根据权利要求1至22中任一项所述的方法,其中所述设备是头戴式设备(HMD),并且所述环境包括扩展现实环境。
24.根据权利要求1至23中任一项所述的方法,其中所述体验包括扩展现实(XR)体验。
25.根据权利要求1至24中任一项所述的方法,还包括呈现所述体验。
26.一种设备,所述设备包括:
非暂态计算机可读存储介质;以及
一个或多个处理器,所述一个或多个处理器耦接到所述非暂态计算机可读存储介质,其中所述非暂态计算机可读存储介质包含程序指令,所述程序指令当在所述一个或多个处理器上执行时,使所述***执行包括以下项的操作:
在环境中的体验期间获得与用户相关联的生理数据;基于所述环境的传感器数据来确定所述体验的上下文;
基于获得的生理数据和所述体验的所述上下文来确定所述用户在所述体验的一部分期间的压力水平;以及
基于所述压力水平来提供反馈机制。
27.根据权利要求26所述的设备,其中确定所述用户在所述体验的所述一部分期间的压力水平还包括基于所述传感器数据来确定所述用户的压力类型,并且在所述体验期间提供所述反馈机制还基于所述压力类型。
28.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储能够在设备上执行以执行操作的程序指令,所述操作包括:
在环境中的体验期间获得与用户相关联的生理数据;基于所述环境的传感器数据来确定所述体验的上下文;
基于获得的生理数据和所述体验的所述上下文来确定所述用户在所述体验的一部分期间的压力水平;以及
基于所述压力水平来提供反馈机制。
CN202280025296.5A 2021-03-31 2022-03-16 压力检测 Pending CN117120958A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US63/168,623 2021-03-31
US202163221061P 2021-07-13 2021-07-13
US63/221,061 2021-07-13
PCT/US2022/020494 WO2022212052A1 (en) 2021-03-31 2022-03-16 Stress detection

Publications (1)

Publication Number Publication Date
CN117120958A true CN117120958A (zh) 2023-11-24

Family

ID=88797077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280025296.5A Pending CN117120958A (zh) 2021-03-31 2022-03-16 压力检测

Country Status (1)

Country Link
CN (1) CN117120958A (zh)

Similar Documents

Publication Publication Date Title
US20210165490A1 (en) Wearable computing apparatus and method
US11782508B2 (en) Creation of optimal working, learning, and resting environments on electronic devices
US11861837B2 (en) Utilization of luminance changes to determine user characteristics
US20230282080A1 (en) Sound-based attentive state assessment
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
US20240164672A1 (en) Stress detection
US20240164677A1 (en) Attention detection
US20230229246A1 (en) Optimization on an input sensor based on sensor data
CN117120958A (zh) 压力检测
US20230259203A1 (en) Eye-gaze based biofeedback
CN117677345A (zh) 基于生物反馈的增强型冥想体验
US20230418372A1 (en) Gaze behavior detection
US11762457B1 (en) User comfort monitoring and notification
CN117980867A (zh) 基于对照明的生理响应的交互事件
WO2023114079A1 (en) User interactions and eye tracking with text embedded elements
US20240221301A1 (en) Extended reality assistance based on user understanding
WO2024058986A1 (en) User feedback based on retention prediction
CN116547637A (zh) 使用生理数据来检测用户与对象接触

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination