CN110609615A - 用于在增强现实中集成触觉覆盖的***和方法 - Google Patents

用于在增强现实中集成触觉覆盖的***和方法 Download PDF

Info

Publication number
CN110609615A
CN110609615A CN201910516936.2A CN201910516936A CN110609615A CN 110609615 A CN110609615 A CN 110609615A CN 201910516936 A CN201910516936 A CN 201910516936A CN 110609615 A CN110609615 A CN 110609615A
Authority
CN
China
Prior art keywords
haptic
sensor
display
proxy object
output device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910516936.2A
Other languages
English (en)
Inventor
夏特西·阿拉奇
克里斯托弗·J·乌尔里希
伍黎雯
胡安·曼纽尔·克鲁兹-赫尔南德斯
丹尼·A·格兰特
萨尼亚·雅达利
柯林·斯温德尔斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=66867068&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN110609615(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of CN110609615A publication Critical patent/CN110609615A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了用于在增强现实中集成触觉覆盖的***和方法。本文描述的一种说明性***包括触觉输出设备。该***还包括被配置为输出视觉效果的显示器。该***还包括用于跟踪代理物体的位置的传感器。该***还包括处理器,该处理器被配置为:部分基于从传感器接收的数据确定经修改的视觉效果,部分基于从传感器接收的数据确定触觉效果,向显示器发送与经修改的视觉效果相关联的显示信号,向触觉输出设备发送与触觉效果相关联的触觉信号;并且利用触觉输出设备输出触觉效果。

Description

用于在增强现实中集成触觉覆盖的***和方法
技术领域
本申请涉及用户界面设备的领域。更具体而言,本申请涉及在增强现实中集成触觉覆盖。
背景技术
虚拟和增强现实(“VR”和“AR”)应用已变得越来越流行。VR应用通常包含专用的控制器来允许用户感受虚拟物体的触感。例如,VR用户可在VR应用中体验枪在其手中射击并且可同时通过专用控制器感受到模拟该射击的触觉效果。在AR空间中,难以向用户提供触觉效果。因此,需要用于在增强现实中集成触觉覆盖的***和方法。
发明内容
本公开的实施例包括用于在增强现实中集成触觉覆盖的***和方法。在一个实施例中,一种***包括触觉输出设备。该***还包括被配置为输出视觉效果的显示器。该***还包括用于跟踪代理物体的位置的传感器。该***还包括处理器,该处理器被配置为:部分基于从传感器接收的数据确定经修改的视觉效果,部分基于从传感器接收的数据确定触觉效果,向显示器发送与经修改的视觉效果相关联的显示信号,向触觉输出设备发送与触觉效果相关联的触觉信号;并且利用触觉输出设备输出触觉效果。
在另一实施例中,一种用于在增强现实中集成触觉覆盖的方法包括:部分基于从传感器接收的数据确定经修改的视觉效果,部分基于从传感器接收的数据确定触觉效果,向显示器发送与经修改的视觉效果相关联的显示信号,向触觉输出设备发送与触觉效果相关联的触觉信号;并且利用触觉输出设备输出触觉效果。
在另外一个实施例中,一种非暂态计算机可读介质可包括程序代码,该程序代码当被处理器执行时被配置为执行这种方法。
提及这些说明性示例并不是为了限制或限定本主题的范围,而是为了提供示例来帮助对其的理解。在具体实施方式部分论述了说明性实施例,并且这里提供了对其的进一步描述。通过查阅本说明书和/或通过实现要求保护的主题的一个或多个实施例可进一步理解各种实施例提供的优点。
附图说明
在说明书的剩余部分中更具体地记载了完整的能够实现的公开。说明书参考了以下附图。
图1示出了用于在增强现实中集成触觉覆盖的说明性***。
图2示出了用于在增强现实中集成触觉覆盖的另一说明性***。
图3示出了用于在增强现实中集成触觉覆盖的另一说明性***。
图4示出了用于在增强现实中集成触觉覆盖的另一说明性***。
图5是用于在增强现实中集成触觉覆盖的一个示例实施例的方法步骤的流程图。
具体实施方式
现在将详细述及各种可替换的说明性实施例以及附图。每个示例是以说明而非限制方式提供的。本领域技术人员将会明白可以做出修改和变化。例如,作为一个实施例的一部分图示或描述的特征可用于另一实施例中来产生另外一个实施例。从而,希望本公开包括落在所附权利要求及其等同物的范围内的修改和变化。
在增强现实中集成触觉覆盖的说明性示例
实施例支持AR空间中的虚拟物体上的触觉反馈。这种实施例可允许用户利用真实世界物体上的触觉覆盖来看到并感受该物体上的纹理。或者,这种实施例可无缝地包含也能够提供触觉反馈的可穿戴***设备。在其他实施例中,可以只使用可穿戴***设备来提供触觉反馈。在一些实施例中,AR空间包括VR空间。
在一个说明性实施例中,用户戴着AR头戴装置并且正看着真实空间中的代理物体,例如鞋子。用户可从材料库中选择材料(例如,诸如皮革、塑料、橡胶、金属、粗麻布、麂皮、牛仔布、木材、织物、陶瓷、泡沫材料或玻璃中的一个或多个之类的材料)。然后将通过大声说出语音命令(例如,应用皮革材料)或者经由VR或AR头戴装置中的视觉菜单、手动控制器、可穿戴设备或姿态识别输入指令来经由AR头戴装置在代理物体上显示此材料。AR头戴装置的说明性AR显示器基于该命令被修改以使得代理物体透过AR显示器的外观被修改,以便显示由所选材料制成的代理物体。
在一个说明性实施例中,与代理物体相关联的触觉效果由输出模拟从库中选择的材料的纹理的触觉效果(例如,振动或ESF效果)的触觉输出设备输出,该触觉输出设备例如是致动器。在其他说明性实施例中,触觉效果由例如手套之类的可穿戴***设备产生。与代理物体交互的用户感受到该触觉效果,并且该触觉效果模拟代理物体的表面上的不同纹理(例如,该触觉效果可模拟皮革、塑料、橡胶、金属、粗麻布、麂皮、牛仔布、木材、织物、陶瓷、泡沫材料或玻璃中的一个或多个的纹理)。
在一个说明性实施例中,来自(一个或多个)传感器的信息被传递到处理器,该处理器也处理和输出与和纹理相关联的触觉效果相关联的触觉信号。代理物体透过AR显示器的经修改图像和由触觉输出设备输出的纹理随后可被实时修改以反映代理物体的任何运动。额外地或者替换地,处理器可使用来自(一个或多个)传感器的信息来辨别可穿戴***设备何时与AR物体“接触”。这些传感器还可检测与代理物体相关联的用户的运动并且基于用户的运动修改视觉和触觉效果。
给出这个说明性示例来向读者介绍本文论述的一般主题,而本公开不限于此示例。接下来的部分描述了本公开的各种额外非限制性示例。
用于在增强现实中集成触觉覆盖的说明性***
图1示出了用于在虚拟现实中集成环境触觉的说明性***100。具体而言,在这个示例中,***100包括计算设备101,计算设备101具有经由总线106与其他硬件相接口的处理器102。可包括诸如RAM、ROM、EEPROM等等之类的任何适当的有形(和非暂态)计算机可读介质的存储器104实现了配置计算设备101的操作的程序组件。在这个示例中,计算设备101还包括一个或多个网络接口设备110、输入/输出(I/O)接口组件112和额外存储装置114。
网络设备110可表示促进网络连接的任何组件中的一个或多个。示例包括但不限于诸如以太网、USB、IEEE 1394之类的有线接口,和/或诸如IEEE 802.11、蓝牙或用于接入蜂窝电话网络的无线电接口(例如,用于接入(一个或多个)CDMA、GSM、UMTS或其他移动通信网络的收发器/天线)之类的无线接口。
I/O组件112可用于促进到诸如以下设备的连接:一个或多个显示器(例如VR和AR头戴装置或触摸屏显示器)、键盘、鼠标、扬声器、麦克风、相机和/或用于输入数据或输出数据的其他硬件。存储装置114表示设备101中包括的诸如磁介质、光介质或其他存储介质之类的非易失性存储装置。在一些实施例中,I/O组件112可包括VR控制器或AR输入设备。在其他实施例中,I/O组件可包括诸如汽车或船只之类的运输工具设备中的控制器或输入设备。在其他的实施例中,控制器或输入设备可以是用户的手,并且传感器108可能够检测自由空间中的运动和姿态。
(一个或多个)音频/视觉输出设备122包括被配置为从(一个或多个)处理器102接收信号并且向用户提供音频或视觉输出的一个或多个设备。例如,在一些实施例中,(一个或多个)音频/视觉输出设备122可包括显示器,例如触摸屏显示器、LCD显示器、等离子显示器、CRT显示器、投影显示器或者本领域中已知的某种其他显示器。对于在增强或虚拟现实中的使用,音频/视觉输出设备122可包括包含用于每只眼睛的显示器的头戴装置,移动设备(例如,移动电话或平板设备)、车辆的挡风玻璃、或者本领域中已知的某种其他显示器。另外,音频/视觉输出设备可包括被配置为向用户输出音频的一个或多个扬声器。
***100还包括一个或多个传感器108。传感器108被配置为检测触觉输出设备118并且提供适当的数据供处理器102使用。可以使用任何适当数目、类型或布置的传感器。例如,不同的实施例可包括相机、激光器、雷达、加速度计、陀螺仪、压力传感器、磁传感器、光传感器、麦克风、电容传感器、触摸传感器、跟踪传感器或者这种传感器的任何组合。在一个实施例中,相机、激光测绘或雷达扫描被用于识别触觉输出设备118。这种实施例可利用人工智能(“AI”)来做出该识别。加速度计可用于检测振动、位移和速度。陀螺仪可用于感测旋转。压力传感器可用于确定高度并且磁传感器可用于确定方向或方位。光传感器可用于确定感知到的光度。并且麦克风可用于检测声音。这些传感器的任何一者可与任何其他传感器结合使用。
在其他实施例中,传感器108可包括LED检测器。在一些实施例中,处理器102与单个传感器108通信,在其他实施例中,处理器102与多个传感器108通信。
虽然这里示出了单个触觉输出设备118,但实施例可使用相同或不同类型的多个触觉输出设备来输出触觉效果。例如,触觉输出设备118可包括例如以下各项中的一个或多个:压电致动器、电动马达、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量马达(eccentric rotating mass,ERM)、线性谐振致动器(linear resonantactuator,LRA)、扁平触觉致动器、触觉磁带或者被配置为输出静电效果的触觉输出设备,例如静电摩擦(Electrostatic Friction,ESF)致动器。在一些实施例中,触觉输出设备118可包括多个致动器,例如扁平触觉致动器、压电致动器和LRA。另外,触觉输出设备118可被集成到代理物体中或者集成到用户的衣服或可穿戴设备中。
在一些实施例中,触觉输出设备118可用于向用户输出热和或动觉属性。例如,不同材料的热导率可通过覆盖加热和冷却换能器来传达,例如珀尔帖设备。在其他实施例中,可利用修改材料的刚度的换能器,例如利用电活性聚合物肌腱,来覆盖力反馈属性。
转到存储器104,描绘了示范性程序组件124、126和128来说明设备如何可被配置为确定和输出触觉效果。在这个示例中,检测模块124将处理器102配置为监视(一个或多个)传感器108来确定触觉输出设备118的特性。例如,检测模块124可对传感器108采样以便随着时间的流逝跟踪触觉输出设备118的位置、路径、速度、加速度、压力和/或其他特性中的一个或多个。
触觉效果确定模块126表示分析关于音频和视频特性的数据以选择要生成的触觉效果的程序组件。具体地,模块126包括基于触觉输出设备118的特性和AR环境来确定要由触觉输出设备118生成和输出的一个或多个效果的代码。触觉效果确定模块126还可包括响应于检测到触觉输出设备118的特性的变化而选择一个或多个现有触觉效果来输出的代码。可基于这些特征的各种组合来选择不同的触觉效果。
触觉效果生成模块128表示使得处理器102生成并向触觉输出设备118发送触觉信号的编程,该触觉信号使得触觉输出设备118生成所选触觉效果。例如,生成模块128可访问存储的波形或命令来向触觉输出设备118发送。作为另一示例,触觉效果生成模块128可接收期望类型的触觉效果并且利用信号处理算法来生成适当的信号以发送到触觉输出设备118。作为又一示例,期望的触觉效果可连同纹理的目标坐标一起被指示并且适当的波形可被发送到一个或多个致动器以生成表面(和/或其他设备组件)的适当位移来提供该触觉效果。一些实施例可协同利用多个触觉输出设备来模拟特征。例如,可利用振动来向用户传达特定的纹理,同时可输出动觉效果来指示物体的刚度,例如鞋面的材料的刚度。这种配置只是说明性的,而不是可构造这种***的唯一方式。
图2示出了用于在增强现实中集成触觉覆盖的另一说明性***。在图2所示的实施例中,用户206穿戴着可穿戴AR设备204并且与代理物体202交互。虽然此实施例示出了用户穿戴着可穿戴AR设备204,但可使用任何类型的AR显示***。图2的说明性***可包含图1所示的***,用于感测代理物体202的状况并且用于确定、生成和输出触觉效果。可穿戴AR设备204可包括视觉显示器以及耳机或扬声器。
在一些实施例中,代理物体202可采取任何物体的形式,包括但不限于鞋子、包袋、衣物、电子设备、显示器或者界面对象。在其他实施例中,代理物体202可包括中性物理特性,比如颜色和纹理,例如利用光滑表面材料制成的白色的代理物体。在其他实施例中,代理物体202可包括高保真视觉原型,例如具有逼真的图形打印的高保真视觉鞋子原型,从而使用可穿戴AR设备204的视觉覆盖是不必要的。
用户206可从给定的纹理库中选择任何纹理,例如皮革、塑料、橡胶、金属、粗麻布、麂皮、牛仔布、木材、织物、陶瓷、泡沫材料或玻璃,并且增强现实视觉效果将通过可穿戴AR设备204修改代理物体的外观。在一些实施例中,用户将利用诸如音频捕捉设备、触摸屏、键盘、鼠标、操纵杆或增强现实控制板之类的输入捕捉设备来选择纹理。处理器102将接收来自输入捕捉设备的输入信号并且确定必须分别经由触觉信号和显示信号发送的触觉效果和视觉效果修改。
在一些实施例中,一旦发送了显示信号,就将通过可穿戴AR设备204输出视觉效果。因此,用户206将能够通过可穿戴AR设备204查看具有选择的纹理的代理物体。例如,如果用户206选择红色皮革,则用户206将通过可穿戴AR设备204看到由同样的那种红色皮革制成的代理物体202。
由于通过对纹理的选择改变了AR视觉效果,所以触觉信号被发送到代理物体202中包含的(一个或多个)触觉输出设备118。这些触觉输出设备输出与所选纹理相关联的触觉效果,这使得用户206能够在用户触摸代理物体202时通过在代理物体202中产生的触觉效果感受到选择的纹理。
在一些实施例中,传感器108跟踪代理物体202,从而由代理物体202中的触觉效果和AR视觉效果产生的纹理可分别被感受和看到,无论用户206对代理物体202进行任何移动或旋转。在其他实施例中,可穿戴AR设备204的扬声器或耳机可发出音频反馈以传达在实际带纹理物体被触摸的情况下用户206将会听到的声音。在其他实施例中,不发出音频反馈。
图3示出了用于在增强现实中集成触觉覆盖的另一说明性***。在图3所示的实施例中,用户穿戴着可穿戴AR设备306和可穿戴***设备304并且与代理物体302交互。在一些实施例中,代理物体302可包括任何与代理物体202相同的特征。
可穿戴***设备304可包括覆盖用户的整只手的手套、只覆盖用户的手和手指的一部分(例如只覆盖用户的拇指和食指)的手套、只覆盖用户的指尖的碎片、鞋子、衬衫、一条裤子或者任何其他衣物。可穿戴***设备304和代理物体302包括能够向用户输出触觉效果的一个或多个触觉输出设备118,例如致动器。
在一些实施例中,用户将不与代理物体302交互。相反,将通过可穿戴AR设备306的AR显示器以视觉效果的形式显示所选物体。用户可再次选择纹理并且该纹理将被显示在通过AR显示器显示的物体上。例如,用户可选择红色皮革鞋子并且红色皮革鞋子可通过可穿戴AR设备306的AR显示器被显示。
传感器108可用于跟踪可穿戴***设备304的位置或其他特性。这允许了***确定可穿戴***设备304何时与通过AR显示器显示的物体“接触”。一旦做出了此“接触”,触觉信号就将被发送到可穿戴***设备304,从而与该物体和所选择的纹理相对应的触觉效果可被可穿戴***设备304输出。例如,利用来自上文的红色皮革鞋子示例,用户可以去感受到红色皮革鞋子。随着用户基于可穿戴AR设备306的AR显示器触摸物体,触觉效果被输出到可穿戴***设备304,从而用户感觉好像他在触摸实际的红色皮革鞋子一样。
在其他实施例中,用户将使用代理物体302和可穿戴***设备304两者。所选择的纹理通过AR设备306的AR显示器被显示,从而代理物体302看起来具有所选择的纹理。在一些实施例中,代理物体302和可穿戴***设备304包括被配置为输出触觉效果的至少一个触觉输出设备118。一个或多个传感器108跟踪代理物体302和可穿戴***设备304两者的特性。通过使用代理物体302和可穿戴***设备304,可实现高保真触感。
图4示出了用于在增强现实中集成触觉覆盖的另一说明性***。在图4所示的实施例中,用户穿戴着可穿戴AR设备406和可穿戴***设备404并且与代理物体的***402交互,该***包括至少一个代理物体。在一些实施例中,构成代理物体的***402的代理物体可包括任何与代理物体202相同的特征。
代理物体的***402可被布置为类似任何数目的区域,包括汽车的内部、飞机的驾驶舱、办公室的桌子,等等。用户可选择要在代理物体的***402的各处输出的各种纹理。例如,用户可为具有樱桃胡桃木中央控制台的汽车的方向盘选择黑色皮革纹理。
在图4的实施例中,可只经由代理物体的***402或者经由代理物体的***402和可穿戴***设备404的组合输出触觉效果。例如,车辆经销商可以让代理物体的***402设立起来在陈列室中模拟特定样式的车辆。潜在买家可通过选择不同的材料在模拟的车辆的不同区域中输出来与该***交互。代理物体的***402可能够准确地输出模拟不同材料的纹理的触觉效果,而无需潜在买家穿戴可穿戴***设备404。在其他实施例中,将代理物体的***402与可穿戴***设备404相组合。例如,在游戏环境中,代理物体的***402可用于在整个游戏各处模拟重现的环境(例如,在赛车游戏中,代理物体的***402可模拟车辆的内部)。进一步包含可穿戴***设备404可允许用户探索代理物体的***402外部的游戏环境以及增强与代理物体的***402交互时的用户体验。
用于在增强现实中集成触觉覆盖的说明性方法
图5是用于在增强现实中集成触觉覆盖的一个示例实施例的方法步骤的流程图。在一些实施例中,图5中的步骤可实现在由处理器执行的程序代码中,例如通用计算机、移动设备、虚拟现实或增强现实控制***或服务器中的处理器。在一些实施例中,这些步骤可由处理器的群组实现。在一些实施例中,图5中所示的一个或多个步骤可被省略或按不同的顺序执行。类似地,在一些实施例中,也可执行图3中没有示出的额外步骤。参考上文对于图1中所示的计算设备101和图2中所示的***描述的组件描述下面的步骤。
在示出的实施例中,过程500开始于步骤502,此时处理器(例如处理器102)确定经修改的视觉效果。处理器102从一个或多个传感器108接收传感器信号。利用传感器信号,处理器102分析环境以识别代理物体202的特性。基于这些特性,处理器102可确定经修改的视觉效果。例如,处理器102可确定蓝色皮革材料来显示在代理物体202上,在此情况下代理物体202是鞋子。基于来自传感器108的数据,处理器102可分析用户对鞋子的任何移动并且确定适当的经修改视觉效果来在鞋子上显示蓝色皮革材料。
在步骤504,处理器102接下来基于从传感器108接收的信号确定触觉效果。类似于步骤502,处理器102从传感器108接收传感器信号,并且利用这些传感器信号,分析环境以识别代理物体202的特性以确定触觉效果。在一些实施例中,处理器102利用纹理的库确定触觉效果。例如,处理器102可确定鞋子的蓝色皮革材料的适当纹理以输出为触觉效果。在一些实施例中,处理器102可基于在存储器114中的纹理库中存储的蓝色皮革触觉效果来确定要输出的触觉效果以在鞋子上模拟蓝色皮革材料。处理器102也可从监视鞋子的任何运动的传感器108接收数据以确定要输出的触觉效果以确保鞋子的运动不干扰由触觉效果产生的蓝色皮革纹理。
在步骤506,处理器102向增强现实显示器(例如可穿戴AR设备204)发送与经修改的视觉效果相关联的显示信号。例如,当通过可穿戴AR设备204查看时,鞋子将看起来是由蓝色皮革材料制成的。增强现实显示器可包括可穿戴设备或移动设备中的至少一者。在一些实施例中,经修改的视觉效果通过增强现实显示器修改代理物体202的外观。
在步骤508,处理器102将与触觉效果相关联的触觉信号发送到触觉输出设备。例如,鞋子中的(一个或多个)触觉输出设备可输出在鞋子上模拟蓝色皮革的纹理的触觉效果。在一些实施例中,代理物体202可包括一个或多个触觉输出设备118。代理物体202可以是鞋子、衣物、电子设备、显示器、界面对象或者车辆的内部中的一个或多个。
在步骤510,处理器从输入捕捉设备接收输入信号。在一些实施例中,用户可使用诸如音频捕捉设备、触摸屏、键盘、鼠标、操纵杆或增强现实控制板之类的输入捕捉设备来指示***需要显示什么纹理。例如,用户可以向麦克风中说出“向鞋子应用红色麂皮材料”。处理器102接收来自麦克风的表示此指令的输入信号。处理器102随后可基于此信号确定对视觉或触觉效果的任何必要修改。这样,可穿戴AR设备204的显示器显示鞋子从蓝色皮革材料变化到红色麂皮材料并且鞋子输出的触觉效果从蓝色皮革纹理变化到红色麂皮纹理。
本文描述的一些实施例通过将AR空间与特写真实世界触觉效果的真实代理物体相结合来提供了一种更沉浸式的、更优化的体验。在其他实施例中,将代理物体与可穿戴***设备相结合以实现更令人信服的触觉,因为不是所有触觉反馈都需要由触觉致动器来表现。由于容易改变代理物体的纹理和外观,所以产品设计变得更加高效且划算。
一般考虑
上文论述的方法、***和设备是示例。各种配置可酌情省略、替代或添加各种过程或组件。例如,在替换配置中,可按与描述不同的顺序执行方法,和/或可添加、省略和/或组合各种阶段。另外,对于某些配置描述的特征可被结合在各种其他配置中。配置的不同的方面和元素可按类似的方式被组合。另外,技术在发展,从而许多元素是示例并且不限制本公开或权利要求的范围。
在描述中给出了具体细节以提供对示例配置(包括实现方式)的透彻理解。然而,没有这些具体细节也可以实现配置。例如,在没有不必要细节的情况下示出了公知的电路、过程、算法、结构和技术以避免模糊配置。本说明书只提供了示例配置,而并不限制权利要求的范围、适用性或配置。更确切地说,先前对配置的描述将向本领域技术人员提供使能实现描述的技术的描述。在不脱离本公开的精神或范围的情况下,可对元素的功能和布置做出各种改变。
另外,配置可被描述为过程,该过程被描绘为流程图或框图。虽然每一者可将操作描述为顺序的过程,但许多操作可被并行或同时执行。此外,可以重安排操作的顺序。过程可具有附图中没有包括的额外步骤。此外,方法的示例可由硬件、软件、固件、中间件、微代码、硬件描述语言、或者其任何组合来实现。当以软件、固件、中间件或微代码来实现时,执行必要任务的程序代码或代码片段可被存储在诸如存储介质之类的非暂态计算机可读介质中。处理器可执行描述的任务。
在描述了若干个示例配置后,在不脱离本公开的精神的情况下可使用各种修改、替换构造和等同。例如,上述元素可以是更大***的成分,其中其他规则可优先于或者以其他方式修改本发明的应用。另外,在考虑上述元素之前、期间或之后可从事若干个步骤。因此,以上描述不限制权利要求的范围。
本文中对“适合于”或“被配置为”的使用打算作为不排除适合于或被配置为执行额外的任务或步骤的设备的开放且包含性的语言。此外,对“基于”的使用打算是开放且包含性的,因为“基于”一个或多个记载的条件或值的过程、步骤、计算或其他动作在实践中可基于超出记载的那些的额外条件或值。本文中包括的标题、列表和编号只是为了易于说明,而并不打算是限制性的。
根据本主题的各方面的实施例可实现在数字电子电路中、实现在计算机硬件、固件、软件中或者实现在前述的组合中。在一个实施例中,计算机可包括一个或多个处理器。处理器可包括或者能够访问计算机可读介质,例如耦合到处理器的随机访问存储器(random access memory,RAM)。处理器执行存储在存储器中的计算机可执行程序指令,例如执行包括传感器采样例程、选择例程和其他例程以执行上述方法的一个或多个计算机程序。
这种处理器可包括微处理器、数字信号处理器(digital signal processor,DSP)、专用集成电路(application-specific integrated circuit,ASIC)、现场可编程门阵列(field programmable gate array,FPGA)以及状态机。这种处理器还可包括可编程电子器件,例如PLC、可编程中断控制器(programmable interrupt controller,PIC)、可编程逻辑器件(programmable logic device,PLD)、可编程只读存储器(programmable read-only memory,PROM)、电可编程只读存储器(electronically programmable read-onlymemory,EPROM或EEPROM)或者其他类似的器件。
这种处理器可包括可存储指令的介质或者可与介质通信,例如有形计算机可读介质,所述指令当被处理器执行时可使得处理器执行本文描述为由处理器实现或辅助的步骤。计算机可读介质的示例可包括但不限于能够向处理器(例如web服务器中的处理器)提供计算机可读指令的电子存储设备、光存储设备、磁存储设备或其他存储设备。介质的其他示例包括但不限于软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、配置的处理器、所有光介质、所有磁带或其他磁介质或者计算机处理器可从其读取的任何其他介质。另外,各种其他设备可包括计算机可读介质,例如路由器、私有或公共网络或者其他传输设备。所描述的处理器和处理可在一个或多个结构中,并且可通过一个或多个结构来散布。处理器可包括用于实现本文描述的方法(或方法的部分)中的一个或多个的代码。
虽然已针对本主题的特定实施例详细描述了本主题,但将会明白本领域技术人员在达到了对前述的理解后可容易产生这种实施例的替换、变化和等同。因此,应当理解本公开是为了示例而不是限制给出的,并且不排除包括本领域普通技术人员将容易清楚的对本主题的这种修改、变化和/或添加。

Claims (21)

1.一种***,包括:
触觉输出设备;
显示器,被配置为输出视觉效果;
传感器,用于跟踪代理物体的位置;以及
处理器,被配置为:
部分基于从所述传感器接收的数据确定经修改的视觉效果;
部分基于从所述传感器接收的数据确定触觉效果;
向所述显示器发送与所述经修改的视觉效果相关联的显示信号;
向所述触觉输出设备发送与所述触觉效果相关联的触觉信号;并且
利用所述触觉输出设备输出所述触觉效果。
2.如权利要求1所述的***,其中,所述触觉输出设备耦合到所述代理物体。
3.如权利要求2所述的***,其中,所述代理物体包括以下各项中的一个或多个:鞋子、衣物、电子设备、显示器、界面对象、或者车辆的内部。
4.如权利要求2所述的***,其中,所述代理物体包括中性物理特性。
5.如权利要求2所述的***,其中,所述增强现实视觉效果被配置为通过所述显示器修改所述代理物体的外观。
6.如权利要求1所述的***,其中,所述显示器包括以下各项中的至少一者:可穿戴设备或者移动设备。
7.如权利要求1所述的***,其中,所述传感器包括以下各项中的至少一者:相机、激光器、雷达、加速度计、陀螺仪、压力传感器、磁传感器、光传感器、跟踪传感器、或者麦克风。
8.如权利要求1所述的***,其中,所述处理器还被配置为从输入捕捉设备接收输入信号并且部分基于从所述输入捕捉设备接收的数据来确定所述触觉效果。
9.如权利要求1所述的***,其中,所述触觉效果被配置为修改所述代理物体的纹理。
10.如权利要求9所述的***,其中,所述触觉效果被配置为模拟以下各项中的一个或多个的纹理:皮革、塑料、橡胶、金属、粗麻布、麂皮、牛仔布、木材、织物、陶瓷、泡沫材料或玻璃。
11.一种方法,包括:
部分基于从传感器接收的数据确定经修改的视觉效果;
部分基于从所述传感器接收的数据确定触觉效果;
向显示器发送与所述经修改的视觉效果相关联的显示信号;
向触觉输出设备发送与所述触觉效果相关联的触觉信号;并且
利用所述触觉输出设备输出所述触觉效果。
12.如权利要求11所述的方法,其中,所述触觉输出设备耦合到代理物体。
13.如权利要求12所述的方法,其中,所述代理物体包括以下各项中的一个或多个:鞋子、衣物、电子设备、显示器、界面对象、或者车辆的内部。
14.如权利要求12所述的方法,其中,所述代理物体包括中性物理特性。
15.如权利要求12所述的方法,其中,所述增强现实视觉效果被配置为通过所述显示器修改所述代理物体的外观。
16.如权利要求11所述的方法,其中,所述显示器包括以下各项中的至少一者:可穿戴设备或者移动设备。
17.如权利要求11所述的方法,其中,所述传感器包括以下各项中的至少一者:相机、激光器、雷达、加速度计、陀螺仪、压力传感器、磁传感器、光传感器、跟踪传感器、或者麦克风。
18.如权利要求11所述的方法,还包括:从输入捕捉设备接收输入信号并且部分基于从所述输入捕捉设备接收的数据来确定所述触觉效果。
19.如权利要求12所述的方法,其中,所述触觉效果被配置为修改所述代理物体的纹理。
20.如权利要求19所述的方法,其中,所述触觉效果被配置为模拟以下各项中的一个或多个的纹理:皮革、塑料、橡胶、金属、帆布、搪瓷、粗麻布、麂皮、牛仔布、木材、织物、陶瓷、泡沫材料或玻璃。
21.一种包括程序代码的非暂态计算机可读介质,所述程序代码当被处理器执行时被配置为使得所述处理器用于:
部分基于从传感器接收的数据确定经修改的视觉效果;
部分基于从所述传感器接收的数据确定触觉效果;
向显示器发送与所述经修改的视觉效果相关联的显示信号;
向触觉输出设备发送与所述触觉效果相关联的触觉信号;并且
利用所述触觉输出设备输出所述触觉效果。
CN201910516936.2A 2018-06-15 2019-06-14 用于在增强现实中集成触觉覆盖的***和方法 Pending CN110609615A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/010,230 US10665067B2 (en) 2018-06-15 2018-06-15 Systems and methods for integrating haptics overlay in augmented reality
US16/010,230 2018-06-15

Publications (1)

Publication Number Publication Date
CN110609615A true CN110609615A (zh) 2019-12-24

Family

ID=66867068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910516936.2A Pending CN110609615A (zh) 2018-06-15 2019-06-14 用于在增强现实中集成触觉覆盖的***和方法

Country Status (5)

Country Link
US (1) US10665067B2 (zh)
EP (1) EP3582080A1 (zh)
JP (1) JP6732078B2 (zh)
KR (1) KR102201678B1 (zh)
CN (1) CN110609615A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021134269A1 (zh) * 2019-12-30 2021-07-08 瑞声声学科技(深圳)有限公司 车载装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11500470B2 (en) * 2019-12-23 2022-11-15 Robert Bosch Gmbh System and method of vehicle aware gesture recognition in vehicles with smart helmets

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105630156A (zh) * 2014-11-25 2016-06-01 意美森公司 用于基于变形的触觉效果的***和方法
CN107636605A (zh) * 2015-03-20 2018-01-26 索尼互动娱乐股份有限公司 传达在头戴式显示器渲染的环境中的虚拟对象的触感和移动的动态手套
US20180144549A1 (en) * 2016-11-18 2018-05-24 Toyota Jidosha Kabushiki Kaisha Augmented Reality for Providing Vehicle Functionality through Virtual Features

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9948885B2 (en) 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US9370704B2 (en) 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
JP5016117B2 (ja) 2008-01-17 2012-09-05 アーティキュレイト テクノロジーズ インコーポレーティッド 口腔内触知フィードバックのための方法及び装置
US9370459B2 (en) 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
WO2011127379A2 (en) 2010-04-09 2011-10-13 University Of Florida Research Foundation Inc. Interactive mixed reality system and uses thereof
US9462262B1 (en) 2011-08-29 2016-10-04 Amazon Technologies, Inc. Augmented reality environment with environmental condition control
US10852093B2 (en) 2012-05-22 2020-12-01 Haptech, Inc. Methods and apparatuses for haptic systems
FR2999741B1 (fr) 2012-12-17 2015-02-06 Centre Nat Rech Scient Systeme haptique pour faire interagir sans contact au moins une partie du corps d'un utilisateur avec un environnement virtuel
CN103077633A (zh) 2013-01-11 2013-05-01 深圳超多维光电子有限公司 一种立体虚拟培训***和方法
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
DK3014394T3 (da) 2013-07-05 2022-07-11 Jacob A Rubin Helkrops-menneske-computer-grænseflade
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
GB2521138B (en) 2013-12-10 2019-01-02 Flexenable Ltd Source/Drain Conductors for Transistor Devices
EP3095023A1 (en) 2014-01-15 2016-11-23 Sony Corporation Haptic notification on wearables
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
CN111998027B (zh) 2014-07-28 2022-05-27 Ck高新材料有限公司 触觉信息提供方法
US9645646B2 (en) 2014-09-04 2017-05-09 Intel Corporation Three dimensional contextual feedback wristband device
US9799177B2 (en) 2014-09-23 2017-10-24 Intel Corporation Apparatus and methods for haptic covert communication
US10166466B2 (en) 2014-12-11 2019-01-01 Elwha Llc Feedback for enhanced situational awareness
US20160170508A1 (en) 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Tactile display devices
US9870718B2 (en) 2014-12-11 2018-01-16 Toyota Motor Engineering & Manufacturing North America, Inc. Imaging devices including spacing members and imaging devices including tactile feedback devices
US9922518B2 (en) 2014-12-11 2018-03-20 Elwha Llc Notification of incoming projectiles
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US9746921B2 (en) 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US9843744B2 (en) 2015-01-13 2017-12-12 Disney Enterprises, Inc. Audience interaction projection system
US10322203B2 (en) 2015-06-26 2019-06-18 Intel Corporation Air flow generation for scent output
WO2017024181A1 (en) 2015-08-06 2017-02-09 Pcms Holdings, Inc. Methods and systems for providing haptic feedback for virtual 3d objects
US9851799B2 (en) 2015-09-25 2017-12-26 Oculus Vr, Llc Haptic surface with damping apparatus
US20170103574A1 (en) 2015-10-13 2017-04-13 Google Inc. System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience
US20170131775A1 (en) 2015-11-10 2017-05-11 Castar, Inc. System and method of haptic feedback by referral of sensation
WO2017095951A1 (en) 2015-11-30 2017-06-08 Nike Innovate C.V. Apparel with ultrasonic position sensing and haptic feedback for activities
US10310804B2 (en) 2015-12-11 2019-06-04 Facebook Technologies, Llc Modifying haptic feedback provided to a user to account for changes in user perception of haptic feedback
US10324530B2 (en) 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects
US10096163B2 (en) 2015-12-22 2018-10-09 Intel Corporation Haptic augmented reality to reduce noxious stimuli
US10065124B2 (en) 2016-01-15 2018-09-04 Disney Enterprises, Inc. Interacting with a remote participant through control of the voice of a toy device
US9846971B2 (en) 2016-01-19 2017-12-19 Disney Enterprises, Inc. Systems and methods for augmenting an appearance of a hilt to simulate a bladed weapon
US11351472B2 (en) 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US10477006B2 (en) 2016-01-22 2019-11-12 Htc Corporation Method, virtual reality system, and computer-readable recording medium for real-world interaction in virtual reality environment
US9990815B2 (en) * 2016-02-18 2018-06-05 Immersion Corporation Wearable haptic effects with permissions settings
US9933851B2 (en) 2016-02-22 2018-04-03 Disney Enterprises, Inc. Systems and methods for interacting with virtual objects using sensory feedback
US10555153B2 (en) 2016-03-01 2020-02-04 Disney Enterprises, Inc. Systems and methods for making non-smart objects smart for internet of things
CA3031769A1 (en) * 2016-08-04 2018-02-08 Fairwayiq, Inc. System and method for managing and interacting with spectators at an activity venue
US10155159B2 (en) 2016-08-18 2018-12-18 Activision Publishing, Inc. Tactile feedback systems and methods for augmented reality and virtual reality systems
US20180053351A1 (en) 2016-08-19 2018-02-22 Intel Corporation Augmented reality experience enhancement method and apparatus
US10779583B2 (en) 2016-09-20 2020-09-22 Facebook Technologies, Llc Actuated tendon pairs in a virtual reality device
US10372213B2 (en) 2016-09-20 2019-08-06 Facebook Technologies, Llc Composite ribbon in a virtual reality device
US10300372B2 (en) 2016-09-30 2019-05-28 Disney Enterprises, Inc. Virtual blaster
US10281982B2 (en) 2016-10-17 2019-05-07 Facebook Technologies, Llc Inflatable actuators in virtual reality
US10088902B2 (en) 2016-11-01 2018-10-02 Oculus Vr, Llc Fiducial rings in virtual reality
US20170102771A1 (en) 2016-12-12 2017-04-13 Leibs Technology Limited Wearable ultrasonic haptic feedback system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105630156A (zh) * 2014-11-25 2016-06-01 意美森公司 用于基于变形的触觉效果的***和方法
CN107636605A (zh) * 2015-03-20 2018-01-26 索尼互动娱乐股份有限公司 传达在头戴式显示器渲染的环境中的虚拟对象的触感和移动的动态手套
US20180144549A1 (en) * 2016-11-18 2018-05-24 Toyota Jidosha Kabushiki Kaisha Augmented Reality for Providing Vehicle Functionality through Virtual Features

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021134269A1 (zh) * 2019-12-30 2021-07-08 瑞声声学科技(深圳)有限公司 车载装置

Also Published As

Publication number Publication date
US10665067B2 (en) 2020-05-26
US20190385419A1 (en) 2019-12-19
EP3582080A1 (en) 2019-12-18
JP6732078B2 (ja) 2020-07-29
KR102201678B1 (ko) 2021-01-12
JP2019220170A (ja) 2019-12-26
KR20190142226A (ko) 2019-12-26

Similar Documents

Publication Publication Date Title
CN108334190B (zh) 使用视场的触觉反馈
US10444829B2 (en) Systems and methods for viewport-based augmented reality haptic effects
US10474238B2 (en) Systems and methods for virtual affective touch
CN110633006A (zh) 用于虚拟现实用户的真实世界触觉交互
JP2022535315A (ja) 自己触覚型仮想キーボードを有する人工現実システム
KR20170069936A (ko) 위치 기반 햅틱 효과를 위한 시스템 및 방법
US10572017B2 (en) Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments
KR20160004198A (ko) 정전 햅틱 효과를 제공하는 표면 요소를 위한 시스템 및 방법
EP3333674A1 (en) Systems and methods for compliance simulation with haptics
CN102349038A (zh) 用于纹理引擎的***和方法
JP2022534639A (ja) 指マッピング自己触覚型入力方法を有する人工現実システム
EP3367216A1 (en) Systems and methods for virtual affective touch
KR102201678B1 (ko) 증강 현실에서 햅틱 오버레이를 통합하는 시스템들 및 방법들
US20200387246A1 (en) Systems and methods for particle jamming haptic feedback
US20200286298A1 (en) Systems and methods for a user interaction proxy
CN116149474A (zh) 近眼显示设备的控制方法、装置及近眼显示设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191224

RJ01 Rejection of invention patent application after publication