CN107705349B - 用于增强现实感知内容的***和方法 - Google Patents
用于增强现实感知内容的***和方法 Download PDFInfo
- Publication number
- CN107705349B CN107705349B CN201710006855.9A CN201710006855A CN107705349B CN 107705349 B CN107705349 B CN 107705349B CN 201710006855 A CN201710006855 A CN 201710006855A CN 107705349 B CN107705349 B CN 107705349B
- Authority
- CN
- China
- Prior art keywords
- augmented reality
- digital content
- reality
- content
- user device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/16—Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种用于增强现实感知内容的***和方法。该方法包括:对响应于与标准数字内容相关的触发条件的激活而启动的情境敏感触发信号进行检测;利用增强现实感知数据确定与所述情境敏感触发信号相关联的增强现实内容信息;根据所述增强现实内容信息,获取增强现实触发信息、增强现实数字内容以及混合内容体验配置当中的至少一个;响应于所述获取,根据所述情境敏感触发信号,启动至少一个现实源,以获取现实数据;识别所述至少一个现实源中的至少一个增强现实触发信号;以及对所述标准数字内容的所述至少一个部分、所述增强现实数字内容以及由与所述标准数字内容的所述至少一个部分相关的现实数据当中的一个进行选择性渲染。
Description
技术领域
本发明总体涉及增强现实,尤其涉及用于增强现实感知内容的***和方法。
背景技术
增强现实是一种用于提供情境相关辅助的情境感知内容渲染技术。标准数字内容是以数字数据的形式存在并由支持特定内容类型的标准渲染工具渲染的任何类型的内容。混合内容体验是将增强现实和标准数字内容合并,以产生此两者可在其中共存并实时交互的新的动态体验和可视化内容。
在一种传统增强现实的工具中,增强现实技术用于将线框,图标和文本覆盖至真实世界视图上。类似地,增强现实工具试图以现有的标准数字内容来增强现实。然而,在此增强现实的工具中,所述标准数字内容被完全转换为基于增强现实的数字内容。此方法因需要其他增强现实内容而成为一种时间、精力和成本密集型方法。
上述问题在另一现有增强现实的工具中得以解决。该工具的作用机制能够将身临其境式的内容***eBook中,从而向电子书用户提供增强现实的体验。然而,该机制仅可用于电子书,并仅限于使用基于增强现实的小部件,而且不能与其他标准数字内容兼容。此外,该增强现实的工具仅用摄像头(和媒体帧)作为现实源和输入。
发明内容
在一种实施方式中,本发明公开了一种渲染增强现实感知标准数字内容的方法。该方法包括:由用户设备对响应于与标准数字内容相关的触发条件的激活而启动的情境敏感触发信号进行检测;利用增强现实感知数据确定与所述情境敏感触发信号相关联的增强现实内容信息;根据所述用户设备的渲染能力和增强现实内容信息,获取增强现实触发信息、与该增强现实触发信息相关联的增强现实数字内容以及混合内容体验配置当中的至少一个;响应于所述增强现实内容信息、增强现实触发信息以及混合内容体验配置的获取,根据所述情境敏感触发信号,启动至少一个现实源,以获取现实数据;当所述用户设备的渲染能力包括识别现实源中的增强现实触发信号的能力时,由该用户设备识别所述至少一个现实源中的至少一个增强现实触发信号;以及由所述用户设备根据该用户设备的渲染能力和所述混合内容体验配置,采用所述标准数字内容的至少一个部分、所述增强现实数字内容以及至少一个现实源获取的现实数据当中的一个对所述标准数字内容的所述至少一个部分进行选择性渲染。
在另一实施方式中,本发明公开了一种渲染增强现实感知标准数字内容的***。该***包括至少一个处理器以及计算机可读介质。该介质存有指令,该指令在由所述至少一个处理器执行时使得该至少一个处理器实施操作,该操作包括:对响应于与标准数字内容相关的触发条件的激活而启动的情境敏感触发信号进行检测;利用增强现实感知数据确定与所述情境敏感触发信号相关联的增强现实内容信息;根据用户设备的渲染能力和增强现实内容信息,获取增强现实触发信息、与该增强现实触发信息相关联的增强现实数字内容以及混合内容体验配置当中的至少一个;响应于所述增强现实内容信息、增强现实触发信息以及混合内容体验配置的获取,根据所述情境敏感触发信号,启动至少一个现实源,以获取现实数据;当所述用户设备的渲染能力包括识别现实源中的增强现实触发信号的能力时,由该用户设备识别所述至少一个现实源中的至少一个增强现实触发信号;以及根据所述用户设备的渲染能力和所述混合内容体验配置,对所述标准数字内容的至少一个部分、所述增强现实数字内容以及由与所述标准数字内容的所述至少一个部分相关的至少一个现实源获取的现实数据当中的一个进行选择性渲染。
在又一实施方式中,本发明公开了一种渲染增强现实感知标准数字内容的非暂时性计算机可读存储介质,当该介质由计算装置执行时使得该计算装置:由用户设备对响应于与标准数字内容相关的触发条件的激活而启动的情境敏感触发信号进行检测;利用增强现实感知数据确定与所述情境敏感触发信号相关联的增强现实内容信息;根据所述用户设备的渲染能力和增强现实内容信息,获取增强现实触发信息、与该增强现实触发信息相关联的增强现实数字内容以及混合内容体验配置当中的至少一个;响应于所述增强现实内容信息、增强现实触发信息以及混合内容体验配置的获取,根据所述情境敏感触发信号,启动至少一个现实源,以获取现实数据;当所述用户设备的渲染能力包括识别现实源中的增强现实触发信号的能力时,由该用户设备识别所述至少一个现实源中的至少一个增强现实触发信号;以及由所述用户设备根据该用户设备的渲染能力和所述混合内容体验配置,对所述标准数字内容的至少一个部分、所述增强现实数字内容以及由与所述标准数字内容的所述至少一个部分相关的至少一个现实源获取的现实数据当中的一个进行选择性渲染。
应当理解的是,以上概略描述与以下详细描述均仅在于例示和说明,而不在于限制所要求保护的发明。
附图说明
所附各图并入本公开内容之内并构成本公开内容的一部分,用于对例示实施方式进行描述,并与说明书一道阐明所公开的原理。
图1显示了用于实现各种实施方式的示例计算机***框图。
图2显示了根据一种实施方式渲染增强现实感知标准数字内容的方法流程图。
图3显示了根据另一实施方式渲染增强现实感知标准数字内容的方法流程图。
图4显示了根据一种实施方式创建增强现实感知标准数字内容的方法流程图。
图5显示了根据一种实施方式渲染增强现实感知内容的***框图。
具体实施方式
以下,参考附图,对例示实施方式进行描述。在任何方便之处,各图中均采用相同附图标记指代相同或类似部件。虽然本文中描述了所公开原理的实施例和特征,但是在不脱离所公开实施方式的精神和范围的前提下,还可进行修改、调整以及实现其他实施方式。以下具体描述意在仅视作例示,而真正的范围及精神如权利要求书所述。
以下对其他说明性实施方式进行描述。在一种实施方式中,图1公开了用于实现各种实施方式的示例计算机***框图。计算机***102可包括中央处理单元(“CPU”或“处理器”104)。处理器104可包括至少一个用于执行程序组件的数据处理器,所述程序组件用于执行用户或***生成的请求。用户可包括个人,使用设备(例如,本公开内容范围内的设备)的个人,或此类设备本身。所述处理器可包括专用处理单元,例如集成***(总线)控制器、存储器管理控制单元、浮点单元、图形处理单元、数字信号处理单元等。所述处理器可包括微处理器,例如AMD速龙(Athlon)、毒龙(Duron)或皓龙(Opteron),ARM应用处理器,嵌入式或安全处理器,IBM PowerPC,Intel Core、安腾(Itanium)、至强(Xeon)、赛扬(Celeron)或其他处理器产品线等。处理器104可通过主机、分布式处理器、多核、并行、网格或其他架构实现。一些实施方式可采用专用集成电路(ASIC)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)等嵌入式技术。
处理器104可设置为通过输入/输出(I/O)接口106与一个或多个I/O设备进行通信。I/O接口106可采用通信协议/方法,例如但不限于,音频、模拟、数字、单声道、RCA、立体声、IEEE-1394、串行总线、通用串行总线(USB)、红外、PS/2、BNC、同轴、组件、复合、数字视觉接口(DVI)、高清晰度多媒体接口(HDMI)、射频天线、S-视频,VGA、IEEE 802.n/b/g/n/x、蓝牙、蜂窝(例如码分多址(CDMA)、高速分组接入(HSPA+)、移动通信全球***(GSM)、长期演进(LTE)、WiMax等)等。
通过使用I/O接口106,计算机***102可与一个或多个I/O设备进行通信。举例而言,输入设备108可以为天线、键盘、鼠标、操纵杆、(红外)遥控、摄像头、读卡器、传真机、加密狗、生物计量阅读器、麦克风、触摸屏、触摸板、轨迹球、传感器(例如加速度计、光传感器、GPS、陀螺仪、接近传感器等)、触控笔、扫描仪、存储设备、收发器、视频设备/视频源、头戴式显示器等。输出设备110可以为打印机、传真机、视频显示器(例如阴极射线管(CRT)、液晶显示器(LCD)、发光二极管(LED)、等离子等)、音频扬声器等。在一些实施方式中,收发器112可与处理器104连接。收发器112可促进各类无线传输或接收。例如,收发器112包括以可操作方式连接至收发器芯片(例如德州仪器(Texas Instruments)WiLink WL1283、博通(Broadcom)BCM4750IUB8、英飞凌科技(Infineon Technologies)X-Gold618-PMB9800等)的天线,以实现IEEE 802.11a/b/g/n、蓝牙、FM、全球定位***(GPS)、2G/3G HSDPA/HSUPA通信等。
在一些实施方式中,处理器104可配置为通过网络接口116与通信网络114通信。网络接口116可与通信网络114通信。网络接口116可采用连接协议,包括但不限于,直接连接,以太网(例如双绞线10/100/1000BaseT),传输控制协议/网际协议(TCP/IP),令牌环,IEEE802.11a/b/g/n/x等。通信网络114可包括,但不限于,直接互连、局域网(LAN)、广域网(WAN)、无线网络(例如使用无线应用协议)、因特网等。通过网络接口116和通信网络114,计算机***102可与设备118、120和122通信。这些设备可包括,但不限于,个人计算机,服务器,传真机,打印机,扫描仪,以及各种移动设备,例如蜂窝电话、智能电话(例如苹果(Apple)iPhone、黑莓(Blackberry)、基于安卓(Android)***的电话等)、平板电脑、电子书阅读器(亚马逊(Amazon)Kindle,Nook等)、膝上型计算机、笔记本电脑、游戏机(微软(Microsoft)Xbox、任天堂(Nintendo)DS,索尼(Sony)PlayStation等)等。在一些实施方式中,计算机***102本身可包含一个或多个上述设备。
在一些实施方式中,处理器104可配置为通过存储接口124与一个或多个存储设备(例如RAM 126、ROM 128等)通信。存储接口124可采用串行高级技术连接(SATA)、集成驱动电子设备(IDE)、IEEE 1394、通用串行总线(USB)、光纤通道、小型计算机***接口(SCSI)等连接协议连接至存储设备130,该存储设备包括,但不限于,存储驱动器、可移除磁盘驱动器等。所述存储驱动器还可包括磁鼓、磁盘驱动器、磁光驱动器、光盘驱动器、独立磁盘冗余阵列(RAID)、固态存储设备、固态驱动器等。
存储设备130可存储一系列程序或数据库组件,包括但不限于,操作***132、用户界面应用程序134、网页浏览器136、邮件服务器138、邮件客户端140、用户/应用程序数据142(例如本公开内容中所述的任何数据变量或数据记录)等。操作***132可促进计算机***102的资源管理和运行。操作***132例如包括,但不限于,苹果Macintosh OS X、Unix、类Unix***套件(例如伯克利软件套件(BSD)、FreeBSD、NetBSD、OpenBSD等)、Linux套件(如Red Hat、Ubuntu、Kubuntu等)、IBM OS/2、微软Windows(XP,Vista/7/8等)、苹果iOS、谷歌(Google)安卓、黑莓操作***等。用户界面134可利用文本或图形工具促进程序组件的显示、执行、互动、操控或操作。例如,用户界面可在以可操作方式连接至计算机***102的显示***上提供光标、图标、复选框、菜单、滚动条、窗口、窗口部件等计算机交互界面元件。还可采用图形用户界面(GUI),包括但不限于,苹果Macintosh操作***的Aqua、IBM OS/2、微软Windows(例如Aero、Metro等)、Unix X-Windows、网页界面库(例如ActiveX、Java、Javascript、AJAX、HTML、Adobe Flash等)等。
在一些实施方式中,计算机***102可执行网页浏览器136存储的程序组件。网页浏览器136可以为超文本浏览应用程序,如微软因特网Explorer、谷歌Chrome、谋智(Mozilla)火狐(Firefox)、苹果Safari等。安全网页浏览可通过HTTPS(安全超文本传输协议)、安全套接字层(SSL)、安全传输层(TLS)等实现。网页浏览器可使用AJAX、DHTML、AdobeFlash、JavaScript、Java、应用程序编程接口(API)等工具。在一些实施方式中,计算机***102可执行邮件服务器138存储的程序组件。邮件服务器138可以为微软Exchange等因特网邮件服务器。所述邮件服务器可使用ASP、ActiveX、ANSI C++/C#、微软.NET、CGI脚本、Java、JavaScript、PERL、PHP、Python、WebObjects等工具。所述邮件服务器还可使用因特网信息访问协议(IMAP),邮件应用程序编程接口(MAPI),微软Exchange,邮局协议(POP),简单邮件传输协议(SMTP)等通信协议。在一些实施方式中,计算机***102可执行邮件客户端140存储的程序组件。邮件客户端140可为苹果Mail、微软Entourage、微软Outlook、谋智Thunderbird等邮件查看程序。
在一些实施方式中,计算机***102可存储用户/应用程序数据142,例如本公开内容中所述数据、变量、记录等。此类数据库可以为容错、关系、可扩展、安全数据库,例如甲骨文(Oracle)或赛贝斯(Sybase)。或者,上述数据库可通过数组、散列、链表、结构、结构化文本文件(例如XML)、表格等标准化数据结构实现,或者实施为面向对象的数据库(例如通过ObjectStore、Poet、Zope等)。上述数据库可以为合并或分布数据库,有时分布于本公开内容所讨论的上述各种计算机***之间。应该理解的是,可以以任何可工作的组合形式对上述任何计算机或数据库组件的结构及操作进行组合、合并或分布。
可以理解的是,为了清楚起见,以上已参考不同功能单元和处理器对本发明实施方式进行了描述。然而,容易想到的是,在不影响本发明的前提下,还可将功能在不同功能单元、处理器或域之间进行任何合适的分布。例如,描述为由各不同处理器或控制器实现的功能也可由同一处理器或控制器实现。因此,所指的特定功能单元仅视为指代用于提供所描述功能的合适手段,而不严格表示逻辑上或物理上的结构或组织。
图2显示了根据一种实施方式渲染增强现实感知标准数字内容的方法流程图。为此目的,首先创建所述增强现实感知标准数字内容,并将标准数字内容和增强现实感知元数据纳入其中。标准数字内容例如包括,但不限于,电子书,PDF文件,记事本,图像,网页,Microsoft Word文档,音频内容,3D对象,虚拟现实,动画内容和视频内容。
通过创建所述增强现实感知标准数字内容,当用户设备不具有在标准数字内容上渲染增强现实的能力,则该用户设备将仅显示所述标准数字内容。换句话说,所述增强现实感知标准数字内容并不仅限于专用用户设备。如此,增强现实感知标准数字内容的创建者和用户无需承担因持有所述标准数字内容的内设和不内设增强现实感知功能的多个版本而带来的开销。相同内容可在具有不同渲染能力的用户设备上得以使用。
所述增强现实感知标准数字内容包括上述标准数字内容和增强现实感知元数据,而此两者进一步包括用于实现增强现实的信息和与其中所包括项目相关联的细节。所述增强现实感知元数据可由,但不限于,文件,数据库或数字存储内容构成,而且可存储于所述标准数字内容之外。或者,所述增强现实感知元数据的至少一部分可存储于所述标准数字内容之内。换句话说,该增强现实感知元数据可部分或全部存储于所述标准数字内容中。
所述增强现实实现信息也为元数据,而且进一步包括与情境敏感触发信号和增强现实内容信息间关联关系相关的细节。换句话说,每当检测到特定情境敏感触发信号时,即获取与该特定情境敏感触发信号相关联的增强现实内容信息。因此,当检测到不具有关联增强现实内容信息的情境敏感触发信号时,将不会导致任何进一步的动作或结果。换言之,此类情境敏感触发信号可以被忽略。所述增强现实实现信息还包括当检测到特定情境敏感触发信号时,与在用户设备中开启或关闭增强现实感知功能相关的细节。在一种示例实施方式中,可使用下表1表示所述增强现实实现信息:
表1
因此,参考上表1,如果检测到情境敏感触发信号CST2,则确定ARC1为与CST2相关联的增强现实内容信息。另外,还确定每当检测到CST2时,需要关闭增强现实感知功能。类似地,每当检测到CST4时,需关闭增强现实感知功能。然而,当检测到CST1和CST3时,需打开增强现实感知功能。下面将对此作进一步详细解释。
情境敏感触发信号可由用户设备根据触发条件的激活而检测到。所述触发条件可包括以下的一个或多个,但不限于:用户动作;用户姿势;用户概况;用户偏好;周围环境;设备位置;设备朝向;内容流动态;以及设备事件,该设备事件包括省电模式、锁定状态和用户设备传感器值。所述情境敏感触发信号与触发条件的激活情境相对应。作为一例,对视频中2:00到2:15秒的时间段的渲染帧可用作情境敏感触发信号。作为另一例,文档第五页第二段到达用户设备显示器顶端可作为情境敏感触发信号。在一种例示实施方式中,可以以下表2表示情境敏感触发信号:
表2
所述增强现实内容信息包括涉及增强现实触发信号与增强现实数字内容间关联关系及混合内容体验配置的相关细节。增强现实触发信号可包括但不限于标记,物体,温度,时间流逝,位置,传感器值和声音。增强现实数字内容可包括但不限于3D模型,图像,音频,视频,动画内容,虚拟现实和文本。作为一例,每当标准数字内容或现实源中的特定标记(增强现实触发)进入视野时,即在背景中播放映射至该标记或与该标记相关联的音频。另一个例子是,当在标准数字内容或现实源中识别到特定对象时,播放与该对象相关联的视频。作为另一例,在用户与标准数字内容交互时,每当达到特定温度时,可以播放蜂鸣声。所述温度可由温度传感器(现实源)获得,该温度传感器可以内置于用户设备或者位于用户附近,并与用户设备通信。在一种例示实施方式中,可以以下表3表示增强现实触发信号:
表3
在此例示实施方式中,对于ART2:以现实源(如摄像头)检测到车轮(物体)作为一种指示。类似地,对于ART3:以温度传感器(现实源)检测到环境温度或用户设备温度大于100摄氏度作为一种指示。在一种例示实施方式中,将增强现实触发信号与增强现实数字内容之间的关联关系作为增强现实内容信息存储,其存储和表示方式如下表4所示:
表4
在一种例示实施方式中,增强现实数字内容还包括其与标准数字内容的一个或多个部分之间的关系/关联的相关信息,如下表5所示:
表5
其中,举例而言,当根据关联增强现实触发信号识别出增强现实数字内容(增强现实数字内容ID:ARDC3)时,将第3页第5段显示为弹出框,并根据上表所示细节对该弹出框的取向做进一步修改。
对应在用户设备上渲染标准数字内容部分、与该标准数字内容部分相关的增强现实数字内容,和/或由现实源获取的现实数据当中的哪些进行管理的规则保存为上述混合内容体验配置。换句话说,该混合内容体验配置规定必须对标准数字内容、增强现实数字内容和现实数据的何种组合进行渲染。该混合内容体验配置定义了可导致最终渲染决定的一系列事件,在以下步骤202~212对其进行进一步详细描述。所述现实源例如可包括但不限于摄像头,麦克风,传感器值和数字内容。所述传感器值可由多种传感器获得,此类传感器可包括但不限于压力传感器,临近传感器,周围环境传感器,陀螺仪,加速度计和罗盘。数字内容可包括但不限于电子书,PDF文件,记事本,图像,网页,Microsoft Word文档,音频内容,3D物体,虚拟现实,动画内容和视频内容。
在创建了增强现实感知标准数字内容后,当用户经用户设备与此类增强现实感知标准数字内容交互时,该用户设备可在步骤202中对响应于与该标准数字内容相关的触发条件的激活而启动的情境敏感触发信号进行检测。所述用户设备对该情境敏感触发信号的检测取决于该用户设备的渲染能力。该用户设备的渲染能力包括检测情境敏感触发信号和增强现实触发信号的能力,渲染增强现实数字内容的能力以及响应于增强现实触发信号的获取而启动一个或多个现实源的能力。
如果所述用户设备无检测情境敏感触发信号的内置功能,或者无实现此目的应用程序,则该用户设备将仅打开所述标准数字内容,而不能检测出该内容为增强现实感知内容。参考上表2,举例而言,用户可正利用其具有情境敏感触发信号检测能力的平板电脑阅读电子书(CID1)。当用户聚焦于该电子书的第2页时,将检测到一个情境敏感触发信号,即CST1。如果该平板电脑为标准平板电脑,则其无法检测到所述情境敏感触发信号。
随后,在步骤204中,基于步骤202中检测到的所述情境敏感触发信号,所述用户设备利用包含增强现实内容信息与情境敏感触发信号间关联记录的增强现实感知元数据确定与所述情境敏感触发信号相关联的增强现实内容信息。在步骤206中,根据所述用户设备的渲染能力以及增强现实内容信息,获取增强现实触发信息,与该增强现实触发信息相关联的增强现实数字内容以及混合内容体验配置当中的一个或多个。
其中,当所述用户设备已根据增强现实内容信息与情境敏感触发信号之间的映射关系确定了增强现实内容信息时,该增强现实内容信息即被用于确定彼此关联的增强现实触发信号和增强现实数字内容。作为一例,参考表4,在步骤204中,由于ARC2与步骤202中检测到的情境敏感触发信号相关联,因此确定ARC2为所述增强现实内容信息。ARC 2表明ART1与ARDC1相关联。作为另一例,当ARC4在步骤204中被确定为所述增强现实内容信息时,则表明ART2与ARDC3相关联。此外,还进一步获取混合内容体验配置,其包括可使用户设备决定当用户与标准数字内容交互时需要在该用户设备上渲染的内容(标准数字内容,增强现实数字内容和/或现实数据)类型和组合的规则。如此,用户便可在所述用户设备上获得混合内容体验。
在上述获取之后,在步骤208中,根据所述情境敏感触发信号,一个或多个现实源被启动。该一个或多个现实源可获取现实数据。所述现实源可例如包括但不限于摄像头,麦克风,传感器值和数字内容。所述传感器值可由多种传感器获得,此类传感器可包括但不限于压力传感器,临近传感器,周围环境传感器,陀螺仪,加速度计和罗盘。数字内容可包括但不限于电子书,PDF文件,记事本,图像,网页,Microsoft Word文档,音频内容,3D物体,虚拟现实,动画内容和视频内容。
当所述增强现实实现信息中情境敏感触发信号和增强现实内容信息之间的映射关系与开启的增强现实感知功能相关联时,可使一个或多个现实源被启动。类似地,当所述映射关系与关闭的增强现实感知功能相关联时,可使一个或多个现实源被停用。参考上述例示实施方式的表1,CST1与ARC1之间的映射关系与开启增强现实相关联,而CST2与ARC1的映射关系与关闭增强现实相关联。举例而言,参考表1和表2,当CID1的第2页被聚焦时,CST1被用户设备检测。随后,该用户设备确定,在表1中ARC1映射至CST1,而且此映射关系与开启增强感知功能相关联。类似地,CST2(CID1的第2页失焦)与ARC1之间的映射关系与关闭增强感知功能相关联。因此,在此情形中,每当CID1的第2页被聚焦时,对用户设备显示屏和用户进行观察的摄像头即被打开,每当第2页失焦时,该摄像头即被关闭。在该摄像头开启期间,其获取第2页被聚焦时的现实数据,该数据包括与用户和用户设备显示屏之间的交互相关的信息。
随后,在步骤210中,所述用户设备识别出所述至少一个现实源中的一个或多个增强现实触发信号。仅当该用户设备的渲染能力包括识别现实源中的增强现实触发信号的能力时,其才能识别出增强现实触发信号。当所述用户设备为普通设备时,其不能检测出任何增强现实触发信号。继续上例并参考表3,当所述摄像头已打开且第2页处于该摄像头视野中时,其可识别出绘制于第3页上的车轮,并从而使得增强现实触发信号ART2(如表3所述)被识别。
在步骤212中,所述用户设备对所述标准数字内容的一个或多个部分,所述增强现实数字内容以及由与该标准数字内容的一个或多个部分相关的一个或多个现实源获取的现实数据当中的一个进行选择性渲染。该选择性渲染根据所述混合内容体验配置实施。
继续上例,当表3中的ART2被识别时,则进一步确定ART2与表4中的ARDC2相关联或映射至该ARDC2。如此,当所述摄像头检测出CID1的第2页中的车轮时,ART2被识别,并进一步导致需要在所述用户设备上对ARDC2进行渲染的结论。现在参考上表5,对ARDC2的渲染对应于在所述用户设备上全屏打开CID1的完整文档。从打开标准数字内容(即增强现实感知标准数字内容)到全屏打开CID1的完整文档的这一系列事件为建立于所述混合内容体验配置内的规则当中的一个规则。
作为另一例,当所述用户设备上显示某文档且当特定页面进入视野时,通过打开摄像头而开启增强现实感知功能。随后,根据该摄像头的拍摄内容,可在该页面或另一页面上显示内嵌附加信息/覆盖信息。作为又一例,当在摄像镜头内发现特定物体时,可从较大视频中截取一部分(例如从时间2:00到2:15)并将其显示于所述用户设备上。
在所述用户设备上的选择性渲染还取决于该用户设备的渲染能力。换句话说,如果该用户设备仅能渲染标准数字内容,则仅在该用户设备上渲染标准数字内容。如果该用户设备还具有渲染增强现实数字内容的能力,则其还将对与上述标准数字内容相关的增强现实数字内容进行渲染。然而,由于其不能启动现实源,因此不能根据由该现实源获取的现实数据对与所述标准数字内容相关的增强现实数字内容进行渲染。
例如,当使用所述用户设备上的普通PDF阅读器打开增强现实感知PDF文档时,该PDF文档将显示为无增强现实感知功能的普通PDF文档。然而,当使用该用户设备上的增强现实感知PDF阅读器打开相同文档时,还会对额外增强现实感知特征进行渲染。
由此可见,以上根据使用环境(目的)将可提供身临其境式混合内容体验的增强现实感知标准数字内容向用户渲染,而且标准数字内容的动态选择部分的渲染也基于使用环境。此外,还提供了可叠加于现有非增强现实内容或替代现有非增强现实内容的增强现实内容和非增强现实内容,从而可使维护人员的技能得到补充。此外,增强现实体验的所有现实输入被认为均可实现上述目的。
图3显示了根据另一实施方式渲染增强现实感知标准数字内容的方法流程图。在步骤302中,创建增强现实感知标准数字内容。以上已结合图2,对此进行了详细描述。在创建所述增强现实感知标准数字内容的过程中,增强现实感知功能和增强现实数字内容均可完全内嵌配置于所述标准数字内容中。或者,也可将增强现实数字内容配置于所述标准数字内容之外,而将增强现实感知功能内嵌配置于该标准数字内容之中。在另一情形中,还可将增强现实感知功能和增强现实数字内容完全配置于所述标准数字内容之外。
随后,在步骤304中,对响应于与标准数字内容相关的触发条件的激活而启动的情境敏感触发信号进行检测。在步骤306中,利用增强现实感知元数据确定与所述情境敏感触发信号相关联的增强现实内容信息。在步骤308中,根据所述增强现实内容信息与用户设备的渲染能力,获取增强现实触发信息,与该增强现实触发信息相关联的增强现实数字内容以及混合内容体验配置当中的一个或多个。以上已结合图2,对此进行了详细描述。
随后,在步骤310中,相应于步骤308中的获取动作,一个或多个现实源通过所述情境敏感触发信号被激活,以对现实数据进行获取。在步骤312中,识别所述一个或多个现实源中的一个或多个增强现实触发信号。以上已结合图2,对此进行了详细描述。在步骤314中,当所述情境敏感触发信号过期时,或当识别出停用情境敏感触发信号时,所述一个或多个现实源被停用。换句话说,增强现实感知功能可启动或关闭。作为一例,当标准数字内容的第3页进入视野时,物体检测引擎可被打开,而当该第5页离开视野时,所述对象检测引擎可被关闭。作为另一例,当对3:00到3:20时间段的帧进行渲染时,可打开噪声检测引擎,而当用户点击视频的暂停按钮时,该噪声检测引擎可被关闭。
增强现实引擎的选择还受到多种因素的影响,这些因素可包括但不限于用户偏好,增强现实数字内容,增强现实感知内容和用户设备的能力。例如,PDF文件的第2页可能含有用于开启增强现实功能以找出建筑物名称的标记。在这种情况下,仅运行光学字符识别(OCR)子引擎可能更加快捷,并节省时间和资源。
在步骤316中,用户设备根据其自身的能力自动确定在该用户设备上对增强现实数字内容进行渲染的程度。在一种实施方式中,通过对用户设备的能力进行查询而决定适当的渲染程度。所述能力可包括但不限于处理能力,可用存储器,显示尺寸,剩余电池量和通信速度。用户设备的这些能力用于增强现实感知内容渲染器所考虑的各种决策因素中。这些决策因素可包括,但不限于,选择合适的增强现实引擎,选择增强目标以及选择增强质量。
作为一例,具有2GHz处理器速度的用户设备可运行X增强现实引擎,而具有1GHz处理器的用户设备可运行Y增强现实引擎。所述X增强现实引擎的能力优于Y增强现实引擎的能力。作为另一例,一用户设备可具有由硬件加速的3D引擎,而另一用户设备可不具有该由硬件加速的3D引擎。如此,可做出在不具有所述硬件加速的3D引擎的用户设备上不显示3D增强内容的决定。
在此之后,在步骤316中,用户设备对所述标准数字内容的一个或多个部分、所述增强现实数字内容以及由所述一个或多个现实源获取的现实数据当中的一个进行渲染。以上已结合图2,对此进行了详细描述。
图4为显示了一种实施方式创建增强现实感知标准数字内容的方法流程图。在步骤402中,形成情境敏感触发信号与增强现实内容信息之间的关联关系以及增强现实触发信息与增强现实数字内容之间的关联关系。随后,在步骤404中,对包含选择性渲染规则的混合内容体验配置进行设置。以上已结合图2,对此进行了详细描述。
图5为显示了一种实施方式用于渲染增强现实感知标准数字内容的增强现实渲染***500的框图。增强现实渲染***500包括配置模块502,内容存储模块504和渲染模块506。
配置模块502由内容创建器508使用,以利用馈入配置模块502的外部标准数字内容创建和配置增强现实感知标准数字内容。配置模块502将标准数字内容和增强现实感知元数据(ARAMA)信息存入内容存储模块504的内容存取控制器510中,并从该内容存取控制器获取所述信息,该内容存取控制器对增强现实感知标准数字内容进行存储和管理,并将其提供给渲染模块506。为实现此目的,内容存取控制器510与渲染模块506的内容处理器512通信。随后,内容处理器512使得所述数据可供渲染模块506的各种模块和组件使用。以上已结合图2,对增强现实感知标准数字内容的创建和配置进行了详细描述。
渲染模块506还包括情境敏感触发模块514,现实源控制器516,内容混合器518,用户动作处理器520和内容渲染模块522。情境敏感触发模块514从渲染模块506中的其他模块和部件获取情境输入。此外,所述情境敏感触发模块还分析和生成情境敏感触发信号,并使其可供其他模块和部件使用。以上已结合图2,对情境敏感触发信号进行了详细描述。
现实源控制器516接收由现实源捕获的现实数据。现实源例如可包括但不限于摄像头,传感器值和数字内容。所述现实数据可以来自相同设备和/或其他外部源和环境。由内容处理器512,情境敏感触发模块514和现实源控制器516获取或生成的内容传送至内容混合器518。
内容混合器518包括增强现实引擎524和混合内容引擎526,并使用这些引擎对所接收的内容进行混合,而且将混合后的内容发送于内容渲染模块522。除了接收所述混合后的内容外,内容渲染模块522还从用户动作处理器520接收输入,而该用户动作处理器又从内容用户528接收输入。根据所接收的信息,内容渲染模块522在输出设备530上选择性渲染该所接收的内容,以供内容用户528消费。以上已结合图2,对此进行了详细描述。
本发明的各种实施方式提供用于增强现实感知内容的***和方法。其中,根据使用环境(目的)将可提供身临其境式混合内容体验的增强现实感知标准数字内容向用户渲染,而且标准数字内容的动态选择部分的渲染也基于使用环境。此外,还提供了可叠加于现有非增强现实内容或替代现有非增强现实内容的增强现实内容和非增强现实内容,从而可使维护人员的技能得到补充。此外,增强现实体验的所有现实输入被认为均可实现上述目的。
本说明书已对用于增强现实感知内容的***和方法进行了描述。所示步骤用于说明所述例示实施方式,并且应当预想到的是,随着技术的不断发展,特定功能的执行方式也将发生改变。本文所呈现的上述实施例用于说明而非限制目的。此外,为了描述的方便性,本文对各功能构建模块边界的定义为任意性的,只要其上述功能及其关系能够获得适当执行,也可按其他方式定义边界。根据本申请的启示内容,替代方案(包括本申请所述方案的等同方案、扩展方案、变形方案、偏差方案等)对于相关领域技术人员是容易想到的。这些替代方案均落入所公开实施方式的范围和精神内。
此外,一个或多个计算机可读存储介质可用于实施本公开内容的实施方式。计算机可读存储介质是指可对处理器可读取的信息或数据进行存储的任何类型的物理存储器。其中,计算机可读存储介质可对由一个或多个处理器执行的指令进行存储,包括用于使处理器执行根据本申请实施方式的步骤或阶段的指令。“计算机可读介质”一词应理解为包括有形物件且不包括载波及瞬态信号,即为非临时性介质,例如随机存取存储器(RAM)、只读存储器(ROM)、易失性存储器、非易失性存储器、硬盘驱动器、只读光盘存储器(CD-ROM)、DVD、闪存驱动器、磁盘以及其他任何已知物理存储介质。
以上公开内容及实施例旨在于仅视为示例性,所公开实施方式的真正范围和精神由权利要求指出。
Claims (18)
1.一种渲染增强现实感知标准数字内容的方法,其特征在于,所述方法包括:
由用户设备对情境敏感触发信号进行检测,所述情境敏感触发信号响应于与标准数字内容相关的触发条件的激活而启动;
利用增强现实感知数据确定与所述情境敏感触发信号相关联的增强现实内容信息;
根据所述用户设备的渲染能力和所述增强现实内容信息,获取增强现实触发信息、与所述增强现实触发信息相关联的增强现实数字内容以及混合内容体验配置当中的至少一个,其中,所述混合内容体验配置包括所述标准数字内容、所述增强现实数字内容和/或现实数据的类型和组合的规则;
响应于所述增强现实内容信息、增强现实触发信息以及混合内容体验配置的获取,根据所述情境敏感触发信号,启动至少一个现实源,以获取现实数据;
当所述用户设备的渲染能力包括识别现实源中的增强现实触发信号的能力时,由所述用户设备识别所述至少一个现实源中的至少一个增强现实触发信号;
由所述用户设备根据所述用户设备的渲染能力和所述混合内容体验配置,对所述标准数字内容的至少一个部分、所述增强现实数字内容以及由与所述标准数字内容的所述至少一个部分相关的至少一个现实源获取的现实数据当中的一个进行选择性渲染,其中,根据所述用户设备的渲染能力,确定决策因素,所述决策因素包括选择合适的增强现实引擎,选择增强目标以及选择增强质量;以及
根据所确定的所述决策因素,自动确定在所述用户设备上对所述增强现实数字内容进行渲染的程度。
2.如权利要求1所述的方法,其特征在于,所述情境敏感触发信号的触发条件包括以下当中的至少一个:用户动作,用户姿势,用户概况,用户偏好,周围环境,设备位置,设备取向,内容流动态,以及设备事件,所述设备事件包括省电模式、锁定状态和用户设备传感器值。
3.如权利要求1所述的方法,其特征在于,所述标准数字内容包括以下当中的至少一个:电子书,PDF文件,记事本,图像,网页,Microsoft Word文档,音频内容,3D对象,虚拟现实,动画内容,以及视频内容。
4.如权利要求1所述的方法,其特征在于,所述情境敏感触发信号对应于所述触发条件被激活的情境,由所述情境敏感触发信号指示增强现实数字内容的启用或禁用。
5.如权利要求1所述的方法,其特征在于,还包括根据所述用户设备的渲染能力,在所述用户设备上对所述标准数字内容的至少一部分进行渲染。
6.如权利要求1所述的方法,其特征在于,还包括根据所述用户设备的渲染能力,在所述用户设备上对所述标准数字内容的至少一部分以及所述增强现实数字内容进行渲染,其中,所述增强现实数字内容叠加于所述标准数字内容之上。
7.如权利要求1所述的方法,其特征在于,所述至少一个现实源包括摄像头,传感器值和数字内容。
8.如权利要求1所述的方法,其特征在于,所述增强现实触发信号包括以下当中的至少一个:标记,物体,温度,时间流逝,位置,传感器值,以及声音。
9.如权利要求1所述的方法,其特征在于,还包括创建所述增强现实感知标准数字内容,所述创建包括:
形成情境敏感触发信号与增强现实内容信息之间的关联关系以及增强现实触发信息与增强现实数字内容之间的关联关系;以及
对所述混合内容体验配置进行设置,以使所述混合内容体验配置包括对所述标准数字内容的所述至少一个部分、与所述标准数字内容的所述至少一个部分相关的增强现实数字内容以及由所述至少一个现实源获取的现实数据当中的至少一个进行选择性渲染的规则。
10.如权利要求1所述的方法,其特征在于,还包括当所述情境敏感触发信号过期时,或者当识别出停用情境敏感触发信号时,停用所述至少一个现实源。
11.如权利要求1所述的方法,其特征在于,所述用户设备的渲染能力包括:检测情境敏感触发信号的能力,检测增强现实触发信号的能力,渲染增强现实数字内容的能力,以及响应于增强现实触发信号的获取而启动所述至少一个现实源的能力。
12.一种渲染增强现实感知标准数字内容的***,其特征在于,所述***包括:
至少一个处理器;以及
存有指令的计算机可读介质,所述指令在由所述至少一个处理器执行时使得所述至少一个处理器实施操作,所述操作包括:
对情境敏感触发信号进行检测,所述情境敏感触发信号响应于与标准数字内容相关的触发条件的激活而启动;
利用增强现实感知数据确定与所述情境敏感触发信号相关联的增强现实内容信息;
根据用户设备的渲染能力和增强现实内容信息,获取增强现实触发信息、与所述增强现实触发信息相关联的增强现实数字内容以及混合内容体验配置当中的至少一个,其中,所述混合内容体验配置包括所述标准数字内容、所述增强现实数字内容和/或现实数据的类型和组合的规则;
响应于所述增强现实内容信息、增强现实触发信息以及混合内容体验配置的获取,根据所述情境敏感触发信号,启动至少一个现实源,以获取现实数据;
当所述用户设备的渲染能力包括识别现实源中的增强现实触发信号的能力时,由所述用户设备识别所述至少一个现实源中的至少一个增强现实触发信号;
根据所述用户设备的渲染能力和所述混合内容体验配置,对所述标准数字内容的至少一个部分、所述增强现实数字内容以及由与所述标准数字内容的所述至少一个部分相关的至少一个现实源获取的现实数据当中的一个进行选择性渲染,其中,根据所述用户设备的渲染能力,确定决策因素,所述决策因素包括选择合适的增强现实引擎,选择增强目标以及选择增强质量;以及
根据所确定的所述决策因素,自动确定在所述用户设备上对所述增强现实数字内容进行渲染的程度。
13.如权利要求12所述的***,其特征在于,所述情境敏感触发信号的触发条件包括以下当中的至少一个:用户动作,用户姿势,用户概况,用户偏好,周围环境,设备位置,设备取向,内容流动态,以及设备事件,所述设备事件包括省电模式、锁定状态和用户设备传感器值。
14.如权利要求12所述的***,其特征在于,所述操作还包括,根据所述用户设备的渲染能力,在所述用户设备上对所述标准数字内容的至少一部分进行渲染。
15.如权利要求12所述 的述***,其特征在于,所述操作还包括,根据所述用户设备的渲染能力,在所述用户设备上对所述标准数字内容的至少一部分以及所述增强现实数字内容进行渲染,其中,所述增强现实数字内容叠加于所述标准数字内容之上。
16.如权利要求12所述 的述***,其特征在于,所述操作还包括,创建所述增强现实感知标准数字内容,所述创建包括如下操作:
形成情境敏感触发信号与增强现实内容信息之间的关联关系以及增强现实触发信息与增强现实数字内容之间的关联关系;以及
对所述混合内容体验配置进行设置,以使所述混合内容体验配置包括对所述标准数字内容的所述至少一个部分、与所述标准数字内容的至少一个部分相关的增强现实数字内容以及由所述至少一个现实源获取的现实数据当中的至少一个进行选择性渲染的规则。
17.如权利要求12所述的***,其特征在于,所述操作还包括,当所述情境敏感触发信号过期时,或者当识别出停用情境敏感触发信号时,停用所述至少一个现实源。
18.一种渲染增强现实感知标准数字内容的非暂时性计算机可读存储介质,其特征在于,当所述介质由计算装置执行时使得所述计算装置:
由用户设备对情境敏感触发信号进行检测,所述情境敏感触发信号响应于与标准数字内容相关的触发条件的激活而启动;
利用增强现实感知数据确定与所述情境敏感触发信号相关联的增强现实内容信息;
根据所述用户设备的渲染能力和增强现实内容信息,获取增强现实触发信息、与所述增强现实触发信息相关联的增强现实数字内容以及混合内容体验配置当中的至少一个,其中,所述混合内容体验配置包括所述标准数字内容、所述增强现实数字内容和/或现实数据的类型和组合的规则;
响应于所述增强现实内容信息、增强现实触发信息以及混合内容体验配置的获取,根据所述情境敏感触发信号,启动至少一个现实源,以获取现实数据;
当所述用户设备的渲染能力包括识别现实源中的增强现实触发信号的能力时,由所述用户设备识别所述至少一个现实源中的至少一个增强现实触发信号;
由所述用户设备根据所述用户设备的渲染能力和所述混合内容体验配置,对所述标准数字内容的至少一个部分、所述增强现实数字内容以及由与所述标准数字内容的所述至少一个部分相关的至少一个现实源获取的现实数据当中的一个进行选择性渲染,其中,根据所述用户设备的渲染能力,确定决策因素,所述决策因素包括选择合适的增强现实引擎,选择增强目标以及选择增强质量;以及
根据所确定的所述决策因素,自动确定在所述用户设备上对所述增强现实数字内容进行渲染的程度。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201641026534 | 2016-08-03 | ||
IN201641026534 | 2016-08-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107705349A CN107705349A (zh) | 2018-02-16 |
CN107705349B true CN107705349B (zh) | 2021-06-11 |
Family
ID=57256074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710006855.9A Active CN107705349B (zh) | 2016-08-03 | 2017-01-05 | 用于增强现实感知内容的***和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10169921B2 (zh) |
EP (1) | EP3279869A1 (zh) |
CN (1) | CN107705349B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107515880B (zh) * | 2016-06-17 | 2020-12-22 | 宏碁股份有限公司 | 数据分散处理***与方法 |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
CN107766303A (zh) * | 2017-10-23 | 2018-03-06 | 百度在线网络技术(北京)有限公司 | 向用户提供3d阅读场景 |
CN108845745A (zh) * | 2018-07-04 | 2018-11-20 | 百度在线网络技术(北京)有限公司 | 增强现实的触发方法、装置、电子设备及存储介质 |
CN108932751A (zh) * | 2018-08-15 | 2018-12-04 | 北京知感科技有限公司 | 快速创建vr/ar/mr内容的***及方法 |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
CN109191590B (zh) * | 2018-09-26 | 2023-11-07 | 浙江优创信息技术有限公司 | 一种用于制作虚拟现实应用的处理***及处理方法 |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
KR102603254B1 (ko) | 2018-12-13 | 2023-11-16 | 삼성전자주식회사 | 웹 콘텐츠를 ar모드에서 표시하는 전자 장치 및 방법 |
US11501499B2 (en) | 2018-12-20 | 2022-11-15 | Snap Inc. | Virtual surface modification |
US10984575B2 (en) | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
KR20210003033A (ko) | 2019-07-01 | 2021-01-11 | 최해용 | Vr 영상 구현용 책자 |
US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
US10777017B1 (en) | 2020-01-24 | 2020-09-15 | Vertebrae Inc. | Augmented reality presentation using a uniform resource identifier |
CN111310049B (zh) * | 2020-02-25 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种信息交互方法及相关设备 |
US11615592B2 (en) | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
US20220188545A1 (en) * | 2020-12-10 | 2022-06-16 | International Business Machines Corporation | Augmented reality enhanced situational awareness |
US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
US11886767B2 (en) | 2022-06-17 | 2024-01-30 | T-Mobile Usa, Inc. | Enable interaction between a user and an agent of a 5G wireless telecommunication network using augmented reality glasses |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035135A (zh) * | 2012-11-27 | 2013-04-10 | 北京航空航天大学 | 基于增强现实技术的儿童认知***及认知方法 |
CN103197980A (zh) * | 2012-01-10 | 2013-07-10 | 华为终端有限公司 | 一种呈现增强现实技术内容的方法、装置及*** |
EP2761571A2 (en) * | 2011-09-30 | 2014-08-06 | iOculi Inc. | Location based augmented reality system for exchange of items based on location sensing and methods and devices related thereto |
CN104011788A (zh) * | 2011-10-28 | 2014-08-27 | 奇跃公司 | 用于增强和虚拟现实的***和方法 |
US20150235267A1 (en) * | 2014-02-19 | 2015-08-20 | Cox Target Media, Inc. | Systems and methods for delivering content |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10460327B2 (en) | 2006-07-28 | 2019-10-29 | Palo Alto Research Center Incorporated | Systems and methods for persistent context-aware guides |
US7735019B2 (en) | 2007-04-25 | 2010-06-08 | International Business Machines Corporation | Method for providing functional context within an actively scrolling view pane |
JP2011253512A (ja) | 2010-06-02 | 2011-12-15 | Kunio Yasuzawa | 拡張現実感の応用装置 |
CN101976563A (zh) | 2010-10-22 | 2011-02-16 | 深圳桑菲消费通信有限公司 | 一种判断移动终端通话接通后有无通话语音的方法 |
JP2012118932A (ja) * | 2010-12-03 | 2012-06-21 | Fuji Xerox Co Ltd | 情報処理装置及びプログラム |
CN102110379A (zh) | 2011-02-22 | 2011-06-29 | 黄振强 | 多媒体增强现实读物 |
US8493353B2 (en) * | 2011-04-13 | 2013-07-23 | Longsand Limited | Methods and systems for generating and joining shared experience |
US20130002425A1 (en) | 2011-07-01 | 2013-01-03 | General Electric Company | Augmented reality excessive noise display and warning system |
CN102509484A (zh) | 2011-10-13 | 2012-06-20 | 苏州梦想人软件科技有限公司 | 一种基于增强现实技术的学习***及其学习方法 |
CN202331859U (zh) | 2011-10-13 | 2012-07-11 | 苏州梦想人软件科技有限公司 | 一种基于增强现实技术的学习*** |
TW201316328A (zh) | 2011-10-14 | 2013-04-16 | Hon Hai Prec Ind Co Ltd | 聲音反饋裝置及其工作方法 |
KR101193668B1 (ko) | 2011-12-06 | 2012-12-14 | 위준성 | 스마트 기기를 이용한 상황 인식 기반 외국어 습득 및 학습 서비스 제공 방법 |
GB201122284D0 (en) * | 2011-12-23 | 2012-02-01 | Zappar Ltd | Content identification and distribution |
CN107320949B (zh) | 2012-02-06 | 2021-02-02 | 索尼互动娱乐欧洲有限公司 | 用于增强现实的书对象 |
GB2499249B (en) | 2012-02-13 | 2016-09-21 | Sony Computer Entertainment Europe Ltd | System and method of image augmentation |
US9066200B1 (en) * | 2012-05-10 | 2015-06-23 | Longsand Limited | User-generated content in a virtual reality environment |
US9430876B1 (en) * | 2012-05-10 | 2016-08-30 | Aurasma Limited | Intelligent method of determining trigger items in augmented reality environments |
US9165381B2 (en) | 2012-05-31 | 2015-10-20 | Microsoft Technology Licensing, Llc | Augmented books in a mixed reality environment |
US20140173441A1 (en) | 2012-12-19 | 2014-06-19 | Hcl Technologies Limited | Method and system for inserting immersive contents into eBook |
KR102056175B1 (ko) | 2013-01-28 | 2020-01-23 | 삼성전자 주식회사 | 증강현실 콘텐츠 생성 방법 및 이를 구현하는 휴대단말장치 |
EP3033726A4 (en) * | 2013-08-12 | 2017-03-15 | Airvirtise LLC | Augmented reality device |
EP3042340A4 (en) | 2013-09-02 | 2017-04-26 | Suresh T. Thankavel | Ar-book |
US20150302651A1 (en) * | 2014-04-18 | 2015-10-22 | Sam Shpigelman | System and method for augmented or virtual reality entertainment experience |
WO2015167515A1 (en) | 2014-04-30 | 2015-11-05 | Longsand Limited | Augmented reality without a physical trigger |
US20160112479A1 (en) * | 2014-10-16 | 2016-04-21 | Wipro Limited | System and method for distributed augmented reality |
CN104992205B (zh) | 2015-06-04 | 2018-11-06 | 西安教育文化数码有限责任公司 | 基于ar图书的索引式增强现实***和方法 |
-
2016
- 2016-09-26 US US15/275,709 patent/US10169921B2/en active Active
- 2016-10-28 EP EP16196190.9A patent/EP3279869A1/en active Pending
-
2017
- 2017-01-05 CN CN201710006855.9A patent/CN107705349B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2761571A2 (en) * | 2011-09-30 | 2014-08-06 | iOculi Inc. | Location based augmented reality system for exchange of items based on location sensing and methods and devices related thereto |
CN104011788A (zh) * | 2011-10-28 | 2014-08-27 | 奇跃公司 | 用于增强和虚拟现实的***和方法 |
CN103197980A (zh) * | 2012-01-10 | 2013-07-10 | 华为终端有限公司 | 一种呈现增强现实技术内容的方法、装置及*** |
CN103035135A (zh) * | 2012-11-27 | 2013-04-10 | 北京航空航天大学 | 基于增强现实技术的儿童认知***及认知方法 |
US20150235267A1 (en) * | 2014-02-19 | 2015-08-20 | Cox Target Media, Inc. | Systems and methods for delivering content |
Also Published As
Publication number | Publication date |
---|---|
CN107705349A (zh) | 2018-02-16 |
EP3279869A1 (en) | 2018-02-07 |
US20180040166A1 (en) | 2018-02-08 |
US10169921B2 (en) | 2019-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107705349B (zh) | 用于增强现实感知内容的***和方法 | |
US11726642B2 (en) | Messaging system with message transmission user interface | |
US20190188920A1 (en) | Surface aware lens | |
US20230290026A1 (en) | Augmented reality anthropomorphization system | |
US10921979B2 (en) | Display and processing methods and related apparatus | |
US11632344B2 (en) | Media item attachment system | |
US20170061609A1 (en) | Display apparatus and control method thereof | |
US20220291787A1 (en) | Addressable augmented-reality content | |
KR102625254B1 (ko) | 입력기를 통해 이미지와 관련된 정보를 어플리케이션에 제공하는 전자 장치 및 방법 | |
US20230236661A1 (en) | Occlusion detection system | |
US11978140B2 (en) | Personalized media overlay recommendation | |
US11908489B2 (en) | Tap to advance by subtitles | |
CN114556270A (zh) | 放大用户界面的眼睛注视控制 | |
KR102316846B1 (ko) | 미디어 컨텐츠를 선별하는 방법 및 이를 구현하는 전자장치 | |
US20200264750A1 (en) | Method for displaying visual object regarding contents and electronic device thereof | |
US11537824B2 (en) | Categorization of photographs | |
KR20190076621A (ko) | 전자 장치 및 전자 장치에서 방송 콘텐트와 관련된 서비스 정보 제공 방법 | |
KR102670848B1 (ko) | 증강 현실 의인화 시스템 | |
US20230252733A1 (en) | Displaying blockchain data associated with a three-dimensional digital object | |
KR20240093951A (ko) | 증강 현실 의인화 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |