CN116664805A - 一种基于增强现实技术的多媒体展示***及方法 - Google Patents

一种基于增强现实技术的多媒体展示***及方法 Download PDF

Info

Publication number
CN116664805A
CN116664805A CN202310665058.7A CN202310665058A CN116664805A CN 116664805 A CN116664805 A CN 116664805A CN 202310665058 A CN202310665058 A CN 202310665058A CN 116664805 A CN116664805 A CN 116664805A
Authority
CN
China
Prior art keywords
user
virtual image
physical space
intelligent terminal
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310665058.7A
Other languages
English (en)
Other versions
CN116664805B (zh
Inventor
张鹏
林升亮
郭真
罗嘉康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Laichuangyun Information Technology Co ltd
Original Assignee
Shenzhen Laichuangyun Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Laichuangyun Information Technology Co ltd filed Critical Shenzhen Laichuangyun Information Technology Co ltd
Priority to CN202310665058.7A priority Critical patent/CN116664805B/zh
Publication of CN116664805A publication Critical patent/CN116664805A/zh
Application granted granted Critical
Publication of CN116664805B publication Critical patent/CN116664805B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明提出一种基于增强现实技术的多媒体展示***及方法,***包括第一智能终端、第二智能终端、第三智能终端和第一服务器。通过本发明方案,利用增强现实技术,不仅能为身处异地的多个用户营造出沉浸式的互动环境,还可以根据用户特征、物理空间特征进行个性化的设置,大大提高了用户体验。

Description

一种基于增强现实技术的多媒体展示***及方法
技术领域
本发明涉及增强现实技术领域,具体涉及一种基于增强现实技术的多媒体展示***及方法。
背景技术
增强现实(Augmented Reality,AR)技术是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。现有方案中,在对多媒体进行展示的过程中并不能很好地给用户沉浸式体验,也不够智能灵活,亟需一种基于增强现实技术的多媒体展示方案来提升用户的使用体验。
发明内容
本发明正是基于上述问题,提出了一种基于增强现实技术的多媒体展示***及方法,通过本发明方案,利用增强现实技术,不仅能为身处异地的多个用户营造出沉浸式的互动环境,还可以根据用户特征、物理空间特征进行个性化的设置,大大提高了用户体验。
有鉴于此,本发明的一方面提出了一种基于增强现实技术的多媒体展示***,包括:第一智能终端、第二智能终端、第三智能终端和第一服务器;其中,
所述第一服务器被配置为:
通过所述第一智能终端、所述第二智能终端和所述第三智能终端分别建立用户A、用户B和用户C间的通信连接;
获取所述用户A所处的第一物理空间的第一三维数据,并进行建模得到第一三维空间;
获取所述用户B所处的第二物理空间的第二三维数据,并进行建模得到第二三维空间;
获取所述用户C所处的第三物理空间的第三三维数据,并进行建模得到第三三维空间;
所述第一智能终端被配置为:在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像,并接收所述用户A与所述第一用户B虚拟影像、第一用户C虚拟影像的第一用户A互动数据;
所述第二智能终端被配置为:在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像,并接收所述用户B与所述第一用户A虚拟影像、第二用户C虚拟影像的第一用户B互动数据;
所述第三智能终端被配置为:在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像,并接收所述用户C与所述第二用户A虚拟影像、第二用户B虚拟影像的第一用户C互动数据。
可选地,所述在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像的步骤中,所述第一智能终端具体被配置为:
从所述第一三维空间得到所述第一物理空间的第一物理空间特征数据,并获取所述用户A的第一用户A特征数据、所述用户B的第一用户B特征数据和所述用户C的第一用户C特征数据;
根据所述第一物理空间特征数据和所述第一用户A特征数据、所述第一用户B特征数据、所述第一用户C特征数据分别生成所述第一用户B虚拟影像和所述第一用户C虚拟影像;
将所述第一用户B虚拟影像和所述第一用户C虚拟影像在所述第一物理空间进行投影。
可选地,所述第一智能终端被配置为:
接收所述用户A选择的自身在所述第二物理空间和/或所述第三物理空间的第一用户A投影形象模型和/或第二用户A投影形象模型、第一用户A互动模型和/或第二用户A互动模型;
在所述用户A与所述第二物理空间和/或所述第三物理空间的物品间建立连接以供所述用户A进行控制与互动。
可选地,所述第一智能终端被配置为:
根据所述用户A、所述用户B和所述用户C间的所述第一用户A互动数据,生成对应的第一虚拟物品影像和第一虚拟效果影像,并在所述第一物理空间投影所述第一虚拟物品影像和所述第一虚拟效果影像。
可选地,所述第一服务器还被配置为:
根据不同的场景,基于所述第一三维空间、所述第二三维空间和所述第三三维空间分别对所述第一物理空间、所述第二物理空间和所述第三物理空间进行子空间划分,并建立各子空间与各个场景间的子空间-场景对应关系;
根据所述第一用户A互动数据、所述第一用户B互动数据、所述第一用户C互动数据,确定所述用户A、所述用户B和所述用户C间的第一关系;
根据所述第一关系确定所述用户A、所述用户B和所述用户C间的第一互动场景;
根据所述第一互动场景和所述子空间-场景对应关系分别确定所述第一物理空间、所述第二物理空间和所述第三物理空间中对应的第一子空间、第二子空间和第三子空间;
控制所述第一智能终端、所述第二智能终端和所述第三智能终端分别在所述第一子空间、所述第二子空间和所述第三子空间投影所述第一用户B虚拟影像和第一用户C虚拟影像、所述第一用户A虚拟影像和第二用户C虚拟影像、所述第二用户A虚拟影像和第二用户B虚拟影像。
本发明的另一方面提供一种基于增强现实技术的多媒体展示方法,应用于一种基于增强现实技术的多媒体展示***,所述基于增强现实技术的多媒体展示***包括第一智能终端、第二智能终端、第三智能终端和第一服务器;所述基于增强现实技术的多媒体展示方法包括:
通过所述第一智能终端、所述第二智能终端和所述第三智能终端分别建立用户A、用户B和用户C间的通信连接;
所述第一服务器获取所述用户A所处的第一物理空间的第一三维数据,并进行建模得到第一三维空间;
所述第一服务器获取所述用户B所处的第二物理空间的第二三维数据,并进行建模得到第二三维空间;
所述第一服务器获取所述用户C所处的第三物理空间的第三三维数据,并进行建模得到第三三维空间;
所述第一智能终端在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像,并接收所述用户A与所述第一用户B虚拟影像、第一用户C虚拟影像的第一用户A互动数据;
所述第二智能终端在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像,并接收所述用户B与所述第一用户A虚拟影像、第二用户C虚拟影像的第一用户B互动数据;
所述第三智能终端在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像,并接收所述用户C与所述第二用户A虚拟影像、第二用户B虚拟影像的第一用户C互动数据。
可选地,所述第一智能终端在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像的步骤,包括:
所述第一智能终端从所述第一三维空间得到所述第一物理空间的第一物理空间特征数据,并获取所述用户A的第一用户A特征数据、所述用户B的第一用户B特征数据和所述用户C的第一用户C特征数据;
根据所述第一物理空间特征数据和所述第一用户A特征数据、所述第一用户B特征数据、所述第一用户C特征数据分别生成所述第一用户B虚拟影像和所述第一用户C虚拟影像;
将所述第一用户B虚拟影像和所述第一用户C虚拟影像在所述第一物理空间进行投影。
可选地,还包括:
所述用户A在所述第一智能终端上选择自身在所述第二物理空间和/或所述第三物理空间的第一用户A投影形象模型和/或第二用户A投影形象模型、第一用户A互动模型和/或第二用户A互动模型;
所述用户A通过所述第一智能终端对所述第二物理空间和/或所述第三物理空间的物品建立连接以进行控制与互动。
可选地,还包括:
所述第一智能终端根据所述用户A、所述用户B和所述用户C间的所述第一用户A互动数据,生成对应的第一虚拟物品影像和第一虚拟效果影像,并在所述第一物理空间投影所述第一虚拟物品影像和所述第一虚拟效果影像。
可选地,还包括:
所述第一服务器根据不同的场景,基于所述第一三维空间、所述第二三维空间和所述第三三维空间分别对所述第一物理空间、所述第二物理空间和所述第三物理空间进行子空间划分,并建立各子空间与各个场景间的子空间-场景对应关系;
所述第一服务器根据所述第一用户A互动数据、所述第一用户B互动数据、所述第一用户C互动数据,确定所述用户A、所述用户B和所述用户C间的第一关系;
根据所述第一关系确定所述用户A、所述用户B和所述用户C间的第一互动场景;
根据所述第一互动场景和所述子空间-场景对应关系分别确定所述第一物理空间、所述第二物理空间和所述第三物理空间中对应的第一子空间、第二子空间和第三子空间;
分别在所述第一子空间、所述第二子空间和所述第三子空间投影所述第一用户B虚拟影像和第一用户C虚拟影像、所述第一用户A虚拟影像和第二用户C虚拟影像、所述第二用户A虚拟影像和第二用户B虚拟影像。
采用本发明的技术方案,基于增强现实技术的多媒体展示***设置第一智能终端、第二智能终端、第三智能终端和第一服务器。通过本发明方案,利用增强现实技术,不仅能为身处异地的多个用户营造出沉浸式的互动环境,还可以根据用户特征、物理空间特征进行个性化的设置,大大提高了用户体验。
附图说明
图1是本发明一个实施例提供的基于增强现实技术的多媒体展示***的示意框图;
图2是本发明一个实施例提供的基于增强现实技术的多媒体展示方法流程图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
下面参照图1至图2来描述根据本发明一些实施方式提供的一种基于增强现实技术的多媒体展示***及方法。
如图1所示,本发明一个实施例提供一种基于增强现实技术的多媒体展示***,包括:第一智能终端、第二智能终端、第三智能终端和第一服务器;其中,
所述第一服务器被配置为:
通过所述第一智能终端、所述第二智能终端和所述第三智能终端分别建立用户A、用户B和用户C间的通信连接;
获取所述用户A所处的第一物理空间的第一三维数据,并进行建模得到第一三维空间;
获取所述用户B所处的第二物理空间的第二三维数据,并进行建模得到第二三维空间;
获取所述用户C所处的第三物理空间的第三三维数据,并进行建模得到第三三维空间;
所述第一智能终端被配置为:在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像,并接收所述用户A与所述第一用户B虚拟影像、第一用户C虚拟影像的第一用户A互动数据;
所述第二智能终端被配置为:在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像,并接收所述用户B与所述第一用户A虚拟影像、第二用户C虚拟影像的第一用户B互动数据;
所述第三智能终端被配置为:在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像,并接收所述用户C与所述第二用户A虚拟影像、第二用户B虚拟影像的第一用户C互动数据。
可以理解的是,在本发明实施例中,所述第一智能终端、所述第二智能终端和所述第三智能终端可以是具有通信模块、控制处理模块、投影模块、传感模块等功能模块的智能终端。用户A通过所述第一智能终端、用户B通过所述第二智能终端和用户C通过所述第三智能终端分别建立通信连接;所述第一服务器获取所述用户A所处的第一物理空间的第一三维数据(如三维点云数据),并根据所述第一三维数据进行建模得到第一三维空间;获取所述用户B所处的第二物理空间的第二三维数据,并根据所述第二三维数据进行建模得到第二三维空间;获取所述用户C所处的第三物理空间的第三三维数据,并根据所述第三三维数据进行建模得到第三三维空间。
所述第一智能终端接收所述第二智能终端发送的用户B相关数据、所述第三智能终端发送的用户C相关数据,根据所述用户B相关数据和所述用户C相关数据在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像,并接收所述用户A与所述第一用户B虚拟影像、所述第一用户C虚拟影像的第一用户A互动数据;为了使得B/C在第一物理空间内的虚拟影像能与用户A的特征匹配,进一步地,根据用户A特征数据、用户B特征数据和用户C特征数据在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像。
所述第二智能终端接收所述第一智能终端发送的用户A相关数据、所述第三智能终端发送的用户C相关数据,根据所述用户A相关数据和所述用户C相关数据在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像,并接收所述用户B与所述第一用户A虚拟影像、第二用户C虚拟影像的第一用户B互动数据;为了使得A/C在第二物理空间内的虚拟影像能与用户B的特征匹配,进一步地,根据用户A特征数据、用户B特征数据和用户C特征数据在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像。
所述第三智能终端接收所述第一智能终端发送的用户A相关数据、所述第二智能终端发送的用户B相关数据,根据所述用户A相关数据和所述用户B相关数据在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像,并接收所述用户C与所述第二用户A虚拟影像、第二用户B虚拟影像的第一用户C互动数据;为了使得A/B在第三物理空间内的虚拟影像能与用户C的特征匹配,进一步地,根据用户A特征数据、用户B特征数据和用户C特征数据在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像。
其中,用户A特征数据/用户B特征数据/用户C特征数据包括但不限于用户A/B/C的人物图像数据、人物语音数据、人物动作数据、人物性格数据、人物基本生理数据等。用户A的虚拟影像的生成流程具体是:首先,可以根据用户A人物图像数据生成用户A的A三维虚拟影像;然后,根据用户A和/或用户B和/或用户C的前述特征数据之间的关联关系或匹配要求对A三维虚拟影像进行修改;再根据将要投影用户A的虚拟影像的物理空间的特征数据(包括但不限于第二物理空间和/或第三物理空间功能、结构、装饰、场景、物品摆放状态等)对修改后的A三维虚拟影像进行再次进行修改(如分别投影在第二物理空间和第三物理空间,则分别根据第二物理空间特征数据和第三物理空间特征数据进行修改得到分别投影到两个物理空间的两个虚拟影像)以使得最终用户A的虚拟影像与物理空间(如第二物理空间和/或第三物理空间)相匹配。同理,用户B/C的虚拟影像的生成流程原理与用户A的虚拟影像的生成流程相同。
通过本发明方案,利用增强现实技术,不仅能为身处异地的多个用户营造出沉浸式的互动环境,还可以根据用户特征、物理空间特征进行个性化的设置,大大提高了用户体验。
应当知道的是,图1所示的基于增强现实技术的多媒体展示***的框图仅作示意,其所示出的各模块的数量并不对本发明的保护范围进行限定。
在本发明一些可能的实施方式中,所述在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像的步骤中,所述第一智能终端具体被配置为:
从所述第一三维空间得到所述第一物理空间的第一物理空间特征数据,并获取所述用户A的第一用户A特征数据、所述用户B的第一用户B特征数据和所述用户C的第一用户C特征数据;
根据所述第一物理空间特征数据和所述第一用户A特征数据、所述第一用户B特征数据、所述第一用户C特征数据分别生成所述第一用户B虚拟影像和所述第一用户C虚拟影像;
将所述第一用户B虚拟影像和所述第一用户C虚拟影像在所述第一物理空间进行投影。
可以理解的是,为了使得各用户的虚拟影像与投影的物理空间和物理空间内的用户完全融合达到和谐,在本实施例中,所述第一智能终端从所述第一三维空间得到所述第一物理空间的第一物理空间特征数据(包括但不限于物理空间的功能、结构、装饰、场景、物品摆放状态等),并获取所述用户A的第一用户A特征数据、所述用户B的第一用户B特征数据和所述用户C的第一用户C特征数据;根据所述第一物理空间特征数据和所述第一用户A特征数据、所述第一用户B特征数据、所述第一用户C特征数据之间的匹配关系和关联关系,分别生成所述第一用户B虚拟影像和所述第一用户C虚拟影像;将所述第一用户B虚拟影像和所述第一用户C虚拟影像在所述第一物理空间进行投影。同理,所述第二智能终端在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像的流程、所述第三智能终端在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像的流程,与所述第一智能终端在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像的流程的原理相同,在此不再赘述。
进一步地,为了增加物理空间的趣味性,所述第一/二/三智能终端还可以根据所述用户A/用户B/用户C的特征数据对所述第一/二/三物理空间对应的第一/二/三三维空间进行管理与重构后,在所述第一/二/三物理空间投射增加的虚拟影像。
在本发明一些可能的实施方式中,所述第一智能终端被配置为:
接收所述用户A选择的自身在所述第二物理空间和/或所述第三物理空间的第一用户A投影形象模型和/或第二用户A投影形象模型、第一用户A互动模型和/或第二用户A互动模型;
在所述用户A与所述第二物理空间和/或所述第三物理空间的物品间建立连接以供所述用户A进行控制与互动。
可以理解的是,为了更好地满足用户的需求,带来更智能的用户体验,在本实施例中,所述用户A在所述第一智能终端上选择自身在所述第二物理空间和/或所述第三物理空间的第一用户A投影形象模型和/或第二用户A投影形象模型(投影形象模型由第一服务器根据大数据对神经网络进行训练得到,包括但不限于影像形象风格、投影形象身材比例、投影形象性别、年龄特点、投影道具等)、第一用户A互动模型和/或第二用户A互动模型(互动模型由第一服务器生成,包括但不限于互动方式、互动道具、互动对象、互动时间、互动行为等);所述用户A通过所述第一智能终端与所述第二智能终端或所述第三智能终端建立控制关系以对所述第二物理空间和/或所述第三物理空间的物品(各物理空间里的物品与第一/二/三智能终端建立通信连接,并接收控制与互动指令)建立连接以进行控制与互动。同理,所述用户B在所述第二智能终端上选择自身在所述第一物理空间和/或所述第三物理空间的第一用户B投影形象模型和/或第二用户B投影形象模型、第一用户B互动模型和/或第二用户B互动模型;所述用户B通过所述第二智能终端对所述第一物理空间和/或所述第三物理空间的物品建立连接以进行控制与互动。所述用户C在所述第三智能终端上选择自身在所述第一物理空间和/或所述第二物理空间的第一用户C投影形象模型和/或第二用户C投影形象模型、第一用户C互动模型和/或第二用户C互动模型;所述用户C通过所述第三智能终端对所述第一物理空间和/或所述第二物理空间的物品建立连接以进行控制与互动。
应当说明的是,本发明的所有实施例都可以适应多种场景,例如,用户A、B、C分别在三个智能会议室a、b、c里进行会议或者开展其他活动,用户A可以通过第一智能终端发送控制与互动指令至第二智能终端或第三智能终端,第二智能终端或第三智能终端将控制与互动指令发送至会议室b或c里的物品(如显示设备、音响设备等)以协助用户A与用户B或C进行互动。另外,应用场景还可以是智能聊天室、智能餐厅、智能书店、智能自习室等。
在本发明一些可能的实施方式中,所述第一智能终端被配置为:
根据所述用户A、所述用户B和所述用户C间的所述第一用户A互动数据,生成对应的第一虚拟物品影像和第一虚拟效果影像,并在所述第一物理空间投影所述第一虚拟物品影像和所述第一虚拟效果影像。
可以理解的是,为了营造更适合的场景,在本实施例中,所述第一智能终端根据所述用户A、所述用户B和所述用户C间的所述第一用户A互动数据(以及从第二智能终端、第三智能终端获取的所述第一用户B互动数据、所述第一用户C互动数据),生成对应的第一虚拟物品影像和第一虚拟效果影像,并结合所述第一物理空间特征数据在所述第一物理空间投影所述第一虚拟物品影像和所述第一虚拟效果影像以及控制设置于所述第一物理空间的3D打印设备打印所述第一虚拟物品影像对应的第一物品或者所述第二物理空间/第三物理空间内的第二物品或者打印与所述用户B/用户C相匹配的第三物品。同理,在第二物理空间、第三物理空间,第二智能终端、第三智能终端也可以执行前述对应的操作,以使得在第二物理空间、第三物理空间内营造与所述用户A、所述用户B和所述用户C间的互动行为更匹配的场景。
在本发明一些可能的实施方式中,所述第一服务器还被配置为:
根据不同的场景,基于所述第一三维空间、所述第二三维空间和所述第三三维空间分别对所述第一物理空间、所述第二物理空间和所述第三物理空间进行子空间划分,并建立各子空间与各个场景间的子空间-场景对应关系;
根据所述第一用户A互动数据、所述第一用户B互动数据、所述第一用户C互动数据,确定所述用户A、所述用户B和所述用户C间的第一关系;
根据所述第一关系确定所述用户A、所述用户B和所述用户C间的第一互动场景;
根据所述第一互动场景和所述子空间-场景对应关系分别确定所述第一物理空间、所述第二物理空间和所述第三物理空间中对应的第一子空间、第二子空间和第三子空间;
控制所述第一智能终端、所述第二智能终端和所述第三智能终端分别在所述第一子空间、所述第二子空间和所述第三子空间投影所述第一用户B虚拟影像和第一用户C虚拟影像、所述第一用户A虚拟影像和第二用户C虚拟影像、所述第二用户A虚拟影像和第二用户B虚拟影像。
可以理解的是,为了使得空间营造更贴合用户特征,在本实施例中,所述第一服务器根据不同的场景,基于所述第一三维空间、所述第二三维空间和所述第三三维空间分别对所述第一物理空间、所述第二物理空间和所述第三物理空间进行子空间划分,并建立各子空间与各个场景间的子空间-场景对应关系;所述第一服务器根据所述第一用户A互动数据、所述第一用户B互动数据、所述第一用户C互动数据,确定所述用户A、所述用户B和所述用户C间的第一关系;根据所述第一关系确定所述用户A、所述用户B和所述用户C间的第一互动场景;根据所述第一互动场景和所述子空间-场景对应关系分别确定所述第一物理空间、所述第二物理空间和所述第三物理空间中对应的第一子空间、第二子空间和第三子空间;分别在所述第一子空间、所述第二子空间和所述第三子空间投影所述第一用户B虚拟影像和第一用户C虚拟影像、所述第一用户A虚拟影像和第二用户C虚拟影像、所述第二用户A虚拟影像和第二用户B虚拟影像。
请参见图2,本发明的另一实施例提供一种基于增强现实技术的多媒体展示方法,应用于一种基于增强现实技术的多媒体展示***,所述基于增强现实技术的多媒体展示***包括第一智能终端、第二智能终端、第三智能终端和第一服务器;所述基于增强现实技术的多媒体展示方法包括:
通过所述第一智能终端、所述第二智能终端和所述第三智能终端分别建立用户A、用户B和用户C间的通信连接;
所述第一服务器获取所述用户A所处的第一物理空间的第一三维数据,并进行建模得到第一三维空间;
所述第一服务器获取所述用户B所处的第二物理空间的第二三维数据,并进行建模得到第二三维空间;
所述第一服务器获取所述用户C所处的第三物理空间的第三三维数据,并进行建模得到第三三维空间;
所述第一智能终端在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像,并接收所述用户A与所述第一用户B虚拟影像、第一用户C虚拟影像的第一用户A互动数据;
所述第二智能终端在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像,并接收所述用户B与所述第一用户A虚拟影像、第二用户C虚拟影像的第一用户B互动数据;
所述第三智能终端在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像,并接收所述用户C与所述第二用户A虚拟影像、第二用户B虚拟影像的第一用户C互动数据。
可以理解的是,在本发明实施例中,所述第一智能终端、所述第二智能终端和所述第三智能终端可以是具有通信模块、控制处理模块、投影模块、传感模块等功能模块的智能终端。用户A通过所述第一智能终端、用户B通过所述第二智能终端和用户C通过所述第三智能终端分别建立通信连接;所述第一服务器获取所述用户A所处的第一物理空间的第一三维数据(如三维点云数据),并根据所述第一三维数据进行建模得到第一三维空间;获取所述用户B所处的第二物理空间的第二三维数据,并根据所述第二三维数据进行建模得到第二三维空间;获取所述用户C所处的第三物理空间的第三三维数据,并根据所述第三三维数据进行建模得到第三三维空间。
所述第一智能终端接收所述第二智能终端发送的用户B相关数据、所述第三智能终端发送的用户C相关数据,根据所述用户B相关数据和所述用户C相关数据在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像,并接收所述用户A与所述第一用户B虚拟影像、所述第一用户C虚拟影像的第一用户A互动数据;为了使得B/C在第一物理空间内的虚拟影像能与用户A的特征匹配,进一步地,根据用户A特征数据、用户B特征数据和用户C特征数据在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像。
所述第二智能终端接收所述第一智能终端发送的用户A相关数据、所述第三智能终端发送的用户C相关数据,根据所述用户A相关数据和所述用户C相关数据在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像,并接收所述用户B与所述第一用户A虚拟影像、第二用户C虚拟影像的第一用户B互动数据;为了使得A/C在第二物理空间内的虚拟影像能与用户B的特征匹配,进一步地,根据用户A特征数据、用户B特征数据和用户C特征数据在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像。
所述第三智能终端接收所述第一智能终端发送的用户A相关数据、所述第二智能终端发送的用户B相关数据,根据所述用户A相关数据和所述用户B相关数据在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像,并接收所述用户C与所述第二用户A虚拟影像、第二用户B虚拟影像的第一用户C互动数据;为了使得A/B在第三物理空间内的虚拟影像能与用户C的特征匹配,进一步地,根据用户A特征数据、用户B特征数据和用户C特征数据在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像。
其中,用户A特征数据/用户B特征数据/用户C特征数据包括但不限于用户A/B/C的人物图像数据、人物语音数据、人物动作数据、人物性格数据、人物基本生理数据等。用户A的虚拟影像的生成流程具体是:首先,可以根据用户A人物图像数据生成用户A的A三维虚拟影像;然后,根据用户A和/或用户B和/或用户C的前述特征数据之间的关联关系或匹配要求对A三维虚拟影像进行修改;再根据将要投影用户A的虚拟影像的物理空间的特征数据(包括但不限于第二物理空间和/或第三物理空间功能、结构、装饰、场景、物品摆放状态等)对修改后的A三维虚拟影像进行再次进行修改(如分别投影在第二物理空间和第三物理空间,则分别根据第二物理空间特征数据和第三物理空间特征数据进行修改得到分别投影到两个物理空间的两个虚拟影像)以使得最终用户A的虚拟影像与物理空间(如第二物理空间和/或第三物理空间)相匹配。同理,用户B/C的虚拟影像的生成流程原理与用户A的虚拟影像的生成流程相同。
通过本发明方案,利用增强现实技术,不仅能为身处异地的多个用户营造出沉浸式的互动环境,还可以根据用户特征、物理空间特征进行个性化的设置,大大提高了用户体验。
在本发明一些可能的实施方式中,所述第一智能终端在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像的步骤,包括:
所述第一智能终端从所述第一三维空间得到所述第一物理空间的第一物理空间特征数据,并获取所述用户A的第一用户A特征数据、所述用户B的第一用户B特征数据和所述用户C的第一用户C特征数据;
根据所述第一物理空间特征数据和所述第一用户A特征数据、所述第一用户B特征数据、所述第一用户C特征数据分别生成所述第一用户B虚拟影像和所述第一用户C虚拟影像;
将所述第一用户B虚拟影像和所述第一用户C虚拟影像在所述第一物理空间进行投影。
可以理解的是,为了使得各用户的虚拟影像与投影的物理空间和物理空间内的用户完全融合达到和谐,在本实施例中,所述第一智能终端从所述第一三维空间得到所述第一物理空间的第一物理空间特征数据(包括但不限于物理空间的功能、结构、装饰、场景、物品摆放状态等),并获取所述用户A的第一用户A特征数据、所述用户B的第一用户B特征数据和所述用户C的第一用户C特征数据;根据所述第一物理空间特征数据和所述第一用户A特征数据、所述第一用户B特征数据、所述第一用户C特征数据之间的匹配关系和关联关系,分别生成所述第一用户B虚拟影像和所述第一用户C虚拟影像;将所述第一用户B虚拟影像和所述第一用户C虚拟影像在所述第一物理空间进行投影。同理,所述第二智能终端在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像的流程、所述第三智能终端在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像的流程,与所述第一智能终端在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像的流程的原理相同,在此不再赘述。
进一步地,为了增加物理空间的趣味性,所述第一/二/三智能终端还可以根据所述用户A/用户B/用户C的特征数据对所述第一/二/三物理空间对应的第一/二/三三维空间进行管理与重构后,在所述第一/二/三物理空间投射增加的虚拟影像。
在本发明一些可能的实施方式中,还包括:
所述用户A在所述第一智能终端上选择自身在所述第二物理空间和/或所述第三物理空间的第一用户A投影形象模型和/或第二用户A投影形象模型、第一用户A互动模型和/或第二用户A互动模型;
所述用户A通过所述第一智能终端对所述第二物理空间和/或所述第三物理空间的物品建立连接以进行控制与互动。
可以理解的是,为了更好地满足用户的需求,带来更智能的用户体验,在本实施例中,所述用户A在所述第一智能终端上选择自身在所述第二物理空间和/或所述第三物理空间的第一用户A投影形象模型和/或第二用户A投影形象模型(投影形象模型由第一服务器根据大数据对神经网络进行训练得到,包括但不限于影像形象风格、投影形象身材比例、投影形象性别、年龄特点、投影道具等)、第一用户A互动模型和/或第二用户A互动模型(互动模型由第一服务器生成,包括但不限于互动方式、互动道具、互动对象、互动时间、互动行为等);所述用户A通过所述第一智能终端与所述第二智能终端或所述第三智能终端建立控制关系以对所述第二物理空间和/或所述第三物理空间的物品(各物理空间里的物品与第一/二/三智能终端建立通信连接,并接收控制与互动指令)建立连接以进行控制与互动。同理,所述用户B在所述第二智能终端上选择自身在所述第一物理空间和/或所述第三物理空间的第一用户B投影形象模型和/或第二用户B投影形象模型、第一用户B互动模型和/或第二用户B互动模型;所述用户B通过所述第二智能终端对所述第一物理空间和/或所述第三物理空间的物品建立连接以进行控制与互动。所述用户C在所述第三智能终端上选择自身在所述第一物理空间和/或所述第二物理空间的第一用户C投影形象模型和/或第二用户C投影形象模型、第一用户C互动模型和/或第二用户C互动模型;所述用户C通过所述第三智能终端对所述第一物理空间和/或所述第二物理空间的物品建立连接以进行控制与互动。
应当说明的是,本发明的所有实施例都可以适应多种场景,例如,用户A、B、C分别在三个智能会议室a、b、c里进行会议或者开展其他活动,用户A可以通过第一智能终端发送控制与互动指令至第二智能终端或第三智能终端,第二智能终端或第三智能终端将控制与互动指令发送至会议室b或c里的物品(如显示设备、音响设备等)以协助用户A与用户B或C进行互动。另外,应用场景还可以是智能聊天室、智能餐厅、智能书店、智能自习室等。
在本发明一些可能的实施方式中,还包括:
所述第一智能终端根据所述用户A、所述用户B和所述用户C间的所述第一用户A互动数据,生成对应的第一虚拟物品影像和第一虚拟效果影像,并在所述第一物理空间投影所述第一虚拟物品影像和所述第一虚拟效果影像。
可以理解的是,为了营造更适合的场景,在本实施例中,所述第一智能终端根据所述用户A、所述用户B和所述用户C间的所述第一用户A互动数据(以及从第二智能终端、第三智能终端获取的所述第一用户B互动数据、所述第一用户C互动数据),生成对应的第一虚拟物品影像和第一虚拟效果影像,并结合所述第一物理空间特征数据在所述第一物理空间投影所述第一虚拟物品影像和所述第一虚拟效果影像以及控制设置于所述第一物理空间的3D打印设备打印所述第一虚拟物品影像对应的第一物品或者所述第二物理空间/第三物理空间内的第二物品或者打印与所述用户B/用户C相匹配的第三物品。同理,在第二物理空间、第三物理空间,第二智能终端、第三智能终端也可以执行前述对应的操作,以使得在第二物理空间、第三物理空间内营造与所述用户A、所述用户B和所述用户C间的互动行为更匹配的场景。
在本发明一些可能的实施方式中,还包括:
所述第一服务器根据不同的场景,基于所述第一三维空间、所述第二三维空间和所述第三三维空间分别对所述第一物理空间、所述第二物理空间和所述第三物理空间进行子空间划分,并建立各子空间与各个场景间的子空间-场景对应关系;
所述第一服务器根据所述第一用户A互动数据、所述第一用户B互动数据、所述第一用户C互动数据,确定所述用户A、所述用户B和所述用户C间的第一关系;
根据所述第一关系确定所述用户A、所述用户B和所述用户C间的第一互动场景;
根据所述第一互动场景和所述子空间-场景对应关系分别确定所述第一物理空间、所述第二物理空间和所述第三物理空间中对应的第一子空间、第二子空间和第三子空间;
分别在所述第一子空间、所述第二子空间和所述第三子空间投影所述第一用户B虚拟影像和第一用户C虚拟影像、所述第一用户A虚拟影像和第二用户C虚拟影像、所述第二用户A虚拟影像和第二用户B虚拟影像。
可以理解的是,为了使得空间营造更贴合用户特征,在本实施例中,所述第一服务器根据不同的场景,基于所述第一三维空间、所述第二三维空间和所述第三三维空间分别对所述第一物理空间、所述第二物理空间和所述第三物理空间进行子空间划分,并建立各子空间与各个场景间的子空间-场景对应关系;所述第一服务器根据所述第一用户A互动数据、所述第一用户B互动数据、所述第一用户C互动数据,确定所述用户A、所述用户B和所述用户C间的第一关系;根据所述第一关系确定所述用户A、所述用户B和所述用户C间的第一互动场景;根据所述第一互动场景和所述子空间-场景对应关系分别确定所述第一物理空间、所述第二物理空间和所述第三物理空间中对应的第一子空间、第二子空间和第三子空间;分别在所述第一子空间、所述第二子空间和所述第三子空间投影所述第一用户B虚拟影像和第一用户C虚拟影像、所述第一用户A虚拟影像和第二用户C虚拟影像、所述第二用户A虚拟影像和第二用户B虚拟影像。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,可轻易想到变化或替换,均可作各种更动与修改,包含上述不同功能、实施步骤的组合,包含软件和硬件的实施方式,均在本发明的保护范围。

Claims (10)

1.一种基于增强现实技术的多媒体展示***,其特征在于,包括:第一智能终端、第二智能终端、第三智能终端和第一服务器;其中,
所述第一服务器被配置为:
通过所述第一智能终端、所述第二智能终端和所述第三智能终端分别建立用户A、用户B和用户C间的通信连接;
获取所述用户A所处的第一物理空间的第一三维数据,并进行建模得到第一三维空间;
获取所述用户B所处的第二物理空间的第二三维数据,并进行建模得到第二三维空间;
获取所述用户C所处的第三物理空间的第三三维数据,并进行建模得到第三三维空间;
所述第一智能终端被配置为:在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像,并接收所述用户A与所述第一用户B虚拟影像、第一用户C虚拟影像的第一用户A互动数据;
所述第二智能终端被配置为:在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像,并接收所述用户B与所述第一用户A虚拟影像、第二用户C虚拟影像的第一用户B互动数据;
所述第三智能终端被配置为:在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像,并接收所述用户C与所述第二用户A虚拟影像、第二用户B虚拟影像的第一用户C互动数据。
2.根据权利要求1所述的基于增强现实技术的多媒体展示***,其特征在于,所述在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像的步骤中,所述第一智能终端具体被配置为:
从所述第一三维空间得到所述第一物理空间的第一物理空间特征数据,并获取所述用户A的第一用户A特征数据、所述用户B的第一用户B特征数据和所述用户C的第一用户C特征数据;
根据所述第一物理空间特征数据和所述第一用户A特征数据、所述第一用户B特征数据、所述第一用户C特征数据分别生成所述第一用户B虚拟影像和所述第一用户C虚拟影像;
将所述第一用户B虚拟影像和所述第一用户C虚拟影像在所述第一物理空间进行投影。
3.根据权利要求2所述的基于增强现实技术的多媒体展示***,其特征在于,所述第一智能终端被配置为:
接收所述用户A选择的自身在所述第二物理空间和/或所述第三物理空间的第一用户A投影形象模型和/或第二用户A投影形象模型、第一用户A互动模型和/或第二用户A互动模型;
在所述用户A与所述第二物理空间和/或所述第三物理空间的物品间建立连接以供所述用户A进行控制与互动。
4.根据权利要求3所述的基于增强现实技术的多媒体展示***,其特征在于,所述第一智能终端被配置为:
根据所述用户A、所述用户B和所述用户C间的所述第一用户A互动数据,生成对应的第一虚拟物品影像和第一虚拟效果影像,并在所述第一物理空间投影所述第一虚拟物品影像和所述第一虚拟效果影像。
5.根据权利要求4所述的基于增强现实技术的多媒体展示***,其特征在于,所述第一服务器还被配置为:
根据不同的场景,基于所述第一三维空间、所述第二三维空间和所述第三三维空间分别对所述第一物理空间、所述第二物理空间和所述第三物理空间进行子空间划分,并建立各子空间与各个场景间的子空间-场景对应关系;
根据所述第一用户A互动数据、所述第一用户B互动数据、所述第一用户C互动数据,确定所述用户A、所述用户B和所述用户C间的第一关系;
根据所述第一关系确定所述用户A、所述用户B和所述用户C间的第一互动场景;
根据所述第一互动场景和所述子空间-场景对应关系分别确定所述第一物理空间、所述第二物理空间和所述第三物理空间中对应的第一子空间、第二子空间和第三子空间;
控制所述第一智能终端、所述第二智能终端和所述第三智能终端分别在所述第一子空间、所述第二子空间和所述第三子空间投影所述第一用户B虚拟影像和第一用户C虚拟影像、所述第一用户A虚拟影像和第二用户C虚拟影像、所述第二用户A虚拟影像和第二用户B虚拟影像。
6.一种基于增强现实技术的多媒体展示方法,其特征在于,应用于一种基于增强现实技术的多媒体展示***,所述基于增强现实技术的多媒体展示***包括第一智能终端、第二智能终端、第三智能终端和第一服务器;所述基于增强现实技术的多媒体展示方法包括:
通过所述第一智能终端、所述第二智能终端和所述第三智能终端分别建立用户A、用户B和用户C间的通信连接;
所述第一服务器获取所述用户A所处的第一物理空间的第一三维数据,并进行建模得到第一三维空间;
所述第一服务器获取所述用户B所处的第二物理空间的第二三维数据,并进行建模得到第二三维空间;
所述第一服务器获取所述用户C所处的第三物理空间的第三三维数据,并进行建模得到第三三维空间;
所述第一智能终端在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像,并接收所述用户A与所述第一用户B虚拟影像、第一用户C虚拟影像的第一用户A互动数据;
所述第二智能终端在所述第二物理空间内投影所述用户A的第一用户A虚拟影像和所述用户C的第二用户C虚拟影像,并接收所述用户B与所述第一用户A虚拟影像、第二用户C虚拟影像的第一用户B互动数据;
所述第三智能终端在所述第三物理空间内投影所述用户A的第二用户A虚拟影像和所述用户B的第二用户B虚拟影像,并接收所述用户C与所述第二用户A虚拟影像、第二用户B虚拟影像的第一用户C互动数据。
7.根据权利要求6所述的基于增强现实技术的多媒体展示方法,其特征在于,所述第一智能终端在所述第一物理空间内投影所述用户B的第一用户B虚拟影像和所述用户C的第一用户C虚拟影像的步骤,包括:
所述第一智能终端从所述第一三维空间得到所述第一物理空间的第一物理空间特征数据,并获取所述用户A的第一用户A特征数据、所述用户B的第一用户B特征数据和所述用户C的第一用户C特征数据;
根据所述第一物理空间特征数据和所述第一用户A特征数据、所述第一用户B特征数据、所述第一用户C特征数据分别生成所述第一用户B虚拟影像和所述第一用户C虚拟影像;
将所述第一用户B虚拟影像和所述第一用户C虚拟影像在所述第一物理空间进行投影。
8.根据权利要求7所述的基于增强现实技术的多媒体展示方法,其特征在于,还包括:
所述用户A在所述第一智能终端上选择自身在所述第二物理空间和/或所述第三物理空间的第一用户A投影形象模型和/或第二用户A投影形象模型、第一用户A互动模型和/或第二用户A互动模型;
所述用户A通过所述第一智能终端对所述第二物理空间和/或所述第三物理空间的物品建立连接以进行控制与互动。
9.根据权利要求8所述的基于增强现实技术的多媒体展示方法,其特征在于,还包括:
所述第一智能终端根据所述用户A、所述用户B和所述用户C间的所述第一用户A互动数据,生成对应的第一虚拟物品影像和第一虚拟效果影像,并在所述第一物理空间投影所述第一虚拟物品影像和所述第一虚拟效果影像。
10.根据权利要求9所述的基于增强现实技术的多媒体展示方法,其特征在于,还包括:
所述第一服务器根据不同的场景,基于所述第一三维空间、所述第二三维空间和所述第三三维空间分别对所述第一物理空间、所述第二物理空间和所述第三物理空间进行子空间划分,并建立各子空间与各个场景间的子空间-场景对应关系;
所述第一服务器根据所述第一用户A互动数据、所述第一用户B互动数据、所述第一用户C互动数据,确定所述用户A、所述用户B和所述用户C间的第一关系;
根据所述第一关系确定所述用户A、所述用户B和所述用户C间的第一互动场景;
根据所述第一互动场景和所述子空间-场景对应关系分别确定所述第一物理空间、所述第二物理空间和所述第三物理空间中对应的第一子空间、第二子空间和第三子空间;
分别在所述第一子空间、所述第二子空间和所述第三子空间投影所述第一用户B虚拟影像和第一用户C虚拟影像、所述第一用户A虚拟影像和第二用户C虚拟影像、所述第二用户A虚拟影像和第二用户B虚拟影像。
CN202310665058.7A 2023-06-06 2023-06-06 一种基于增强现实技术的多媒体展示***及方法 Active CN116664805B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310665058.7A CN116664805B (zh) 2023-06-06 2023-06-06 一种基于增强现实技术的多媒体展示***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310665058.7A CN116664805B (zh) 2023-06-06 2023-06-06 一种基于增强现实技术的多媒体展示***及方法

Publications (2)

Publication Number Publication Date
CN116664805A true CN116664805A (zh) 2023-08-29
CN116664805B CN116664805B (zh) 2024-02-06

Family

ID=87711508

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310665058.7A Active CN116664805B (zh) 2023-06-06 2023-06-06 一种基于增强现实技术的多媒体展示***及方法

Country Status (1)

Country Link
CN (1) CN116664805B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777915A (zh) * 2014-01-30 2014-05-07 中国科学院计算技术研究所 沉浸式交互***
KR20170142086A (ko) * 2016-06-16 2017-12-27 주식회사 에이치투앤컴퍼니 가상 현실 영상 및 증강 현실 컨텐츠를 결합한 상호작용 중첩현실 시스템 및 그 제공 방법
US20180174347A1 (en) * 2016-12-20 2018-06-21 Sony Interactive Entertainment LLC Telepresence of multiple users in interactive virtual space
CN108234276A (zh) * 2016-12-15 2018-06-29 腾讯科技(深圳)有限公司 一种虚拟形象之间互动的方法、终端及***
CN108833931A (zh) * 2018-06-28 2018-11-16 南京曼殊室信息科技有限公司 一种异地用3d全息影像交互直播平台
US20190180509A1 (en) * 2017-12-11 2019-06-13 Nokia Technologies Oy Apparatus and associated methods for presentation of first and second virtual-or-augmented reality content
US11200742B1 (en) * 2020-02-28 2021-12-14 United Services Automobile Association (Usaa) Augmented reality-based interactive customer support
KR20220125536A (ko) * 2021-03-05 2022-09-14 주식회사 맘모식스 가상현실 사용자와 증강현실 사용자와의 상호 인터랙션 서비스 제공 시스템 및 동작방법
CN115581350A (zh) * 2022-09-13 2023-01-10 七造(重庆)科技有限公司 一种沉浸式交互***
US20230022194A1 (en) * 2021-07-26 2023-01-26 At&T Intellectual Property I, L.P. Distinguishing real from virtual objects in immersive reality

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777915A (zh) * 2014-01-30 2014-05-07 中国科学院计算技术研究所 沉浸式交互***
KR20170142086A (ko) * 2016-06-16 2017-12-27 주식회사 에이치투앤컴퍼니 가상 현실 영상 및 증강 현실 컨텐츠를 결합한 상호작용 중첩현실 시스템 및 그 제공 방법
CN108234276A (zh) * 2016-12-15 2018-06-29 腾讯科技(深圳)有限公司 一种虚拟形象之间互动的方法、终端及***
US20180174347A1 (en) * 2016-12-20 2018-06-21 Sony Interactive Entertainment LLC Telepresence of multiple users in interactive virtual space
US20190180509A1 (en) * 2017-12-11 2019-06-13 Nokia Technologies Oy Apparatus and associated methods for presentation of first and second virtual-or-augmented reality content
CN108833931A (zh) * 2018-06-28 2018-11-16 南京曼殊室信息科技有限公司 一种异地用3d全息影像交互直播平台
US11200742B1 (en) * 2020-02-28 2021-12-14 United Services Automobile Association (Usaa) Augmented reality-based interactive customer support
KR20220125536A (ko) * 2021-03-05 2022-09-14 주식회사 맘모식스 가상현실 사용자와 증강현실 사용자와의 상호 인터랙션 서비스 제공 시스템 및 동작방법
US20230022194A1 (en) * 2021-07-26 2023-01-26 At&T Intellectual Property I, L.P. Distinguishing real from virtual objects in immersive reality
CN115581350A (zh) * 2022-09-13 2023-01-10 七造(重庆)科技有限公司 一种沉浸式交互***

Also Published As

Publication number Publication date
CN116664805B (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
US10839023B2 (en) Avatar service system and method for animating avatar on a terminal on a network
CN113240782B (zh) 基于虚拟角色的流媒体生成方法及装置
US10210002B2 (en) Method and apparatus of processing expression information in instant communication
US9047710B2 (en) System and method for providing an avatar service in a mobile environment
US20210191690A1 (en) Virtual Reality Device Control Method And Apparatus, And Virtual Reality Device And System
TWI752502B (zh) 一種分鏡效果的實現方法、電子設備及電腦可讀儲存介質
CN109885367B (zh) 互动聊天实现方法、装置、终端和存储介质
KR102491140B1 (ko) 가상 아바타 생성 방법 및 장치
CN111729314B (zh) 一种虚拟角色的捏脸处理方法、装置及可读存储介质
CN110488973B (zh) 一种虚拟互动留言***及方法
Roberts et al. withyou—an experimental end-to-end telepresence system using video-based reconstruction
CN110545442A (zh) 一种直播互动方法、装置、电子设备及可读存储介质
CN106302666B (zh) 数据推送方法及装置
CN110197532A (zh) 增强现实会场布置的***、方法、装置及计算机存储介质
CN114979682B (zh) 多主播虚拟直播方法以及装置
CN114222076B (zh) 一种换脸视频生成方法、装置、设备以及存储介质
CN114237540A (zh) 一种智慧课堂在线教学互动方法、装置、存储介质及终端
CN111464859B (zh) 一种在线视频展示的方法、装置、计算机设备及存储介质
CN105956430A (zh) 一种自动登录vr平台的方法及装置
CN116664805B (zh) 一种基于增强现实技术的多媒体展示***及方法
CN112364478A (zh) 基于虚拟现实的测试方法及相关装置
KR102079321B1 (ko) 유무선 웹을 통한 아바타 서비스 시스템 및 방법
CN107832366A (zh) 视频分享方法及装置、终端装置及计算机可读存储介质
Fisher The smooth life: Instagram as a platform of control
CN113318441A (zh) 游戏场景的显示控制方法及装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant