CN106648098A - 一种自定义场景的ar投影方法及*** - Google Patents
一种自定义场景的ar投影方法及*** Download PDFInfo
- Publication number
- CN106648098A CN106648098A CN201611203233.7A CN201611203233A CN106648098A CN 106648098 A CN106648098 A CN 106648098A CN 201611203233 A CN201611203233 A CN 201611203233A CN 106648098 A CN106648098 A CN 106648098A
- Authority
- CN
- China
- Prior art keywords
- models
- space
- space template
- template
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种自定义场景的AR投影方法及***,其中,方法包括:利用爬虫技术采集网络上的3D模型,形成候选模型库;生成空白的3D空间模板;利用Kinect模块识别到预设的手势,控制从候选模型库中选择3D模型导入3D空间模板,控制3D模型在3D空间模板中的缩放和位置;摄像头采集真实场景信息,当识别到AR卡片以其为中心,叠加真实场景信息和3D空间模板数据,形成AR空间模型;将AR空间模型全息投影在投影屏幕上。有益效果:自定义选择3D模型导入3D空间模板,调整3D模型在3D空间模板中大小、位置,自定义组合成用户期待的3D模型的组合,将虚拟的3D空间模板叠加到真实场景形成AR空间模型再全息投影,实现了用户自定义虚拟场景,虚拟场景个性化。
Description
技术领域
本发明涉及AR投影技术领域,尤其是涉及一种自定义场景的AR投影方法及***。
背景技术
增强现实(Augmented Reality,简称AR),是一种将真实世界信息和虚拟世界信息“无缝”集成的技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息,通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。AR受到的关注日益广泛,并且已经发挥了重要作用,显示出了巨大的潜力。
目前已有的AR技术往往是通过识别图像信息出现预设的视频或出现预设的虚拟3D模型,其虚拟的场景都是预存好的,比较单一,无法由用户自定义虚拟场景,不够个性化。
发明内容
本发明的目的在于克服上述技术不足,提出一种自定义场景的AR投影方法及***,解决现有技术中AR应用的虚拟场景内容单一、固定,无法由用户自定义的技术问题。
为达到上述技术目的,本发明的技术方案提供一种自定义场景的AR投影方法,其中,包括:
S1、输入关键词,在网络的3D模型库中进行关键词查找;
S2、利用爬虫技术采集查找到的所述3D模型,形成候选模型库;
S3、生成3D空间模板,所述3D空间模板初始设置为带有坐标轴的空白3D空间;
S4、Kinect模块识别到预设的手势,控制从所述候选模型库中选择所述3D模型导入所述3D空间模板,控制所述3D模型在所述3D空间模板中的缩放和位置;
S5、摄像头采集真实场景信息,当识别到AR卡片,以所述AR卡片为中心,叠加真实场景信息和所述3D空间模板数据,形成AR空间模型;
S6、将所述AR空间模型的数字信号转为光信号,全息投影在投影屏幕上。
本发明还提供一种自定义场景的AR投影***,其中,包括:
查找模块:输入关键词,在网络的3D模型库中进行关键词查找;
采集模块:利用爬虫技术采集查找到的所述3D模型,形成候选模型库;
生成模块:生成3D空间模板,所述3D空间模板初始设置为带有坐标轴的空白3D空间;
构建虚拟空间模块:Kinect模块识别到预设的手势,控制从所述候选模型库中选择所述3D模型导入所述3D空间模板,控制所述3D模型在所述3D空间模板中的缩放和位置;
合成AR空间模块:摄像头采集真实场景信息,当识别到AR卡片,以所述AR卡片为中心,叠加真实场景信息和所述3D空间模板数据,形成AR空间模型;
全息投影模块:将所述AR空间模型的数字信号转为光信号,全息投影在投影屏幕上。
与现有技术相比,本发明的有益效果包括:通过爬虫采集网络上符合条件的3D模型,自定义选择部分3D模型导入3D空间模板,调整3D模型在3D空间模板中大小、位置,自定义组合成用户期待的3D模型的组合,将虚拟的3D空间模板叠加到真实场景形成AR空间模型再全息投影,实现了用户自定义虚拟场景,虚拟场景丰富多样、个性化。
附图说明
图1是本发明提供的一种自定义场景的AR投影方法流程图;
图2是本发明提供的一种自定义场景的AR投影***结构框图。
附图中:1、自定义场景的AR投影***,11、查找模块,12、采集模块,13、生成模块,14、构建虚拟空间模块,15、合成AR空间模块,16、全息投影模块。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供了一种自定义场景的AR投影方法,其中,包括:
S1、输入关键词,在网络的3D模型库中进行关键词查找;
S2、利用爬虫技术采集查找到的3D模型,形成候选模型库;
S3、生成3D空间模板,3D空间模板初始设置为带有坐标轴的空白3D空间;
S4、Kinect模块识别到预设的手势,控制从候选模型库中选择3D模型导入3D空间模板,控制3D模型在3D空间模板中的缩放和位置;
S5、摄像头采集真实场景信息,当识别到AR卡片,以AR卡片为中心,叠加真实场景信息和3D空间模板数据,形成AR空间模型;
S6、将AR空间模型的数字信号转为光信号,全息投影在投影屏幕上。
本发明所述的自定义场景的AR投影方法,步骤S2包括:
候选模型库包括静态3D模型和动态3D模型。
本发明所述的自定义场景的AR投影方法,步骤S4包括:
Kinect模块识别到第一预设手势,控制从候选模型库中选择3D模型并导入3D空间模板;
Kinect模块识别到第二预设手势,控制3D模型在3D空间模板中的缩放;
Kinect模块识别到第三预设手势,操作3D模型在3D空间模板中的位置。
本发明所述的自定义场景的AR投影方法,步骤S5包括:
使用Vuforia模块叠加真实场景信息和3D空间模板数据。
本发明所述的自定义场景的AR投影方法,步骤S6包括:
Kinect模块识别到预设的观看手势,控制全息投影的旋转和缩放,供用户观看。
本发明还提供一种自定义场景的AR投影***1,其中,包括:
查找模块11:输入关键词,在网络的3D模型库中进行关键词查找;
采集模块12:利用爬虫技术采集查找到的3D模型,形成候选模型库;
生成模块13:生成3D空间模板,3D空间模板初始设置为带有坐标轴的空白3D空间;
构建虚拟空间模块14:Kinect模块识别到预设的手势,控制从候选模型库中选择3D模型导入3D空间模板,控制3D模型在3D空间模板中的缩放和位置;
合成AR空间模块15:摄像头采集真实场景信息,当识别到AR卡片,以AR卡片为中心,叠加真实场景信息和3D空间模板数据,形成AR空间模型;
全息投影模块16:将AR空间模型的数字信号转为光信号,全息投影在投影屏幕上。
本发明所述的自定义场景的AR投影***1,采集模块12包括:
候选模型库包括静态3D模型和动态3D模型。
本发明所述的自定义场景的AR投影***1,构建虚拟空间模块14包括:
Kinect模块识别到第一预设手势,控制从候选模型库中选择3D模型并导入3D空间模板;
Kinect模块识别到第二预设手势,控制3D模型在3D空间模板中的缩放;
Kinect模块识别到第三预设手势,操作3D模型在3D空间模板中的位置。
本发明所述的自定义场景的AR投影***1,合成AR空间模块15包括:
使用Vuforia模块叠加真实场景信息和3D空间模板数据。
本发明所述的自定义场景的AR投影***1,全息投影模块16包括:
Kinect模块识别到预设的观看手势,控制全息投影的旋转和缩放,供用户观看。
本发明提供的一种自定义场景的AR投影方法及***在使用过程中,首先输入关键词,在网络的3D模型库中进行关键词查找;利用爬虫技术采集查找到的3D模型,形成候选模型库;生成3D空间模板,3D空间模板初始设置为带有坐标轴的空白3D空间;Kinect模块识别到预设的手势,控制从候选模型库中选择3D模型导入3D空间模板,控制3D模型在3D空间模板中的缩放和位置;摄像头采集真实场景信息,当识别到AR卡片,以AR卡片为中心,叠加真实场景信息和3D空间模板数据,形成AR空间模型;将AR空间模型的数字信号转为光信号,全息投影在投影屏幕上。
与现有技术相比,本发明的有益效果包括:通过爬虫采集网络上符合条件的3D模型,自定义选择部分3D模型导入3D空间模板,调整3D模型在3D空间模板中大小、位置,自定义组合成用户期待的3D模型的组合,将虚拟的3D空间模板叠加到真实场景形成AR空间模型再全息投影,实现了用户自定义虚拟场景,虚拟场景丰富多样、个性化。
以上所述本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所做出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。
Claims (10)
1.一种自定义场景的AR投影方法,其特征在于,包括:
S1、输入关键词,在网络的3D模型库中进行关键词查找;
S2、利用爬虫技术采集查找到的所述3D模型,形成候选模型库;
S3、生成3D空间模板,所述3D空间模板初始设置为带有坐标轴的空白3D空间;
S4、Kinect模块识别到预设的手势,控制从所述候选模型库中选择所述3D模型导入所述3D空间模板,控制所述3D模型在所述3D空间模板中的缩放和位置;
S5、摄像头采集真实场景信息,当识别到AR卡片,以所述AR卡片为中心,叠加真实场景信息和所述3D空间模板数据,形成AR空间模型;
S6、将所述AR空间模型的数字信号转为光信号,全息投影在投影屏幕上。
2.如权利要求1所述的自定义场景的AR投影方法,其特征在于,步骤S2包括:
所述候选模型库包括静态3D模型和动态3D模型。
3.如权利要求1所述的自定义场景的AR投影方法,其特征在于,步骤S4包括:
所述Kinect模块识别到第一预设手势,控制从所述候选模型库中选择所述3D模型并导入所述3D空间模板;
所述Kinect模块识别到第二预设手势,控制所述3D模型在所述3D空间模板中的缩放;
所述Kinect模块识别到第三预设手势,操作所述3D模型在所述3D空间模板中的位置。
4.如权利要求1所述的自定义场景的AR投影方法,其特征在于,步骤S5包括:
使用Vuforia模块叠加所述真实场景信息和所述3D空间模板数据。
5.如权利要求1所述的自定义场景的AR投影方法,其特征在于,步骤S6包括:
所述Kinect模块识别到预设的观看手势,控制全息投影的旋转和缩放,供用户观看。
6.一种自定义场景的AR投影***,其特征在于,包括:
查找模块:输入关键词,在网络的3D模型库中进行关键词查找;
采集模块:利用爬虫技术采集查找到的所述3D模型,形成候选模型库;
生成模块:生成3D空间模板,所述3D空间模板初始设置为带有坐标轴的空白3D空间;
构建虚拟空间模块:Kinect模块识别到预设的手势,控制从所述候选模型库中选择所述3D模型导入所述3D空间模板,控制所述3D模型在所述3D空间模板中的缩放和位置;
合成AR空间模块:摄像头采集真实场景信息,当识别到AR卡片,以所述AR卡片为中心,叠加真实场景信息和所述3D空间模板数据,形成AR空间模型;
全息投影模块:将所述AR空间模型的数字信号转为光信号,全息投影在投影屏幕上。
7.如权利要求6所述的自定义场景的AR投影***,其特征在于,采集模块包括:
所述候选模型库包括静态3D模型和动态3D模型。
8.如权利要求6所述的自定义场景的AR投影***,其特征在于,构建虚拟空间模块包括:
所述Kinect模块识别到第一预设手势,控制从所述候选模型库中选择所述3D模型并导入所述3D空间模板;
所述Kinect模块识别到第二预设手势,控制所述3D模型在所述3D空间模板中的缩放;
所述Kinect模块识别到第三预设手势,操作所述3D模型在所述3D空间模板中的位置。
9.如权利要求6所述的自定义场景的AR投影***,其特征在于,合成AR空间模块包括:
使用Vuforia模块叠加所述真实场景信息和所述3D空间模板数据。
10.如权利要求6所述的自定义场景的AR投影***,其特征在于,全息投影模块包括:
所述Kinect模块识别到预设的观看手势,控制全息投影的旋转和缩放,供用户观看。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611203233.7A CN106648098B (zh) | 2016-12-23 | 2016-12-23 | 一种自定义场景的ar投影方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611203233.7A CN106648098B (zh) | 2016-12-23 | 2016-12-23 | 一种自定义场景的ar投影方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106648098A true CN106648098A (zh) | 2017-05-10 |
CN106648098B CN106648098B (zh) | 2021-01-08 |
Family
ID=58826603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611203233.7A Active CN106648098B (zh) | 2016-12-23 | 2016-12-23 | 一种自定义场景的ar投影方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106648098B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107229342A (zh) * | 2017-06-30 | 2017-10-03 | 宇龙计算机通信科技(深圳)有限公司 | 文件处理方法及用户设备 |
CN107463248A (zh) * | 2017-06-20 | 2017-12-12 | 昆明理工大学 | 一种基于动态捕捉与全息投影的远程交互方法 |
CN109300191A (zh) * | 2018-08-28 | 2019-02-01 | 百度在线网络技术(北京)有限公司 | Ar模型处理方法、装置、电子设备及可读存储介质 |
WO2020007182A1 (zh) * | 2018-07-03 | 2020-01-09 | 腾讯科技(深圳)有限公司 | 个性化场景图像的处理方法、装置及存储介质 |
CN111598996A (zh) * | 2020-05-08 | 2020-08-28 | 上海实迅网络科技有限公司 | 一种基于ar技术的物品3d模型展示方法和*** |
CN114419704A (zh) * | 2021-12-31 | 2022-04-29 | 北京瑞莱智慧科技有限公司 | 对抗样本动态生成方法、装置、电子设备及存储介质 |
CN114885140A (zh) * | 2022-05-25 | 2022-08-09 | 华中科技大学 | 一种多屏拼接沉浸式投影画面处理方法及*** |
CN116109806A (zh) * | 2023-04-10 | 2023-05-12 | 南京维赛客网络科技有限公司 | 一种虚拟会场的空间动态调整方法、***及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103760976A (zh) * | 2014-01-09 | 2014-04-30 | 华南理工大学 | 基于Kinect的手势识别智能家居控制方法及*** |
CN103871099A (zh) * | 2014-03-24 | 2014-06-18 | 惠州Tcl移动通信有限公司 | 一种基于移动终端进行3d模拟搭配处理方法及*** |
CN104881114A (zh) * | 2015-05-13 | 2015-09-02 | 深圳彼爱其视觉科技有限公司 | 一种基于3d眼镜试戴的角度转动实时匹配方法 |
CN105163191A (zh) * | 2015-10-13 | 2015-12-16 | 腾叙然 | 一种将虚拟现实设备运用在ktv卡拉ok的***和方法 |
CN105404392A (zh) * | 2015-11-03 | 2016-03-16 | 北京英梅吉科技有限公司 | 基于单目摄像头的虚拟穿戴方法及*** |
CN105976432A (zh) * | 2016-07-13 | 2016-09-28 | 顽石运动智能科技(北京)有限公司 | 一种足球虚拟*** |
CN106162203A (zh) * | 2016-07-05 | 2016-11-23 | 实野文化传媒(上海)有限公司 | 全景视频播放方法、播放器与头戴式虚拟现实设备 |
-
2016
- 2016-12-23 CN CN201611203233.7A patent/CN106648098B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103760976A (zh) * | 2014-01-09 | 2014-04-30 | 华南理工大学 | 基于Kinect的手势识别智能家居控制方法及*** |
CN103871099A (zh) * | 2014-03-24 | 2014-06-18 | 惠州Tcl移动通信有限公司 | 一种基于移动终端进行3d模拟搭配处理方法及*** |
CN104881114A (zh) * | 2015-05-13 | 2015-09-02 | 深圳彼爱其视觉科技有限公司 | 一种基于3d眼镜试戴的角度转动实时匹配方法 |
CN105163191A (zh) * | 2015-10-13 | 2015-12-16 | 腾叙然 | 一种将虚拟现实设备运用在ktv卡拉ok的***和方法 |
CN105404392A (zh) * | 2015-11-03 | 2016-03-16 | 北京英梅吉科技有限公司 | 基于单目摄像头的虚拟穿戴方法及*** |
CN106162203A (zh) * | 2016-07-05 | 2016-11-23 | 实野文化传媒(上海)有限公司 | 全景视频播放方法、播放器与头戴式虚拟现实设备 |
CN105976432A (zh) * | 2016-07-13 | 2016-09-28 | 顽石运动智能科技(北京)有限公司 | 一种足球虚拟*** |
Non-Patent Citations (3)
Title |
---|
凌云: "《智能信息检索》", 31 December 2006 * |
张毅: "《移动机器人技术基础与制作》", 31 January 2013 * |
赵静南: "《西部皮革》", 30 September 2016 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107463248A (zh) * | 2017-06-20 | 2017-12-12 | 昆明理工大学 | 一种基于动态捕捉与全息投影的远程交互方法 |
CN107229342A (zh) * | 2017-06-30 | 2017-10-03 | 宇龙计算机通信科技(深圳)有限公司 | 文件处理方法及用户设备 |
WO2020007182A1 (zh) * | 2018-07-03 | 2020-01-09 | 腾讯科技(深圳)有限公司 | 个性化场景图像的处理方法、装置及存储介质 |
US11880999B2 (en) | 2018-07-03 | 2024-01-23 | Tencent Technology (Shenzhen) Company Limited | Personalized scene image processing method, apparatus and storage medium |
CN109300191A (zh) * | 2018-08-28 | 2019-02-01 | 百度在线网络技术(北京)有限公司 | Ar模型处理方法、装置、电子设备及可读存储介质 |
CN111598996A (zh) * | 2020-05-08 | 2020-08-28 | 上海实迅网络科技有限公司 | 一种基于ar技术的物品3d模型展示方法和*** |
CN111598996B (zh) * | 2020-05-08 | 2024-02-09 | 上海实迅网络科技有限公司 | 一种基于ar技术的物品3d模型展示方法和*** |
CN114419704A (zh) * | 2021-12-31 | 2022-04-29 | 北京瑞莱智慧科技有限公司 | 对抗样本动态生成方法、装置、电子设备及存储介质 |
CN114885140A (zh) * | 2022-05-25 | 2022-08-09 | 华中科技大学 | 一种多屏拼接沉浸式投影画面处理方法及*** |
CN114885140B (zh) * | 2022-05-25 | 2023-05-26 | 华中科技大学 | 一种多屏拼接沉浸式投影画面处理方法及*** |
CN116109806A (zh) * | 2023-04-10 | 2023-05-12 | 南京维赛客网络科技有限公司 | 一种虚拟会场的空间动态调整方法、***及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106648098B (zh) | 2021-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106648098A (zh) | 一种自定义场景的ar投影方法及*** | |
US11688034B2 (en) | Virtual lens simulation for video and photo cropping | |
KR20200020960A (ko) | 이미지 처리 방법 및 장치, 및 저장 매체 | |
CN109584295A (zh) | 对图像内目标物体进行自动标注的方法、装置及*** | |
CN106355153A (zh) | 一种基于增强现实的虚拟对象显示方法、装置以及*** | |
US20210165481A1 (en) | Method and system of interactive storytelling with probability-based personalized views | |
US11044398B2 (en) | Panoramic light field capture, processing, and display | |
CN109035415B (zh) | 虚拟模型的处理方法、装置、设备和计算机可读存储介质 | |
CN113282168A (zh) | 头戴式显示设备的信息输入方法、装置及头戴式显示设备 | |
US20190208124A1 (en) | Methods and apparatus for overcapture storytelling | |
CN114327700A (zh) | 一种虚拟现实设备及截屏图片播放方法 | |
CN109656363A (zh) | 一种用于设置增强交互内容的方法与设备 | |
CN114514493A (zh) | 增强设备 | |
CN113066189B (zh) | 一种增强现实设备及虚实物体遮挡显示方法 | |
CA3119609A1 (en) | Augmented reality (ar) imprinting methods and systems | |
WO2021109764A1 (zh) | 图像或视频生成方法、装置、计算设备及计算机可读介质 | |
CN109582134A (zh) | 信息显示的方法、装置及显示设备 | |
CN109934168A (zh) | 人脸图像映射方法及装置 | |
CN113282167B (zh) | 头戴式显示设备的交互方法、装置及头戴式显示设备 | |
Zhu et al. | A shared augmented virtual environment for real‐time mixed reality applications | |
CN108305210B (zh) | 数据处理方法、装置及存储介质 | |
Hopf et al. | Novel autostereoscopic single-user displays with user interaction | |
KR102622709B1 (ko) | 2차원 영상에 기초하여 3차원 가상객체를 포함하는 360도 영상을 생성하는 방법 및 장치 | |
US20200106727A1 (en) | Information service system and method thereof | |
CN117789306A (zh) | 图像处理方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |