CN109348132A - 全景拍摄方法及装置 - Google Patents
全景拍摄方法及装置 Download PDFInfo
- Publication number
- CN109348132A CN109348132A CN201811389488.6A CN201811389488A CN109348132A CN 109348132 A CN109348132 A CN 109348132A CN 201811389488 A CN201811389488 A CN 201811389488A CN 109348132 A CN109348132 A CN 109348132A
- Authority
- CN
- China
- Prior art keywords
- model
- sdk
- sent
- image
- convex lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种全景拍摄方法及装置,涉及全景拍摄的技术领域,以服务器为执行主体,该方法包括接收并存储管理终端发送的管理资源,管理资源包括云场景库;接收凸镜SDK发送的目标图像和3D模型;根据3D模型在云场景库中确定匹配的虚拟场景,并将虚拟场景发送至凸镜SDK;将目标图像拼接为全景图像并发送至凸镜SDK,以使凸镜SDK根据3D模型和虚拟场景对全景图像进行渲染后输出3D AR全景图像;本发明可以提高图片虚实结合、虚实同步效果,增强用户体验感受。
Description
技术领域
本发明涉及全景拍摄技术领域,尤其是涉及一种全景拍摄方法及装置。
背景技术
现有AR技术依靠计算机技术构建出文字、图片、视频、音频、网站链接、三维模型、三维动画、全景信息等信息,但是在识别出现内容后,手机摄像头处于关闭状态,体现不了虚拟物体跟物理世界相结合的主要特性,也无法实现虚拟成像和物理世界的实时同步,并且满足不了用户在物理世界中真实地感受虚拟空间中模拟的事物。同时,在拍照功能上,只能定向式观看模式,拍哪看哪、播哪看哪,观看并不自由,而且不能放大,在移动互联网时代,只采用传统的展示手段已经不能满足现代营销的差异化需求。
发明内容
有鉴于此,本发明的目的在于提供全景拍摄方法及装置,可以对图片虚实结合、虚实同步处理,提高用户体验效果。
第一方面,本发明实施例提供了一种全景拍摄方法,其中,包括:
接收并存储管理终端发送的管理资源,所述管理资源包括云场景库;
接收凸镜SDK发送的目标图像和3D模型;
根据所述3D模型在所述云场景库中确定匹配的虚拟场景,并将所述虚拟场景发送至所述凸镜SDK;
将所述目标图像拼接为全景图像并发送至所述凸镜SDK,以使所述凸镜SDK根据所述3D模型和所述虚拟场景对所述全景图像进行渲染后输出3D AR全景图像。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述目标图像包括第一帧图像,所述管理资源包括云标识图库,所述方法包括:
接收所述凸镜SDK发送的所述第一帧图像,根据所述第一帧图像在所述云标识图库中检索匹配的标识图像;
根据所述识别图像确定关联的3D模型,将所述3D模型发送至所述凸镜SDK。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,根据所述第一帧图像在所述标识图库中识别匹配的标识图像的步骤,包括:
对所述第一帧图像中目标物体的2D坐标和3D姿态进行识别,确定所述目标物体的位置和类别;
根据所述位置和类别在所述标识图库中检索匹配的所述标识图像。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,所述管理资源还包括地图库,所述方法还包括:
对所述目标图像中目标物体所处的环境解析,得到地理信息;
根据所述地理信息在所述地图库中查找匹配的3D地图,并将所述3D地图发送给所述凸镜SDK。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,其中,所述目标图像为面部图像,所述方法还包括:
接收所述凸镜SDK发送的所述面部图像;
对所述面部图像进行识别,确定面部轮廓和五官位置;
根据所述面部轮廓和五官位置在所述云场景库中确定匹配的美颜素材;
将加载有美颜素材的面部图像发送至所述凸镜SDK。
第二方面,本发明实施例提供了本发明实施例提供了一种全景拍摄方法,其中,所述方法包括:采集目标图像;
将所述目标图像发送至服务器,以使所述服务器将所述目标图像拼接为全景图像;
根据所述目标图像在本地标识图库中识别关联的3D模型;
将所述3D模型发送至服务器,以使所述服务器根据所述3D模型确定关联的虚拟场景;
接收所述服务发送的所述全景图像和所述虚拟场景,并根据所述3D模型和所述虚拟场景对所述全景图像进行渲染,输出3D AR全景图像。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,所述采集目标图像的步骤,包括:
设置拍摄条件,并按照所述拍摄条件采集所述目标图像;
其中,所述拍摄条件为:根据不同的拍摄角度划分多个拍摄组,并设置每个拍摄组的照片拍摄数量。
结合第二方面,本发明实施例提供了第二方面的第二种可能的实施方式,其中,所述目标图像包括第一帧图像,所述方法包括:
将所述第一帧图像发送至服务器,以使所述服务器根据所述第一帧图像识别出所述3D模型。
第三方面,本发明实施例还提供一种全景拍摄装置,所述装置设置于服务器,所述装置包括:
资源存储模块,用于接收并存储管理终端发送的管理资源,所述管理资源包括云场景库;
接收模块,用于接收凸镜SDK发送的目标图像和3D模型;
场景识别模块,用于根据所述3D模型在所述云场景库中识别匹配的虚拟场景,并将所述虚拟场景发送至所述凸镜SDK;
发送模块,用于将所述目标图像拼接为全景图像并发送至所述凸镜SDK,以使所述凸镜SDK根据所述3D模型和所述虚拟场景对所述全景图像进行渲染后输出3D AR全景图像。
第四方面,本发明实施例提供了一种全景拍摄装置,其中,所述装置设置于凸镜SDK,所述装置包括:
图像采集模块,用于采集目标图像;
图像发送模块,用于将所述目标图像发送至服务器,以使所述服务器将所述目标图像拼接为全景图像;
模型识别模块,用于根据所述目标图像在本地标识图库中识别关联的3D模型;
模型发送模块,用于将所述3D模型发送至服务器,以使所述服务器根据所述3D模型确定关联的虚拟场景;
渲染模块,用于接收所述服务发送的所述全景图像,并根据所述3D模型和所述虚拟场景对所述全景图像进行渲染,输出3D AR全景图像。
本发明实施例带来了以下有益效果:
本发明提供了一种全景拍摄方法及装置,以服务器为执行主体,该方法包括接收并存储管理终端发送的管理资源,管理资源包括云场景库;接收凸镜SDK发送的目标图像和3D模型;根据3D模型在云场景库中确定匹配的虚拟场景,并将虚拟场景发送至凸镜SDK;将目标图像拼接为全景图像并发送至凸镜SDK,以使凸镜SDK根据3D模型和虚拟场景对全景图像进行渲染后输出3D AR全景图像。本发明可以提高图片虚实结合、虚实同步效果,增强用户体验感受。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的全景拍摄应用于服务器的方法流程图;
图2为本发明实施例提供的全景拍摄应用于凸镜SDK的方法流程图;
图3为本发明实施例提供的全景拍摄装置设置于服务器的示意图;
图4为本发明实施例提供的全景拍摄装置设置于凸镜SDK的示意图。
图标:
101-资源存储模块;102-接收模块;103-场景识别模块;104-发送模块;201-图像采集模块;202-图像发送模块;203-模型识别模块;204-模型发送模块;205-渲染模块。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,现有AR技术依靠计算机技术构建出文字、图片、视频、音频、网站链接、三维模型、三维动画、全景信息等信息,但是在识别出现内容后,手机摄像头处于关闭状态,体现不了虚拟物体跟物理世界相结合的主要特性,也无法实现虚拟成像和物理世界的实时同步,并且满足不了用户在物理世界中真实地感受虚拟空间中模拟的事物。同时,在拍照功能上,只能定向式观看模式,拍哪看哪、播哪看哪,观看并不自由,而且不能放大,在移动互联网时代,只采用传统的展示手段已经不能满足现代营销的差异化需求。
基于此,本发明实施例提供的一种全景拍摄方法及装置,可以提高图片虚实结合、虚实同步效果,增强用户体验感受。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种全景拍摄方法进行详细介绍,
实施例一:
图1为本发明实施例一提供的全景拍摄方法。
本发明实施例提供的全景拍摄方法是基于服务器和凸镜SDK所实现的。其中,凸镜SDK可以设置于设备终端的内部,比如手机、电脑、照相机等等,支持多种操作***,比如安卓操作***、iOS操作***、Windows操作***等,同时支持Unity3d开发和Native开发。
参照图1,以服务器为执行主体,全景拍摄方法主要包括如下内容:
步骤S101,接收并存储管理终端发送的管理资源,管理资源包括云场景库。
具体的,云服务端接收并存储管理终端发送的管理资源,管理资源为开发者设定的管理资源,用于账户管理、数据库管理、图片管理、模型管理、识别管理、在线渲染管理,包括云场景库、云标识图库、地图库等等,其中,云场景库是通过SLAM(simultaneouslocalization and mapping,即时定位与地图构建)技术对现实场景进行扫描,并依据扫描结果所构建的虚拟场景的集合,并保存在云服务端。
步骤S102,接收凸镜SDK(Software Development Kit,软件开发工具包)发送的目标图像和3D(3Dimensions,三维)模型。
具体的,云服务端接收用户通过凸镜SDK开发的应用软件发送的目标图像和3D模型,其中,目标图像是通过摄像头获取的。
步骤S103,根据3D模型在云场景库中确定匹配的虚拟场景,并将虚拟场景发送至凸镜SDK。
具体的,匹配的虚拟场景来自于开发者预先设定好的数据库,并保存在云服务端。
步骤S104,将目标图像拼接为全景图像并发送至凸镜SDK,以使凸镜SDK根据3D模型和虚拟场景对全景图像进行渲染后输出3D AR(Augmented Reality,增强现实技术)全景图像。
具体的,目标图像在具体实现中是一组图像的集合。服务器将目标图像合成为全景图像,并将全景图像发送至凸镜SDK。凸镜SDK根据3D模型和虚拟场景对全景图像进行渲染输出3D AR全景图像;对3D AR全景图像进行旋转、点击、放大缩小、切换等操作,可查看上下左右共720度全视角观看效果的VR全景街道,并通过VR全景街道进入VR全景店铺。凸镜SDK所输出的3D AR全景图像具有"全视角、真实景、高清晰、可互动"的特点,没有任何视角盲点,犹如人置身情景之中,具有较高的立体真实感。
进一步的,当凸镜SDK发送的目标图像是首次输入至服务器中的图像时,全景拍摄方法的实现还需要通过服务器对该目标图像进行首次识别,并确定对应的3D模型,具体过程包括步骤1和步骤2:
步骤1,接收凸镜SDK发送的第一帧图像,根据第一帧图像在云标识图库中检索匹配的识别图像;这里,第一帧图像属于目标图像,云标识图库包括于管理资源的内部。
具体的,服务器对第一帧图像中目标物体的2D坐标和3D姿态进行识别,确定目标物体的位置和类别;根据位置和类别在标识图库中检索匹配的标识图像。
步骤2,根据识别图像确定关联的3D模型,将3D模型发送至凸镜SDK。通过凸镜SDK,利用图像追踪功能可以从不同角度来查看目标图像所关联的3D模型。
进一步的,管理资源还包括地图库,包括,对目标图像中目标物体所处的环境解析,得到地理信息;根据地理信息在地图库中查找匹配的3D地图,并将3D地图发送给凸镜SDK。
具体的,地图库是通过感知环境地理信息,实时构建环境的3D地图嗯对集合。所确定的匹配的3D地图能够令用户感受更直观、准确,提高用户体现。
进一步的,目标图像为面部图像,包括:接收凸镜SDK发送的面部图像;对面部图像进行识别,确定面部轮廓和五官位置;根据面部轮廓和五官位置在云场景库中确定匹配的美颜素材;将加载有美颜素材的面部图像发送至凸镜SDK。
另外,还可以对面部图像基于五官位置、表情特征与动作变化叠加二维或三维的美妆道具和动态效果。以及,对面部图像进行人脸区域、3D运动和3D姿态的检测和跟踪,实现人脸五官轮廓位置精细定位和人脸动作表情的识别。
实施例二:
图2为本发明实施例二提供的全景拍摄应用于凸镜SDK的方法。
以凸镜SDK为执行主体,参照图2,全景拍摄方法主要包括如下内容:
步骤S201,采集目标图像;
具体的,采集的目标图像可以是按照预设的拍摄条件所采集的一组图像,一组图像为至少两张图像。
步骤S202,将目标图像发送至服务器,以使服务器将目标图像拼接为全景图像;
步骤S203,根据目标图像在本地标识图库中识别关联的3D模型;
具体的,本地标识图库中识别关联的3D模型是服务器端将匹配图片及关联3D模型保存在本地图片库中的,可以是本地端不需要连接服务器端直接匹配相关联资源。
步骤S204,将3D模型发送至服务器,以使服务器根据3D模型确定关联的虚拟场景;
步骤S205,接收服务发送的全景图像和虚拟场景,并根据3D模型和虚拟场景对所述全景图像进行渲染,输出3D AR全景图像。
进一步的,采集目标图像的步骤,包括:设置拍摄条件,并按照拍摄条件采集目标图像;其中,拍摄条件为:根据不同的拍摄角度划分多个拍摄组,并设置每个拍摄组的照片拍摄数量。
具体的,合成一张VR(Virtual Reality,虚拟现实技术)全景图片,需要拍摄48张照片,根据不同仰角分成4组,然后通过合成功能键,合成720度VR全景图像。
进一步的,目标图像包括第一帧图像,该方法还包括:将第一帧图像发送至服务器,以使服务器根据第一帧图像识别出3D模型。
实施例三:
图3为本发明实施例三提供的全景拍摄装置设置于服务器的示意图。
本实施例还提供了一种全景拍摄装置,用于实现上述实施例所提供的一种景拍摄方法。参照图3,全景拍摄装置设置于服务器,包括如下模块:
资源存储模块101,用于接收并存储管理终端发送的管理资源,管理资源包括云场景库;
接收模块102,用于接收凸镜SDK发送的目标图像和3D模型;
场景识别模块103,用于根据3D模型在云场景库中识别匹配的虚拟场景,并将虚拟场景发送至凸镜SDK;
发送模块104,用于将目标图像拼接为全景图像并发送至所述凸镜SDK,以使凸镜SDK根据3D模型和虚拟场景对全景图像进行渲染后输出3D AR全景图像。
进一步的,参照图4,全景拍摄装置设置于凸镜SDK的示意图,包括如下模块:
图像采集模块201,用于采集目标图像;
图像发送模块202,用于将目标图像发送至服务器,以使服务器将目标图像拼接为全景图像;
模型识别模块203,用于根据目标图像在本地标识图库中识别关联的3D模型;
模型发送模块204,用于将3D模型发送至服务器,以使服务器根据3D模型确定关联的虚拟场景;
渲染模块205,用于接收服务发送的全景图像,并根据3D模型和虚拟场景对全景图像进行渲染,输出3D AR全景图像。
本发明实施例所提供的***,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,***实施例部分未提及之处,可参考前述方法实施例中相应内容。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
本发明实施例带来了以下有益效果:
本发明提供的全景拍摄方法及装置,以服务器为执行主体,该方法包括接收并存储管理终端发送的管理资源,管理资源包括云场景库;接收凸镜SDK发送的目标图像和3D模型;根据3D模型在云场景库中确定匹配的虚拟场景,并将虚拟场景发送至凸镜SDK;将目标图像拼接为全景图像并发送至凸镜SDK,以使凸镜SDK根据3D模型和虚拟场景对全景图像进行渲染后输出3D AR全景图像。本发明可以提高图片虚实结合、虚实同步效果,增强用户体验感受。
附图中的流程图和框图显示了根据本发明的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
在本发明的描述中,需要说明的是,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
本发明实施例所提供的全景拍摄方法的计算机程序产品,包括存储了处理器可执行的非易失的程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种全景拍摄方法,应用于服务器,其特征在于,所述方法包括:
接收并存储管理终端发送的管理资源,所述管理资源包括云场景库;
接收凸镜SDK发送的目标图像和3D模型;
根据所述3D模型在所述云场景库中确定匹配的虚拟场景,并将所述虚拟场景发送至所述凸镜SDK;
将所述目标图像拼接为全景图像并发送至所述凸镜SDK,以使所述凸镜SDK根据所述3D模型和所述虚拟场景对所述全景图像进行渲染后输出3D AR全景图像。
2.根据权利要求1所述的方法,其特征在于,所述目标图像包括第一帧图像,所述管理资源包括云标识图库,所述方法包括:
接收所述凸镜SDK发送的所述第一帧图像,根据所述第一帧图像在所述云标识图库中检索匹配的标识图像;
根据所述识别图像确定关联的3D模型,将所述3D模型发送至所述凸镜SDK。
3.根据权利要求2所述的方法,其特征在于,根据所述第一帧图像在所述标识图库中识别匹配的标识图像的步骤,包括:
对所述第一帧图像中目标物体的2D坐标和3D姿态进行识别,确定所述目标物体的位置和类别;
根据所述位置和类别在所述标识图库中检索匹配的所述标识图像。
4.根据权利要求1所述的方法,其特征在于,所述管理资源还包括地图库,所述方法还包括:
对所述目标图像中目标物体所处的环境解析,得到地理信息;
根据所述地理信息在所述地图库中查找匹配的3D地图,并将所述3D地图发送给所述凸镜SDK。
5.根据权利要求1所述的方法,其特征在于,所述目标图像为面部图像,所述方法还包括:
接收所述凸镜SDK发送的所述面部图像;
对所述面部图像进行识别,确定面部轮廓和五官位置;
根据所述面部轮廓和五官位置在所述云场景库中确定匹配的美颜素材;
将加载有美颜素材的面部图像发送至所述凸镜SDK。
6.一种全景拍摄方法,应用于凸镜SDK,其特征在于,所述方法包括:
采集目标图像;
将所述目标图像发送至服务器,以使所述服务器将所述目标图像拼接为全景图像;
根据所述目标图像在本地标识图库中识别关联的3D模型;
将所述3D模型发送至服务器,以使所述服务器根据所述3D模型确定关联的虚拟场景;
接收所述服务发送的所述全景图像和所述虚拟场景,并根据所述3D模型和所述虚拟场景对所述全景图像进行渲染,输出3D AR全景图像。
7.根据权利要求6所述的方法,其特征在于,所述采集目标图像的步骤,包括:
设置拍摄条件,并按照所述拍摄条件采集所述目标图像;
其中,所述拍摄条件为:根据不同的拍摄角度划分多个拍摄组,并设置每个拍摄组的照片拍摄数量。
8.根据权利要求6所述的方法,其特征在于,所述目标图像包括第一帧图像,所述方法包括:
将所述第一帧图像发送至服务器,以使所述服务器根据所述第一帧图像识别出所述3D模型。
9.一种全景拍摄装置,其特征在于,所述装置设置于服务器,所述装置包括:
资源存储模块,用于接收并存储管理终端发送的管理资源,所述管理资源包括云场景库;
接收模块,用于接收凸镜SDK发送的目标图像和3D模型;
场景识别模块,用于根据所述3D模型在所述云场景库中识别匹配的虚拟场景,并将所述虚拟场景发送至所述凸镜SDK;
发送模块,用于将所述目标图像拼接为全景图像并发送至所述凸镜SDK,以使所述凸镜SDK根据所述3D模型和所述虚拟场景对所述全景图像进行渲染后输出3D AR全景图像。
10.一种全景拍摄装置,其特征在于,所述装置设置于凸镜SDK,所述装置包括:
图像采集模块,用于采集目标图像;
图像发送模块,用于将所述目标图像发送至服务器,以使所述服务器将所述目标图像拼接为全景图像;
模型识别模块,用于根据所述目标图像在本地标识图库中识别关联的3D模型;
模型发送模块,用于将所述3D模型发送至服务器,以使所述服务器根据所述3D模型确定关联的虚拟场景;
渲染模块,用于接收所述服务发送的所述全景图像,并根据所述3D模型和所述虚拟场景对所述全景图像进行渲染,输出3D AR全景图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811389488.6A CN109348132B (zh) | 2018-11-20 | 2018-11-20 | 全景拍摄方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811389488.6A CN109348132B (zh) | 2018-11-20 | 2018-11-20 | 全景拍摄方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109348132A true CN109348132A (zh) | 2019-02-15 |
CN109348132B CN109348132B (zh) | 2021-01-29 |
Family
ID=65316611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811389488.6A Expired - Fee Related CN109348132B (zh) | 2018-11-20 | 2018-11-20 | 全景拍摄方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109348132B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923602A (zh) * | 2010-06-07 | 2010-12-22 | 上海那里网络科技有限公司 | 区分并标记虚拟场景中不同地型的方法和装置 |
CN103456043A (zh) * | 2012-05-29 | 2013-12-18 | 深圳市腾讯计算机***有限公司 | 一种基于全景图的视点间漫游方法和装置 |
CN104134229A (zh) * | 2014-08-08 | 2014-11-05 | 李成 | 实时交互的增强现实***以及方法 |
CN104715479A (zh) * | 2015-03-06 | 2015-06-17 | 上海交通大学 | 基于增强虚拟的场景复现检测方法 |
CN105630175A (zh) * | 2016-02-16 | 2016-06-01 | 广东小天才科技有限公司 | 一种虚拟现实设备及虚拟现实图像生成方法 |
CN105678683A (zh) * | 2016-01-29 | 2016-06-15 | 杭州电子科技大学 | 一种三维模型的二维存储方法 |
CN106022873A (zh) * | 2016-05-17 | 2016-10-12 | 暨南大学 | 一种基于增强现实的自助点餐*** |
CN106127554A (zh) * | 2016-06-24 | 2016-11-16 | 张睿卿 | 基于虚拟现实、增强现实相结合的商业*** |
CN106157359A (zh) * | 2015-04-23 | 2016-11-23 | 中国科学院宁波材料技术与工程研究所 | 一种虚拟场景体验***的设计方法 |
CN106708267A (zh) * | 2016-12-26 | 2017-05-24 | 上海今尚数码科技有限公司 | 一种通过增强现实技术切入全景展示的方法 |
KR20170112406A (ko) * | 2016-03-31 | 2017-10-12 | 한국전자통신연구원 | 증강 현실 아바타 사진 촬영 장치 및 방법 |
CN107610217A (zh) * | 2017-08-22 | 2018-01-19 | 中广核工程有限公司 | 一种核电设备虚拟识别展示***和方法 |
CN108121957A (zh) * | 2017-12-19 | 2018-06-05 | 北京麒麟合盛网络技术有限公司 | 美颜素材的推送方法及装置 |
CN108564647A (zh) * | 2018-03-30 | 2018-09-21 | 王乐陶 | 一种建立虚拟三维地图的方法 |
-
2018
- 2018-11-20 CN CN201811389488.6A patent/CN109348132B/zh not_active Expired - Fee Related
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923602A (zh) * | 2010-06-07 | 2010-12-22 | 上海那里网络科技有限公司 | 区分并标记虚拟场景中不同地型的方法和装置 |
CN103456043A (zh) * | 2012-05-29 | 2013-12-18 | 深圳市腾讯计算机***有限公司 | 一种基于全景图的视点间漫游方法和装置 |
CN104134229A (zh) * | 2014-08-08 | 2014-11-05 | 李成 | 实时交互的增强现实***以及方法 |
CN104715479A (zh) * | 2015-03-06 | 2015-06-17 | 上海交通大学 | 基于增强虚拟的场景复现检测方法 |
CN106157359A (zh) * | 2015-04-23 | 2016-11-23 | 中国科学院宁波材料技术与工程研究所 | 一种虚拟场景体验***的设计方法 |
CN105678683A (zh) * | 2016-01-29 | 2016-06-15 | 杭州电子科技大学 | 一种三维模型的二维存储方法 |
CN105630175A (zh) * | 2016-02-16 | 2016-06-01 | 广东小天才科技有限公司 | 一种虚拟现实设备及虚拟现实图像生成方法 |
KR20170112406A (ko) * | 2016-03-31 | 2017-10-12 | 한국전자통신연구원 | 증강 현실 아바타 사진 촬영 장치 및 방법 |
CN106022873A (zh) * | 2016-05-17 | 2016-10-12 | 暨南大学 | 一种基于增强现实的自助点餐*** |
CN106127554A (zh) * | 2016-06-24 | 2016-11-16 | 张睿卿 | 基于虚拟现实、增强现实相结合的商业*** |
CN106708267A (zh) * | 2016-12-26 | 2017-05-24 | 上海今尚数码科技有限公司 | 一种通过增强现实技术切入全景展示的方法 |
CN107610217A (zh) * | 2017-08-22 | 2018-01-19 | 中广核工程有限公司 | 一种核电设备虚拟识别展示***和方法 |
CN108121957A (zh) * | 2017-12-19 | 2018-06-05 | 北京麒麟合盛网络技术有限公司 | 美颜素材的推送方法及装置 |
CN108564647A (zh) * | 2018-03-30 | 2018-09-21 | 王乐陶 | 一种建立虚拟三维地图的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109348132B (zh) | 2021-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11488355B2 (en) | Virtual world generation engine | |
CN108140263B (zh) | 应用于图像或视频的ar显示***及方法 | |
CN108830894A (zh) | 基于增强现实的远程指导方法、装置、终端和存储介质 | |
CN111311756B (zh) | 增强现实ar显示方法及相关装置 | |
CN105323252A (zh) | 基于增强现实技术实现互动的方法、***和终端 | |
CN107798932A (zh) | 一种基于ar技术的早教训练*** | |
CN105635712A (zh) | 基于增强现实的视频实时录制方法及录制设备 | |
KR20140082610A (ko) | 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치 | |
CN110275968A (zh) | 图像数据处理方法和装置 | |
CN112037314A (zh) | 图像显示方法、装置、显示设备及计算机可读存储介质 | |
CN105869216A (zh) | 目标对象展示方法和装置 | |
US20150187139A1 (en) | Apparatus and method of providing augmented reality | |
CN105023266A (zh) | 增强现实实现方法、装置和终端设备 | |
CN109743584B (zh) | 全景视频合成方法、服务器、终端设备及存储介质 | |
CN113840049A (zh) | 图像处理方法、视频流场景切换方法、装置、设备及介质 | |
CN102810109B (zh) | 增强现实视图的存储方法和装置 | |
CN104798128A (zh) | 注解方法和装置 | |
CN104969264A (zh) | 用于将注解添加到全光光场的方法和设备 | |
CN108961375A (zh) | 一种根据二维图像生成三维图像的方法及装置 | |
CN112230765A (zh) | Ar显示方法、ar显示设备和计算机可读存储介质 | |
CN106530408A (zh) | 博物馆临时展览规划设计的*** | |
CN112511815B (zh) | 图像或视频生成方法及装置 | |
KR102176805B1 (ko) | 뷰 방향이 표시되는 vr 컨텐츠 제공 시스템 및 방법 | |
CN112017304A (zh) | 用于呈现增强现实数据的方法、装置、电子设备及介质 | |
CN109348132A (zh) | 全景拍摄方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210129 Termination date: 20211120 |