CN109064555A - 3d建模的方法、装置和存储介质 - Google Patents
3d建模的方法、装置和存储介质 Download PDFInfo
- Publication number
- CN109064555A CN109064555A CN201810887676.5A CN201810887676A CN109064555A CN 109064555 A CN109064555 A CN 109064555A CN 201810887676 A CN201810887676 A CN 201810887676A CN 109064555 A CN109064555 A CN 109064555A
- Authority
- CN
- China
- Prior art keywords
- scene space
- shooting
- unmanned plane
- style
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种3D建模的方法、装置和存储介质,该方法包括:获取无人机拍摄的场景空间的俯视图;根据俯视图,确定场景空间的拍摄方式;指示无人机按照拍摄方式拍摄场景空间;接收无人机发送的无人机按照拍摄方式拍摄的场景空间的图像,以及,无人机获取的场景空间的深度信息;根据场景空间的图像,以及,场景空间的深度信息,建立场景空间的3D模型。本发明通过无人机获取的场景空间的俯视图,确定无人机拍摄场景空间的拍摄方式,使得能够快速、有效获取场景空间的图像;且在此基础上建立的场景空间的3D模型,具有更高的准确性。
Description
技术领域
本发明涉及3D建模技术领域,尤其涉及一种3D建模的方法、装置和存储介质。
背景技术
随着互联网技术的发展,3D建模技术被应用到越来越多的领域。3D建模技术是将真实的物体、场景等用3D模型的方式进行展现的技术,如售楼部可以将小区的环境、房屋内的构造等用3D模型方式向用户进行展示,用户可以身临其境地体验到该小区以及房屋的环境。
现有的相关技术中,在建立场景空间的3D模型时,需要人为的采集场景空间中的图像,进而根据采集的图像识别场景中的物体的信息,基于所识别的物体信息,建立场景空间的3D模型。
但这种方法需要人为的采集场景空间的图像,一方面采集效率低;另一方面存在场景空间图像采集不完整,使得建立的场景空间的3D模型不准确。
发明内容
本发明提供一种3D建模的方法、装置和存储介质,能够快速、有效获取场景空间的图像;且建立的场景空间的3D模型具有更高的准确性。
本发明的第一方面提供一种3D建模的方法,包括:
获取无人机拍摄的场景空间的俯视图;
根据所述俯视图,确定所述场景空间的拍摄方式;
指示所述无人机按照所述拍摄方式拍摄所述场景空间;
接收所述无人机发送的所述无人机按照所述拍摄方式拍摄的所述场景空间的图像,以及,所述无人机获取的所述场景空间的深度信息;
根据所述场景空间的图像,以及,所述场景空间的深度信息,建立所述场景空间的3D模型。
可选的,所述拍摄方式包括拍摄角度;
所述根据所述俯视图,确定所述场景空间的拍摄方式,包括:
根据所述俯视图,获取所述场景空间中的多个物体的位置;
根据多个所述物体的位置,确定所述场景空间的拍摄角度。
可选的,所述拍摄方式还包括拍摄路线;
所述根据所述俯视图,确定所述场景空间的拍摄方式,包括:
将所述俯视图划分多个图块,获取每个所述图块中的物体密度;
根据所述每个所述图块中的物体密度,确定所述场景空间的拍摄路线。
可选的,所述根据所述俯视图,确定所述场景空间的拍摄方式之后,还包括:
判断所述俯视面积是否大于预设的面积阈值;
所述指示所述无人机按照所述拍摄方式拍摄所述场景空间,包括:
若所述俯视面积大于所述预设的面积阈值,指示所述无人机按照所述拍摄角度和所述拍摄路线拍摄所述场景空间;
若所述俯视面积小于或等于所述预设的面积阈值,指示所述无人机按照所述拍摄角度拍摄所述场景空间。
可选的,所述无人机按照所述拍摄方式拍摄的所述场景空间的图像为所述场景空间的视频影像;
所述根据所述无人机按照所述拍摄方式拍摄的所述场景空间的图像,以及,所述无人机获取的所述场景空间的深度信息,建立所述场景空间的3D模型之前,还包括:
获取所述无人机按照所述拍摄方式拍摄的所述场景空间的视频影像;
提取所述视频影像中的每一帧的图像,并将多帧所述图像确定为所述场景空间的图像。
可选的,所述场景空间的深度信息包括所述场景空间中多个物体的深度值,每个所述物体的深度值为所述无人机至每个所述物体上的多个位置的距离;
所述根据所述无人机按照所述拍摄方式拍摄的所述场景空间的图像,以及,所述无人机获取的所述场景空间的深度信息,建立所述场景空间的3D模型,包括:
根据所述场景空间的图像,获取所述场景空间中每个所述物体的物理参数,每个所述物体的物理参数用于表示每个所述物体的几何信息;
根据所述场景空间中每个所述物体的物理参数,以及,所述场景空间中每个所述物体的深度值,建立所述场景空间的3D模型。
可选的,每个所述物体的物理参数包括每个所述物体的形状参数、大小参数和纹理参数。
可选的,所述根据所述场景空间中每个所述物体的物理参数,以及,所述场景空间中每个所述物体的深度值,建立所述场景空间的3D模型,包括:根据所述场景空间中每个所述物体的形状参数、大小参数和纹理参数,以及,所述场景空间中每个所述物体的深度值,建立所述场景空间的3D模型。
可选的,所述根据所述场景空间中每个所述物体的形状参数、大小参数和纹理参数,以及,所述场景空间中每个所述物体的深度值,建立所述场景空间的3D模型,包括:
根据每个所述物体的深度值、每个所述物体的形状参数、大小参数,按照比例建立所述场景空间中每个所述物体的第一3D模型;
采用每个所述物体的纹理参数对每个所述物体的第一3D模型进行渲染,获取每个所述物体的第二3D模型;
根据每个所述物体的第二3D模型和所述场景空间的俯视图,建立所述场景空间的3D模型。
可选的,所述拍摄角度包括拍摄高度、拍摄方向和拍摄距离。
本发明的第二方面提供一种3D建模的装置,包括:
俯视图获取模块,用于获取无人机拍摄的场景空间的俯视图;
拍摄方式确定模块,用于根据所述俯视图,确定所述场景空间的拍摄方式;
指示模块,用于指示所述无人机按照所述拍摄方式拍摄所述场景空间;
接收模块,用于接收所述无人机发送的所述无人机按照所述拍摄方式拍摄的所述场景空间的图像,以及,所述无人机获取的所述场景空间的深度信息;
3D模型建立模块,用于根据所述场景空间的图像,以及,所述场景空间的深度信息,建立所述场景空间的3D模型。
可选的,所述拍摄方式包括拍摄角度;
所述拍摄方式确定模块,具体用于根据所述俯视图,获取所述场景空间中的多个物体的位置;根据多个所述物体的位置,确定所述场景空间的拍摄角度。
可选的,所述拍摄方式还包括拍摄路线;
所述拍摄方式确定模块,具体还用于将所述俯视图划分多个图块,获取每个所述图块中的物体密度;根据所述每个所述图块中的物体密度,确定所述场景空间的拍摄路线。
可选的,所述装置还包括:判断模块;
所述判断模块,用于判断所述俯视面积是否大于预设的面积阈值;
所述指示模块,具体用于若所述俯视面积大于所述预设的面积阈值,指示所述无人机按照所述拍摄角度和所述拍摄路线拍摄所述场景空间;若所述俯视面积小于或等于所述预设的面积阈值,指示所述无人机按照所述拍摄角度拍摄所述场景空间。
可选的,所述无人机按照所述拍摄方式拍摄的所述场景空间的图像为所述场景空间的视频影像;
所述装置还包括:图像确定模块;
所述图像确定模块,用于获取所述无人机按照所述拍摄方式拍摄的所述场景空间的视频影像;提取所述视频影像中的每一帧的图像,并将多帧所述图像确定为所述场景空间的图像。
可选的,所述场景空间的深度信息包括所述场景空间中多个物体的深度值,每个所述物体的深度值为所述无人机至每个所述物体上的多个位置的距离;
所述3D模型建立模块,具体用于根据所述场景空间的图像,获取所述场景空间中每个所述物体的物理参数,每个所述物体的物理参数用于表示每个所述物体的几何信息;根据所述场景空间中每个所述物体的物理参数,以及,所述场景空间中每个所述物体的深度值,建立所述场景空间的3D模型。
可选的,每个所述物体的物理参数包括每个所述物体的形状参数、大小参数和纹理参数。
可选的,所述3D模型建立模块,具体还用于根据每个所述物体的深度值、每个所述物体的形状参数、大小参数,按照比例建立所述场景空间中每个所述物体的第一3D模型;采用每个所述物体的纹理参数对每个所述物体的第一3D模型进行渲染,获取每个所述物体的第二3D模型;根据每个所述物体的第二3D模型和所述场景空间的俯视图,建立所述场景空间的3D模型。
可选的,所述拍摄角度包括拍摄高度、拍摄方向和拍摄距离。
本发明的第三方面提供一种3D建模的装置,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述3D建模的装置执行上述3D建模的方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机执行指令,当所述计算机执行指令被处理器执行时,实现上述3D建模的方法。
本发明提供一种3D建模的方法、装置和存储介质,该方法包括:获取无人机拍摄的场景空间的俯视图;根据俯视图,确定场景空间的拍摄方式;指示无人机按照拍摄方式拍摄场景空间;接收无人机发送的无人机按照拍摄方式拍摄的场景空间的图像,以及,无人机获取的场景空间的深度信息;根据场景空间的图像,以及,场景空间的深度信息,建立场景空间的3D模型。本发明通过无人机获取的场景空间的俯视图,确定无人机拍摄场景空间的拍摄方式,使得能够快速、有效获取场景空间的图像;且在此基础上建立的场景空间的3D模型,具有更高的准确性。
附图说明
图1为本发明提供的3D建模的方法适用的***架构示意图;
图2为本发明提供的3D建模的方法的流程示意图一;
图3为本发明提供的3D建模的方法的流程示意图二;
图4A为本发明提供的3D建模的方法中的场景空间的俯视图的示例图;
图4B为本发明提供的3D建模的方法中的场景空间的3D模型的示例图;
图5为本发明提供的3D建模的方法的流程示意图三;
图6为本发明提供的3D建模的装置的结构示意图一;
图7为本发明提供的3D建模的装置的结构示意图二;
图8为本发明提供的3D建模的装置的结构示意图三。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明的实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的3D建模的方法适用于3D建模的***。图1为本发明提供的3D建模的方法适用的***架构示意图,如图1所示,该3D建模的***包括:执行本发明提供的3D建模的方法的执行主体3D建模的装置、无人机。其中,无人机可以但不限于是固定翼无人机、旋翼无人机、无人飞艇、伞翼无人机、扑翼无人机,具体的,本发明中的无人机具有拍摄和存储功能,用于获取和存储场景空间的图像,且可以将拍摄的场景空间的图像发送至3D建模的装置,以使3D建模的装置执行本发明提供的3D建模的方法。进一步的,本发明提供的无人机还具有雷达探测功能,用于探测场景空间,获取场景空间的深度信息。
本发明提供的3D建模的装置不限于为手机、个人数字助理(Personal DigitalAssistant,简称:PDA)、平板电脑、便携设备(例如,便携式计算机、袖珍式计算机或手持式计算机)等移动设备;也可以是台式计算机、服务器等固定设备。
图2为本发明提供的3D建模的方法的流程示意图一,图2所示方法流程的执行主体可以为3D建模的装置,该3D建模的监测装置可由任意的软件和/或硬件实现。如图2所示,本实施例提供的3D建模的方法可以包括:
S101,获取无人机拍摄的场景空间的俯视图。
本实施例中,场景空间可以是室外的具有至少一个建筑物的场景空间,也可以是室内的具有多个家装物品的场景空间,指的注意的是,在不同的场景空间中可以选用不同类型的无人机对场景空间进行拍摄。无人机处于场景空间的上方,对待建模的场景空间进行拍摄,获取场景空间的俯视图,具体的,3D建模的装置可以实时或者周期性的获取无人机拍摄的场景空间的俯视图。
S102,根据俯视图,确定场景空间的拍摄方式。
其中,场景空间的俯视图中具体包含有场景空间中多个物体的位置排布、大小,以及,场景空间的整体的俯视面积。
可选的,场景空间的拍摄方式可以包括拍摄类型,示例性的,如根据场景空间的大小,选择拍摄类型是拍照模式或者摄影模式,具体的,拍照模式获取的是场景空间的照片,摄影模式获取的是场景空间的影像。
可选的,场景空间的拍摄方式还可以包括拍摄角度和拍摄路线,其中,拍摄角度可以包括:拍摄高度、拍摄方向和拍摄距离。拍摄高度分为平拍、俯拍和仰拍三种;拍摄方向分为正面角度、侧面角度、斜侧角度、背面角度等;拍摄距离是无人机距离场景空间的距离。
示例性的,可根据场景空间中的多个物体的排布的方式和大小,确定拍摄角度和拍摄路线;如针对室外的A建筑物进行拍摄时,若该A建筑物的体积很大,则可确定拍摄路线为环绕该A建筑物的方式从上到下或从下到上拍摄,拍摄的角度可以是平拍。如针对室外的A建筑物和B建筑物进行拍摄时,可根据A建筑物和B建筑物的位置选择拍摄角度,以A建筑物和B建筑物不相互遮挡为佳,而拍摄的路线可以是由A建筑物向B建筑物进行拍摄或者由B建筑物向A建筑物进行拍摄。
本实施例中对拍摄方式的具体内容不做限制,只要能够实现无人机根据该拍摄方式拍摄的场景空间的图像能够完全显示场景空间、以及场景空间中的物体即可。
S103,指示无人机按照拍摄方式拍摄场景空间。
具体的,3D建模的装置可采用向无人机发送拍摄指令的方式指示无人机按照拍摄方式拍摄场景空间,具体的,该拍摄指令中包括拍摄方式。无人机在按照拍摄方式拍摄场景空间后,将场景空间的图像发送给3D建模的装置。可选的,该场景空间的图像可以是一段场景空间的影像,也可以是该场景空间的一张或者多张照片。
S104,接收无人机发送的无人机按照拍摄方式拍摄的场景空间的图像,以及,无人机获取的场景空间的深度信息。
本实施例中,3D建模的装置指示无人机按照拍摄方式拍摄场景空间后,无人机按照3D建模的装置指示的拍摄方式拍摄的场景空间的图像;且本实施例中的无人机具有雷达探测功能,可以获取场景空间的深度信息,具体的,场景空间的深度信息包括场景空间中每个物体的深度信息,具体可以是每个物体的深度值。
在无人机按照拍摄方式拍摄的场景空间的图像,以及,采用雷达探测功能获取的场景空间的深度信息后,将该场景空间的图像以及该场景空间的深度信息发送给3D建模的装置,相应的,3D建模的装置接收到无人机发送的该场景空间的图像以及该场景空间的深度信息。
S105,根据场景空间的图像,以及,场景空间的深度信息,建立场景空间的3D模型。
本实施例中的无人机具有雷达探测的功能,具体的,无人机通过雷达可以获取场景空间的深度信息,本实施例中,无人机获取场景空间的深度信息时,所处的航拍高度是一致的,其中,该航拍高度与上述中无人机进行航拍获取场景空间的俯视图的高度一致。该深度信息具体可以包括场景空间中的各物体的深度值,每个物体的深度值可以是无人机距各物体的每个位置的距离。其中,可预先设置无人机的航拍高度,可预先将该航拍高度值存储在3D建模的装置中,在3D建模的装置获取每个物体的深度值后,即可通过每个物体的深度值与该航拍高度的差值,获取每个物体的高度值。
具体的,本实施例中根据无人机按照拍摄方式拍摄的场景空间的图像可以获取场景空间中的多个物体的大小、形状等,再根据无人机获取的场景空间的深度信息,可获取每个物体的高度值,可根据每个物体的大小、形状和高度值等为场景空间中的每个物体进行3D建模,获取场景空间中每个物体对应的3D模型。可选的,可以根据场景空间的俯视图,获取该场景空间的面积,建立该场景空间中背景的3D模型,将该场景空间中背景的3D模型和场景空间中每个物体对应的3D模型按照俯视图中的位置关系进行对应设置,即可获取该场景空间的3D模型。
示例性的,若该场景空间是室外的具有A建筑物和B建筑物的场景空间,在获取场景空间的图像,以及,场景空间的深度信息后,可以分别建立A建筑物和B建筑物对应的3D模型,可以根据场景空间的俯视图,获取该场景空间中背景的面积,建立该场景空间中背景的3D模型,再根据俯视图中的A建筑物和B建筑物的位置关系进行对应设置,获取该室外的具有A建筑物和B建筑物的场景空间对应的3D模型。
本实施例提供的3D建模的方法包括:获取无人机拍摄的场景空间的俯视图;根据俯视图,确定场景空间的拍摄方式;指示无人机按照拍摄方式拍摄场景空间;接收无人机发送的无人机按照拍摄方式拍摄的场景空间的图像,以及,无人机获取的场景空间的深度信息;根据场景空间的图像,以及,场景空间的深度信息,建立场景空间的3D模型。本实施例通过无人机获取的场景空间的俯视图,确定无人机拍摄场景空间的拍摄方式,使得能够快速、有效获取场景空间的图像;且在此基础上建立的场景空间的3D模型,具有更高的准确性。
在上述实施例的基础上,下面结合图3对本发明提供的3D建模的方法进行进一步详细说明,图3为本发明提供的3D建模的方法的流程示意图二,如图3所示,本实施例提供的3D建模的方法可以包括:
S201,获取无人机拍摄的场景空间的俯视图。
其中,本实施例中的S201的具体实现方式可参照上述实施例中的S101的相关描述,在此不作赘述。
S202,根据俯视图,获取场景空间中的多个物体的位置;根据多个物体的位置,确定场景空间的拍摄角度。
具体的,本实施例中的拍摄方式包括拍摄角度。俯视图中可以包括多个物体,在该俯视图中可以获取场景空间中的多个物体所处的位置,该位置具体可以是多个物体在该场景空间中的相对位置,示例性的,图4A为本发明提供的3D建模的方法中的场景空间的俯视图的示例图,如图4A所示,场景空间中包括A建筑物和B建筑物,在该俯视图中可获取A建筑物处于B建筑物的正西方向。
根据多个物体的位置,确定场景空间的拍摄角度。具体的,当无人机拍摄的场景空间的图像是一张或者多张照片时,拍摄角度可以是在A建筑物处于B建筑物的正前方采用平拍的方式进行拍摄,这样获取的场景空间的图像是A建筑物和B建筑物共同组合成的图像,而若在A建筑物的正西方向进行拍摄,则B建筑物会被A建筑物遮挡,因此,本实施例中根据场景空间中的多个物体的位置,确定场景空间的拍摄角度,可获取最佳拍摄角度,使得获取的场景空间的图像能够完整、清晰地显示该场景空间。
当无人机拍摄的场景空间的图像是影像视频时,可以将拍摄角度设置为从A建筑物向B建筑物的方向由近及远进行拍摄,也可以是从A建筑物向B建筑物的方向由近及远进行拍摄。
S203,将俯视图划分多个图块,获取每个图块中的物体密度;根据每个图块中的物体密度,确定场景空间的拍摄路线。
本实施例中的拍摄方式还包括拍摄路线,此时,无人机拍摄的场景空间的图像是影像视频。将俯视图划分多个图块,获取每个图块中的物体密度,具体的,每个图块的大小相同,以每个图块中的物体的个数代表每个图块中的物体密度。
本实施例中根据每个图块中的物体密度,确定场景空间的拍摄路线的具体实施方式可以是:无人机的拍摄路线是由物体密度小的图块向物体密度大的图块进行拍摄,具体的,在物体密度小的图块进行拍摄时,可以采用整体环绕的方式对该区块中的物体进行拍摄,由于密度小的图块中物体数量少,采用这种拍摄路线既可以节省拍摄时间,又可以完整的获取场景空间中的物体信息;在物体密度大的图块进行拍摄时,可以采用对每个物体进行环绕的方式对该区块中的物体进行拍摄,由于密度大的图块中物体数量多,采用这种拍摄路线可以完整的获取场景空间中的物体信息。本实施例中对拍摄路线的具体形式不做限制。
其中,本实施例对S202和S203的先后顺序不做具体限制,二者也可同时执行。
S204,判断俯视面积是否大于预设的面积阈值;若是,执行S205;若否,执行S206。
具体的,在3D建模的装置确定拍摄角度和拍摄路线后,还需确定以怎样的拍摄类型进行拍摄,其中,可预先在3D建模的装置中存储有预设的面积阈值,3D建模的装置判断俯视面积是否大于预设的面积阈值;本实施例中的预设的面积阈值可以根据无人机的类型或者具体的应用场景进行改变。
S205,指示无人机按照拍摄角度和拍摄路线拍摄场景空间。
具体的,若该俯视面积大于预设的面积阈值时,说明该场景空间中包含的物体多且结构较为复杂,为了完整的获取该场景空间的图像,3D建模的装置指示无人机按照拍摄角度和拍摄路线拍摄场景空间,即获取该场景空间的视频影像。
S206,指示无人机按照拍摄角度拍摄场景空间。
具体的,若该俯视面积小于预设的面积阈值时,说明该场景空间中包含的物体少且结构较为简单,为了快速、完整的获取该场景空间的图像,3D建模的装置指示无人机按照拍摄角度拍摄场景空间,即获取该场景空间的一张或多张照片。
S207,接收无人机发送的无人机按照拍摄方式拍摄的场景空间的图像,以及,无人机获取的场景空间的深度信息。
其中,本实施例中的S207的具体实现方式可参照上述实施例中的S104的相关描述,在此不作赘述。
S208,根据场景空间的图像,获取场景空间中每个物体的物理参数。
3D建模的装置根据场景空间的图像,如一张或者多张场景空间的照片、或者场景空间的视频影像,获取场景空间中每个物体的物理参数;其中,每个物体的物理参数用于表示每个物体的几何信息,本实施例中,每个物体的物理参数包括每个物体的形状参数、大小参数和纹理参数。具体的,在场景空间的图像中可以获取每个物体的具体的物理参数,如每个物体的形状参数、大小参数和纹理参数。
当场景空间的图像为一张或者多张场景空间的照片,可结合多张照片各个拍摄角度的拍摄图像,获取场景空间的图像中可以获取每个物体的具体的物理参数,示例性的,场景空间中具有A建筑物,可根据多张照片中的A建筑物的边缘像素块,获取A建筑物的形状,根据A建筑物的顶部至底部的长度可以获取A建筑物的大小等。
当场景空间的图像为视频影像时,可先提取视频影像中的每一帧的图像,获取多张图像,根据多张图像的获取场景空间的图像中可以获取每个物体的具体的物理参数。
S209,根据场景空间中每个物体的物理参数,以及,场景空间中每个物体的深度值,建立场景空间的3D模型。
其中,场景空间的深度信息包括场景空间中多个物体的深度值,每个物体的深度值为无人机至每个物体上的多个位置的距离。具体的,无人机在采用雷达获取场景空间中的每个物体的深度值的航拍高度与无人机在获取场景空间的俯视图时的航拍高度相同。
本实施例中,3D建模的装置根据每个物体的深度值、每个物体的形状参数、大小参数,按照比例建立场景空间中每个物体的第一3D模型,具体的,3D建模的装置可将通过图形处理器对物理参数进行加载处理,并根据形状参数及大小参数等按比例构建每个物体的第一3D模型。
采用每个物体的纹理参数对每个物体的第一3D模型进行渲染,获取每个物体的第二3D模型;具体的,3D建模的装置可根据纹理参数、颜色参数等对第一3D模型进行着色,并渲染得到每个物体的第二3D模型。
根据每个物体的第二3D模型和场景空间的俯视图,建立场景空间的3D模型,具体的,3D建模的装置可以根据场景空间的俯视图采用相同的建模方式获取场景空间中背景的3D模型,将每个物体的第二3D模型与场景空间中背景的3D模型按照俯视图中的位置关系进行组合,即可获取场景空间的3D模型,图4B为本发明提供的3D建模的方法中的场景空间的3D模型的示例图,图4B中显示的是场景空间中具有A建筑物和B建筑的场景空间的3D模型。
本实施例中提供的3D建模的方法,根据场景空间的俯视选择对应的拍摄角度和拍摄路线,能够快速、有效、完整的获取场景空间的图像,且根据获取的场景空间中的每个物体的物理参数获取的每个物体的3D模型具有更高的准确度。
为了使得能够快速、完整的获取场景空间的图像,进而可以快速、准确的获取的场景空间的3D模型,下述实施例中结合图5,从3D建模的装置获取的是无人机拍摄的场景空间的视频影像进行说明,图5为本发明提供的3D建模的方法的流程示意图三,如图5所示,本实施例提供的3D建模的方法可以包括:
S301,获取无人机拍摄的场景空间的俯视图。
S302,根据俯视图,获取场景空间中的多个物体的位置;根据多个物体的位置,确定场景空间的拍摄角度。
S303,将俯视图划分多个图块,获取每个图块中的物体密度;根据每个图块中的物体密度,确定场景空间的拍摄路线。
S304,获取无人机按照拍摄方式拍摄的场景空间的视频影像。
其中,无人机按照拍摄方式拍摄的场景空间的图像为场景空间的视频影像,由此3D建模的装置获取的场景空间的图像为场景空间的视频影像,本实施例中采用视频影像的方式使得获取的场景空间的图像更为准确,进而使得获取的场景空间中的多个物体的物理参数更为准确,有利于3D建模的准确性。
S305,提取视频影像中的每一帧的图像,并将多帧图像确定为场景空间的图像。
3D建模的装置提取场景空间的视频影像中的每一帧的图像具体可以采用现有技术中的提取方式,如提取每一帧对应的多张图像,并将多帧对应的所有的图像确定为场景空间的图像。
S306,接收无人机发送的无人机按照拍摄方式拍摄的场景空间的图像,以及,无人机获取的场景空间的深度信息。
S307,根据场景空间的图像,获取场景空间中每个物体的物理参数。
S308,根据场景空间中每个物体的物理参数,以及,场景空间中每个物体的深度值,建立场景空间的3D模型。
其中,本实施例中的S301-S303、S306-S308的具体实现方式可参照上述实施例中的S201-S203、S207-S209的相关描述,在此不作赘述。
本实施例中,3D建模的装置获取的是无人机拍摄的场景空间的视频影像,根据视频影像中每一帧对应的图像,确定多帧对应的所有图像为场景空间的图像,采用这种方式能够快速、完整的获取场景空间的图像,进而使得获取的场景空间的3D模型具有更高的准确度。
图6为本发明提供的3D建模的装置的结构示意图一,如图6所示,该3D建模的装置400包括:俯视图获取模块401、拍摄方式确定模块402、指示模块403、接收模块404和3D模型建立模块405。
俯视图获取模块401,用于获取无人机拍摄的场景空间的俯视图;
拍摄方式确定模块402,用于根据俯视图,确定场景空间的拍摄方式;
指示模块403,用于指示无人机按照拍摄方式拍摄场景空间;
接收模块404,用于接收无人机发送的无人机按照拍摄方式拍摄的场景空间的图像,以及,无人机获取的场景空间的深度信息。
3D模型建立模块405,用于根据无人机按照拍摄方式拍摄的场景空间的图像,以及,无人机获取的场景空间的深度信息,建立场景空间的3D模型。
本实施例提供的3D建模的装置与上述3D建模的方法实现的原理和技术效果类似,在此不作赘述。
可选的,图7为本发明提供的3D建模的装置的结构示意图二,如图7所示,该3D建模的装置400还包括:判断模块406、图像确定模块407。
判断模块406,用于判断俯视面积是否大于预设的面积阈值。
可选的,无人机按照拍摄方式拍摄的场景空间的图像为场景空间的视频影像。
图像确定模块407,用于获取无人机按照拍摄方式拍摄的场景空间的视频影像;提取视频影像中的每一帧的图像,并将多帧图像确定为场景空间的图像。
可选的,拍摄方式包括拍摄角度。
拍摄方式确定模块402,具体用于根据俯视图,获取场景空间中的多个物体的位置;根据多个物体的位置,确定场景空间的拍摄角度。
可选的,拍摄方式还包括拍摄路线。
拍摄方式确定模块402,具体还用于将俯视图划分多个图块,获取每个图块中的物体密度;根据每个图块中的物体密度,确定场景空间的拍摄路线。
可选的,指示模块403,具体用于若俯视面积大于预设的面积阈值,指示无人机按照拍摄角度和拍摄路线拍摄场景空间;若俯视面积小于或等于预设的面积阈值,指示无人机按照拍摄角度拍摄场景空间。
可选的,场景空间的深度信息包括场景空间中多个物体的深度值,每个物体的深度值为无人机至每个物体上的多个位置的距离。
3D模型建立模块405,具体用于根据场景空间的图像,获取场景空间中每个物体的物理参数;根据场景空间中每个物体的物理参数,每个物体的物理参数用于表示每个物体的几何信息,以及,场景空间中每个物体的深度值,建立场景空间的3D模型。
可选的,每个物体的物理参数包括每个物体的形状参数、大小参数和纹理参数。
可选的,3D模型建立模块405,具体还用于根据每个物体的深度值、每个物体的形状参数、大小参数,按照比例建立场景空间中每个物体的第一3D模型;采用每个物体的纹理参数对每个物体的第一3D模型进行渲染,获取每个物体的第二3D模型;根据每个物体的第二3D模型和场景空间的俯视图,建立场景空间的3D模型。
可选的,拍摄角度包括拍摄高度、拍摄方向和拍摄距离。
图8为本发明提供的3D建模的装置的结构示意图三,该3D建模的装置例如可以是终端设备,比如智能手机、平板电脑、计算机等。如图8所示,该3D建模的装置500包括:存储器501和至少一个处理器502。
存储器501,用于存储程序指令。
处理器502,用于在程序指令被执行时实现本实施例中的3D建模的方法,具体实现原理可参见上述实施例,本实施例此处不再赘述。
该3D建模的装置500还可以包括及输入/输出接口503。
输入/输出接口503可以包括独立的输出接口和输入接口,也可以为集成输入和输出的集成接口。其中,输出接口用于输出数据,输入接口用于获取输入的数据,上述输出的数据为上述方法实施例中输出的统称,输入的数据为上述方法实施例中输入的统称。
本发明还提供一种可读存储介质,可读存储介质中存储有执行指令,当3D建模的装置的至少一个处理器执行该执行指令时,当计算机执行指令被处理器执行时,实现上述实施例中的3D建模的方法。
本发明还提供一种程序产品,该程序产品包括执行指令,该执行指令存储在可读存储介质中。3D建模的装置的至少一个处理器可以从可读存储介质读取该执行指令,至少一个处理器执行该执行指令使得3D建模的装置实施上述的各种实施方式提供的3D建模的方法。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
在上述网络设备或者终端设备的实施例中,应理解,处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:ApplicationSpecific Integrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (20)
1.一种3D建模的方法,其特征在于,包括:
获取无人机拍摄的场景空间的俯视图;
根据所述俯视图,确定所述场景空间的拍摄方式;
指示所述无人机按照所述拍摄方式拍摄所述场景空间;
接收所述无人机发送的所述无人机按照所述拍摄方式拍摄的所述场景空间的图像,以及,所述无人机获取的所述场景空间的深度信息;
根据所述场景空间的图像,以及,所述场景空间的深度信息,建立所述场景空间的3D模型。
2.根据权利要求1所述的方法,其特征在于,所述拍摄方式包括拍摄角度;
所述根据所述俯视图,确定所述场景空间的拍摄方式,包括:
根据所述俯视图,获取所述场景空间中的多个物体的位置;
根据多个所述物体的位置,确定所述场景空间的拍摄角度。
3.根据权利要求2所述的方法,其特征在于,所述拍摄方式还包括拍摄路线;
所述根据所述俯视图,确定所述场景空间的拍摄方式,包括:
将所述俯视图划分多个图块,获取每个所述图块中的物体密度;
根据所述每个所述图块中的物体密度,确定所述场景空间的拍摄路线。
4.根据权利要求3所述的方法,其特征在于,所述根据所述俯视图,确定所述场景空间的拍摄方式之后,还包括:
判断所述俯视面积是否大于预设的面积阈值;
所述指示所述无人机按照所述拍摄方式拍摄所述场景空间,包括:
若所述俯视面积大于所述预设的面积阈值,指示所述无人机按照所述拍摄角度和所述拍摄路线拍摄所述场景空间;
若所述俯视面积小于或等于所述预设的面积阈值,指示所述无人机按照所述拍摄角度拍摄所述场景空间。
5.根据权利要求1所述的方法,其特征在于,所述无人机按照所述拍摄方式拍摄的所述场景空间的图像为所述场景空间的视频影像;
所述根据所述无人机按照所述拍摄方式拍摄的所述场景空间的图像,以及,所述无人机获取的所述场景空间的深度信息,建立所述场景空间的3D模型之前,还包括:
获取所述无人机按照所述拍摄方式拍摄的所述场景空间的视频影像;
提取所述视频影像中的每一帧的图像,并将多帧所述图像确定为所述场景空间的图像。
6.根据权利要求1所述的方法,其特征在于,所述场景空间的深度信息包括所述场景空间中多个物体的深度值,每个所述物体的深度值为所述无人机至每个所述物体上的多个位置的距离;
所述根据所述无人机按照所述拍摄方式拍摄的所述场景空间的图像,以及,所述无人机获取的所述场景空间的深度信息,建立所述场景空间的3D模型,包括:
根据所述场景空间的图像,获取所述场景空间中每个所述物体的物理参数,每个所述物体的物理参数用于表示每个所述物体的几何信息;
根据所述场景空间中每个所述物体的物理参数,以及,所述场景空间中每个所述物体的深度值,建立所述场景空间的3D模型。
7.根据权利要求6所述的方法,其特征在于,每个所述物体的物理参数包括每个所述物体的形状参数、大小参数和纹理参数。
8.根据权利要求7所述的方法,其特征在于,所述根据所述场景空间中每个所述物体的物理参数,以及,所述场景空间中每个所述物体的深度值,建立所述场景空间的3D模型,包括:
根据每个所述物体的深度值、每个所述物体的形状参数、大小参数,按照比例建立所述场景空间中每个所述物体的第一3D模型;
采用每个所述物体的纹理参数对每个所述物体的第一3D模型进行渲染,获取每个所述物体的第二3D模型;
根据每个所述物体的第二3D模型和所述场景空间的俯视图,建立所述场景空间的3D模型。
9.根据权利要求2所述的方法,其特征在于,所述拍摄角度包括拍摄高度、拍摄方向和拍摄距离。
10.一种3D建模的装置,其特征在于,包括:
俯视图获取模块,用于获取无人机拍摄的场景空间的俯视图;
拍摄方式确定模块,用于根据所述俯视图,确定所述场景空间的拍摄方式;
指示模块,用于指示所述无人机按照所述拍摄方式拍摄所述场景空间;
接收模块,用于接收所述无人机发送的所述无人机按照所述拍摄方式拍摄的所述场景空间的图像,以及,所述无人机获取的所述场景空间的深度信息;
3D模型建立模块,用于根据所述场景空间的图像,以及,所述场景空间的深度信息,建立所述场景空间的3D模型。
11.根据权利要求10所述的装置,其特征在于,所述拍摄方式包括拍摄角度;
所述拍摄方式确定模块,具体用于根据所述俯视图,获取所述场景空间中的多个物体的位置;根据多个所述物体的位置,确定所述场景空间的拍摄角度。
12.根据权利要求11所述的装置,其特征在于,所述拍摄方式还包括拍摄路线;
所述拍摄方式确定模块,具体还用于将所述俯视图划分多个图块,获取每个所述图块中的物体密度;根据所述每个所述图块中的物体密度,确定所述场景空间的拍摄路线。
13.根据权利要求12所述的装置,其特征在于,所述装置还包括:判断模块;
所述判断模块,用于判断所述俯视面积是否大于预设的面积阈值;
所述指示模块,具体用于若所述俯视面积大于所述预设的面积阈值,指示所述无人机按照所述拍摄角度和所述拍摄路线拍摄所述场景空间;若所述俯视面积小于或等于所述预设的面积阈值,指示所述无人机按照所述拍摄角度拍摄所述场景空间。
14.根据权利要求10所述的装置,其特征在于,所述无人机按照所述拍摄方式拍摄的所述场景空间的图像为所述场景空间的视频影像;
所述装置还包括:图像确定模块;
所述图像确定模块,用于获取所述无人机按照所述拍摄方式拍摄的所述场景空间的视频影像;提取所述视频影像中的每一帧的图像,并将多帧所述图像确定为所述场景空间的图像。
15.根据权利要求10所述的装置,其特征在于,所述场景空间的深度信息包括所述场景空间中多个物体的深度值,每个所述物体的深度值为所述无人机至每个所述物体上的多个位置的距离;
所述3D模型建立模块,具体用于根据所述场景空间的图像,获取所述场景空间中每个所述物体的物理参数,每个所述物体的物理参数用于表示每个所述物体的几何信息;根据所述场景空间中每个所述物体的物理参数,以及,所述场景空间中每个所述物体的深度值,建立所述场景空间的3D模型。
16.根据权利要求15所述的装置,其特征在于,每个所述物体的物理参数包括每个所述物体的形状参数、大小参数和纹理参数。
17.根据权利要求16所述的装置,其特征在于,
所述3D模型建立模块,具体还用于根据每个所述物体的深度值、每个所述物体的形状参数、大小参数,按照比例建立所述场景空间中每个所述物体的第一3D模型;采用每个所述物体的纹理参数对每个所述物体的第一3D模型进行渲染,获取每个所述物体的第二3D模型;根据每个所述物体的第二3D模型和所述场景空间的俯视图,建立所述场景空间的3D模型。
18.根据权利要求11所述的装置,其特征在于,所述拍摄角度包括拍摄高度、拍摄方向和拍摄距离。
19.一种3D建模的装置,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述3D建模的装置执行权利要求1-9任一项所述的方法。
20.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机执行指令,当所述计算机执行指令被处理器执行时,实现权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810887676.5A CN109064555B (zh) | 2018-08-06 | 2018-08-06 | 3d建模的方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810887676.5A CN109064555B (zh) | 2018-08-06 | 2018-08-06 | 3d建模的方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109064555A true CN109064555A (zh) | 2018-12-21 |
CN109064555B CN109064555B (zh) | 2023-06-06 |
Family
ID=64831854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810887676.5A Active CN109064555B (zh) | 2018-08-06 | 2018-08-06 | 3d建模的方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109064555B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113808264A (zh) * | 2021-08-02 | 2021-12-17 | 日立楼宇技术(广州)有限公司 | 扶梯摄像头安装位置和角度的获取方法、装置及存储介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236160A (zh) * | 2013-04-07 | 2013-08-07 | 水木路拓科技(北京)有限公司 | 基于视频图像处理技术的路网交通状态监测*** |
CN104021586A (zh) * | 2014-05-05 | 2014-09-03 | 深圳市城市管理监督指挥中心 | 基于北斗定位的空地一体城市生态文明管理***及方法 |
CN105629980A (zh) * | 2015-12-23 | 2016-06-01 | 深圳速鸟创新科技有限公司 | 一种单相机倾斜摄影三维建模*** |
CN105761265A (zh) * | 2016-02-23 | 2016-07-13 | 英华达(上海)科技有限公司 | 利用影像深度信息提供避障的方法及无人飞行载具 |
CN105912763A (zh) * | 2016-04-06 | 2016-08-31 | 西安交通大学 | 基于热传导路径拓扑优化的水下滑翔机巡航路径规划方法 |
CN105939463A (zh) * | 2016-06-16 | 2016-09-14 | 四川建筑职业技术学院 | 一种基于gps定位的航拍无人机影像追踪*** |
US20160371984A1 (en) * | 2015-06-16 | 2016-12-22 | Here Global B.V. | Air Space Maps |
CN106652448A (zh) * | 2016-12-13 | 2017-05-10 | 山姆帮你(天津)信息科技有限公司 | 基于视频处理技术的公路交通状态监测*** |
CN106767720A (zh) * | 2016-12-30 | 2017-05-31 | 广州地理研究所 | 基于无人机的单镜头倾斜摄影测量方法、装置和*** |
CN106767706A (zh) * | 2016-12-09 | 2017-05-31 | 中山大学 | 一种无人机勘查交通事故现场的航拍图像采集方法及*** |
CN107202982A (zh) * | 2017-05-22 | 2017-09-26 | 徐泽宇 | 一种基于无人机位姿计算的信标布置及图像处理方法 |
CN107302664A (zh) * | 2017-08-11 | 2017-10-27 | 维沃移动通信有限公司 | 一种拍摄方法及移动终端 |
CN107341851A (zh) * | 2017-06-26 | 2017-11-10 | 深圳珠科创新技术有限公司 | 基于无人机航拍影像数据的实时三维建模方法及*** |
CN107514993A (zh) * | 2017-09-25 | 2017-12-26 | 同济大学 | 基于无人机的面向单体建筑建模的数据采集方法及*** |
CN108320334A (zh) * | 2018-01-30 | 2018-07-24 | 公安部物证鉴定中心 | 基于点云的三维场景漫游***的建立方法 |
CN108335353A (zh) * | 2018-02-23 | 2018-07-27 | 清华-伯克利深圳学院筹备办公室 | 动态场景的三维重建方法、装置和***、服务器、介质 |
-
2018
- 2018-08-06 CN CN201810887676.5A patent/CN109064555B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236160A (zh) * | 2013-04-07 | 2013-08-07 | 水木路拓科技(北京)有限公司 | 基于视频图像处理技术的路网交通状态监测*** |
CN104021586A (zh) * | 2014-05-05 | 2014-09-03 | 深圳市城市管理监督指挥中心 | 基于北斗定位的空地一体城市生态文明管理***及方法 |
US20160371984A1 (en) * | 2015-06-16 | 2016-12-22 | Here Global B.V. | Air Space Maps |
CN105629980A (zh) * | 2015-12-23 | 2016-06-01 | 深圳速鸟创新科技有限公司 | 一种单相机倾斜摄影三维建模*** |
CN105761265A (zh) * | 2016-02-23 | 2016-07-13 | 英华达(上海)科技有限公司 | 利用影像深度信息提供避障的方法及无人飞行载具 |
CN105912763A (zh) * | 2016-04-06 | 2016-08-31 | 西安交通大学 | 基于热传导路径拓扑优化的水下滑翔机巡航路径规划方法 |
CN105939463A (zh) * | 2016-06-16 | 2016-09-14 | 四川建筑职业技术学院 | 一种基于gps定位的航拍无人机影像追踪*** |
CN106767706A (zh) * | 2016-12-09 | 2017-05-31 | 中山大学 | 一种无人机勘查交通事故现场的航拍图像采集方法及*** |
CN106652448A (zh) * | 2016-12-13 | 2017-05-10 | 山姆帮你(天津)信息科技有限公司 | 基于视频处理技术的公路交通状态监测*** |
CN106767720A (zh) * | 2016-12-30 | 2017-05-31 | 广州地理研究所 | 基于无人机的单镜头倾斜摄影测量方法、装置和*** |
CN107202982A (zh) * | 2017-05-22 | 2017-09-26 | 徐泽宇 | 一种基于无人机位姿计算的信标布置及图像处理方法 |
CN107341851A (zh) * | 2017-06-26 | 2017-11-10 | 深圳珠科创新技术有限公司 | 基于无人机航拍影像数据的实时三维建模方法及*** |
CN107302664A (zh) * | 2017-08-11 | 2017-10-27 | 维沃移动通信有限公司 | 一种拍摄方法及移动终端 |
CN107514993A (zh) * | 2017-09-25 | 2017-12-26 | 同济大学 | 基于无人机的面向单体建筑建模的数据采集方法及*** |
CN108320334A (zh) * | 2018-01-30 | 2018-07-24 | 公安部物证鉴定中心 | 基于点云的三维场景漫游***的建立方法 |
CN108335353A (zh) * | 2018-02-23 | 2018-07-27 | 清华-伯克利深圳学院筹备办公室 | 动态场景的三维重建方法、装置和***、服务器、介质 |
Non-Patent Citations (2)
Title |
---|
刘山等: "基于区域分割的无人机路径规划", 《计算机仿真》 * |
刘山等: "基于区域分割的无人机路径规划", 《计算机仿真》, vol. 29, no. 3, 15 March 2012 (2012-03-15), pages 120 - 125 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113808264A (zh) * | 2021-08-02 | 2021-12-17 | 日立楼宇技术(广州)有限公司 | 扶梯摄像头安装位置和角度的获取方法、装置及存储介质 |
CN113808264B (zh) * | 2021-08-02 | 2023-06-20 | 日立楼宇技术(广州)有限公司 | 扶梯摄像头安装位置和角度的获取方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109064555B (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109242961B (zh) | 一种脸部建模方法、装置、电子设备和计算机可读介质 | |
CN109887003B (zh) | 一种用于进行三维跟踪初始化的方法与设备 | |
CN109064542B (zh) | 三维模型表面空洞填补方法和装置 | |
JP7387202B2 (ja) | 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム | |
CN109242913A (zh) | 采集器相对参数的标定方法、装置、设备和介质 | |
CN106233329A (zh) | 3d拉东图像的产生和使用 | |
WO2018014601A1 (zh) | 方位跟踪方法、实现增强现实的方法及相关装置、设备 | |
CN109840881A (zh) | 一种3d特效图像生成方法、装置及设备 | |
WO2023280038A1 (zh) | 一种三维实景模型的构建方法及相关装置 | |
CN106462943A (zh) | 将全景成像与航拍成像对齐 | |
KR101181967B1 (ko) | 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템 | |
CN105023266A (zh) | 增强现实实现方法、装置和终端设备 | |
US20230298280A1 (en) | Map for augmented reality | |
CN109660714A (zh) | 基于ar的图像处理方法、装置、设备及存储介质 | |
CN103260046A (zh) | 一种三维显示方法及*** | |
CN115690382A (zh) | 深度学习模型的训练方法、生成全景图的方法和装置 | |
CN108961375A (zh) | 一种根据二维图像生成三维图像的方法及装置 | |
CN106530408A (zh) | 博物馆临时展览规划设计的*** | |
CN112270709A (zh) | 地图构建方法及装置、计算机可读存储介质和电子设备 | |
CN111651052A (zh) | 虚拟沙盘的展示方法、装置、电子设备及存储介质 | |
CN108061879A (zh) | 空间定位方法、装置、电子设备及*** | |
CN108205820B (zh) | 平面的重建方法、融合方法、装置、设备及存储介质 | |
CN103512557B (zh) | 电子设备间相对位置确定方法及电子设备 | |
CN109064555A (zh) | 3d建模的方法、装置和存储介质 | |
CN113596323A (zh) | 智能合影方法、装置、移动终端及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |