CN108629829B - 一种球幕相机与深度相机结合的三维建模方法和*** - Google Patents

一种球幕相机与深度相机结合的三维建模方法和*** Download PDF

Info

Publication number
CN108629829B
CN108629829B CN201810255291.7A CN201810255291A CN108629829B CN 108629829 B CN108629829 B CN 108629829B CN 201810255291 A CN201810255291 A CN 201810255291A CN 108629829 B CN108629829 B CN 108629829B
Authority
CN
China
Prior art keywords
camera
dimensional
ball curtain
information
depth camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810255291.7A
Other languages
English (en)
Other versions
CN108629829A (zh
Inventor
崔岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Siwei Times Network Technology Co Ltd
Sino German (zhuhai) Artificial Intelligence Research Institute Co Ltd
Original Assignee
Zhuhai Siwei Times Network Technology Co Ltd
Sino German (zhuhai) Artificial Intelligence Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Siwei Times Network Technology Co Ltd, Sino German (zhuhai) Artificial Intelligence Research Institute Co Ltd filed Critical Zhuhai Siwei Times Network Technology Co Ltd
Priority to CN201810255291.7A priority Critical patent/CN108629829B/zh
Publication of CN108629829A publication Critical patent/CN108629829A/zh
Application granted granted Critical
Publication of CN108629829B publication Critical patent/CN108629829B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

本发明为一种球幕相机与深度相机结合的三维建模方法核***,涉及三维成像建模技术领域,至少包括一台深度相机与一台球幕相机;所述方法包括八个步骤,将球幕相机镜头和深度相机镜头固定于空间中的同一位置;使用球幕相机进行拍照;通过VSLAM算法进行初步定位;用三维照片中的三维信息空间信息进行校准;进一步精确定位;形成稠密点云;进一步得到精确的稠密点云;进行数字化建模,生成三维模型;根据二维全景照片中的颜色信息,自动对三维模型进行贴图。本发明有益效果在于,使三维模型同时具备球幕相机与深度相机的优点,而且三维模型更加精确,解决了深度相机视角单一,视域受限,球幕相机容易产生误差的缺点。

Description

一种球幕相机与深度相机结合的三维建模方法和***
技术领域
本发明涉及三维成像建模技术领域,具体涉及一种球幕相机与深度相机结合的三维建模方法。
背景技术
三维建模技术是物体对象在三维空间中数据表示的处理过程,三维模型可以使用采集物体的三维空间点构成点云来进行表示,点云可以使用三角网格、线、多边形网格来进行连接重建模型的表面。三维模型可以使用在在电影、游戏、制造等领域,三维建模技术属于一个多学科交叉的研究领域,是计算机图形学和图像处理在工程中的重要应用。
随着RGB-D相机的问世,RGB-D相机具有价格廉价、实时获取的优点,具有好的精度和密集扫描的能力,但是传统的RGB-D相机,比如基于kinect或者TOF(time-of-flight)方式的RGB-D相机能够形成一个空间模型,相机视角单一,视域受限,计算量比较大,耗时久,无法达到实时呈现效果。
球幕相机,即鱼眼相机,进行三维建模的方法一般适用于诸如墙面、桌面等面的结构化场景,主要比较适合拍摄较大场景的照片,如建筑、风景等题材。当球幕相机用于拍风景时能拍更广阔的画面、拍集体照时能容纳下更多的人,视角更广,可以涵盖大范围景物。传统球幕相机所得到的二维图片信息也可进行SLAM算法计算出其三维信息,计算速度快,但容易产生误差,只能作为一个初步定位信息。
三维建模要求重建的过程快速高效,精确度高。RGB-D相机和球幕相机在各自进行三维建模时都无法满足上述要求。
发明内容
鉴于现有技术的不足,本发明旨在于提供一种球幕相机与深度相机结合的三维建模方法,通过将球幕相机与深度相机的有机结合,使三维建模同时具备球幕相机与深度相机的优点。
为了实现上述目的,本发明采用的技术方案如下:
一种球幕相机与深度相机结合的三维建模方法,至少包括一台深度相机与一台球幕相机;所述方法包括以下步骤:
S1:将球幕相机镜头和深度相机镜头固定于空间中的同一位置,称为相机位置;
S2:使用球幕相机进行拍照,球幕相机镜头获取的是至少一张二维全景照片,所述二维全景照片包含颜色信息和二维信息(x,y),深度相机镜头获取的是至少一张三维照片,所述三维照片包含三维信息(x,y,z);
S3:通过VSLAM算法进行对所述相机位置初步定位,对二维全景照片进行计算,在二维全景照片的基础上获取空间信息。
S4:用三维照片中的三维信息对步骤S3中的空间信息进行校准;
S5:进一步精确定位,使用三维重建离线算法对二维全景照片提取特征点,进行特征点匹配,提高经过步骤S4后的二维全景照片分辨率,重新计算相机位置信息,对相机位置进行微调;
S6:基于三维信息形成稠密点云;
S7:进一步得到精确的稠密点云,使用ICP算法(迭代最近点及其变异算法)对稠密点云进行匹配,对所有点云进行对比,把属于不同空间的点云放在不同的位置上;
S8:进行数字化建模,生成三维模型;
S9:根据二维全景照片中的颜色信息,自动对三维模型进行贴图。
进一步地,在步骤S4中,若三维信息和空间信息不同,则说明基于二维全景照片计算的空间信息有误,通过三维信息对空间信息进行校准。
进一步地,在步骤S4中,若三维信息和空间信息相同,则不需要通过三维信息对空间信息进行校准。
进一步地,在步骤S1中,所述的同一位置,即对所述空间来说,深度相机镜头和球幕相机镜头的距离差不会对相机位置造成影响,在预设误差范围内。
优选地,深度相机镜头和球幕相机镜头采取背靠背方式固定在同一位置。
此外,为实现上述目的,本发明还提供,一种球幕相机和深度相机结合的***,所述***包括:球幕相机、深度相机、将球幕相机和深度相机固定在一起的移动终端、云端服务器、存储并可在所述移动终端上运行的初步定位和校准程序、存储并可在所述云端服务器上运行的三维建模程序,所述初步定位和校准程序被所述移动终端执行时实现步骤S1-S4所述的三维建模方法的步骤,所述三维建模程序被所述云端服务器执行时实现步骤S5-S9所述的三维建模方法的步骤。
进一步地,所述球幕相机、深度相机分别与移动终端电信号连接,所述移动终端和云端服务器无线通信连接。
本发明有益效果在于:
(1)得到更准确的模型:球幕相机镜头拍摄到的RGB照片获取了拍摄对象的颜色信息,深度相机镜头后拍摄的图片会同时获得深度信息,在三维建模的时候会得到更加稠密的点云,模型建立会更加准确。
(2)球幕相机镜头与深度相机镜头相结合于同一位置,位于一点就能够抓到整个空间的信息,突破传统相机的视域范围,同时因为两个相机合作,可以获取更多的细节,自动化强、稳定性好、精度高的优点使得模型更加精致。
(3)球幕相机镜头与深度相机镜头相结合可以扬长避短,既可以纠正基于球幕相机镜头得到的二维信息产生的偏差,也可以快速计算,达到实时呈现效果,克服深度相机镜头耗时久、无法达到实时呈现的缺点。
附图说明
图1为本发明的球幕相机、深度相机、移动终端示意图;
图2为本发明的球幕相机和深度相机结合的***示意图;
图3为本发明的步骤示意图一;
图4为本发明的步骤示意图二;
图5为本发明的步骤示意图三;
图6为本发明的步骤示意图四;
图7为本发明的步骤示意图五。
图例说明:
球幕相机镜头 1
深度相机镜头 2
移动终端 3
具体实施方式
以下将对本发明作进一步的描述,需要说明的是,本实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
一种球幕相机与深度相机结合的三维建模方法,至少包括一台深度相机与一台球幕相机;如图3-7所示,所述方法包括以下步骤:
S1:将球幕相机镜头和深度相机镜头固定于空间中的同一位置,称为相机位置;
S2:使用球幕相机进行拍照,球幕相机镜头获取的是至少一张二维全景照片,所述二维全景照片包含颜色信息和二维信息(x,y),深度相机镜头获取的是至少一张三维照片,所述三维照片包含三维信息(x,y,z);
S3:通过VSLAM算法进行对所述相机位置初步定位,对二维全景照片进行计算,在二维全景照片的基础上获取空间信息;
S4:用三维照片中的三维信息对步骤S3中的空间信息进行校准;
S5:进一步精确定位,使用三维重建离线算法对二维全景照片提取特征点,进行特征点匹配,提高经过步骤S4后的二维全景照片分辨率,重新计算相机位置信息,对相机位置进行微调;
S6:基于三维信息形成稠密点云;
S7:进一步得到精确的稠密点云,使用ICP算法(迭代最近点及其变异算法)对稠密点云进行匹配,对所有点云进行对比,把属于不同空间的点云放在不同的位置上;
S8:进行数字化建模,生成三维模型;
S9:根据二维全景照片中的颜色信息,自动对三维模型进行贴图。
进一步地,在步骤S4中,若三维信息和空间信息不同,则说明基于二维全景照片计算的空间信息有误,通过三维信息对空间信息进行校准,以三维照片的三维信息为准。
进一步地,在步骤S4中,若三维信息和空间信息相同,则不需要通过三维信息对空间信息进行校准。
在步骤S1中,所述的同一位置,即对所述空间来说,深度相机镜头和球幕相机镜头的距离差不会对相机位置造成影响,在预设误差范围内。优选地,如图1所示,深度相机镜头和球幕相机镜头采取背靠背方式固定在同一位置。
此外,为实现上述目的,如图1和图2所示,本发明还提供,一种球幕相机和深度相机结合的***,所述***包括:球幕相机、深度相机、将球幕相机和深度相机固定在一起的移动终端、云端服务器、存储并可在所述移动终端上运行的初步定位和校准程序、存储并可在所述云端服务器上运行的三维建模程序,所述初步定位和校准程序被所述移动终端执行时实现步骤S1-S4所述的三维建模方法的步骤,所述三维建模程序被所述云端服务器执行时实现步骤S5-S9所述的三维建模方法的步骤。
进一步地,所述球幕相机、深度相机分别与移动终端电信号连接,可传输数据信息,所述移动终端和云端服务器无线通信连接,可传输数据信息。在实际应用中,移动终端可以是手机、平板电脑,无线通信方式可以是wifi、3G、4G信号连接。
在步骤S3中,VSLAM算法是在移动终端上基于球幕相机镜头的二维全景照片提供的二维信息进行定位,深度相机镜头拍摄的三维照片提供的三维信息可以对以上定位进行校准。三维照片的三维信息(x,y,z)在移动终端上仅是校准作用,当移动终端将二维信息和三维信息回传云端服务器后,云端服务器则会直接使用这些三维信息的坐标点(x,y,z)形成稠密点云。
在步骤S3中,经过所述VSLAM定位后的位置信息即为初步定位的相机位置信息。需要进一步说明的是,通过VSLAM算法对移动终端所拍摄的二维全景照片提取特征点,对这些特征点进行三角化的处理,恢复出移动终端的三维空间位置(即把二维坐标转换成三维坐标)。
具体的说,VSLAM算法的定位流程:
step1:传感器信息读取,在视觉SLAM中主要为相机图像信息的读取和预处理的操作过程,在移动终端的单目SLAM中进行的工作主要为移动终端采集的二维全景照片的操作过程;
step2:视觉里程计,又称前端,其任务是估算相邻图像间相机的运动轨迹,以及局部地图的大概轮廓和形貌,在此实施例中,移动终端的球幕相机镜头采集二维全景照片,对每一张二维全景照片提取特征点;通过多张二维全景照片之间多视觉集合原理计算出相机位置。;
step 3:后端优化,又称后端,其任务是接受不同时刻视觉里程计测量的相机位姿,以及回环检测的信息,对之前计算出的位置进行优化,用最小二乘法的公式优化出一整条轨迹和地图。
step4:回环检测:已经到过的场景会有特征保存,新提取的特征与之前保存的特征进行匹配,即一个相似性检测过程。对于曾经到过的场景,两者的相似值会很高,即确定曾经来过此处,并利用新的特征点对曾经的场景位置进行纠正。
step 5:建图,其任务是根据后端优化后的估计的轨迹,建立与任务要求对应的地图。
单目的VSLAM还可进行多视觉集合管理,即可基于两帧图像之间进行三角化处理,也可基于多帧视频流进行三角化处理,将上述两者结合之后就会得到一致的轨迹,进一步对轨迹进行优化处理,数据源是移动终端拍摄得到的二维全景照片,利用移动终端的计算资源,通过VSLAM的算法得出在大场景中行走的轨迹,在二维全景照片的基础上获取空间信息。
在步骤S5中,三维重建离线算法在本实施例中为SFM算法,经过步骤S5进一步对相机位置进行精确的定位,可以使在步骤S8中生成的三维模型更精确。以相机位置作为原点,建立相机坐标系,通过现有的相机标定程序或算法求出相机的内参矩阵。所述的特征点为SIFT特征,匹配结果往往有很多误匹配,为了排除这些错误,这里使用了一些现有算法,比如Ratio Test方法和KNN算法,寻找与该特征最匹配的2个特征,若第一个特征的匹配距离与第二个特征的匹配距离之比小于某一阈值,就接受该匹配,否则视为误匹配。得到匹配点后,就可以使用OpenCV3.0中新加入的函数findEssentialMat()来求取本征矩阵了。在拍摄过程中可有多个相机位置,得到本征矩阵后,再使用分解函数对本征矩阵进行分解,得到多个相机位置对应的球幕相机之间的变换矩阵,还有每一对匹配点的坐标。三维重建就是通过这些已知信息还原匹配点在空间当中的坐标。
在步骤S5中,还需要重新计算相机位置信息,对相机位置进行微调,使用的是非线性优化算法Bundle Adjustment(BA):
上式中,其中x是需要进行微调的参数,f一般称为代价函数(Cost Function),ρ为损失函数(Loss Function)。其中f的返回值可能是一个向量,因此总的代价取该向量的2-范数。对于三维重建中的BA,代价函数一般是反向投影误差,比如需要微调的参数有相机的内参矩阵(焦距、光心、畸变等)、外参矩阵(旋转和平移)以及点云,设图像i的内参为Ki,外参矩阵为Ri和Ti,点云中某一点的坐标为Pj,该点在i图像中的像素坐标为pij,则可以写出反向投影误差:
上式中的Pj和均为齐次坐标,其中π为投影函数:π(p)=(px/pz,py/pz,1)。损失函数ρ的目的是为了增强算法的鲁棒性,使得算法不易受离群点(Outliers)的影响,常见的有Huber函数、Tukey函数等。
求解BA采用的是现有的程序,求解成功后,得到最重要的两项分别是微调前的平均反向投影误差和微调后的该值,从两者可看出反向投影误差约为3.6个像素降为1.4个像素,如果删除一些误差过大的点,再进行一次BA,反向投影误差往往能小于0.5个像素,使相机位置信息更精确。
在步骤S6中,如图5所示,是基于深度相机得到的三维信息进而得到的稠密点云和相机位置,其中带数字的圆圈表示相机位置。三维信息即三维照片中的一些特征点的三维坐标点(x,y,z)。
步骤S7中的ICP算法(迭代最近点及其变异算法),采用的是现有技术,假设给两个三维点集X1和X2,ICP方法的匹配步骤如下:
第一步,计算X2中的每一个点在X1点集中的对应近点;
第二步,求得使上述对应点对平均距离最小的刚体变换,求得平移参数和旋转参数;
第三步,对X2使用上一步求得的平移和旋转参数,得到新的变换点集;
第四步,如果新的变换点集与参考点集满足两点集的平均距离小于某一给定阈值,则停止迭代计算,否则新的变换点集作为新的X2继续迭代,直到达到目标函数的要求。
需要进一步说明的是,所述步骤S8中,还可以分为步骤:
S81初步计算出所述球幕相机位置得到部分有噪音点的稠密点云,用距离和重投影的方式进行滤波滤掉噪音点;
S82对稠密点云做标记即整体点云中,并进行对应的标记;
S83以每个稠密点云为起点,以对应的球幕相机作一条虚拟直线,多个所述虚拟直线经过的空间交织在一起,形成一个可视空间;
S84将被射线包围的空间抠出来;
S85基于图论最短路径的方式做闭合空间。
所述稠密点云为每个所述球幕相机可看见过滤之后所获得的。其中步骤S83也可理解为以每个稠密点云为起点,以对应的球幕相机作一条虚拟直线,多个所述虚拟直线经过的空间交织在一起,形成一个可视空间;
上述过滤指的是:在确认了二维图片中某一点对应的三维坐标位置后,将这个三维坐标点重新投影到原来的二维全景照片上,再次确认是否仍是那个点。其原因是,二维全景照片的点与其在三维照片的点的位置是一一对应关系,所以在确认了二维图片中某一点的三维坐标点后,可以将这个三维坐标点重新投射回去验证二维坐标点是否仍在原来的位置,以此来决定该像素点是否为噪点,是否需要过滤。需要说明的是,在照片中确定一张来自于某个所述相机位置的最优二维全景照片。当步骤S8完成上述步骤后,即已完成数字化建模,生成了三维模型。
当所述球幕相机在不同的相机位置都看到某一目标并捕捉到画面,选取使用其中最优的一张进行贴图。所述最优一张图为某一所述相机位置得到的二维全景照片能够得到目标的像素最多,则所述相机位置得到的二维全景照片为最优。在步骤S9中选择最优的二维全景照片进行贴图,即根据二维全景照片中的颜色信息,自动对三维模型进行贴图,二维全景照片的颜色信息,需要利用公式计算出对应的相机及其拍到的图形颜色:
V1=normalize(CameraMatrixi*V0)
式中:V0为任何一个需要采样的空间点坐标(x,y,z,1),对于一个模型需要光栅化所有点;V1为V0变换到相机空间的新位置坐标,通过向量归一化变换到单位球面上;Tx和Ty为V0所对应的纹理坐标(x,y),选用坐标系为OPENGL纹理坐标系;aspecti:采样用的第i个全景图片的长宽比;CameraMatrixi:采样用的第i个全景图片的变换矩阵,将相机位置变换到原点,并重置相机面朝方向。
实施例
如图3所示,为步骤S5中的提取特征点示例;如图4所示,为步骤S5中的进行特征点匹配示例;如图5所示,是基于深度相机得到的三维信息进而得到的稠密点云和相机位置,其中带数字的圆圈表示相机位置。在实际应用中,比基于球幕相机得到的稀疏点云相比,更加清晰,可以建立比较精确地三维模型。在有精确的相机位置的基础上,可以根据相机位置进行贴图,因为每个球幕相机都有其所在的相机位置拍摄保留的二维全景照片的颜色信息。
在步骤S9中,自动对三维模型进行贴图,将在空间某一位置的球幕相机拍摄到的二维全景照片贴到三维模型对应的位置上,类似于从眼睛看到一堵墙是白色,就把白色放到模型对应的墙上。这里的眼睛相当于球幕相机镜头,球幕相机在某一位置将空间中的颜色信息拍摄保存下来,在建模的时候,通过反投影将二维全景照片中的颜色信息再映射回去,建立三维模型。
如图6所示,为步骤S9中进行后的侧视图,根据二维全景照片中的颜色信息,自动对三维模型进行贴图。如图7所示,为步骤S9中进行后的俯视图。
对于本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及变形,而所有的这些改变以及变形都应该属于本发明权利要求的保护范围之内。

Claims (7)

1.一种球幕相机与深度相机结合的三维建模方法,其特征在于,所述方法包括以下步骤:
S1:将球幕相机镜头和深度相机镜头固定于空间中的同一位置,称为相机位置;
S2:使用球幕相机进行拍照,球幕相机镜头获取的是至少一张二维全景照片,所述二维全景照片包含颜色信息和二维信息(x,y),深度相机镜头获取的是至少一张三维照片,所述三维照片包含三维信息(x,y,z);
S3:通过VSLAM算法进行对所述相机位置初步定位,对二维全景照片进行计算,在二维全景照片的基础上获取空间信息;
S4:用三维照片中的三维信息对步骤S3中的空间信息进行校准;
S5:进一步精确定位,使用三维重建离线算法对二维全景照片提取特征点,进行特征点匹配,提高经过步骤S4后的二维全景照片分辨率,重新计算相机位置信息,对相机位置进行微调;
S6:基于三维信息形成稠密点云;
S7:进一步得到精确的稠密点云,使用ICP算法对稠密点云进行匹配,对所有点云进行对比,把属于不同空间的点云放在不同的位置上;
S8:进行数字化建模,生成三维模型;
S9:根据二维全景照片中的颜色信息,自动对三维模型进行贴图。
2.根据权利要求1所述的球幕相机与深度相机结合的三维建模方法,其特征在于,在步骤S4中,若三维信息和空间信息不同,则说明基于二维全景照片计算的空间信息有误,通过三维信息对空间信息进行校准。
3.根据权利要求1所述的球幕相机与深度相机结合的三维建模方法,其特征在于,在步骤S4中,若三维信息和空间信息相同,则不需要通过三维信息对空间信息进行校准。
4.根据权利要求1所述的球幕相机与深度相机结合的三维建模方法,其特征在于,在步骤S1中,所述的同一位置,即对所述空间来说,深度相机镜头和球幕相机镜头的距离差不会对相机位置造成影响,在预设误差范围内。
5.根据权利要求4所述的球幕相机与深度相机结合的三维建模方法,其特征在于,优选地,深度相机镜头和球幕相机镜头采取背靠背方式固定在同一位置。
6.一种球幕相机和深度相机结合的三维建模***,其特征在于,所述***包括:球幕相机、深度相机、将球幕相机和深度相机固定在一起的移动终端、云端服务器、存储并可在所述移动终端上运行的初步定位和校准程序、存储并可在所述云端服务器上运行的三维建模程序,所述初步定位和校准程序被所述移动终端执行时实现如权利要求1中步骤S1-S4、权利要求2-4所述的三维建模方法的步骤,所述三维建模程序被所述云端服务器执行时实现如权利要求1中步骤S5-S9所述的三维建模方法的步骤。
7.根据权利要求6所述的球幕相机和深度相机结合的三维建模***,其特征在于,所述球幕相机、深度相机分别与移动终端电信号连接,所述移动终端和云端服务器无线通信连接。
CN201810255291.7A 2018-03-23 2018-03-23 一种球幕相机与深度相机结合的三维建模方法和*** Active CN108629829B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810255291.7A CN108629829B (zh) 2018-03-23 2018-03-23 一种球幕相机与深度相机结合的三维建模方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810255291.7A CN108629829B (zh) 2018-03-23 2018-03-23 一种球幕相机与深度相机结合的三维建模方法和***

Publications (2)

Publication Number Publication Date
CN108629829A CN108629829A (zh) 2018-10-09
CN108629829B true CN108629829B (zh) 2019-02-15

Family

ID=63696339

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810255291.7A Active CN108629829B (zh) 2018-03-23 2018-03-23 一种球幕相机与深度相机结合的三维建模方法和***

Country Status (1)

Country Link
CN (1) CN108629829B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111489393B (zh) * 2019-01-28 2023-06-02 速感科技(北京)有限公司 Vslam方法、控制器和可移动设备
CN110223270A (zh) * 2019-04-26 2019-09-10 五邑大学 一种使用地理标记照片和三维可视化进行定位的方法
CN110148216B (zh) * 2019-05-24 2023-03-24 中德(珠海)人工智能研究院有限公司 一种双球幕相机的三维建模方法
CN110363806B (zh) * 2019-05-29 2021-12-31 中德(珠海)人工智能研究院有限公司 一种利用不可见光投射特征进行三维空间建模的方法
CN111476897B (zh) * 2020-03-24 2023-04-18 清华大学 基于同步扫描条纹相机的非视域动态成像方法及装置
CN113890984B (zh) * 2020-07-03 2022-12-27 华为技术有限公司 拍照方法、图像处理方法和电子设备
CN113140036B (zh) * 2021-04-30 2024-06-07 中德(珠海)人工智能研究院有限公司 一种三维建模方法、装置、设备及存储介质
CN116152471A (zh) * 2023-04-21 2023-05-23 水发物联科技有限公司 基于视频流的厂区安全生产监管方法及其***、电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105959665A (zh) * 2016-05-05 2016-09-21 清华大学深圳研究生院 一种针对于虚拟现实设备的全景3d视频生成方法
CN205809709U (zh) * 2016-06-28 2016-12-14 珠海市四维时代网络科技有限公司 一种360度旋转图像***
CN107545537A (zh) * 2017-08-21 2018-01-05 嘀拍信息科技南通有限公司 一种从稠密点云生成3d全景图片的方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180041749A1 (en) * 2016-08-04 2018-02-08 Thomas Seidl Method and apparatus for stimulating stereoscopic depth perception of stereoscopic data inside head mounted displays when viewing panoramic immersive stereoscopic content
EP3501014A1 (en) * 2016-08-17 2019-06-26 VID SCALE, Inc. Secondary content insertion in 360-degree video
CN107392944A (zh) * 2017-08-07 2017-11-24 广东电网有限责任公司机巡作业中心 全景影像与点云的配准方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105959665A (zh) * 2016-05-05 2016-09-21 清华大学深圳研究生院 一种针对于虚拟现实设备的全景3d视频生成方法
CN205809709U (zh) * 2016-06-28 2016-12-14 珠海市四维时代网络科技有限公司 一种360度旋转图像***
CN107545537A (zh) * 2017-08-21 2018-01-05 嘀拍信息科技南通有限公司 一种从稠密点云生成3d全景图片的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
对鱼眼照片场景实现三维重建和虚拟浏览;张诚;《计算机辅助设计与图形学学报》;20040131;第16卷(第1期);第79-84, 89页

Also Published As

Publication number Publication date
CN108629829A (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
CN108629829B (zh) 一种球幕相机与深度相机结合的三维建模方法和***
JP7162933B2 (ja) オブジェクトの内部空間モデルを確立するための方法、装置及びシステム、並びに、コンピュータ装置及びコンピュータ可読記憶媒体
JP6201476B2 (ja) 自由視点画像撮像装置およびその方法
CN106780618B (zh) 基于异构深度摄像机的三维信息获取方法及其装置
US11210804B2 (en) Methods, devices and computer program products for global bundle adjustment of 3D images
US9883163B2 (en) Method and system for determining camera parameters from a long range gradient based on alignment differences in non-point image landmarks
WO2018076154A1 (zh) 一种基于鱼眼摄像机空间位姿标定的全景视频生成方法
CN111028155B (zh) 一种基于多对双目相机的视差图像拼接方法
CN110838164B (zh) 基于物体点深度的单目图像三维重建方法、***及装置
CN106534670B (zh) 一种基于固联鱼眼镜头摄像机组的全景视频生成方法
CN103345736A (zh) 一种虚拟视点绘制方法
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、***及装置
CN109523595A (zh) 一种建筑工程直线棱角间距视觉测量方法
CN109559349A (zh) 一种用于标定的方法和装置
CN108629828B (zh) 三维大场景的移动过程中的场景渲染过渡方法
CN108010125A (zh) 基于线结构光和图像信息的真实尺度三维重建***及方法
CN114359406A (zh) 自动对焦双目摄像头的标定、3d视觉及深度点云计算方法
CN105513074B (zh) 一种羽毛球机器人相机以及车身到世界坐标系的标定方法
CN115330594A (zh) 一种基于无人机倾斜摄影3d模型的目标快速识别与标定方法
CN110490943A (zh) 4d全息捕捉***的快速精确标定方法、***及存储介质
CN111429571A (zh) 一种基于时空图像信息联合相关的快速立体匹配方法
CN108564654A (zh) 三维大场景的画面进入方式
CN113409438A (zh) 一种数字摄影测量方法、电子设备及***
RU2384882C1 (ru) Способ автоматической компоновки ландшафтных панорамных изображений
CN110766752A (zh) 一种带反光标志点的虚拟现实交互眼镜及空间定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant