CN107103626A - 一种基于智能手机的场景重建方法 - Google Patents

一种基于智能手机的场景重建方法 Download PDF

Info

Publication number
CN107103626A
CN107103626A CN201710173832.7A CN201710173832A CN107103626A CN 107103626 A CN107103626 A CN 107103626A CN 201710173832 A CN201710173832 A CN 201710173832A CN 107103626 A CN107103626 A CN 107103626A
Authority
CN
China
Prior art keywords
mtd
msub
mtr
mrow
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710173832.7A
Other languages
English (en)
Inventor
朱尊杰
颜成钢
徐枫
龚冰剑
黄海亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Publication of CN107103626A publication Critical patent/CN107103626A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于智能手机的场景重建方法。本方法为:1)计算智能手机上彩色相机的内部相机参数矩阵;2)将深度相机连接到该智能手机上并固定,计算该深度相机对应的内部相机参数矩阵及其缩放因子;3)计算该彩色相机与该深度相机相对应的外部参数矩阵;4)用智能手机上的该彩色相机、深度相机拍摄场景的全景视频,再将该视频转换为图像序列;然后通过得到的外部参数矩阵和内部参数矩阵将图像序列合并为RGB‑D四通道序列;5)计算该RGB‑D中相邻两帧对应的变换矩阵;6)通过RGB‑D与变换矩阵建立场景三维空间点云集,然后通过仿射变换将该点云集显示于智能手机的显示屏上。本发明具有更好的便携性和可塑性。

Description

一种基于智能手机的场景重建方法
技术领域
本发明属于计算机视觉领域,尤其针对场景三维重建,具体涉及一种基于智能手机的场景重建方法。
背景技术
场景重建作为虚拟现实研究的一个重要领域,室内环境的虚拟实现近年来引起了研究者的浓厚兴趣。室内环境的虚拟漫游有着很强的应用背景,比如,虚拟的办公室、博物馆、洞窟等已应用于远程办公、教育、娱乐和旅游等行业。基于图像的场景重建技术采用彩色相机和深度相机同时获取场景中的颜色信息和深度信息,同传统三维扫描设备相比,基于图像的场景重建技术所诞生的***具有价格低廉、结构小巧、使用方便,且能实时捕获物体表面的深度与彩色信息等优点。
一些传统的三维重构方法是存在局限性的,比如算法的精度会受到光照、物体遮挡等因素的影响。而在采用深度相机之后,人们就可以在室内条件下获得比过去更为准确可靠的深度信息。这样,研究人员就不必花费大量精力在深度计算方面,而能够着重于利用RGB-D(彩色及深度)图像解决物体的识别、场景的分类等更高层的问题,从而在某种程度上加快研究的进程。
发明内容
本发明主要考虑现有的基于RGB-D的场景重建***有体积相对较大难以随身携带,成本高难以普及等缺点,如目前市面上的昂贵的kinect等大体积的设备能满足重建,但却不能满足便携的要求。同时要满足目前市面上虚拟现实头戴显示器的要求,设备就必须达到体积小,便于携带等功能。
本发明考虑到虚拟现实头戴显示器需要装配智能手机,同时智能手机上有彩色相机,因此,采用了智能手机上彩色相机结合体积小的基于结构光的深度相机structuresensor的方式,并针对该方式设计出了一种基于IOS(苹果公司开发的移动操作***)的场景重建***。
场景三维重建***主要分为两大阶段:
相机标定与校准阶段和相机定位及三维重建阶段。相机标定与配准阶段:本发明需要设计APP调用智能手机的相机,并将深度相机连接到智能手机上获取深度信息,对两个相机进行标定,得到他们的内参与外参,计算出两个相机的空间相对位置关系,之后通过算法将两个图像序列合并成一个包含RGB-D四通道的图像序列。相机定位及三维重建阶段:该阶段本发明需要对RGB-D图像序列进行进一步的优化处理,本发明设计采用图像修补算法对每帧图像进行补洞填充,并设计针对本发明的去噪算法来滤除因光强不均,特殊材料光反射等造成的噪声。再将优化后的图像序列进行特征点的提取,并通过ORB算法进行特征描述,然后通过所得到的相邻帧的特征信息进行配准,得到相机的姿态变换矩阵,建立三维空间点云(X,Y,Z,R,G,B)并显示场景的三维图像。
本发明将所有的算法与步骤如调用摄像头,调用深度相机,校准相机内参与外参,彩色相机与深度相机配准算法,三维点云建立等,都集成在一个APP中,同时简化了其操作达到了快速有效,简单易行,并将结果直接显示在手机显示屏中。
本发明具体按照以下步骤实施:
步骤1、在智能手机中安装相机调用模块,通过相机调用模块调用智能手机上的彩色相机,用彩色相机从各个设定角度拍摄棋盘格,利用棋盘格上设定的多个坐标的特征点,计算智能手机上彩色相机的内部相机参数矩阵:
其中,fx=f/dx,fy=f/dy分别是彩色相机坐标x轴和y轴上的归一化焦距;f是彩色相机的焦距,dx和dy分别表示彩色相机平面x轴和y轴上单位像素的尺寸大小。cx和cy则表示光学中心,即彩色相机光轴与图像平面的交点,通常位于图像中心处,故其值被取为相机分辨率的一半。
步骤2、将深度相机structure sensor连接到智能手机上并固定,通过相机调用模块调用该深度相机,通过深度相机从各个角度对棋盘格进行拍摄,计算得到深度相机对应的内部相机参数矩阵T’,矩阵形式同公式(1),此外,深度相机还需要另外计算一个缩放因子s,该缩放因子s为深度相机所得到的相平面上各像素点的数值与实际空间中实际距离的比例值。
下式为深度相机所对应的相机坐标系到空间坐标系的转换公式:
其中,(u,v)分别为二维平面即二维图片上各个像素点位置的横纵坐标,在拍摄得到二维图片后,设图片左上角为原点即可确定图片各像素点的坐标,(x,y,z)为图片中各像素点所对应的三维空间坐标。
步骤3、通过彩色相机和深度相机同时拍摄棋盘格,得到两个相机拍摄空间中同一点所得的平面坐标,利用公式(2)将其转换为空间坐标,并利用公式(4)进行配准,得到两个相机相对应的外部参数矩阵,即公式(3)。由于空间中某一点对应到两个相机平面中时,其在两个相机坐标系中的坐标位置是不同的,因此需通过该外部参数矩阵,即利用公式(4)将其配准到相同的坐标上,使得在相同的坐标中,本发明能得到场景中该点的颜色信息和距离信息。
外部参数矩阵形式如下:
其中,R是大小为3×3的旋转矩阵,t是大小为3×1的平移向量。本发明可通过将深度相机得到的空间点坐标乘以旋转矩阵R进行旋转,再加上平移向量t,变换到对应的彩色相机所得到的空间点坐标位置。
彩色相机与深度相机所对应的空间点坐标转换公式如下:
其中,(Xc,Yc,Zc)为通过彩色相机转换得到的空间点坐标,(XD,YD,ZD)为通过深度相机转换得到的空间点坐标。
步骤4、用智能手机上的彩色相机和深度相机拍摄场景的全景视频,再将视频转换为图像序列即深度图像序列和彩色图像序列,并通过所得到的外部参数矩阵和内部参数矩阵将两种图像序列合并,即将RGB三通道的彩色图像序列与单通道的深度图像序列合并为RGB-D四通道序列,得到合并后的图像序列{F1,F2,F3,F4,…}。
步骤5、由于合并后的图像序列中的图片并不是每一个像素都能有RGB-D信息,于是需要通过图像修复算法(AlexandruTelea.An Image Inpainting Technique Based onthe Fast Marching Method[J].Journal of Graphics Tools,2004,9(1):23-34.)对图像序列进行修补,同时利用去噪算法来滤除因光强不均,特殊材料光反射等造成的噪声,提高场景重建的精度。
步骤6、利用特征点匹配的图像处理方法匹配图像序列{F1,F2,F3,F4,…}中的相邻两帧,得到对应的变换矩阵Mi
其中,Ei是大小为3×3的旋转矩阵,gi是大小为3×1的平移向量。图像序列{F1,F2,F3,F4,…}中相邻两帧图像中,前一帧图像的像素点坐标乘以旋转矩阵Ei后再加上平移向量gi就能变换到对应的后一帧图像的像素点坐标位置。
步骤7、由于步骤6中计算所得的Mi存在累积误差,因此需要对所有变换矩阵Mi进行全局优化,得到最优的Ei与gi的集合,使通过变化矩阵Mi计算得到的图像与真实图像的误差总和最小,设置图像序列{F1,F2,F3,F4,…}的变换矩阵优化模型为:
其中,pi和qi是相邻两帧的图像数据,都包含RGB-D信息,都是以三维矩阵形式进行存储,具体的大小视相机分辨率而定,同时pi为后一帧图片数据,qi为前一帧图片数据;N为视频的总帧数。
步骤8、通过得到的图像序列与变换矩阵建立场景三维空间点云集,设置场景三维点云数学模型为:
通过智能手机上安装的显示模块,显示公式7所计算出的场景三维空间点云集,该点云集中的每个点都包含(X,Y,Z,R,G,B)等6种信息,再通过仿射变换将该点云集显示于智能手机的显示屏上。
本发明方法具有的优点及有益结果为:
1.本发明利用手机自带的彩色相机,结合深度相机的方式所搭建的场景重建***能直接放入目前市面上的虚拟现实头戴显示器中,通过***将现实场景显示在虚拟世界中,解决目前VR领域无法进行虚拟与现实场景有效交互的弊端。
2.本发明以手机为平台搭建场景重建***,使得整个***简单轻便,十分便于携带;除此之外,实现场景重建技术的成本也降低了很多只需要另行购买一个深度相机即可。
3.本发明的其中一个难点是手机彩色相机与深度相机的标定与配准,本发明设计了自动的标定与配准算法并将该算法编写入APP中,能十分简单便捷得进行两个相机之间的配准过程,同时该APP集成了本发明的所有步骤,且操作简单,极大地降低了用户的上手难度,使得本发明更容易被大众接受和普及。
4.随着计算机技术广泛应用于生产生活的方方面面,高效建立物体三维几何模型的需求更加旺盛,三维重建技术成为学术界研究热点。本项目由于使用便于携带的智能手机作为核心处理单元,可以通过在现已有的智能手机设备上实现场景的三维重建,在多个行业具有广泛的应用前景,且能快速便捷地实现场景的三维重建,较之已有的三维重建***,本发明具有更好的便携性和可塑性。
附图说明
图1是本发明所开发的基于IOS的***状态流程图;
图2是本发明的相机标定与校准阶段算法流程图;
图3是本发明的相机定位及三维重建阶段流程图。
具体实施方式
下面结合具体实施方式对本发明进行详细的说明。
本发明提出的基于智能手机的场景重建方法,按照以下步骤实施。
步骤1、设计智能手机APP调用智能手机上的彩色相机,将深度相机structuresensor连接到智能手机上并固定,并设计函数去启动该深度相机,以及传输深度相机上得到的深度信息到手机端。编写特定函数来捕获特定时间点上的彩色相机上的RGB信息,以及深度相机上的深度信息。在图1中,从0状态到状态1测试智能手机摄像头,即彩色相机的性能得到其分辨率。连接上深度相机后,从状态1到达状态2,并测试深度相机的性能得到其分辨率。
步骤2、在图1中,从状态2到状态3,将深度相机的模式切换为红外模式,并同步刷新RGB图像和红外图像,使两者能在同一时间输出数据到手机终端使所获数据的时间统一。从状态3到状态4,通过棋盘格对齐RGB与红外图像,即对齐彩色相机和深度相机所获取的图像,对齐采用了非错切仿射变换。对齐图像的目的是使分辨率不同的两个相机输出统一分辨率的图像。对齐完成后回到状态3。
步骤3、从状态3到状态5,在同步刷新RGB和红外图像之后,用彩色相机从各个角度自动拍摄特定的棋盘格,并利用棋盘格上的特定坐标的特征点自动计算智能手机上彩色相机的内部相机参数矩阵:
其中fx=f/dx,fy=f/dy分别是相机坐标x轴和y轴上的归一化焦距;f是相机的焦距,dx和dy分别表示相机平面x轴和y轴上单位像素的尺寸大小。cx和cy则表示光学中心,即相机光轴与图像平面的交点,通常位于图像中心处,故cx和cy值被取为相机分辨率的一半。
步骤4、同样在状态5时,当计算完成彩色相机内部参数矩阵后,APP将自动切换为深度相机的内参矩阵计算模式,通过深度相机对应的棋盘格自动拍摄并计算得到深度相机对应的内部相机参数矩阵,矩阵形式同公式(1),此外,深度相机另有一个缩放因子s,该参数为深度相机所得到的相平面上各像素点的数值与实际空间中实际距离的比例值。
下式为深度相机所对应的相机坐标系到空间坐标系的转换公式:
步骤5、标定完成后,从状态5回到状态3,深度相机从红外模式切换成深度模式,并从状态3回到状态2。开始对彩色相机和深度相机进行配准,计算两个相机相对应的外部参数矩阵。把空间中某一点对应到两个相机平面中时,其在两个相机坐标系中的坐标位置是不同的,通过该外部参数矩阵,本发明可以将其配准到相同的坐标上,使得在相同的坐标中,本发明能得到现实场景中某一点的颜色信息和距离信息。
外部参数矩阵形式如下:
其中R是大小为3×3的旋转矩阵,t是大小为3×1的平移向量。
彩色相机与深度相机所对应的的空间点坐标转换公式如下:
其中(Xc,Yc,Zc)为通过彩色相机转换得到的空间点坐标,(XD,YD,ZD)为通过深度相机转换得到的空间点坐标。
步骤6、在完成外参的计算后,状态2启动场景重建模式,用智能手机上的彩色相机和深度相机拍摄场景的全景视频,再将视频转换为图像序列即深度图像序列和彩色图像序列,并通过所得到的外部参数矩阵和内部参数矩阵将两种图像序列合并,得到合并后的图像序列{F1,F2,F3,F4,…}。
步骤7、由于合并后的图像序列中的图片并不是每一个像素都能有RGB-D信息,于是需要通过FMM图像修复算法对图像序列进行修补,同时利用高斯低通滤波去噪算法来滤除噪声,提高场景重建的精度。
步骤8、利用特征点匹配的图像处理方法计算所得图像序列相邻帧之间的变换矩阵
特征点匹配过程利用了ORB算法进行每一帧图像的特征点检测与描述,并利用FLANN与RANSAC算法进行特征点匹配的优化。之后对所有变换矩阵Mi进行全局优化,设置RGB-D图像序列的变换矩阵优化模型为:
其中pi和qi是相邻两帧的图像数据,都包含RGB-D信息,都是以三维矩阵形式进行存储,具体的大小视相机分辨率而定,同时pi为后一帧图片数据,qi为前一帧图片数据,;N为视频的总体帧数。Ei是大小为3×3的矩阵,gi是大小为3×1的向量。
步骤9、通过得到的RGB-D图像序列以及图像序列每一帧所对应的变换矩阵建立场景三维空间点云集,设置场景三维点云数学模型为:
APP定义上式所计算出的场景三维空间点云集,该点云中的每个点都包含(X,Y,Z,R,G,B)等6维信息,即空间中某点的三维坐标与颜色信息。最后APP将该点云显示于智能手机的显示屏上,展现场景的三维模型,用户可以通过滑动触摸屏转动视角观看场景的每一个角落。

Claims (1)

1.一种基于智能手机的场景重建方法,其特征在于包括如下步骤:
步骤1、在智能手机中安装相机调用模块,通过相机调用模块调用智能手机上的彩色相机,用彩色相机从各个设定角度拍摄棋盘格,利用棋盘格上设定的多个坐标的特征点,计算智能手机上彩色相机的内部相机参数矩阵:
<mrow> <mi>T</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>f</mi> <mi>x</mi> </msub> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <msub> <mi>c</mi> <mi>x</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <msub> <mi>f</mi> <mi>y</mi> </msub> </mtd> <mtd> <msub> <mi>c</mi> <mi>y</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,fx=f/dx,fy=f/dy分别是彩色相机坐标x轴和y轴上的归一化焦距;f是彩色相机的焦距,dx和dy分别表示彩色相机平面x轴和y轴上单位像素的尺寸大小;cx和cy则表示光学中心,即彩色相机光轴与图像平面的交点,通常位于图像中心处,故其值被取为相机分辨率的一半;
步骤2、将深度相机structure sensor连接到智能手机上并固定,通过相机调用模块调用该深度相机,通过深度相机从各个角度对棋盘格进行拍摄,计算得到深度相机对应的内部相机参数矩阵T’,矩阵形式同公式(1),此外,深度相机还需要另外计算一个缩放因子s,该缩放因子s为深度相机所得到的相平面上各像素点的数值与实际空间中实际距离的比例值;
下式为深度相机所对应的相机坐标系到空间坐标系的转换公式:
<mrow> <mi>s</mi> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>u</mi> </mtd> </mtr> <mtr> <mtd> <mi>v</mi> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>f</mi> <mi>x</mi> </msub> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <msub> <mi>c</mi> <mi>x</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <msub> <mi>f</mi> <mi>y</mi> </msub> </mtd> <mtd> <msub> <mi>c</mi> <mi>y</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>x</mi> </mtd> </mtr> <mtr> <mtd> <mi>y</mi> </mtd> </mtr> <mtr> <mtd> <mi>z</mi> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中,(u,v)分别为二维平面即二维图片上各个像素点位置的横纵坐标,在拍摄得到二维图片后,设图片左上角为原点即可确定图片各像素点的坐标,(x,y,z)为图片中各像素点所对应的三维空间坐标;
步骤3、通过彩色相机和深度相机同时拍摄棋盘格,得到两个相机拍摄空间中同一点所得的平面坐标,利用公式(2)将其转换为空间坐标,并利用公式(4)进行配准,得到两个相机相对应的外部参数矩阵,即公式(3);由于空间中某一点对应到两个相机平面中时,其在两个相机坐标系中的坐标位置是不同的,因此需通过该外部参数矩阵,即利用公式(4)将其配准到相同的坐标上,使得在相同的坐标中,本发明能得到场景中该点的颜色信息和距离信息;
外部参数矩阵形式如下:
<mrow> <mi>V</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>R</mi> </mtd> <mtd> <mi>t</mi> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
其中,R是大小为3×3的旋转矩阵,t是大小为3×1的平移向量;本发明可通过将深度相机得到的空间点坐标乘以旋转矩阵R进行旋转,再加上平移向量t,变换到对应的彩色相机所得到的空间点坐标位置;
彩色相机与深度相机所对应的空间点坐标转换公式如下:
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>X</mi> <mi>C</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>Y</mi> <mi>C</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>Z</mi> <mi>C</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>R</mi> </mtd> <mtd> <mi>t</mi> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>X</mi> <mi>D</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>Y</mi> <mi>D</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>Z</mi> <mi>D</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中,(Xc,Yc,Zc)为通过彩色相机转换得到的空间点坐标,(XD,YD,ZD)为通过深度相机转换得到的空间点坐标;
步骤4、用智能手机上的彩色相机和深度相机拍摄场景的全景视频,再将视频转换为图像序列即深度图像序列和彩色图像序列,并通过所得到的外部参数矩阵和内部参数矩阵将两种图像序列合并,即将RGB三通道的彩色图像序列与单通道的深度图像序列合并为RGB-D四通道序列,得到合并后的图像序列{F1,F2,F3,F4,…};
步骤5、由于合并后的图像序列中的图片并不是每一个像素都能有RGB-D信息,于是需要通过图像修复算法对图像序列进行修补,同时利用去噪算法来滤除噪声,提高场景重建的精度;
步骤6、利用特征点匹配的图像处理方法匹配图像序列{F1,F2,F3,F4,…}中的相邻两帧,得到对应的变换矩阵Mi
<mrow> <msub> <mi>M</mi> <mi>i</mi> </msub> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>E</mi> <mi>i</mi> </msub> </mtd> <mtd> <msub> <mi>g</mi> <mi>i</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>N</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,Ei是大小为3×3的旋转矩阵,gi是大小为3×1的平移向量;图像序列{F1,F2,F3,F4,…}中相邻两帧图像中,前一帧图像的像素点坐标乘以旋转矩阵Ei后再加上平移向量gi就能变换到对应的后一帧图像的像素点坐标位置;
步骤7、由于步骤6中计算所得的Mi存在累积误差,因此需要对所有变换矩阵Mi进行全局优化,得到最优的Ei与gi的集合,使通过变化矩阵Mi计算得到的图像与真实图像的误差总和最小,设置图像序列{F1,F2,F3,F4,…}的变换矩阵优化模型为:
<mrow> <msub> <mi>min</mi> <mrow> <msub> <mi>E</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>g</mi> <mi>i</mi> </msub> </mrow> </msub> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <mo>|</mo> <mo>|</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>-</mo> <mrow> <mo>(</mo> <msub> <mi>E</mi> <mi>i</mi> </msub> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>g</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
其中,pi和qi是相邻两帧的图像数据,都包含RGB-D信息,都是以三维矩阵形式进行存储,具体的大小视相机分辨率而定,同时pi为后一帧图片数据,qi为前一帧图片数据;N为视频的总帧数;
步骤8、通过得到的图像序列与变换矩阵建立场景三维空间点云集,设置场景三维点云数学模型为:
<mrow> <mi>C</mi> <mo>=</mo> <msub> <mi>M</mi> <mn>1</mn> </msub> <mo>+</mo> <msubsup> <mi>F</mi> <mn>1</mn> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>*</mo> <msub> <mi>M</mi> <mn>2</mn> </msub> <mo>+</mo> <msubsup> <mi>F</mi> <mn>2</mn> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>*</mo> <msub> <mi>M</mi> <mn>3</mn> </msub> <mo>+</mo> <mo>...</mo> <msubsup> <mi>F</mi> <mi>N</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>*</mo> <msub> <mi>M</mi> <mi>N</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
通过智能手机上安装的显示模块,显示公式7所计算出的场景三维空间点云集,该点云集中的每个点都包含(X,Y,Z,R,G,B)6种信息,再通过仿射变换将该点云集显示于智能手机的显示屏上。
CN201710173832.7A 2017-02-17 2017-03-22 一种基于智能手机的场景重建方法 Pending CN107103626A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2017100863160 2017-02-17
CN201710086316 2017-02-17

Publications (1)

Publication Number Publication Date
CN107103626A true CN107103626A (zh) 2017-08-29

Family

ID=59675648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710173832.7A Pending CN107103626A (zh) 2017-02-17 2017-03-22 一种基于智能手机的场景重建方法

Country Status (1)

Country Link
CN (1) CN107103626A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010089A (zh) * 2017-12-22 2018-05-08 中国人民解放***箭军工程大学 一种基于双目可运动摄像机的高分辨率图像获取方法
CN108053435A (zh) * 2017-11-29 2018-05-18 深圳奥比中光科技有限公司 基于手持移动设备的动态实时三维重建方法和***
CN108174180A (zh) * 2018-01-02 2018-06-15 京东方科技集团股份有限公司 一种显示装置、显示***及三维显示方法
CN108230437A (zh) * 2017-12-15 2018-06-29 深圳市商汤科技有限公司 场景重建方法和装置、电子设备、程序和介质
CN108332662A (zh) * 2018-02-06 2018-07-27 新石器龙码(北京)科技有限公司 一种物体测量方法和装置
CN108805972A (zh) * 2018-04-11 2018-11-13 杭州电子科技大学 一种基于地面法向和二维交线的三维重建方法
WO2019047847A1 (zh) * 2017-09-06 2019-03-14 深圳岚锋创视网络科技有限公司 一种虚拟现实的六自由度三维重构方法、***及便携式终端
CN109816731A (zh) * 2017-11-21 2019-05-28 西安交通大学 一种rgb和深度信息精确配准的方法
WO2019101061A1 (en) * 2017-11-22 2019-05-31 Huawei Technologies Co., Ltd. Three-dimensional (3d) reconstructions of dynamic scenes using reconfigurable hybrid imaging system
CN110517305A (zh) * 2019-08-16 2019-11-29 兰州大学 一种基于图像序列的固定物体三维图像重构方法
CN110675456A (zh) * 2019-09-18 2020-01-10 深圳普罗米修斯视觉技术有限公司 多深度摄像机外部参数标定方法、装置及存储介质
CN111754558A (zh) * 2019-03-26 2020-10-09 舜宇光学(浙江)研究院有限公司 用于rgb-d摄像***与双目显像***的匹配方法及其***和计算***
CN111750850A (zh) * 2019-03-27 2020-10-09 杭州海康威视数字技术股份有限公司 角度信息获取方法、装置和***
CN112802068A (zh) * 2020-12-24 2021-05-14 奥比中光科技集团股份有限公司 一种同步获取深度、彩色与光谱图像的装置及识别***
CN115049795A (zh) * 2022-05-11 2022-09-13 成都信息工程大学 一种基于影像外方位元素的三维结构重建装置及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102692236A (zh) * 2012-05-16 2012-09-26 浙江大学 基于rgb-d相机的视觉里程计方法
CN104463880A (zh) * 2014-12-12 2015-03-25 中国科学院自动化研究所 一种rgb-d图像获取方法
CN105224288A (zh) * 2014-06-27 2016-01-06 北京大学深圳研究生院 双目三维图形渲染方法及相关***
CN106204731A (zh) * 2016-07-18 2016-12-07 华南理工大学 一种基于双目立体视觉***的多视角三维重建方法
CN106251357A (zh) * 2016-08-04 2016-12-21 合肥景昇信息科技有限公司 基于虚拟现实与视觉定位***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102692236A (zh) * 2012-05-16 2012-09-26 浙江大学 基于rgb-d相机的视觉里程计方法
CN105224288A (zh) * 2014-06-27 2016-01-06 北京大学深圳研究生院 双目三维图形渲染方法及相关***
CN104463880A (zh) * 2014-12-12 2015-03-25 中国科学院自动化研究所 一种rgb-d图像获取方法
CN106204731A (zh) * 2016-07-18 2016-12-07 华南理工大学 一种基于双目立体视觉***的多视角三维重建方法
CN106251357A (zh) * 2016-08-04 2016-12-21 合肥景昇信息科技有限公司 基于虚拟现实与视觉定位***

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHENGGANG YAN ET AL: "《A Highly Parallel Framework for HEVC Coding Unit Partitioning Tree Decision on Many-core Processors》", 《IEEE SIGNAL PROCESSING LETTERS》 *
ETHAN RUBLEE ET AL: "《ORB: an efficient alternative to SIFT or SURF》", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
刘毅: "《结合kinect的双目视觉场景三维重建》", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
琚旋: "《深度与彩色相机的联合标定及其在增强现实中的应用》", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019047847A1 (zh) * 2017-09-06 2019-03-14 深圳岚锋创视网络科技有限公司 一种虚拟现实的六自由度三维重构方法、***及便携式终端
CN109816731B (zh) * 2017-11-21 2021-08-27 西安交通大学 一种rgb和深度信息精确配准的方法
CN109816731A (zh) * 2017-11-21 2019-05-28 西安交通大学 一种rgb和深度信息精确配准的方法
US10529086B2 (en) 2017-11-22 2020-01-07 Futurewei Technologies, Inc. Three-dimensional (3D) reconstructions of dynamic scenes using a reconfigurable hybrid imaging system
WO2019101061A1 (en) * 2017-11-22 2019-05-31 Huawei Technologies Co., Ltd. Three-dimensional (3d) reconstructions of dynamic scenes using reconfigurable hybrid imaging system
CN108053435A (zh) * 2017-11-29 2018-05-18 深圳奥比中光科技有限公司 基于手持移动设备的动态实时三维重建方法和***
CN108230437B (zh) * 2017-12-15 2021-11-09 深圳市商汤科技有限公司 场景重建方法和装置、电子设备、程序和介质
CN108230437A (zh) * 2017-12-15 2018-06-29 深圳市商汤科技有限公司 场景重建方法和装置、电子设备、程序和介质
CN108010089B (zh) * 2017-12-22 2021-09-07 中国人民解放***箭军工程大学 一种基于双目可运动摄像机的高分辨率图像获取方法
CN108010089A (zh) * 2017-12-22 2018-05-08 中国人民解放***箭军工程大学 一种基于双目可运动摄像机的高分辨率图像获取方法
US10652513B2 (en) 2018-01-02 2020-05-12 Boe Technology Group Co., Ltd. Display device, display system and three-dimension display method
CN108174180B (zh) * 2018-01-02 2019-07-30 京东方科技集团股份有限公司 一种显示装置、显示***及三维显示方法
CN108174180A (zh) * 2018-01-02 2018-06-15 京东方科技集团股份有限公司 一种显示装置、显示***及三维显示方法
CN108332662A (zh) * 2018-02-06 2018-07-27 新石器龙码(北京)科技有限公司 一种物体测量方法和装置
CN108332662B (zh) * 2018-02-06 2020-02-11 新石器龙码(北京)科技有限公司 一种物体测量方法和装置
CN108805972A (zh) * 2018-04-11 2018-11-13 杭州电子科技大学 一种基于地面法向和二维交线的三维重建方法
CN111754558A (zh) * 2019-03-26 2020-10-09 舜宇光学(浙江)研究院有限公司 用于rgb-d摄像***与双目显像***的匹配方法及其***和计算***
CN111754558B (zh) * 2019-03-26 2023-09-26 舜宇光学(浙江)研究院有限公司 用于rgb-d摄像***与双目显像***的匹配方法及其相关***
CN111750850A (zh) * 2019-03-27 2020-10-09 杭州海康威视数字技术股份有限公司 角度信息获取方法、装置和***
CN111750850B (zh) * 2019-03-27 2021-12-14 杭州海康威视数字技术股份有限公司 角度信息获取方法、装置和***
CN110517305A (zh) * 2019-08-16 2019-11-29 兰州大学 一种基于图像序列的固定物体三维图像重构方法
CN110517305B (zh) * 2019-08-16 2022-11-04 兰州大学 一种基于图像序列的固定物体三维图像重构方法
CN110675456A (zh) * 2019-09-18 2020-01-10 深圳普罗米修斯视觉技术有限公司 多深度摄像机外部参数标定方法、装置及存储介质
CN112802068A (zh) * 2020-12-24 2021-05-14 奥比中光科技集团股份有限公司 一种同步获取深度、彩色与光谱图像的装置及识别***
CN115049795A (zh) * 2022-05-11 2022-09-13 成都信息工程大学 一种基于影像外方位元素的三维结构重建装置及方法
CN115049795B (zh) * 2022-05-11 2023-08-08 成都信息工程大学 一种基于影像外方位元素的三维结构重建装置及方法

Similar Documents

Publication Publication Date Title
CN107103626A (zh) 一种基于智能手机的场景重建方法
CN106327532B (zh) 一种单幅图像的三维配准方法
CN109920007B (zh) 基于多光谱光度立体与激光扫描的三维成像装置及方法
CN109064404A (zh) 一种基于多相机标定的全景拼接方法、全景拼接***
CN106228507A (zh) 一种基于光场的深度图像处理方法
CN108876926A (zh) 一种全景场景中的导航方法及***、ar/vr客户端设备
CN108629829B (zh) 一种球幕相机与深度相机结合的三维建模方法和***
CN113160339B (zh) 一种基于沙姆定律的投影仪标定方法
CN111932678B (zh) 多视点实时人体运动、手势、表情、纹理重建***
CN107358633A (zh) 一种基于三点标定物的多相机内外参标定方法
CN106097443B (zh) 城市室内外一体化三维场景构建与空间自适应导航方法
CN102521586B (zh) 一种用于拍照手机的高分辨率三维人脸扫描方法
CN110070598A (zh) 用于3d扫描重建的移动终端及其进行3d扫描重建方法
CN106846410A (zh) 基于三维的行车环境成像方法及装置
CN109559349A (zh) 一种用于标定的方法和装置
CN108053435A (zh) 基于手持移动设备的动态实时三维重建方法和***
CN107705252A (zh) 适用于双目鱼眼图像拼接展开校正的方法及***
CN107407554A (zh) 对多相机成像***进行仿真
CN104809719A (zh) 基于单应性矩阵分割的虚拟视点合成的方法
CN110838164A (zh) 基于物体点深度的单目图像三维重建方法、***及装置
CN108629828B (zh) 三维大场景的移动过程中的场景渲染过渡方法
CN110969696A (zh) 三维建模快速空间重构的方法及***
CN116778288A (zh) 一种多模态融合目标检测***及方法
Lin et al. Vision system for fast 3-D model reconstruction
CN113379901A (zh) 利用大众自拍全景数据建立房屋实景三维的方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Yan Chenggang

Inventor after: Zhu Zunjie

Inventor after: Xu Feng

Inventor after: Gong Bingjian

Inventor after: Huang Hailiang

Inventor before: Zhu Zunjie

Inventor before: Yan Chenggang

Inventor before: Xu Feng

Inventor before: Gong Bingjian

Inventor before: Huang Hailiang

WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170829