CN103530907A - 基于图像的复杂三维模型绘制方法 - Google Patents

基于图像的复杂三维模型绘制方法 Download PDF

Info

Publication number
CN103530907A
CN103530907A CN201310497271.8A CN201310497271A CN103530907A CN 103530907 A CN103530907 A CN 103530907A CN 201310497271 A CN201310497271 A CN 201310497271A CN 103530907 A CN103530907 A CN 103530907A
Authority
CN
China
Prior art keywords
visual angle
pixel
virtual visual
image
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310497271.8A
Other languages
English (en)
Other versions
CN103530907B (zh
Inventor
向开兵
郝爱民
吴伟和
李帅
王德志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN ESUN DISPLAY CO Ltd
Beihang University
Original Assignee
SHENZHEN ESUN DISPLAY CO Ltd
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN ESUN DISPLAY CO Ltd, Beihang University filed Critical SHENZHEN ESUN DISPLAY CO Ltd
Priority to CN201310497271.8A priority Critical patent/CN103530907B/zh
Publication of CN103530907A publication Critical patent/CN103530907A/zh
Application granted granted Critical
Publication of CN103530907B publication Critical patent/CN103530907B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种基于图像的复杂三维模型绘制方法,在包围模型的球面上均匀选择顶点作为相机坐标位置,以球心为相机的目标点,获得模型在此采样视角下的彩色图像与深度图像。根据采样点坐标对球面进行三角划分,确定虚拟视角所在的三角形,取以三角形的顶点为采样点所对应的视角为参考视角,使用参考视角下的深度图像与彩色图像绘制虚拟视角下的模型:首先,利用参考视角的参数分别计算虚拟视角与三个参考视角中像素之间的映射关系;其次,以深度图像为参考,选择合适的参考视角像素或者背景像素绘制虚拟视角的图像;最后,对绘制得到的彩色图像进行优化。本发明能够满足实时性的要求,同时得到十分逼真的绘制效果。

Description

基于图像的复杂三维模型绘制方法
技术领域
本发明涉及一种基于图像的真实感绘制方法,主要用于复杂模型在虚拟视角下的真实感绘制。
背景技术
传统的图形学当中真实感绘制的一般过程是:用户输入物体的几何特性并进行几何建模,然后根据模型所在环境的光照信息,模型的光滑度、透明度、反射率折射率等物理属性,以及表面纹理等,通过空间变换、透视变换等,计算得到物体在特定视角下的每个像素的颜色值。然而,这种方法的建模过程复杂,计算和显示的开销大,时间复杂度与模型复杂度耦合性高,不适用于复杂模型的绘制,并且难以得到逼真的绘制结果。
基于图像的绘制方法(Image-Based Rendering.IBR)以图像作为基本的输入,在不进行几何模型重建的基础上合成虚拟视角下的图像,在视频游戏、虚拟旅行、电子商务、工业检测等领域有着非常广阔的应用前景,因此也是三维图形逼真绘制领域的一个研究热点。本发明所提出的基于图像的复杂三维模型绘制方法是一种IBR方法。
基于图像绘制的主要方法如下:
1.几何和图像混合建模和绘制方法(Hybrid Geometry and Image-based Approach)
PaulE.Debevec(参考文献1-PaulE.Debevec,camilloj.Taylor,Jitendra make.“Modeling and rendering architecture from photographs:a hybrid geometry andimaged-based approach”.In SIGGRAPH96Processing of the23rdannual conference oncomputer graphics and interactive techniques.Page11-20)提出的几何和图像混合建模和绘制方法的主要步骤如下:
a.拍摄场景照片,交互指定模型的边缘;
b.生成模型的粗糙模型;
c.利用基于模型的立体视觉算法细化模型;
d.利用基于视点的纹理映射合成新视图。
此过程的实例如图4所示。这种方法的优点是简单快捷,可以通过拍摄少量的照片得到的新视图;缺点此过程还需要人为的指定模型的轮廓,只能适用于普通建筑物等外形规整的景物,不适用于复杂模型。
2.视图插值、变换的方法(View Interpolation、Transaction)
视图插值、变换方法直接利用参考点的照片生成虚拟视角下的图像。视图插值、变换方法(参考文献2-Geetha Ramachandran,Markus Rupp.“MultiView Synthesis From StereoViews”.In IWSSIP2012,11-13April2012,PP.341-PP.345.参考文献3-Ankit K.Jain,Lam C.Tran,RamsinKhoshabeh,Truong Q.Nguyen,Efficient Stereo-to-MultiviewSynthesis,ICASSP2011.PP.889-PP.892.参考文献4-S.C.Chan,A.C.Bovik,H.R.Sheikh,and E.P.SimomCelli,“Image-Based Rendering and synthesis”,IEEE SignalProcess,Mag,vol.24,no.6,PP.22-PP.33)的输入是两个视角下的规整化的彩色图像与深度图像,输出的是位于两个参考点所决定的直线上(基线,Baseline)的虚拟视角下的图像,具体的过程如下:
a.立体匹配,生成最初的合成视角图像;
b.优化处理,根据边缘检测找到可能的空洞点;
c.填充生成合成视角所对应的深度图;
d.图像重建,根据深度图像填充彩色图像空洞。
此方法的实例如图5所示。这种方法的优点是过程简单,生成图像的信噪峰值比高(信噪峰值比(PSNR),表征处理后的图像与处理前图像的相似度。信号峰值比越高,说明合成图像的真实度越强),并且能够出色的填补空洞。但是此方法只能产生位于基线上的虚拟视角的图像,而且对图片进行规整化操作会引入投影误差,只能生成近似的中间图像。
发明内容
现有的三维模型真实感绘制方法存在以下缺点:基于几何的方法存在模型获取与重建过程复杂,绘制过程受模型复杂度、模型光照属性影响大,绘制效果真实感不强,不适用于复杂模型的绘制;基于图像的绘制方法,合成视角被局限在两个参考视角之间的基线上,无法生成物体在任意视角下的图像。
针对现有技术的缺点,本发明提出基于图像的复杂三维模型绘制方法,其包含如下过程:
(1)虚拟视角的标定:根据采样点相机位置坐标对包围模型的球面进行三角划分,确定虚拟视角所在的三角面片,取此三角面片的三个顶点所对应的视角为参考视角,虚拟视角可以被表示成参考视角的线性组合;
(2)计算与绘制:根据虚拟视角、参考视角的位置和相机参数,计算三个参考视角图像中每个像素的坐标与虚拟视角下的像素坐标之间的映射关系;根据映射关系,将参考视角下彩色图像中的每一个像素映射到虚拟视角下的图像中,计算该像素在虚拟视角下图像中的坐标和深度值,对于有多个参考视角的像素映射到同一位置的情况,取深度值小的像素值;同时标记虚拟视角下图像中所有已被参考视角像素填充的像素,构造一幅反映从参考视角到虚拟视角映射情况的灰度图;
(3)图像的优化:对于虚拟视角下图像中的空洞,即经过(2)计算没有参考图像映射到该位置的像素,从反映参考视角到虚拟视角映射情况的灰度图中提取边缘轮廓信息,沿着边缘轮廓对生成的彩色图像进行中值滤波,用邻居像素的值填补空洞;同时,通过中值滤波过滤掉噪声像素。
其中,通过步骤(1)实现对虚拟视角的标定,确定用于虚拟视角绘制的参考视角,通过步骤(2)建立参考视角下的像素到虚拟视角下像素之间的映射关系,实现对虚拟视角下的复杂模型绘制。
其中,在步骤(2)与步骤(3)中使用CUDA(Compute Unified Device Architecture,统一计算设备架构)并行计算,加速虚拟视角下的绘制与优化速度,达到实时交互的要求。
本发明的原理在于:
本发明提供一种基于图像的复杂三维模型绘制方法,在包围模型的球面上均匀选择顶点作为相机坐标位置,以球心为相机的目标点,获得模型在此采样视角下的彩色图像与深度图像。根据采样点坐标对球面进行三角划分,确定虚拟视角所在的三角形,取以三角形的顶点为采样点所对应的视角为参考视角,使用参考视角下的深度图像与彩色图像绘制虚拟视角下的模型:首先,利用参考视角的参数分别计算虚拟视角与三个参考视角中像素之间的映射关系;其次,以深度图像为参考,选择合适的参考视角像素或者背景像素绘制虚拟视角的图像;最后,对绘制得到的彩色图像进行优化。在整个绘制过程中使用了CUDA加速,实现了对图像的并行快速处理。本发明能够满足实时性的要求,同时得到十分逼真的绘制效果。
本发明与现有的技术相比,优点如下:
(1)本发明的虚拟视角可以在空间当中任意的移动。利用三个参考点对虚拟视角下的模型进行绘制,这样既可以保证虚拟视角能够在水平与竖直两个维度上自由的移动,又最大限度的降低算法的输入量与存储开销;
(2)本发明提出的绘制方法非常稳定,算法的时间复杂度与场景的复杂度耦合性低,尤其适用于复杂模型的绘制。
附图说明
图1为本发明所采用的流程图;
图2为本算法的原理示意图;
图3当虚拟视角在某个三角面片的内部时,虚拟视角与参考点视角的位置关系;
图4正变换矩阵与逆变换矩阵;
图5为几何和图像混合建模过程,其中:(a)是通过交互确定被重建物体的轮廓,(b)是得到物体的粗糙模型,(c)是用基于模型的立体视觉算法细化模型,(d)是通过基于视点的纹理映射得到最终的场景;
图6为视差图方法的实例,最初的输入图像是规整化的彩色图像(图中是该彩色图像的灰度图的示意图),初始生成图是经过像素映射与填充过程后得到了彩色图(图中是该彩色图的灰度图的示意图),注意方框内的空洞,算法的最终输出是空洞填补过后的彩色图(图中是该彩色图的灰度图的示意图),注意方框内的空洞已经被消除;
图7经过初步映射填充后的虚拟视角的彩色图(图中是该彩色图的灰度图的示意图),注意模型周边的噪声的内部的空洞;
图8经过初步映射填充后的虚拟视角的灰度图,注意模型周边的噪声与内部的空洞;
图9进过膨胀、差值操作之后的边缘图;
图10简单的对所有像素进行中值滤波之后的结果;
图11只对边缘像素进行中值滤波之后的结果,与图10相比,图11更好的保存了细节信息,真实更强;
图12是发明实例的部分输入图像,上方三张图片是输入图像示意图,输入图像可以为彩色图像,图中未显示,下方三张图片是分别与之对应的深度图;
图13是发明实例的部分输出图像,输出的图片是由本发明所提出的绘制方法合成的。
具体实施方式
下面结合附图及具体实施例进一步说明本发明。
1.一种基于深度图像的真实感绘制方法:
针对由均匀分布在包围模型的球面上,包含相机视角参数、相机视角下的深度图、彩色图的采样点来表示的三维模型,根据采样点坐标对球面进行三角划分,确定虚拟视角所在的三角形,取以三角形的顶点为采样点所对应的视角为参考视角,使用参考视角下的深度图像与彩色图像绘制虚拟视角下的模型:首先,利用参考视角的参数分别计算虚拟视角与三个参考视角中像素之间的映射关系;其次,以深度图像为参考,选择合适的参考视角像素或者背景像素绘制虚拟视角的图像;最后,对绘制得到的彩色图像进行优化。在整个绘制过程中使用了CUDA加速,实现了对图像的并行快速处理。具体实施过程如下:
1.虚拟视角的标定模块
在本发明中,以不同采样点的深度图像、彩色图像与采样点相机参数表示物体的三维模型。三维模型M用一个二元组<K,V>表示,其中K是一单纯复形,表示了采样点的连接关系;V表示采样点的集合,V=(vi|i=1,2,3...|V||),|V|表示采样点的个数;Vi=(ci,di,pi)表示第i个采样点,ci和di分别表示第i个采样点彩色图像和深度图像,pi表示了第i个采样点的相机参数,pi=(pci,poi,aspi,fovi,zni,zfi),pci表示相机位置,poi表示相机目标位置,aspi表示相机视野的纵横比,fovi表示相机的视野的广度,zni、zfi分别表示相机有效深度的最小值与最大值。
在绘制虚拟视角下的模型之前,需要求出与虚拟视角最近的三个采样点,即进行虚拟视角的标定。因为所有的采样点在包围物体的球面上是均匀分布的,在球面按照采样点坐标进行三角划分后,只需要确定虚拟视角所在的三角面片,则以此三角面片三个顶点就是所需的最近采样点,这三个最近采样点被称为虚拟视角的参考点。
<v1,v2,v3>=f(v)      (1)
其中,v是虚拟视角,<v1,v2,v3>是虚拟视角所在的三角面片,v1,v2,v3是v的参考点。在本发明中,通过求解从虚拟视角相机位置指向球心的向量与逼近包围物体球面的多面体的交点,根据交点所在的三角面片确定三个最近参考点。
虚拟视角与参考点有如图3所示的位置关系。由解析几何的知识可知,在图3所示的位置关系下,虚拟视角可以由参考点线性合成,且满足:
v &RightArrow; = &alpha; v &RightArrow; 1 + &beta; v &RightArrow; 2 + ( 1 - &alpha; - &beta; ) v &RightArrow; 3 0 &le; &alpha; &le; 1 0 &le; &beta; &le; 1 0 &le; 1 - &alpha; - &beta; &le; 1 - - - ( 2 )
其中,
Figure BDA0000399361910000052
分别代表由虚拟视角坐标点和三个参考点坐标指向球心的向量。
由图3可知,三个参考点的坐标与球心构成四面体结构,虚拟视角的坐标位于参考点坐标所围成的三角面片内。令向量
Figure BDA0000399361910000053
四面体体积可以表示成不在同一个平面内的三条边的混合积的形式:
u = 1 6 v &RightArrow; &times; e 1 &RightArrow; &CenterDot; e 2 &RightArrow; = - 1 6 v 1 &RightArrow; &CenterDot; v 2 &RightArrow; &CenterDot; e 2 &RightArrow; - - - ( 3 )
公式2变形得:
v 1 &RightArrow; = v &RightArrow; - &beta; v 2 &RightArrow; - ( 1 - &alpha; - &beta; ) v 3 &RightArrow; &alpha; - - - ( 4 )
将公式(4)带入公式(3)的后半部分得到如下公式:
&alpha; = - v &RightArrow; &CenterDot; v 2 &RightArrow; &times; e 2 &RightArrow; v &RightArrow; &times; e 1 &RightArrow; &CenterDot; e 2 &RightArrow; - - - ( 5 )
同理。可以得到:
&beta; = - v &RightArrow; &CenterDot; v 1 &RightArrow; &times; e 2 &RightArrow; v &RightArrow; &times; e 1 &RightArrow; &CenterDot; e 2 &RightArrow; - - - ( 6 )
综上所述,只需要在所有的面片当中进行遍历,利用公式(5)、(6)求出每一个三角面片中α、β,如果α、β满足公式(2)中的约束条件,则虚拟视角就在此面片的包围之中,且此虚拟视角可以根据公式(2)由参考点线性表示。
2.计算与绘制模块
本模块包含两个子过程,计算过程与绘制过程。计算过程确定每个参考点视角下的像素到虚拟视角下像素的映射关系;绘制过程针对虚拟视角下的每一个像素,按照已求得的映射关系选择1到3个参考点视角下的像素或者背景像素进行绘制。
2.1计算过程:
给定某一参考点视角下的深度图像的像素坐标与像素值,结合参考点的相机参数,可以求出此像素所对应的点在三维世界坐标系中的坐标,且此过程是可逆的。即任意参考点视角下深度图像的像素坐标和像素值与三维物体的在世界坐标系中的坐标存在双射关系:
pixel &RightArrow; = M &CenterDot; object &RightArrow; object &RightArrow; = M - 1 &CenterDot; pixel &RightArrow; pixel &RightArrow; = ( i , j , l , depth ) object &RightArrow; = ( x , y , z , depth ) - - - ( 7 )
其中i,j是像素坐标,x,y,z是在世界坐标系中坐标,depth是深度图像的像素值。M是可逆矩阵,由采样点相机参数决定。在本发明中定义在世界坐标系中坐标到像素坐标的转换矩阵M为正向转换矩阵,M-1为逆向转换矩阵。正向转换矩阵与逆向转换矩阵的求解过程如图4所示,以正向转换矩阵为例说明其求解过程。
物体在世界坐标系中的坐标首先经过相机视图变换转换为相机空间坐标,再经过透视投影变换转化为像素坐标,即:
M=mProject·mLookAt      (8)
将公式(7)、(8)联立得到:
pixel &RightArrow; = mProject &CenterDot; mLookAt &CenterDot; object &RightArrow; - - - ( 9 )
object &RightArrow; = ( mProject &CenterDot; mLookAt ) - 1 &CenterDot; pixel &RightArrow;
其中,mLookAt是从世界坐标到相机空间坐标的变换矩阵,此矩阵由相机的位置坐标pc、目标点坐标po以及正方向坐标up决定,具体的形式如下:
mLookAt = xaxis &RightArrow; . x yaxis &RightArrow; . x zaxis &RightArrow; . x 0 xaxis &RightArrow; . y yaxis &RightArrow; . y zaxis &RightArrow; . y 0 xaxis &RightArrow; . z yaxis &RightArrow; . y zaxis &RightArrow; . z 0 - xaxis &RightArrow; . po - yaxis &RightArrow; . po - zaxis &RightArrow; . po 1
zaxis &RightArrow; = pc - po | pc - po | xaxis &RightArrow; = up &times; zaxis &RightArrow; | up &times; zaxis &RightArrow; | yaxis &RightArrow; = zaxis &RightArrow; &times; xaxis &RightArrow; - - - ( 10 )
mProject是透视投影变换矩阵,此矩阵由相机的视角广度(fov)纵横比(asp)最近深度(zn)与最远深度(zf)决定,具体的形式如下:
mproject = xScale 0 0 0 0 yScale 0 0 0 0 zf zf - zn 0 0 0 - zn * zf zf - zn 1 - - - ( 11 )
yScale = cot ( fov 2 ) xScale = yScale asp
因此,参考点视角下的像素到虚拟视角下像素的映射关系如下:
pixel &RightArrow; = mProject &CenterDot; mLookAt &CenterDot; ( mP roject v i &CenterDot; mLook At v i ) - 1 &CenterDot; pixel v i &RightArrow; - - - ( 12 )
其中,
Figure BDA0000399361910000077
是虚拟视角下的像素坐标与深度值,
Figure BDA0000399361910000078
是参考点vi的像素坐标与深度值,mLookAtv、mProjectv是从世界坐标到虚拟视角下的相机坐标的变换矩阵与透视投影矩阵,
Figure BDA0000399361910000079
是从世界坐标到参考点vi的相机坐标的变换矩阵与透视投影矩阵。
2.2绘制过程:
虚拟视角下的图像存储在彩色图像当中。由公式(12)出发,虚拟视角下的像素与参考点视角下像素可能有多种对应关系:
情形1:虚拟视角下图像的像素没有参考点视角下的像素与之对应,则此像素是空洞的一部分;
情形2:虚拟视角下图像的像素只有1个参考点视角下的像素与之对应,则直接利用参考点视角下的像素进行填充虚拟视角下的图像;
情形3:虚拟视角下图像的某一个像素有2到3个参考点视角下的像素与之对应,则按照公式(13)进行虚拟视角下的图像绘制。其中,虚拟视角下的像素为p,三个参考视角下像素p1、p2、p3与之对应,原则上选择深度值最小的参考点视角下像素绘制虚拟视角的图像。其中αi是在公式2中求得的参考点视角的权重。
p = &Sigma; i = 1 Q &alpha; i &alpha; p i , p i &Element; Q Q = { q | q - p ' < threash , | p ' = min ( p 1 &CenterDot; &CenterDot; &CenterDot; p n ) } &alpha; = &Sigma; i Q &alpha; i n = 2,3 - - - ( 13 )
同时在绘制的过程中标记所有属于情形2与情形3的像素,将标记信息存储在灰度图中。绘制的过程中使用CUDA并行计算,同时合成虚拟视角下的多个像素,能够极大的加速绘制的速度。
3.图像的优化模块
上述绘制过程输出的彩色图像含有噪声与空洞,空洞的原因已在前面的计算与绘制模块中说明,产生噪声的原因是:由于深度信息提取过程中存在误差,并且公式(10)得到的并不一定是整数像素之间的映射,因此在绘制过程中会出现噪声,如图7、图8所示。较为简单的解决方法是对虚拟视角的图像进行中值滤波,这样做可以消除绝大多数的噪声与空洞。这种方法虽然简单,但是会造成图像模糊和过于平滑,如图10所示。本发明首先对灰度图进行膨胀与差值操作,提取图像的边缘轮廓,然后沿着边缘轮廓进行中值滤波,利用空洞周围像素填补空洞,同时消除图像边缘的噪声信号。图像优化的模块包含如下子过程:
3.1提取边缘像素
膨胀是求局部最大的操作。膨胀是将图像与核进行卷积,即计算核所覆盖的区域当中像素点的最大值,并将这个最大值赋值给参考点指定的像素;经计算与绘制模块之后生成的彩色图像与灰度图像都含有空洞,对灰度图像进行膨胀操作可以消除空洞。膨胀后的灰度图与原始的灰度图做差值运算,得到的就是边缘图,图中存储的就是边缘轮廓信息,空洞就存在与边缘轮廓当中,如图9所示。
3.2中值滤波
在本发明中采用中值滤波的方法对空洞像素进行平滑处理,中值滤波将滤波模板中心像素的正方形邻域内的每个像素用模板中间的像素进行替换。由于中值滤波会导致图像失真,因此进行中值替换的像素被严格的限制在边缘轮廓当中,这样可以最大限度的降低滤波操作的次数,保持细节信息。同时,由于噪声信号多是空间当中孤立的点,进行中值滤波的同时大多数的边缘噪声点被背景像素所覆盖,达到了消除噪声的目的。最终滤波得到的结果如图11所示。
与绘制过程相似,通过使用CUDA并行计算加速图像操作,提高绘制方法的运行速度。
2.实施过程
接下来以玉佛的绘制过程为例说明本发明的具体实施过程。
(1)在包围玉佛的外球面上均匀的选择162个采样点,以球心为坐标原点,r=430,第i个采样点的坐标为vi=(xi,yi,zi),坐标满足如下公式:
x i = r ( 1 - 2 i - 1 n ) cos ( arcsin ( 1 - 2 i - 1 n ) n&pi; ) y i = r ( 1 - 2 i - 1 n ) sin ( arcsin ( 1 - 2 i - 1 n ) n&pi; ) z i = r cos ( arcsin ( 1 - 2 i - 1 n ) ) - - - ( 14 )
其中,n=162。
(2)根据采样点坐标对外球面进行三角划分,按照三角划分的结果对模型数据进行分组。本发明采用三角形逼近的方法构造一个以三角形为基本型的球内接多面体。划分后,球面上共有162个采样点,320个三角面片。
(3)设置采样点参数,拍摄深度图像与彩色图像。采样点的参数pi=(pci,poi,aspi,fovi,zni,zfi),pci是采样点的坐标,由公式(14)计算得到,其余参数的设置如下表所示:
表1
poi fovi aspi zni zfi
(0,0,0) 47′ 1.333 350 550
设置好参数后首先拍摄彩色图像,然后拍摄深度图像。选择其中三个采样点v1,v2,v3,其中:
pc v 1 = ( - 182.8899,365.7798,132.8773 )
pc v 2 = ( - 220.4835,217.4600 , - 298.3256 )
pc v 3 = ( 295.9221,226.0644,215.0000 )
所采集到的彩色图像与深度图像如图12所示。
(4)标定虚拟视角,计算映射关系。在实例中用户使用键盘与鼠标交互控制虚拟视角在三维场景中漫游,初始的虚拟视角为(0,430,0),相邻虚拟视角之间的变化值由用户交互指定。已知当前虚拟视角,遍历步骤(2)中得到的三角面片,根据公式(2)、(5)、(6)确定虚拟视角所在的三角面片,并用参考点指向球心的向量量化标定虚拟视角。根据虚拟视角的参数与采样点的参数计算公式(12)的映射关系。
(5)合成虚拟视角下图像,并进行中值滤波。
a.当虚拟视角中的像素没有参考点的像素与之对应时,使用背景像素填充虚拟视角下图像;
b.当虚拟视角中的中的像素只与一个参考点像素对应时,使用此对应像素填充虚拟视角下图像;
c.当虚拟视角中的像素与2到3个参考点的像素相对应时,设定thresh=15,按照公式(13)选择一个或者多个参考点像素合成虚拟视角下图像。
同时在绘制的过程中标记所有属于情形b与情形c的像素,将标记信息存储在灰度图中。对灰度图进行膨胀操作,并与原始的灰度图相减,得到模型的轮廓信息,沿着模型的轮廓进行中值滤波,得到最终的虚拟视角下的彩色图像。
本实例的输出是由用户交互控制下的虚拟视角下的彩色图,图13是本实例的部分输出结果。
3.实施效果
主要从实时性与真实感两个方面说明实施效果。测试所用计算机的主要配置如下表所示:
表2
操作*** 64bit windows7旗舰版
处理器 Intel CoreTM2Q9400(4CPUs)2.66GHz
显卡 NVIDIA GeForce GTX470
内存 4G
2.1实时性
在测试用计算机上,以玉佛为测试对象,使用3DMAX软件进行玉佛建模,由于玉石材质的光学特征,光线射入材质内部后发生散射,最后射出物体并进入视野当中,这种现象被称为次表面散射,计算次表面散射需要耗费大量时间,使用3DMAX进行一个视角的绘制用时大约为40分钟。采用基于图像的三维模型绘制方法,建模时不需要考虑模型的材质,绘制时按照像素进行填充,在测试用计算机上进行绘制的实时速率约为25帧/秒,能够快速响应用户的输入,控制虚拟视角在空间中任意漫游,完全达到实时交互的要求。
2.2真实感
在此应用当中选择了162个采样点,并且选择与虚拟视角最为接近的三个采样点为参考点,以像素为单位进行绘制,初步绘制完成后进行场景优化,修补空洞并消除图像中的噪音,最终得到的效果如图13所示。与原始输入图12作比较,图13中基本上没有空洞与噪声像素,不用经过复杂的次表面散射计算也能得到逼真的绘制效果。
本发明未详细阐述的部分属本领域技术人员公知技术。

Claims (3)

1.基于图像的复杂三维模型绘制方法,其特征包含如下过程:
(1)虚拟视角的标定:根据采样点相机位置坐标对包围模型的球面进行三角划分,确定虚拟视角所在的三角面片,取此三角面片的三个顶点所对应的视角为参考视角,虚拟视角可以被表示成参考视角的线性组合;
(2)计算与绘制:根据虚拟视角、参考视角的位置和相机参数,计算三个参考视角图像中每个像素的坐标与虚拟视角下的像素坐标之间的映射关系;根据映射关系,将参考视角下彩色图像中的每一个像素映射到虚拟视角下的图像中,计算该像素在虚拟视角下图像中的坐标和深度值,对于有多个参考视角的像素映射到同一位置的情况,取深度值小的像素值;同时标记虚拟视角下图像中所有已被参考视角像素填充的像素,构造一幅反映从参考视角到虚拟视角映射情况的灰度图;
(3)图像的优化:对于虚拟视角下图像中的空洞,即经过(2)计算没有参考图像映射到该位置的像素,从反映参考视角到虚拟视角映射情况的灰度图中提取边缘轮廓信息,沿着边缘轮廓对生成的彩色图像进行中值滤波,用邻居像素的值填补空洞;同时,通过中值滤波过滤掉噪声像素。
2.根据权利要求1中所述的基于图像的复杂三维模型绘制方法,其特征在于:通过步骤(1)实现对虚拟视角的标定,确定用于虚拟视角绘制的参考视角,通过步骤(2)建立参考视角下的像素到虚拟视角下像素之间的映射关系,实现对虚拟视角下的复杂模型绘制。
3.根据权利要求1或2中所述的基于图像的复杂三维模型绘制方法,其特征在于:在步骤(2)与步骤(3)中使用CUDA并行计算,加速虚拟视角下的绘制与优化速度,达到实时交互的要求。
CN201310497271.8A 2013-10-21 2013-10-21 基于图像的复杂三维模型绘制方法 Active CN103530907B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310497271.8A CN103530907B (zh) 2013-10-21 2013-10-21 基于图像的复杂三维模型绘制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310497271.8A CN103530907B (zh) 2013-10-21 2013-10-21 基于图像的复杂三维模型绘制方法

Publications (2)

Publication Number Publication Date
CN103530907A true CN103530907A (zh) 2014-01-22
CN103530907B CN103530907B (zh) 2017-02-01

Family

ID=49932885

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310497271.8A Active CN103530907B (zh) 2013-10-21 2013-10-21 基于图像的复杂三维模型绘制方法

Country Status (1)

Country Link
CN (1) CN103530907B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104331918A (zh) * 2014-10-21 2015-02-04 无锡梵天信息技术股份有限公司 基于深度图实时绘制室外地表遮挡剔除以及加速方法
CN105509671A (zh) * 2015-12-01 2016-04-20 中南大学 一种利用平面标定板的机器人工具中心点标定方法
CN107169924A (zh) * 2017-06-14 2017-09-15 歌尔科技有限公司 三维全景图像的建立方法和***
CN107464278A (zh) * 2017-09-01 2017-12-12 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法
CN108520342A (zh) * 2018-03-23 2018-09-11 中建三局第建设工程有限责任公司 基于bim的物联网平台管理方法及其***
CN111402404A (zh) * 2020-03-16 2020-07-10 贝壳技术有限公司 全景图补全方法、装置、计算机可读存储介质及电子设备
CN111651055A (zh) * 2020-06-09 2020-09-11 浙江商汤科技开发有限公司 城市虚拟沙盘展示方法、装置、计算机设备及存储介质
CN112199756A (zh) * 2020-10-30 2021-01-08 久瓴(江苏)数字智能科技有限公司 自动确定直线间距离的方法和装置
CN114543816A (zh) * 2022-04-25 2022-05-27 深圳市赛特标识牌设计制作有限公司 一种基于物联网的导视方法、装置以及***
CN115272523A (zh) * 2022-09-22 2022-11-01 中科三清科技有限公司 空气质量分布图的绘制方法、装置、电子设备和存储介质
CN116502371A (zh) * 2023-06-25 2023-07-28 憨小犀(泉州)数据处理有限公司 一种船型钻石切割模型生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697062B1 (en) * 1999-08-06 2004-02-24 Microsoft Corporation Reflection space image based rendering
US20090102840A1 (en) * 2004-07-15 2009-04-23 You Fu Li System and method for 3d measurement and surface reconstruction
US20110115886A1 (en) * 2009-11-18 2011-05-19 The Board Of Trustees Of The University Of Illinois System for executing 3d propagation for depth image-based rendering
CN102945565A (zh) * 2012-10-18 2013-02-27 深圳大学 一种物体的三维真实感重建方法、***及电子设备
CN103116897A (zh) * 2013-01-22 2013-05-22 北京航空航天大学 一种基于图像空间的三维动态数据压缩和平滑方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697062B1 (en) * 1999-08-06 2004-02-24 Microsoft Corporation Reflection space image based rendering
US20090102840A1 (en) * 2004-07-15 2009-04-23 You Fu Li System and method for 3d measurement and surface reconstruction
US20110115886A1 (en) * 2009-11-18 2011-05-19 The Board Of Trustees Of The University Of Illinois System for executing 3d propagation for depth image-based rendering
CN102945565A (zh) * 2012-10-18 2013-02-27 深圳大学 一种物体的三维真实感重建方法、***及电子设备
CN103116897A (zh) * 2013-01-22 2013-05-22 北京航空航天大学 一种基于图像空间的三维动态数据压缩和平滑方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KNORR S 等: "An image-based rendering(ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion", 《IMAGE PROCESSING IEEE INTERNATIONAL CONFERENCE ON》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104331918A (zh) * 2014-10-21 2015-02-04 无锡梵天信息技术股份有限公司 基于深度图实时绘制室外地表遮挡剔除以及加速方法
CN104331918B (zh) * 2014-10-21 2017-09-29 无锡梵天信息技术股份有限公司 基于深度图实时绘制室外地表遮挡剔除以及加速方法
CN105509671A (zh) * 2015-12-01 2016-04-20 中南大学 一种利用平面标定板的机器人工具中心点标定方法
CN107169924A (zh) * 2017-06-14 2017-09-15 歌尔科技有限公司 三维全景图像的建立方法和***
CN107169924B (zh) * 2017-06-14 2020-10-09 歌尔科技有限公司 三维全景图像的建立方法和***
CN107464278B (zh) * 2017-09-01 2020-01-24 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法
US10909752B2 (en) 2017-09-01 2021-02-02 Plex-Vr Digital Technology (Shanghai) Co., Ltd. All-around spherical light field rendering method
KR20200024946A (ko) * 2017-09-01 2020-03-09 플렉스-브이알 디지털 테크놀로지 (상하이) 씨오., 엘티디. 전방향의 구형 라이트 필드 렌더링 방법
KR102143319B1 (ko) * 2017-09-01 2020-08-10 플렉스-브이알 디지털 테크놀로지 (상하이) 씨오., 엘티디. 전방향의 구형 라이트 필드 렌더링 방법
CN107464278A (zh) * 2017-09-01 2017-12-12 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法
CN108520342A (zh) * 2018-03-23 2018-09-11 中建三局第建设工程有限责任公司 基于bim的物联网平台管理方法及其***
CN108520342B (zh) * 2018-03-23 2021-12-17 中建三局第一建设工程有限责任公司 基于bim的物联网平台管理方法及其***
CN111402404A (zh) * 2020-03-16 2020-07-10 贝壳技术有限公司 全景图补全方法、装置、计算机可读存储介质及电子设备
CN111651055A (zh) * 2020-06-09 2020-09-11 浙江商汤科技开发有限公司 城市虚拟沙盘展示方法、装置、计算机设备及存储介质
CN112199756A (zh) * 2020-10-30 2021-01-08 久瓴(江苏)数字智能科技有限公司 自动确定直线间距离的方法和装置
CN114543816A (zh) * 2022-04-25 2022-05-27 深圳市赛特标识牌设计制作有限公司 一种基于物联网的导视方法、装置以及***
CN114543816B (zh) * 2022-04-25 2022-07-12 深圳市赛特标识牌设计制作有限公司 一种基于物联网的导视方法、装置以及***
CN115272523A (zh) * 2022-09-22 2022-11-01 中科三清科技有限公司 空气质量分布图的绘制方法、装置、电子设备和存储介质
CN115272523B (zh) * 2022-09-22 2022-12-09 中科三清科技有限公司 空气质量分布图的绘制方法、装置、电子设备和存储介质
CN116502371A (zh) * 2023-06-25 2023-07-28 憨小犀(泉州)数据处理有限公司 一种船型钻石切割模型生成方法
CN116502371B (zh) * 2023-06-25 2023-09-08 厦门蒙友互联软件有限公司 一种船型钻石切割模型生成方法

Also Published As

Publication number Publication date
CN103530907B (zh) 2017-02-01

Similar Documents

Publication Publication Date Title
CN103530907A (zh) 基于图像的复杂三维模型绘制方法
CN103021017B (zh) 基于gpu加速的三维场景重建方法
CN104616345B (zh) 一种基于八叉树森林压缩的三维体素存取方法
CN102915559B (zh) 一种基于三维点云的实时透明物体gpu并行生成方法
CN106709947A (zh) 一种基于rgbd相机的三维人体快速建模***
CN104966317B (zh) 一种基于矿体轮廓线的三维自动建模方法
CN109003325A (zh) 一种三维重建的方法、介质、装置和计算设备
CN104616286B (zh) 快速的半自动多视图深度修复方法
CN110378349A (zh) Android移动端室内场景三维重建及语义分割方法
CN102222357B (zh) 基于图像分割和网格细分的脚型三维表面重建方法
CN102521869B (zh) 一种几何特征引导的三维模型表面纹理空洞填补方法
CN102306386B (zh) 从单张树木图像快速构建真实感树木模型的方法
CN101763649B (zh) 一种增强模型轮廓的表面点绘制方法
CN101916454A (zh) 基于网格变形和连续优化的高分辨率人脸重建方法
CN105006021A (zh) 一种适用于快速点云三维重建的颜色映射方法及装置
CN105261062B (zh) 一种人物分段建模方法
CN108986221A (zh) 一种基于模板人脸逼近的不规范三维人脸网格纹理方法
CN103646421A (zh) 基于增强型PyrLK光流法的树木轻量化3D重建方法
Liu et al. A complete statistical inverse ray tracing approach to multi-view stereo
CN102831634B (zh) 一种高效精确的通用软阴影生成方法
Jin et al. 3-d reconstruction of shaded objects from multiple images under unknown illumination
CN104318605A (zh) 矢量实线与三维地形的并行贴合渲染方法
Wang et al. Voge: a differentiable volume renderer using gaussian ellipsoids for analysis-by-synthesis
CN103617593B (zh) 三维流体物理动画引擎的实现方法及装置
Gu et al. Ue4-nerf: Neural radiance field for real-time rendering of large-scale scene

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP02 Change in the address of a patent holder

Address after: 518133 23rd floor, Yishang science and technology creative building, Jiaan South Road, Haiwang community Central District, Xin'an street, Bao'an District, Shenzhen City, Guangdong Province

Patentee after: SHENZHEN ESUN DISPLAY Co.,Ltd.

Patentee after: BEIHANG University

Address before: No. 4001, Fuqiang Road, Futian District, Shenzhen, Guangdong 518048 (B301, Shenzhen cultural and Creative Park)

Patentee before: SHENZHEN ESUN DISPLAY Co.,Ltd.

Patentee before: BEIHANG University

CP02 Change in the address of a patent holder