CN103201772A - 三维物理模型生成设备 - Google Patents
三维物理模型生成设备 Download PDFInfo
- Publication number
- CN103201772A CN103201772A CN201180052891XA CN201180052891A CN103201772A CN 103201772 A CN103201772 A CN 103201772A CN 201180052891X A CN201180052891X A CN 201180052891XA CN 201180052891 A CN201180052891 A CN 201180052891A CN 103201772 A CN103201772 A CN 103201772A
- Authority
- CN
- China
- Prior art keywords
- image
- depth
- parts
- data
- embossment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 39
- 238000005094 computer simulation Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 16
- 238000007666 vacuum forming Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012505 colouration Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000010189 synthetic method Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Chemical & Material Sciences (AREA)
- Manufacturing & Machinery (AREA)
- Materials Engineering (AREA)
- Image Processing (AREA)
- Numerical Control (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
描述了一种建模设备,包括:输入缓冲器(20),***作以接收表示来自观察点的一个或多个对象(14)的图像的图像数据(12);图像处理器(22),***作以确定从该观察点观察时图像(12)中出现的对象的多个部分的相对深度;深度图生成器(26),***作以基于图像处理器(22)所确定的相对深度将深度数据分配给图像(12)的多个部分;以及控制器(30),***作以生成指令从而控制机床工具基于由深度图生成器(26)分配给图像的多个部分的深度数据来生成图像的三维浮雕(40)并且利用所接收到的图像数据(12)对所生成的浮雕进行着色。
Description
技术领域
本申请涉及浮雕模型生成设备和用于生成浮雕模型的方法。更具体地,本申请涉及浮雕模型生成设备和用于根据图像生成浮雕模型的方法。
背景技术
尽管照片可以提供图像或事件的出色的记录,但因为照片是平面图像,所以它们在如何传达三维场景的印象方面是有限的。
一种解决该限制的方法是处理一个或多个二维图像并且基于所述图像来创建一个三维物理模型。
US5764231是用于根据一组图像生成三维物理模型的***的示例。在US5764231中,从多个不同的观察点获得图像。然后,处理图像以生成所拍摄对象的三维计算机模型。然后,利用三维计算机模型来创建原始对象的物理复制品。用于根据图像生成三维模型的其它类似的现有技术***包括公开了用于产生人的头部的三维图像的方法和***的US5926388、以及利用三维图像来生成三维图案并且之后利用三维图案来生成型腔的US2008148539。
然而,这种现有技术***受到许多限制。为了生成对象的完整的3D数据,需要从多个观察点获得对象的图像。还需要多个图像来确定对象的在个别图像中模糊的部分的纹理渲染数据。这极大地增加了创建对象的复制品所需的设备的复杂性。
此外,现有的3D建模***仅可以创建个别对象的模型。在创建这种模型的过程中,对象的环境丢失。因而,这种建模***缺乏可以拍摄示出在特定环境内的对象的整个场景的照片的多功能性。
因此,需要一种替代的方法。
发明内容
根据本发明的一个方面,提供一种浮雕模型生成方法,包括:从观察点获得表示一个或多个对象的图像的图像数据;确定从该观察点观察的图像中出现的对象的多个部分的相对深度;基于相对深度的所述确定将深度数据分配给图像的多个部分;利用所分配的深度数据来控制机床工具以生成所获得的图像的三维浮雕;以及利用所获得的图像数据对所生成的浮雕进行着色。
确定图像中出现的对象的多个部分的相对深度可以包括:处理所获得的图像数据以生成图像中的对象的三维计算机模型,以及利用所生成的三维计算机模型来确定从所述观察点观察的图像中出现的对象的多个部分的相对深度。
在一些实施例中,处理所获得的图像数据以生成图像中的对象的三维计算机模型可以包括:存储与所获得的图像的至少一部分相对应的对象的三维计算机模型,以及利用所存储的计算机模型将深度数据分配给图像的与所存储的计算机模型相对应的部分。
在所述实施例中,所述方法还可以包括:识别所获得的图像的不与所存储的三维计算机模型相对应的部分,生成所获得的图像的不与所存储的三维计算机模型相对应的部分的三维计算机模型,以及利用所生成的计算机模型将深度数据分配给所生成的计算机模型。
在一些实施例中,确定图像中出现的对象的多个部分的相对深度可以包括:从多个观察点获得图像中出现的一个或多个对象的图像数据,以及利用所述图像数据来生成图像中出现的一个或多个对象的三维模型。
确定从观察点观察的图像中出现的对象的多个部分的相对深度可以包括确定图像中出现的对象的多个部分和观察点之间的距离。然后可以基于所确定的距离将深度数据分配给图像的多个部分。在一些实施例中,可以将相同的深度数据分配给图像的被确定为距观察点在特定距离范围内的所有部分。
根据本发明的另一方面,提供一种建模设备,包括:输入缓冲器,***作以接收表示来自观察点的一个或多个对象的图像的图像数据;图像处理器,***作以确定从该观察点观察的图像中出现的对象的多个部分的相对深度;深度图生成器,***作以基于图像处理器所确定的相对深度将深度数据分配给图像的多个部分;以及控制器,***作以生成指令从而控制机床工具基于由深度图生成器分配给图像的多个部分的深度数据来生成图像的三维浮雕并且利用所接收到的图像数据对所生成的浮雕进行着色。
附图说明
现在将参考附图说明本发明的实施例,在附图中:
图1是根据本发明第一实施例的浮雕模型生成设备的示意框图;
图2是图1的浮雕模型生成设备的处理的流程图;
图3是根据本发明第二实施例的浮雕模型生成设备的示意框图;以及
图4是根据本发明第三实施例的浮雕模型生成设备的示意框图。
具体实施方式
第一实施例
参考图1,提供了照相机10,其被设置为从一个观察点获得一个或多个对象14的图像12。将表示对象14的图像12的图像数据从照相机10传送至连接至照相机10的计算机15。计算机15被配置为处理存储在磁盘16上的指令或者经由通信网络接收至多个功能块20-30的信号18。这些功能块20-30使得计算机15能够处理图像数据12以生成用于使机床工具32创建与所获得的图像12相对应的彩色三维浮雕40的指令。
更具体地,计算机15所生成的指令这样创建所获得的图像的彩色三维浮雕40,其中浮雕的上表面的变化使得浮雕40的多个部分的相对定位与获得图像的观察点和所获得的图像12中出现的对象的可见部分之间的相对距离相对应。也就是说,所生成的浮雕40的与靠近观察点的对象相对应的部分对应于浮雕40的凸出部分,较远的对象对应于浮雕的凹陷部分。然后可以通过以与所获得的图像12相对应的方式对浮雕40的表面进行着色来生成图像的浮雕模型。这样的浮雕模型将对应于图像12,而表面高度的变化将给出图像12中出现的三维特征的增强印象。
在本实施例中,由计算机15的存储器所配置的功能块20-30包括:输入缓冲器20,用于接收与照相机10所拍摄的图像相对应的图像数据12;图像处理器22,***作以处理所接收到的图像数据以确定所接收到的图像12中出现的对象的相对定位以及生成所拍摄对象的3D模型并将3D模型存储在3D模型存储器24中;深度图生成器26,***作以处理存储在3D模型存储器24中的3D模型数据并且将所接收到的图像的多个部分与深度数据相关联;深度图存储器28,***作以存储由深度图生成器26所生成的深度数据;以及机床控制器30,***作以利用存储在输入缓冲器20中的图像数据12和存储在深度图存储器28中的深度图来生成用于机床工具32的控制指令,以使得机床工具32形成与所接收到的图像12相对应的浮雕40并对浮雕40进行着色。
应该理解,这些所述功能模块20-30实质上是名义上的,可以直接对应于或可以不直接对应于代码块或软件指令块、或者计算机15中的特定的存储器块。更应该理解,这些所述功能模块20-30实质上仅是示例性的,在特定实施例中,所述模块可以被合并或细分割,并且在多个模块的处理中可以涉及实际的代码块。
现在将参考图2更详细地说明根据本实施例的设备的处理,图2是根据图像创建浮雕所进行的处理的流程图。
返回图2,作为初始步骤(s1),使用照相机10以传统方式获得要建模的对象的图像。
典型地,所使用的照相机10将是数字照相机,其中图像包括大量的像素,每个像素与标识红色、绿色和蓝色值的三个数字的组相关联,其中,“0,0,0”标识黑色像素,“255,255,255”标识亮白色像素。作为替换,如果使用模拟照相机获得图像,则可以通过使用数字扫描仪扫描所获得的图像以将所获得的图像12转换成数字图像数据来实现类似的结果。应该理解,在所述可替换实施例中,还可以以诸如在不获得模拟图像的情况下直接扫描图像的其他方式来获得图像数据。
一旦使用照相机10拍摄了要在浮雕40中出现的对象14的图像12,则将图像12传送(s2)并存储在输入缓冲器20中,然后调用图像处理器22来处理所存储的图像数据并且生成所获得的图像12中出现的对象的计算机模型。
在本实施例中,图像处理器22利用传统的技术处理单个图像以生成图像中出现的对象的三维计算机模型。合适的技术将包括这种散焦技术以及:计算高斯二阶导数,诸如在荷兰艾恩德霍芬的代尔夫特理工大学和飞利浦Natlab研究院的Wong,K.T.;Ernst,F.(2004)的硕士论文“Single ImageDepth-from-Defocus”中所述;处理图像以确定线条透视图从而识别消失线并且将梯度平面分配给图像,如在Battiato,S.;Curti,S.;La Cascia,M.;Tortora,M.;Scordato,E.(2004)“Depth map generation by imageclassification”,SPIE Proc.Vol.5302,EI2004conference“Three dimensionalimage capture and applications VI”中所述;基于大气散射或阴影来处理图像,如在Cozman,F.;Krotkov,E.(1997)“Depth from scattering”,IEEEComputer society conference on Computer Vision and Pattern Recognition,Proceedings,P801–806或者Kang,G;Gan,C.;Ren,W.(2005),“Shape fromShading Based on Finite-Element”,Proceedings,International Conference onMachine Learning and Cybernetics,Vol.8,P5165–5169中所述,所有文献通过引用包含于此。可以用来生成合适的模型数据的其他类似的技术还可以包括图像中遮挡(occlusion)的识别,其利用如在WO2005091221中所述的曲率平滑和等照度线,或者如在WO2005083630和WO2005083631中所述的确定合适的最短路径转换,所有文献通过引用包含于此。
另一方法是使用监督学习方法,诸如在通过引用包含于此的US2008/137989中所述,其使用具有真实世界3D扫描的地面实测值的训练数据库。这种方法考虑的是这些测量值如何与局部和全局图像特征关联,图像特征例如为纹理变化、纹理梯度、混浊度(大气散射)和/或以多个图像标度提取的图像特征。然后使用该方法对不可见的图像中每个点的深度的条件分布进行建模。
应当理解,最适合于特定图像的特定方法将取决于要处理的图像的性质和内容。通过使用以上技术中的任意一者或组合,可以生成所获得的图像中出现的对象的3D模型,并且之后将所产生的模型存储在3D模型存储器24中。在本实施例中,以距离图的形式存储模型数据,距离图是与所获得的图像12中的每个像素相对应的数字的矩阵,其中每个数字标识作为与图像的投影相对应的平面的参考平面和针对图像中的所述像素所确定的表面之间的距离。在距离数据对于图像的特定部分不可用的情况下,在本实施例中,在矩阵中包括空值,其默认表示所考虑的点被认为是远背景。
应该理解,生成用于存储在3D模型存储器24中的数据所需的处理将取决于用于根据图像12确定距离数据的精确算法。更具体地,根据算法的选择,将通过处理图像12来自动生成合适的距离数据,或者可选地可以创建例如表示图像中出现的对象14的表面的点云(point cloud)或线网模型的数据的中间数据集。在生成这种中间数据集的情况下,在本实施例中,通过以合适的方式处理所生成的数据来得到3D模型存储器中存储的距离数据。
由此,例如在图像的处理导致生成点云的情况下,计算点云中的每个点至参考平面的投影,并且之后确定该点和图像平面之间沿着图像平面的法线的距离并将该距离存储在3D模型存储器24中。类似地,如果图像数据的处理是生成图像12中出现的对象的3D线网模型,则确定各个像素从图像平面至模型线网表面上的投影,并且利用所识别的投影的位置来计算像素的距离值,之后该距离值被存储在3D模型数据存储器24中。
由此,在处理图像12和所生成的任何中间数据之后,值的矩阵将被存储在3D模型存储器24中,其中每个值表示所计算出的图像平面和对象表面之间的距离,并且其中针对能够确定与表面无交点的像素存储空值。
在生成并存储了图像的距离数据之后,调用深度图生成器26将3D模型存储器24中存储的绝对距离数据转换(s3)成用于控制机床工具32的深度数据。然后将所生成的深度数据作为数据存储在深度图存储器28中。
图像处理器22所生成的距离数据的范围可以介于表示表面非常接近图像12的图像平面的值至表示图像的多个部分与背景的多个部分相对应的空值之间。在被设置为生成浮雕40的本实施例中,首先确定所表示的距离范围。然后将距离范围划分成预定数量的级别(level),然后将每一个像素的距离值映射(均匀地或不均匀地)到各自的级别。这使得能够生成这样的浮雕,其中即使在绝对距离不是必须正确的情况下,也保留了图像的多个部分的相对定位。也就是说,浮雕40的凹陷部分对应于图像中远处的对象,并且凸起部分对应于较近的对象,但是凹陷或凸起的深度不需要对应于图像12中的对象14的实际的或按标度确定的距离。
由此,例如在要生成的浮雕包括20个不同级别的实施例中,将首先确定由距离数据表示的距离范围。例如,距离数据表示1至5米的距离的值。然后,将4米范围划分成20个级别,每个级别对应于独立的20cm的距离范围。然后,基于针对图像的不同部分确定的所估计的距离数据将各个距离测量值映射到1-20的深度值,同一20cm范围内的所有测量值被分配有同一个深度值。由此,例如在这种***中,将值20分配给与对应于1-1.2米的距离测量值相关联的所有点,而将值1分配给与对应于4.8-5米的距离数据相关联的点。然后,存储空值的剩余像素将被分配表示它们是背景元素的值0。
由此,以这种方式将距离值转换成深度数据,其中连续的距离值被量化成离散值。应该理解,在本示例中,距离数据至深度数据的转换保留了根据图像所确定的距离的相对大小和相关联深度数据的对应大小。这使得本实施例中的机床工具能够生成维持所述测量值的浮雕。然而,应该理解,在一些其他实施例中,不将所检测到的距离划分成相等的部分,而是可以不相等地划分距离范围。特别地,在一些实施例中,例如可以利用不同大小的范围来生成用于地面对象和背景对象的数据。由此,例如在一些实施例中,就前景对象来说表示深度数据的各个值的离散距离带可以小于用于转换与更远处对象相对应的距离的距离带。
在本实施例中,在将绝对距离数据转换成表示一定数量的不同深度的深度数据之后,分析深度数据(s4)以识别在图像处理的过程中可能产生的深度数据中的任何错误。更具体地,由于深度数据表示多个物理对象的相对深度,所以期望与特定距离相关联的像素和与同一对象相对应的、与类似的深度值相关联的其他像素是相邻的。由此,针对与图像中的所有像素相关联的深度值,将与像素相关联的深度值与具有类似着色的相邻像素进行比较,可以识别出任何异常值。在本实施例中,在邻域中的对应像素的红色值、绿色值和蓝色值之间的欧氏距离平方和越小,则认为两个像素邻域越相似。在识别出所述异常值的情况下,对于具有相似邻域的像素与完全不同深度值相关联的像素将基于与具有相似邻域的那些像素相关联的值而被赋予一个值。在其他实施例中,可以使用统计方法来判断所计算出的深度数据是否是针对图像的其他部分所确定的给定深度数据。
以这种方式处理数据不仅在图像处理将错误距离分配给特定像素的情况下校正深度数据,还使得被赋予空值但是实际上表示对象的多个部分的那些像素能够被赋予更准确的深度值。应该理解,以这种方式处理深度数据时应该考虑的像素邻域的实际大小将取决于要处理的图像的类型。类似地,像素的深度值和考虑用于校正和修改的具有相似邻域的像素的深度值之间的差还将取决于在图像上检测到的深度值的变化,其用于匹配像素邻域和要处理的图像的类型。
进一步被处理深度数据以检测相邻区域之间的相对深度差在预定阈值以上的像素区域。这种区域将出现在图像中的对象比其周围明显更靠近图像平面时,使得在所产生的浮雕中有显著的突出。两个完全不同的区域之间的陡坡的着色采用这两个区域之间的相邻像素的平均颜色。这可能导致着色的延伸效果,所述纹理合成技术例如为L.Wei.L.-Y.;M.Levoy(2000);Fast texture synthesis using tree-structured vector quantization;SIGGRAPH‘00:Proceedings of the27th annual conference on Computergraphics and interactive techniques。通过引用包含于此的ACMPress/Addison-Wesley Publishing Co.(2000),479–488可以作为孔洞填充机制用以沿着陡坡的表面合成未失真且适当的颜色图案。
由此,在该阶段,在处理了深度图存储器28中存储的深度数据之后,计算机15将针对图像12确定将图像中的像素与表示距离范围的深度相关联的数据。在存储了该数据之后,调用机床控制器30。机床控制器30随后(s5)生成控制指令以使得机床工具32形成浮雕40,其中浮雕40的多个部分的深度与深度图存储器中的深度数据相对应,并且基于输入缓冲器中的初始所接收到的图像12的颜色信息对浮雕的各个部分进行着色。
机床工具32所进行的精确处理和机床控制器30所发送的指令将取决于机床工具32的本质和特性。
在一个实施例中,机床工具32可以被设置为通过真空模制来形成适当着色的浮雕40。在该实施例中,机床工具可以被配置为将与输入缓冲器20中的图像12相对应的图像打印在要真空成形的板的一个表面上。然后,机床工具可以通过根据深度图存储器28中的深度数据使板的不同部分变形至不同程度,来使板变形以创建浮雕40。
可选地,机床工具32可以是被设置为打印一系列的图像层的3D打印机,其中,以与输入缓冲器20中的图像12中的对应像素相对应的颜色来打印图像中的每个像素,其中,打印像素的层的数量由深度图存储器28中的所述像素的深度数据来表示。由此,在该示例中,与背景部分相对应的像素将被打印一次,而与较高值的深度数据相关联的点将被打印多次并且因此在所产生的浮雕40中具有更大的厚度。
合适的机床工具32的另一示例是以下机床工具,其利用深度图存储器28中的数据来确定从坯体雕刻的深度,以创建具有与深度图存储器28中的数据相对应的表面的浮雕40。一旦通过机床工具32雕刻了合适的浮雕,就可以随后将输入缓冲器20中的图像的副本打印在所雕刻的表面上以创建完成的浮雕40。
第二实施例
现在将参考图3说明本发明的第二实施例。
在第一实施例中说明了以下建模设备,其中,一个或多个对象14的单个图像12被获得并处理以生成浮雕40,浮雕的多个部分的高度通过图像12中的对象的估计距离来确定。相比之下,在本实施例中,不处理由照相机10所拍摄的单个图像,而是提供第二照相机45,第二照相机45被设置为从第二观察点拍摄对象14的图像46。然后将该第二图像46传送至输入缓冲器20,其中第一照相机10所拍摄的图像12和第二照相机45所拍摄的图像46被改进型图像处理器47处理来生成模型数据,以存储在3D模型存储器24中。除了改进型图像处理器47的改进的处理以外,在本实施例中建模设备所进行的处理与之前实施例中的处理相同,并且在图3中,设备的相同部分由与图1中相同的附图标记表示。
增加从第二观察点观察对象的第二照相机45为建模设备提供了与所拍摄对象14的形状有关的附加信息,由此增加了可以用来确定存储在3D模型存储器24中的模型数据的可用技术。
由此,例如,除了关于获得对象14的多个图像的第一实施例所述的技术以外,可以根据通过基于相关性或基于特征的对应和三角测量而识别的双眼视差来生成模型数据,例如在Trucco,E;Verri,A(1998)“IntroductoryTechniques for3-D Computer Vision”,Chapter7,Prentice Hall and Scharstein,D.;Szeliski,R.(2002)“A Taxonomy and Evaluation of Dense Two-FrameStereo Correspondence Algorithms”,International Journal of ComputerVision47(1/2/3),7-42中所述。可选地,可以使用散焦技术,诸如使用埃尔米特多项式基本原理的局部图像分解、逆滤波或S变换,如在Ziou,D;Wang,S;Vaillancourt,J(1998)“Depth from Defocus using the Hermite Transform”,Image Processing,ICIP98,Proc.International Conference on Vol.2,4-7,P958-962.,Pentland,A.P.(1987)“Depth of Scene from Depth of Field”,IEEETransactions on Pattern Analysis and Machine Intelligence,Vol.9,No.4,P523-531和Subbarao,M.;Surya,G.(1994)“Depth from Defocus:A SpatialDomain Approach”,the International Journal of Computer Vision,13(3),P271-294中所述。可选地,可以使用根据轮廓提取的基于体素的方法,例如在Matsuyama,T.(2004)“Exploitation of3D video technologies”,Informatics Research for Development of Knowledge Society Infrastructure,ICKS2004,International Conference,P7-14中所述。可以可选地使用监督学习方法,例如在其全部内容通过引用包含于此的US2008/137989中所述。
应该理解,在本实施例中,提供多个照相机10、45使得能够从两个不同的观察点同时或基本同时地获得对象14的图像,其中这些观察点的相对位置固定。由于观察点的相对定位可以被固定,所以可以帮助识别图像的对应部分并且因此帮助生成用于表示3D模型存储器24中的对象的表面的模型数据。
应该理解,尽管在所述实施例中描述为使用两个照相机,但在其他实施例中,可以使用更多的照相机。可选地,在其他实施例中不使用多个照相机10、45,而是可以使用单个照相机从多个观察点获得图像数据,然后可以利用所述图像数据来生成模型数据。在这种仅利用单个照相机从多个观察点获得图像的可选实施例中,不同观察点的相对位置需要被确定,并且存在通过一对图像实现相对位置的识别的标准技术。
第三实施例
现在将参考图4说明本发明的第三实施例。与之前实施例一样,相同的附图标记表示之前实施例中所述的设备的相同部分,这些部分将不再说明。
在之前的实施例中,说明了一种能够生成任何图像的模型表征的建模设备。本发明的一个实施方式是利用所述建模***来生成用于游览主题公园的纪念品或赠品。在这种环境中,已知提供照相机来获得使用特定乘坐设施的顾客的照片。可以利用本发明来创建这些事件的类似的3D浮雕模型。
在照相机获得在乘坐设施上的顾客的图像的情况下,由于照相机通过车厢行进经过乘坐设施的特定部分而被触发,所以在一个时刻拍摄的图像的大部分将类似于在另一时刻拍摄的图像的大部分。由此,例如,在从特定位置拍摄过山车行进中的图像时,诸如车厢的位置、过山车本身的安全约束装置和结构在各种情况下将是相同的。然而,每个图像的特定方面将不同。特别地,个人的面部、头部和手臂的方向等可能会改变。
在意图在这种已知的固定位置使用的本实施例中,计算机15的编程被修改以利用对获得图像的环境的了解来生成适当的深度数据。更具体地,在本实施例中,之前实施例的图像处理器22、47由以下代替:图像识别器50,***作以分析图像的多个部分从而识别存在的人及其定位;头部模型52,用于对与头部相对应的表面进行建模;环境模型53,存储背景场景的三维模型数据;以及身体模型54,用于对与身体和四肢相对应的表面进行建模。
在本实施例中,如在之前的实施例中那样,获得对象14的图像12并将其存储在输入缓冲器20中。然而,在本实施例中,所考虑的对象14将包括来自所考虑的大多数场景固定的已知位置的预定义对象的图像,例如,从特定观察点观察的坐在过山车上的个人的图像。
由于图像的环境和观察点是已知的,所以可以预先设定例如车厢的位置、乘坐设施等的图像的特定部分将是不变的。此外,图像的环境还将为计算机15指示可能坐在过山车的车厢中的个人的可能位置。当图像被接收并被存储时,调用图像识别器50,其对图像中个人可能出现的部分进行分析以确定个人是否确实存在。将使用标准图像识别技术来进行这种分析。在个人被识别为存在的情况下,图像识别器50对头部模型52和身体模型54进行调用以试图识别图像中个人的头部和身体的方向。由此,例如,为了确定个人的面部的方向,头部模型可以尝试识别个人的眼部和鼻部等的位置。然后,头部模型52利用适合匹配图像中个人的方向的预先存储的模型表征来生成图像的该部分的三维线网模型。可以使用诸如在通过引用包含于此的V.Blanz;T.Vetter(1999);A Morphable Model for theSynthesis of3D Faces;SIGGRAPH'99Conference Proceedings中所述的方法来生成高逼真度的3D头部模型。然后进行相似的处理以利用身体模型54来确定所识别的个人的模型并将所述模型定向。针对图像中其他已知的对象,我们可以使用通过引用包含于此的诸如T.Hassner;R.Basri(2006);Example Based3D Reconstruction from Single2D Images;IEEE Conferenceon Computer Vision and Pattern Recognition2006的基于示例的合成方法,其使用包含从每个对象的外观至深度的可行映射的示例块(patch)的已知对象的数据库。在给定新的对象的图像的情况下,来自相似对象的块的已知深度被结合来产生合理的深度估计。
在生成了图像12中个人的表征之后,将个人的模型与表示场景的静态部分的静态环境模型53结合。由此,以这种方式生成整个图像的完整的模型表征,其中,从预先存储的环境模型53得到模型的静态部分,并且通过基于对所获得图像的分析来调整头部模型52和身体模型54从而得到可变元素。然后,利用该完整的模型表征来生成距离数据,该距离数据被存储在3D模型存储器24中并且之后以与之前实施例相似的方式来处理。
改进和修改
在上述实施例中说明了对象相对于与图像的投影图像平面相对应的图像平面的距离的确定。应该理解,可以利用其他参考平面。还应该理解,在一些实施例中,可以相对于非平面的表面来确定距离数据。这种实施例将特别地应用于相应的非平面表面的浮雕的确定。由此,例如,浮雕模型可能被创建在诸如马克杯的饮用容器的表面上,其中相对于与容器的外表面相对应的曲面来进行相对深度值的确定。
尽管在上述实施例中描述了一种不能确定深度数据的像素被假定为与图像的背景部分相对应的***,但应该理解,可以利用其他方法。由此,例如,不直接针对图像的整体确定距离数据,而是可以使用传统的技术预处理图像以确定图像的哪些部分与对象相对应以及哪些部分与背景相对应。然后,图像的被识别为与图像的背景部分相对应的部分可以被赋予背景值。之后,图像的剩余部分可以被处理以确定距离值。然后,图像的被识别为与不能直接确定深度数据的对象相对应的任何部分的深度数据可以利用这些对象的其他部分的深度数据来插值。
尽管在第一实施例中说明了一种利用距离数据来针对图像的各部分分配离散深度值的***,但是应该理解,在一些实施例中不分配离散值,而是可以利用映射函数将距离数据转换成相对深度数据。在这种实施例中,使用映射函数将能够实现要确定的浮雕模型的深度的更平滑的变化。
尽管在以上实施例中提到了利用图像数据来确定浮雕模型的多个部分的适当颜色,但是应该理解,可以在使用之前对图像数据进行处理或滤波。这种处理可以包括例如以下效果:在利用图像数据确定所生成的浮雕模型的颜色之前,将图像渲染为深褐色或灰度级图像以及修描图像或者应用适当艺术效果。
尽管在以上实施例中提到了对象的拍摄,但是应该理解,这种对象不一定必须与物理对象相对应,并且将包括图像中任何合适的视觉元素,诸如云、雾、闪电或彩虹效果等。
在详细说明的实施例中,说明了通过处理图像来确定距离或深度数据并且之后利用该数据对所制造的浮雕进行着色的方法。应该理解,在一些实施例中,可以使用其他方法来确定深度或距离数据。由此,例如在预先知道对象的形状的情况下,图像数据可以被处理以识别图像中的对象和对象的定向,并且所述信息可以被用来确定适当的深度数据。在可选方法中,可以使用诸如通过激光扫描或使用结构光来确定适当的深度图的传统技术来确定图像的形状,其中,为了生成浮雕模型,深度图被适当地缩放以创建相对深度图。
在本申请中说明了确定图像中对象的深度或距离数据的许多不同方法。应该理解,可以结合确定深度或距离数据的多种不同方法以确定特定图像的数据。在结合多种方法的情况下,可以针对图像的不同部分使用不同的方法,或者可选地可以针对图像的同一部分使用多种方法来生成深度数据,其中使用不同方法所获得的所确定的值被比较并组合。
尽管参考附图说明的本发明的实施例包括计算机设备并且在计算机设备中进行处理,但本发明还扩展至适于实现本发明的计算机程序,特别是载体上或载体中的计算机程序。所述程序可以是源代码或目标代码的形式,或者是适于在实施根据本发明的处理时使用的任何其他形式。所述载体可以是能够承载程序的任何实体或装置。
例如,所述载体可以包括诸如ROM(例如CD ROM或半导体ROM)的存储介质、或例如软盘或硬盘的磁记录介质。此外,所述载体可以是可传输载体,诸如可以经由电缆或光缆或者通过无线电或其他方式传送的电信号或光信号。
当程序被实施在可以直接通过电缆或者其他装置或部件传送的信号中时,所述载体可以由所述电缆或者其他装置或部件构成。
可选地,所述载体可以是嵌入程序的集成电路,所述集成电路适于进行相关处理或在进行相关处理时使用。
Claims (16)
1.一种计算机实施的浮雕模型生成方法,包括:
从观察点获得表示一个或多个对象的图像的图像数据;
确定从所述观察点观察的所述图像中出现的对象的多个部分的相对深度;
基于相对深度的所述确定将深度数据分配给所述图像的多个部分;
利用所分配的深度数据来控制机床工具以生成所获得的图像的三维浮雕;以及
利用所获得的图像数据对所生成的浮雕进行着色。
2.根据权利要求1所述的浮雕模型生成方法,其中确定图像中出现的对象的多个部分的相对深度包括:
处理所获得的图像数据以生成所述图像中的对象的三维计算机模型;以及
利用所生成的三维计算机模型来确定从所述观察点观察的所述图像中出现的对象的多个部分的相对深度。
3.根据权利要求2所述的浮雕模型生成方法,其中处理所获得的图像数据以生成所述图像中的对象的三维计算机模型包括:
存储与所获得的图像的至少一部分相对应的对象的三维计算机模型;以及
利用所存储的计算机模型将深度数据分配给所述图像的与所存储的计算机模型相对应的部分。
4.根据权利要求3所述的浮雕模型生成方法,还包括:
识别所获得的图像的不与所存储的三维计算机模型相对应的部分;
生成所获得的图像的不与所存储的三维计算机模型相对应的部分的三维计算机模型;以及
利用所生成的计算机模型将深度数据分配给所生成的计算机模型。
5.根据权利要求1所述的浮雕模型生成方法,其中确定图像中出现的对象的多个部分的相对深度包括:
从多个观察点获得图像中出现的一个或多个对象的图像数据;以及
利用来自多个观察点的图像中出现的一个或多个对象的所述图像数据来生成图像中出现的一个或多个对象的三维模型。
6.根据权利要求1所述的浮雕模型生成方法,其中确定图像中出现的对象的多个部分的相对深度包括:确定图像中出现的对象的多个部分和观察点之间的距离并且基于所确定的所述距离将深度数据分配给所述图像的多个部分。
7.根据权利要求6所述的浮雕模型生成方法,其中基于所确定的所述距离将深度数据分配给所述图像的多个部分包括:将相同的深度数据分配给图像的被确定为距所述观察点在特定距离范围内的所有部分。
8.一种建模设备,包括:
输入缓冲器,***作以接收表示来自观察点的一个或多个对象的图像的图像数据;
图像处理器,***作以确定从所述观察点观察的所述图像中出现的对象的多个部分的相对深度;
深度图生成器,***作以基于所述图像处理器所确定的相对深度将深度数据分配给图像的多个部分;以及
控制器,***作以生成指令从而控制机床工具基于由所述深度图生成器分配给图像的多个部分的深度数据来生成图像的三维浮雕并且利用所接收到的图像数据对所生成的浮雕进行着色。
9.根据权利要求8所述的建模设备,其中所述图像处理器***作以:
处理所获得的图像数据从而生成所述图像中的对象的三维计算机模型;以及
利用所生成的三维计算机模型来确定从所述观察点观察的所述图像中出现的对象的多个部分的相对深度。
10.根据权利要求9所述的建模设备,还包括:
环境存储器,***作以存储与所获得的图像的至少一部分相对应的对象的三维计算机模型,其中所述图像处理器***作以利用所存储的计算机模型将深度数据分配给所述图像的与所存储的计算机模型相对应的部分。
11.根据权利要求10所述的建模设备,还包括:
图像识别器,***作以识别所获得的图像的不与所存储的三维计算机模型相对应的部分,其中所述图像处理器***作以生成所获得的图像的不与所存储的三维计算机模型相对应的部分的三维计算机模型;并且利用所生成的计算机模型将深度数据分配给所生成的计算机模型。
12.根据权利要求8所述的建模设备,还包括***作以从多个观察点获得所述一个或多个对象的图像数据的多个照相机;其中,所述图像处理器***作以利用来自多个观察点的图像中出现的一个或多个对象的所述图像数据来生成图像中出现的一个或多个对象的三维模型。
13.根据权利要求8所述的建模设备,其中,所述深度图生成器***作以通过以下方式来确定图像中出现的对象的多个部分的相对深度:确定图像中出现的对象的多个部分和观察点之间的距离并且基于所述确定所确定的距离将深度数据分配给所述图像的多个部分。
14.根据权利要求13所述的建模设备,其中,所述深度图生成器***作以基于所述确定所确定的距离将深度数据分配给所述图像的多个部分,包括将相同的深度数据分配给图像的被确定为距所述观察点在特定距离范围内的所有部分。
15.根据权利要求所述的建模设备,还包括***作以基于所述控制器所生成的指令来形成浮雕的机床工具。
16.根据权利要求15所述的建模设备,其中,所述机床工具包括从以下组中选择的机床工具,所述组包括:3D打印机、真空成形设备和自动雕刻设备。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1014643.9A GB2483285A (en) | 2010-09-03 | 2010-09-03 | Relief Model Generation |
GB1014643.9 | 2010-09-03 | ||
PCT/GB2011/051603 WO2012028866A1 (en) | 2010-09-03 | 2011-08-25 | Physical three-dimensional model generation apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103201772A true CN103201772A (zh) | 2013-07-10 |
Family
ID=43037260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180052891XA Pending CN103201772A (zh) | 2010-09-03 | 2011-08-25 | 三维物理模型生成设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20130162643A1 (zh) |
EP (1) | EP2612301A1 (zh) |
CN (1) | CN103201772A (zh) |
GB (1) | GB2483285A (zh) |
WO (1) | WO2012028866A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103640223A (zh) * | 2013-12-27 | 2014-03-19 | 杨安康 | 真彩三维个性人偶快速成型*** |
CN105216306A (zh) * | 2014-05-30 | 2016-01-06 | 深圳创锐思科技有限公司 | 雕刻模型生成***及方法、雕刻模型3d打印***及方法 |
CN105303616A (zh) * | 2015-11-26 | 2016-02-03 | 青岛尤尼科技有限公司 | 基于单张照片的浮雕建模方法 |
CN105938424A (zh) * | 2015-03-06 | 2016-09-14 | 索尼电脑娱乐公司 | 3d打印的***、设备和方法 |
CN106105192A (zh) * | 2014-01-03 | 2016-11-09 | 英特尔公司 | 通过深度相机的实时3d重建 |
CN106183575A (zh) * | 2015-04-30 | 2016-12-07 | 长沙嘉程机械制造有限公司 | 多工艺集成3d打印新方法 |
CN106715084A (zh) * | 2014-07-28 | 2017-05-24 | 麻省理工学院 | 机器视觉辅助的增材制造的***和方法 |
CN107852533A (zh) * | 2015-07-14 | 2018-03-27 | 三星电子株式会社 | 三维内容生成装置及其三维内容生成方法 |
CN111742352A (zh) * | 2018-02-23 | 2020-10-02 | 索尼公司 | 3d对象建模方法以及相关设备和计算机程序产品 |
CN112270745A (zh) * | 2020-11-04 | 2021-01-26 | 北京百度网讯科技有限公司 | 一种图像生成方法、装置、设备以及存储介质 |
US11155040B2 (en) | 2016-12-16 | 2021-10-26 | Massachusetts Institute Of Technology | Adaptive material deposition for additive manufacturing |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013118468A (ja) * | 2011-12-02 | 2013-06-13 | Sony Corp | 画像処理装置および画像処理方法 |
KR20150010230A (ko) * | 2013-07-18 | 2015-01-28 | 삼성전자주식회사 | 단일 필터를 이용하여 대상체의 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치. |
CN104275799B (zh) * | 2014-05-26 | 2017-02-15 | 深圳市七号科技有限公司 | 一种彩色3d打印装置和打印方法 |
GB2546016B (en) | 2014-06-20 | 2018-11-28 | Velo3D Inc | Apparatuses, systems and methods for three-dimensional printing |
US20160151978A1 (en) * | 2014-11-12 | 2016-06-02 | Etron Technology, Inc. | Three-dimensional printer with adjustment function and operation method thereof |
US10449732B2 (en) * | 2014-12-30 | 2019-10-22 | Rovi Guides, Inc. | Customized three dimensional (3D) printing of media-related objects |
GB2537636B (en) * | 2015-04-21 | 2019-06-05 | Sony Interactive Entertainment Inc | Device and method of selecting an object for 3D printing |
CN106164979B (zh) * | 2015-07-13 | 2019-05-17 | 深圳大学 | 一种三维人脸重建方法及*** |
EP3370948A4 (en) | 2015-11-06 | 2019-07-24 | Velo3d Inc. | PROFESSIONAL THREE-DIMENSIONAL PRINTING |
US10183330B2 (en) | 2015-12-10 | 2019-01-22 | Vel03D, Inc. | Skillful three-dimensional printing |
US10372968B2 (en) * | 2016-01-22 | 2019-08-06 | Qualcomm Incorporated | Object-focused active three-dimensional reconstruction |
WO2017131771A1 (en) * | 2016-01-29 | 2017-08-03 | Hewlett-Packard Development Company, L.P. | Identify a model that matches a 3d object |
US20170239719A1 (en) | 2016-02-18 | 2017-08-24 | Velo3D, Inc. | Accurate three-dimensional printing |
JP6787389B2 (ja) | 2016-02-26 | 2020-11-18 | 株式会社ニコン | 検出装置、検出システム、検出方法、情報処理装置、及び処理プログラム |
WO2017154705A1 (ja) * | 2016-03-09 | 2017-09-14 | 株式会社ニコン | 撮像装置、画像処理装置、画像処理プログラム、データ構造、及び撮像システム |
US10252336B2 (en) | 2016-06-29 | 2019-04-09 | Velo3D, Inc. | Three-dimensional printing and three-dimensional printers |
US11691343B2 (en) | 2016-06-29 | 2023-07-04 | Velo3D, Inc. | Three-dimensional printing and three-dimensional printers |
US20180095450A1 (en) * | 2016-09-30 | 2018-04-05 | Velo3D, Inc. | Three-dimensional objects and their formation |
US10661341B2 (en) | 2016-11-07 | 2020-05-26 | Velo3D, Inc. | Gas flow in three-dimensional printing |
JP7320352B2 (ja) * | 2016-12-28 | 2023-08-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置 |
US10611092B2 (en) | 2017-01-05 | 2020-04-07 | Velo3D, Inc. | Optics in three-dimensional printing |
US10369629B2 (en) | 2017-03-02 | 2019-08-06 | Veo3D, Inc. | Three-dimensional printing of three-dimensional objects |
WO2018165761A1 (en) * | 2017-03-15 | 2018-09-20 | Aspect Biosystems Ltd. | Systems and methods for printing a fiber structure |
US20180281282A1 (en) | 2017-03-28 | 2018-10-04 | Velo3D, Inc. | Material manipulation in three-dimensional printing |
US10272525B1 (en) | 2017-12-27 | 2019-04-30 | Velo3D, Inc. | Three-dimensional printing systems and methods of their use |
US10144176B1 (en) | 2018-01-15 | 2018-12-04 | Velo3D, Inc. | Three-dimensional printing systems and methods of their use |
CN108986164B (zh) | 2018-07-03 | 2021-01-26 | 百度在线网络技术(北京)有限公司 | 基于图像的位置检测方法、装置、设备及存储介质 |
CA3148849A1 (en) | 2019-07-26 | 2021-02-04 | Velo3D, Inc. | Quality assurance in formation of three-dimensional objects |
CN110853146B (zh) * | 2019-11-18 | 2023-08-01 | 广东三维家信息科技有限公司 | 浮雕建模方法、***及浮雕加工设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5764231A (en) * | 1992-05-15 | 1998-06-09 | Eastman Kodak Company | Method and apparatus for creating geometric depth images using computer graphics |
US20080211809A1 (en) * | 2007-02-16 | 2008-09-04 | Samsung Electronics Co., Ltd. | Method, medium, and system with 3 dimensional object modeling using multiple view points |
WO2008129360A1 (en) * | 2007-04-19 | 2008-10-30 | Damvig Develop Future Aps | A method for the manufacturing of a reproduction of an encapsulated three-dimensional physical object and objects obtained by the method |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5926388A (en) | 1994-12-09 | 1999-07-20 | Kimbrough; Thomas C. | System and method for producing a three dimensional relief |
US6129872A (en) * | 1998-08-29 | 2000-10-10 | Jang; Justin | Process and apparatus for creating a colorful three-dimensional object |
SG106041A1 (en) * | 2000-03-21 | 2004-09-30 | Nanyang Polytechnic | Plastic components with improved surface appearance and method of making the same |
GB0208852D0 (en) * | 2002-04-18 | 2002-05-29 | Delcam Plc | Method and system for the modelling of 3D objects |
GB2403883B (en) * | 2003-07-08 | 2007-08-22 | Delcam Plc | Method and system for the modelling of 3D objects |
EP1719079B1 (en) | 2004-02-17 | 2008-01-02 | Koninklijke Philips Electronics N.V. | Creating a depth map |
US7787658B2 (en) | 2004-03-12 | 2010-08-31 | Koninklijke Philips Electronics N.V. | Creating a depth map |
JP4449723B2 (ja) * | 2004-12-08 | 2010-04-14 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US8472699B2 (en) | 2006-11-22 | 2013-06-25 | Board Of Trustees Of The Leland Stanford Junior University | Arrangement and method for three-dimensional depth image construction |
US20080148539A1 (en) | 2006-12-20 | 2008-06-26 | Samuel Emerson Shepherd | Memorial with features from digital image source |
US20100079448A1 (en) * | 2008-09-30 | 2010-04-01 | Liang-Gee Chen | 3D Depth Generation by Block-based Texel Density Analysis |
CN102103696A (zh) * | 2009-12-21 | 2011-06-22 | 鸿富锦精密工业(深圳)有限公司 | 人脸辨识***、方法及具有该***的身份识别装置 |
US9202310B2 (en) * | 2010-04-13 | 2015-12-01 | Disney Enterprises, Inc. | Physical reproduction of reflectance fields |
-
2010
- 2010-09-03 GB GB1014643.9A patent/GB2483285A/en not_active Withdrawn
-
2011
- 2011-08-25 EP EP11755420.4A patent/EP2612301A1/en not_active Withdrawn
- 2011-08-25 WO PCT/GB2011/051603 patent/WO2012028866A1/en active Application Filing
- 2011-08-25 US US13/820,256 patent/US20130162643A1/en not_active Abandoned
- 2011-08-25 CN CN201180052891XA patent/CN103201772A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5764231A (en) * | 1992-05-15 | 1998-06-09 | Eastman Kodak Company | Method and apparatus for creating geometric depth images using computer graphics |
US20080211809A1 (en) * | 2007-02-16 | 2008-09-04 | Samsung Electronics Co., Ltd. | Method, medium, and system with 3 dimensional object modeling using multiple view points |
WO2008129360A1 (en) * | 2007-04-19 | 2008-10-30 | Damvig Develop Future Aps | A method for the manufacturing of a reproduction of an encapsulated three-dimensional physical object and objects obtained by the method |
US20100082147A1 (en) * | 2007-04-19 | 2010-04-01 | Susanne Damvig | Method for the manufacturing of a reproduction of an encapsulated head of a foetus and objects obtained by the method |
Non-Patent Citations (6)
Title |
---|
JENS KERBER等: "Feature Sensitive Bas Relief Generation", 《IEEE INTERNATIONAL CONFERENCE ON SHAPE MODELING AND APPLICATIONS, 2009. SMI 2009》, 28 June 2009 (2009-06-28), pages 148 - 154, XP031493738 * |
MASSIMILIANO PIERACCINI等: "3D digitizing of cultural heritage", 《JOURNAL OF CULTURAL HERITAGE》, 1 March 2001 (2001-03-01), pages 63 - 70 * |
TIAN-DING CHEN: "PAINTING STYLE TRANSFER AND 3D INTERACTION BY MODEL-BASED IMAGE SYNTHESIS", 《2008 INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND CYBERNETICS》, no. 5, 15 July 2008 (2008-07-15), pages 2976 - 2981, XP031318565 * |
ZHONGREN WANG等: "On-machine 3D Reconstruction Using Monocular Stereo Vision System", 《2009 SECOND INTERNATIONAL SYMPOSIUM ON INFORMATION SCIENCE AND ENGINEERING (ISISE)》, 28 December 2009 (2009-12-28), pages 392 - 395, XP031657530 * |
严素蓉: "基于图像建模与绘制方法的图像浮雕设计与实现", 《中国优秀博硕士论文全文数据库(硕士)信息科技辑(季刊)》, no. 02, 15 June 2005 (2005-06-15), pages 10 - 62 * |
叶新东等: "一种基于图像的3D浮雕效果绘制算法", 《计算机应用研究》, no. 2, 10 February 2005 (2005-02-10), pages 227 - 228 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103640223B (zh) * | 2013-12-27 | 2016-01-20 | 杨安康 | 真彩三维个性人偶快速成型*** |
CN103640223A (zh) * | 2013-12-27 | 2014-03-19 | 杨安康 | 真彩三维个性人偶快速成型*** |
US10178366B2 (en) | 2014-01-03 | 2019-01-08 | Intel Corporation | Real-time 3D reconstruction with a depth camera |
CN106105192A (zh) * | 2014-01-03 | 2016-11-09 | 英特尔公司 | 通过深度相机的实时3d重建 |
CN105216306B (zh) * | 2014-05-30 | 2018-03-30 | 深圳创锐思科技有限公司 | 雕刻模型生成***及方法、雕刻模型3d打印***及方法 |
CN105216306A (zh) * | 2014-05-30 | 2016-01-06 | 深圳创锐思科技有限公司 | 雕刻模型生成***及方法、雕刻模型3d打印***及方法 |
CN106715084A (zh) * | 2014-07-28 | 2017-05-24 | 麻省理工学院 | 机器视觉辅助的增材制造的***和方法 |
US11207836B2 (en) | 2014-07-28 | 2021-12-28 | Massachusetts Institute Of Technology | Systems and methods of machine vision assisted additive fabrication |
US10252466B2 (en) | 2014-07-28 | 2019-04-09 | Massachusetts Institute Of Technology | Systems and methods of machine vision assisted additive fabrication |
US11141921B2 (en) | 2014-07-28 | 2021-10-12 | Massachusetts Institute Of Technology | Systems and methods of machine vision assisted additive fabrication |
CN105938424A (zh) * | 2015-03-06 | 2016-09-14 | 索尼电脑娱乐公司 | 3d打印的***、设备和方法 |
CN105938424B (zh) * | 2015-03-06 | 2020-09-29 | 索尼互动娱乐股份有限公司 | 3d打印的***、设备和方法 |
CN106183575A (zh) * | 2015-04-30 | 2016-12-07 | 长沙嘉程机械制造有限公司 | 多工艺集成3d打印新方法 |
US11010967B2 (en) | 2015-07-14 | 2021-05-18 | Samsung Electronics Co., Ltd. | Three dimensional content generating apparatus and three dimensional content generating method thereof |
CN107852533A (zh) * | 2015-07-14 | 2018-03-27 | 三星电子株式会社 | 三维内容生成装置及其三维内容生成方法 |
CN105303616B (zh) * | 2015-11-26 | 2019-03-15 | 青岛尤尼科技有限公司 | 基于单张照片的浮雕建模方法 |
CN105303616A (zh) * | 2015-11-26 | 2016-02-03 | 青岛尤尼科技有限公司 | 基于单张照片的浮雕建模方法 |
US11155040B2 (en) | 2016-12-16 | 2021-10-26 | Massachusetts Institute Of Technology | Adaptive material deposition for additive manufacturing |
CN111742352A (zh) * | 2018-02-23 | 2020-10-02 | 索尼公司 | 3d对象建模方法以及相关设备和计算机程序产品 |
CN111742352B (zh) * | 2018-02-23 | 2023-11-10 | 索尼公司 | 对三维对象进行建模的方法和电子设备 |
CN112270745A (zh) * | 2020-11-04 | 2021-01-26 | 北京百度网讯科技有限公司 | 一种图像生成方法、装置、设备以及存储介质 |
CN112270745B (zh) * | 2020-11-04 | 2023-09-29 | 北京百度网讯科技有限公司 | 一种图像生成方法、装置、设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2012028866A1 (en) | 2012-03-08 |
GB201014643D0 (en) | 2010-10-20 |
EP2612301A1 (en) | 2013-07-10 |
GB2483285A (en) | 2012-03-07 |
US20130162643A1 (en) | 2013-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103201772A (zh) | 三维物理模型生成设备 | |
Shin et al. | Pixels, voxels, and views: A study of shape representations for single view 3d object shape prediction | |
CN106228507B (zh) | 一种基于光场的深度图像处理方法 | |
CN106910242B (zh) | 基于深度相机进行室内完整场景三维重建的方法及*** | |
KR102442486B1 (ko) | 3차원 모델 생성 방법, 장치, 컴퓨터 기기 및 저장 매체 | |
US8217931B2 (en) | System and method for processing video images | |
CN106600686A (zh) | 一种基于多幅未标定图像的三维点云重建方法 | |
US20120176380A1 (en) | Forming 3d models using periodic illumination patterns | |
US20120176478A1 (en) | Forming range maps using periodic illumination patterns | |
CN105701857A (zh) | 3d建模的对象的纹理化 | |
Kim et al. | Multi-view inverse rendering under arbitrary illumination and albedo | |
CN102542601A (zh) | 一种用于3d对象建模的设备和方法 | |
CN113362457B (zh) | 一种基于散斑结构光的立体视觉测量方法及*** | |
CN105184857A (zh) | 基于点结构光测距的单目视觉重建中尺度因子确定方法 | |
US9147279B1 (en) | Systems and methods for merging textures | |
CN109903377A (zh) | 一种无需相位展开的三维人脸建模方法及*** | |
Hsiao et al. | Multi-view wire art. | |
KR102422822B1 (ko) | 경쟁적 학습을 이용한 3차원 얼굴 이미지 합성 장치 및 방법 | |
CN117557714A (zh) | 三维重建方法、电子设备及可读存储介质 | |
CN110546687B (zh) | 图像处理装置及二维图像生成用程序 | |
KR20140123694A (ko) | 홀로그램 패턴 생성 장치 및 방법 | |
Gouiaa et al. | 3D reconstruction by fusioning shadow and silhouette information | |
US20140192045A1 (en) | Method and apparatus for generating three-dimensional caricature using shape and texture of face | |
WO2023102646A1 (en) | A method to register facial markers | |
KR20220119826A (ko) | 다시점 영상으로부터의 깊이지도 생성 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130710 |