CN108475327A - 三维采集与渲染 - Google Patents

三维采集与渲染 Download PDF

Info

Publication number
CN108475327A
CN108475327A CN201680077060.0A CN201680077060A CN108475327A CN 108475327 A CN108475327 A CN 108475327A CN 201680077060 A CN201680077060 A CN 201680077060A CN 108475327 A CN108475327 A CN 108475327A
Authority
CN
China
Prior art keywords
rendering
image
camera
scene
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201680077060.0A
Other languages
English (en)
Inventor
虞晶怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN108475327A publication Critical patent/CN108475327A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种使用多个图像相机或多个图像‑深度相机来拍摄目标物体的方法和***。使用拍摄的图像和深度图像重建几何图形和纹理。使用基于几何图形的渲染方法或基于图像的渲染方法渲染新图像。

Description

三维采集与渲染
使用多个相机和光源实现对真实的人和物体的高质量三维(3D)重建已成为新兴消费媒体平台、尤其是虚拟现实和增强现实的流行趋势。这种3D视频旨在通过以高维自由度来显示场景,从而帮助观看者更好地沉浸入场景。在这些视频中,观看者可以在3D环境中四处走动,并从不同的位置和从不同的方向观看3D渲染的人物或物体。然而,传统的图像和视频实时拍摄仅在二维中工作,因此缺乏传达关于人的3D模型、纹理或其他3D方面的信息的能力。
市场上出现的3D拍摄***只能用于固定视角的3D拍摄,因此观看者无法四处移动。当观看者佩戴头戴式显示器(HMD)时,这种限制导致观看者缺乏真实感。需要一种方法和***,其能够产生由多相机阵列拍摄的人、物体或场景的高质量3D图像和视频。然后可以将拍摄的人、物体或场景显示给用户,使得用户可以实时地、从不同的视角观看人、物体或场景。
附图说明
图1a示出了一个示例性的3D拍摄***;
图2a示出了完整的3D拍摄和渲染过程;
图2b示出了基于图像的渲染方法,该方法为图2a的渲染过程2003的具体细节。
图3详细示出了图2a的重建过程2002。
图4示出了图2a的预校准2000、拍摄2001和重建2002的替代示例性方法。
图5示出了3D拍摄***的示例性实施***的配置。
具体实施方式
在本发明的3D拍摄***的示例性实施方式中,在不同位置拍摄人、物体或其所在场景(本文简称为场景)的多个视图,并且利用所述多个视图生成人、物体或场景的3D模型和高分辨率纹理图。该***使得可以创建能够从不同的视图位置复现的场景的3D演示。穿着虚拟现实(VR)头戴式显示器(HMD)的观看者可以实时观看来自场景的复制特征和灯光效果。这有利于在观看者的心目中产生真实的3D感知,从而产生观看者正在观看3D真实场景的印象。此外,所公开的实施方式通过编辑重建的3D模型和纹理能够用于电影特效。
在此可以示出上面的示例性实施方式的详细描述。
图1a描述了一个示例性3D拍摄***。在拍摄***中,存在由示例性相机1002和1003表示的多个相机,这些相机以测地球体1000方式安装,使得目标场景可以位于球体的中心。由于其均匀性和密度,示例性实施方式可以使用从外到内的测地线;然而,在其他示例性实施方式中,可以使用内向外视图或从外向内配置。而且,配置可以是球形、网格、盒的形式或其他形状配置。
球体使得目标场景1001和相机之间的距离几乎相同。在其他例子中,在校准期间可能需要进行调整,因此相机可根据需要以其他方式安装,例如立方体或八角形安装。所有相机可以使用相同尺寸的传感器和镜头(类似的视场(FOV)以及焦距)。但是,出于校准原因,某些相机可能具有不同的传感器和镜头。所有相机可以被服务器或计算硬件同步和连接。每台相机可以具有自己的存储空间,并可以实时进行图像(即JPEG)压缩。在其他示例性实施方式中,相机可能不具有存储空间,而是将原始数据发送到云端进行处理和存储。
关于相机,可以使用任何图像或视频拍摄设备。例如,可以使用数字单镜头反光(DSLR)相机。提供的相机越多,拍摄的图像就越多,因此拍摄和最终渲染的准确性就越高。相机越多,可以使该过程覆盖越多的物体以产生高分辨率的纹理结果。所有相机模块都连接到用于同步所有相机的计算板。相机也连接到通信介质,从而允许传输原始图像拍摄数据。通信介质可以用于以下目的:与单个桌面通信,或者通过互联网、内联网、云或服务器群通信,通过路由器连接的WiFi通信或其他网络通信手段。以使得每个单独的相机都可以进行调整的方式安装所有相机,从而可以根据深度比例和观看空间来增加或减少相机之间的距离。
图2a描述了完整的3D拍摄和渲染过程。
所有相机都被预校准2000,并在拍摄过程中处于固定位置(如果在已知路径上,它们可能会被移动)。所有相机根据需要安装在测地球体或其他形状上。所期望的是所有相机在球体上创建统一的样本,然而,一些相机仍然存在小的位置偏移。对于所有相机位置,通过拟合具有已知半径的球体(或与物体具有已知距离的3D几何图形)来校正该距离差异。所有相机位置都在3D空间中移动到该球体上,并且所有相机视图都以球体中心的方向旋转。因此,所有相机在球体上进行统一的样本,这在渲染过程中是很有用的。还需要校准所有相机的色彩空间,因为所有图像的3D重建需要一致性。为了进行颜色校准,在球体中心放置彩色棋盘,并且所有相机拍摄原始数据。该过程为每台相机拟合颜色匹配曲线。因此,所有拍摄的数据将通过此曲线的投射以进行颜色校准。其他校准方法包括在球体上安装多个光源以创建均匀的照射源。所有光源方向都经过校准,以便基于光线方向从图像中分离镜面高光。为了校准光源,镜球(或其他反射源)被放置在球体的中心,被校准的相机聚焦在镜球上。每个相机每次使用一个使能的光源拍摄图像或视频。基于相机外部参数和来自镜球的反射,可以估计每个图像的入射光方向,然后可以在3D空间中校准光源位置和方向。
在拍摄过程2001中,所有相机拍摄不同位置上的一个或多个物体(可能是人)的不同视角的数百幅图像。所有原始图像可以被存储(本地或者被传送到相机外部以供存储),图像也可以被压缩(即,以JPEG格式)并且被实时传送,使得其可以适用于视频拍摄。或者,可以实时处理图像,因此不需要进行存储或压缩。
在拍摄之后,应用多视图3D重建过程2002来生成一个或多个目标物体的高质量3D模型。同时,该过程分离出高精度纹理和表面法线。例如,在人的情况下,纹理将是皮肤纹理。重建过程可以分为两部分:3D重建和反照率和镜面反射分离。对于3D重建,传统的多视点3D重建和运动恢复结构(structure from motion)方法可以生成高精度的3D几何模型。对于反照率和镜面反射,使用光度立体方法提取高分辨率法线图,并从反照率部分分离镜面高光,这可用于数字式重光照特效。如果***包含大量具有非常高分辨率的相机,从而导致巨大的总图像数据量,则该过程利用改进的运动恢复结构3D重建方法,可以有效地处理大级别的输入数据。
渲染过程2003被配置为,通过将具有纹理的3D模型实时渲染到显示器、例如HMD上来重新生成一个或多个3D物体。这可以使用基于标准几何图形的技术完成。为了以更现实的方式渲染对象,可以应用如图2b中所描述的改进的基于图像的渲染技术。为了获得一个或多个物体的高质量3D几何图形,采用了与运动恢复结构方法相结合的改进的多视点立体重建。为了减少来自物体纹理的镜面高光,照明***也被安装在拍摄圆顶上,并且所有的光线方向和光强都经过预校准。并且在重建过程中,通过使用自己的校准内部参数,所有图像都不会失真,并且通过它们的外部参数进行校正。在预校准过程中获得内部参数和外部参数。每个图像的颜色也通过颜色校准结果进行校正。
图2b描述了基于图像的渲染方法,该方法是图2a的渲染过程2003的具体细节。根据3D模型和相机外部参数、即相机位置如何相互关联,对每个图像进行深度的预渲染2100。在渲染过程期间,对于每一帧,确定新相机的位置2101(即,x-y-z位置和方向),可以通过HMD上的位置追踪器、通过鼠标移动确定的位置或者任何其他用于检测新相机位置的方法来确定位置。然后,如图2a的重建过程2002中所解释的,基于重建的3D几何图形来渲染深度图2102。对于每个像素,以来自渲染深度图的长度信息进行光线追踪2103。发现相对于球体上的位置最近的相机2104(例如它可以是四个),将用于最终图像渲染。基于深度图将3D空间划分为体素。体素相当于图像中的像素,因此光线贯穿体素。在光线与物体的体素相交之后,交叉点从体素追溯到先前确定的最近的相机,然后可以确定哪个相机没有被其他体素遮挡。基于双线性内插,将来自相机的像素、即四个像素进行线性组合2105。上述过程可以利用例如图形处理单元(GPU)实时完成。
图3详细描述了图2a的重建过程2002。在第一阶段,在视点和光照变化下稳定的所有照片中检测到点,并基于每个点的局部邻域为每个点生成描述符3001。为每个图像建立高斯金字塔,然后使用高斯拉普拉斯算子(LoG)作为斑点检测器。之后,设置阈值以滤除低对比度像素,并且仅将高值像素设置为关键点。这些描述符稍后用于检测跨越图像的关系3002。这一步与SIFT和SURF等一些众所周知的方法类似,但通过在描述符中添加非朗伯表面假设得到针对更高对准质量的更可靠的描述符,该描述符包含正常信息和镜面高光信息。尽管***校准良好,但由于每个相机可能具有小的偏移或方向改变,所以在重建步骤之前,使用光束法平差(bundle-adjustment)来细化每个图像的相机的内部参数和外部参数3003。该方法使用贪婪过程来查找近似的相机位置,稍后使用改进的光束法平差对近似的相机位置进行细化。在步骤3004中,使用基于面片的多视点立体图,该立体图用于稠密的点云和多视点的重建(基于PMVS2和/或CMVS)。另外,可以添加用于计算平滑深度图的约束条件。为了处理潜在的大量图像和高分辨率,也可以使用外部存储(out-of-core)方法完成分段重建,分别重建3D物体的每个小块以减少计算期间的存储器使用,然后使用迭代最近点(ICP)方法将所有块融合在一起。这个处理可以在本地完成,也可以通过计算机网络在云中完成。
图4描述了图2a的预校准2000、拍摄2001和重建2002的替代示例性方法。该***结合了多个深度传感器和多个传统RGB彩色相机传感器。所有传感器同时拍摄一个或多个目标物体。通过融合深度结果和颜色信息,获得高精度的3D几何模型和颜色纹理图。
首先预校准4000深度相机,以获得它们相对于彼此的位置和方位。还预校准RGB传感器的相互关系。从不同的方向拍摄棋盘状图案的多个图像。通过计算棋盘的所有特征角的像素位置,获得每个RGB相机的外部和内部参数。在深度传感器(基于结构光的)校准的示例中,IR投影机被遮挡,并用IR平面光源替换IR投影机来照亮场景。类似于RGB相机校准,拍摄棋盘的多个图像以估计内部参数。对于外部参数,将几个辅助相机放置在深度传感器旁边,并使用可见白光来照亮场景,然后应用立体相机标定来计算参数。
所有深度传感器和RGB传感器都安装在网格穹顶(dome)上,将一个或多个目标物体置于中心。覆盖要重建的物体的期望区域,以便在生成点云时不会出现孔洞。使用RGB和深度传感器拍摄目标的图像4001和深度图像4002。
点云是在前一阶段拍摄的一组体素。为了构建点云4003,对深度图像中的每个像素进行背投影。由于每个像素的深度是已知的,所以该点的确切3D位置也是已知的。构建的点云不仅包含物体,还包含背景。假定背景相当远,从而容易根据深度值将背景分割出来。为了更加严谨,假定物体具有一定范围内的深度值。深度传感器容易出现测量错误,导致稀疏的外点(outlier),从而可能破坏配准过程。在配准过程之前必须从点云中去除这些外点,可以使用基于三维块匹配滤波(BM3D)的平滑约束降噪方法来消除外点。利用从不同视点拍摄的同一物体的许多点云,将离散点云融合以形成最接近的3D模型。使用迭代最近点(ICP)方法对这些点云进行配准。点云重建也可以使用图像和计算机视觉方法进行改进。
基于图像的重建或基于深度的重建输出的是3D空间中的密集点云。使用Delaunay或其他三角测量方法来获取用于渲染的最终几何图形4004。
重建纹理2002、4005包括:参数化几何网格或三角形网格,可能将其切成较小的块;然后混合源照片以形成高分辨率纹理图。前面步骤拍摄到的图像仍然具有比3D重建模型更高的分辨率。将图像重新背投影到模型上,并为每个小块创建新的UV图(纹理图)。
由于所有相机都是同步的,因此可以将移动物体视为针对每一帧的静态物体。相机可以在视频模式下拍摄对象,并逐帧使用上述算法。或者,可以使用标准计算机图形技术将单个纹理和/或几何图形动画化。使用帧间插值生成几何动画。
可以应用渲染2003、4006并且显示来自***的图像的方法。一个示例是将该物体显示在头戴式显示器上。有两种解决方案。第一种是基于标准几何图形的技术,只使用生成的3D模型和纹理图来渲染3D物体。第二种解决方案是基于光场的渲染技术来渲染3D物体,如图2b,通过组合拍摄图像和重建的3D模型可以产生高真实的渲染结果。而且由于使用了光场数据结构,观看者可以通过不同的环境地图动态地改变光照。
图5图示了3D拍摄***的示例性实施***的配置。在测地线的一个示例性实施方式中,存在若干相机5001,每个相机具有可用于拍摄一个或多个图像的板载处理器5000。也可以存在相应的深度相机。图像数据可以通过通信介质5002(诸如总线、wifi或其他网络介质)传输到桌面5003。经由云5005以及通信介质5004传递数据,桌面可以渲染图像并将渲染的图像存储在存储器5006中。云可以是任何网络、互联网、内联网、或路由器和/或处理器的其他网络组。终端用户5009还可以从存储器检索那些图像,并用终端进行显示5008。
这里具体示出和描述了本发明的几个示例性实施方式。本申请的优点和特征仅是实施方式的代表性样本,并且不是穷尽的和/或排他性的。提供它们仅是为了帮助理解和教导所声明的原则。应该理解,它们不代表所有要求保护的发明。而且,它们不限于这里描述的技术或设备。可能没有提供替代实施方式不是这种替代实施方式的免责声明。应该意识并理解的是,可以利用其他实施方式,并且可以在不偏离本文讨论的实施方式(相对于为了不重复的目的而在本文中未讨论的那些实施方式)的范围和/或精神的情况下进行功能、逻辑、组织、结构和/或拓扑修改。例如,要理解的是,任何程序组件(组件集合)、其他组件和/或附图和/或全文中描述的任何当前特征集合的任何组合的逻辑和/或拓扑结构不限于固定的操作次序和/或排列次序,而是,任何公开的次序都是示例性的,并且本公开内容预期所有等同物,而不管其顺序如何。此外,应该理解的是,这些特征不限于串行执行,而是由本公开预期可以异步地、并存地、并行地、同时地、同步地等执行任何数量的线程、进程、服务、服务器等等。因此,这些特征中的一些可能相互矛盾,因为它们不能同时存在于单个实施方式中。类似地,一些特征适用于本发明的一个方面,不适用于其他方面。
另外,本公开包括当前未要求保护的其他发明。申请人保留目前未要求保护的发明的所有权利,包括要求保护这些发明的权利、提交其他申请、延续申请、部分延续申请、分案的权利和/或其他类似权利。因此,应该理解的是,本公开的优点、实施方式、示例、功能、特征、逻辑、组织、结构、拓扑和/或其他方面不应被认为是对由权利要求限定的内容的限制或对权利要求等同物的限制。应该理解的是,取决于个体、实体和/或企业用户、数据库配置和/或关系模型、数据类型、数据传输和/或网络框架、语法结构等等的特定需求和/或特性,可以实现本发明的各种实施方式,以实现很大的灵活性和定制。

Claims (8)

1.一种渲染新图像的方法,包括:
使用一个或多个图像相机获取一组图像,
使用一个或多个深度相机获取一组深度图像,
将所述深度图像转换为表示场景物体的几何模型,
将从所述一个或多个图像相机获取的图像转换为纹理图;以及
使用基于几何图形的渲染技术,从所述几何模型和所述纹理图渲染新图像。
2.根据权利要求1所述的渲染新图像的方法,其特征在于,所述基于几何图形的渲染技术是光栅化。
3.根据权利要求1所述的渲染新图像的方法,其特征在于,所述基于几何图形的渲染技术是光线追踪。
4.根据权利要求1所述的渲染新图像的方法,其特征在于,
所述场景物体是静态的,并且
将该场景物体转换成一个模型和一组纹理。
5.根据权利要求1所述的渲染新图像的方法,其特征在于,所述场景物体被动画化。
6.根据权利要求5所述的渲染新图像的方法,其特征在于,所述动画化的场景的每一帧具有单独的几何模型和纹理图。
7.根据权利要求5所述的渲染新图像的方法,其特征在于,
所述动画化的场景具有单个纹理图,并且
所述动画化的场景的每一帧具有单独的几何模型。
8.一种用于创建图像渲染的***,包括:
一个或多个相机的配置;
用于计算场景的几何图形并渲染图像的处理器;以及
用于存储输入数据的存储介质。
CN201680077060.0A 2016-01-13 2016-12-19 三维采集与渲染 Pending CN108475327A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662278269P 2016-01-13 2016-01-13
US62/278,269 2016-01-13
PCT/US2016/067635 WO2017123387A1 (en) 2016-01-13 2016-12-19 Three-dimensional acquisition and rendering

Publications (1)

Publication Number Publication Date
CN108475327A true CN108475327A (zh) 2018-08-31

Family

ID=59312075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680077060.0A Pending CN108475327A (zh) 2016-01-13 2016-12-19 三维采集与渲染

Country Status (3)

Country Link
US (2) US10789752B2 (zh)
CN (1) CN108475327A (zh)
WO (1) WO2017123387A1 (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US10692262B2 (en) * 2017-01-12 2020-06-23 Electronics And Telecommunications Research Institute Apparatus and method for processing information of multiple cameras
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
GB2567245A (en) * 2017-10-09 2019-04-10 Nokia Technologies Oy Methods and apparatuses for depth rectification processing
CN108320330A (zh) * 2018-01-23 2018-07-24 河北中科恒运软件科技股份有限公司 基于深度视频流的实时三维模型重建方法及***
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
US10628989B2 (en) 2018-07-16 2020-04-21 Electronic Arts Inc. Photometric image processing
US11022861B2 (en) 2018-07-16 2021-06-01 Electronic Arts Inc. Lighting assembly for producing realistic photo images
US10740986B2 (en) 2018-08-30 2020-08-11 Qualcomm Incorporated Systems and methods for reconstructing a moving three-dimensional object
US11321908B2 (en) * 2018-11-29 2022-05-03 Incontext Solutions, Inc. Computerized system and method for scanning apparel into three dimensional representations
US10878577B2 (en) * 2018-12-14 2020-12-29 Canon Kabushiki Kaisha Method, system and apparatus for segmenting an image of a scene
US10911732B2 (en) * 2019-01-14 2021-02-02 Fyusion, Inc. Free-viewpoint photorealistic view synthesis from casually captured video
US11288842B2 (en) * 2019-02-15 2022-03-29 Interaptix Inc. Method and system for re-projecting and combining sensor data for visualization
EP3792876A1 (en) 2019-09-13 2021-03-17 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for rendering a visual scene
US11216646B1 (en) * 2020-07-02 2022-01-04 Disney Enterprises, Inc. Techniques for object appearance capture
US11823327B2 (en) 2020-11-19 2023-11-21 Samsung Electronics Co., Ltd. Method for rendering relighted 3D portrait of person and computing device for the same
WO2022108067A1 (en) * 2020-11-19 2022-05-27 Samsung Electronics Co., Ltd. Method for rendering relighted 3d portrait of person and computing device for the same
CN114758151B (zh) * 2022-03-21 2024-05-24 辽宁工程技术大学 一种结合线特征与三角网约束的序列影像密集匹配方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
CN101183276A (zh) * 2007-12-13 2008-05-21 上海交通大学 基于摄像头投影仪技术的交互***
CN101271585A (zh) * 2008-03-31 2008-09-24 北京大学 一种在图形处理器上拾取三维几何图元的方法
US20100329358A1 (en) * 2009-06-25 2010-12-30 Microsoft Corporation Multi-view video compression and streaming
US20120281873A1 (en) * 2011-05-05 2012-11-08 International Business Machines Corporation Incorporating video meta-data in 3d models
CN102903146A (zh) * 2012-09-13 2013-01-30 中国科学院自动化研究所 用于场景绘制的图形处理方法
CN102915563A (zh) * 2012-09-07 2013-02-06 深圳市旭东数字医学影像技术有限公司 三维网格模型透明绘制的方法及其***
CN103500463A (zh) * 2013-10-17 2014-01-08 北京大学 一种gpu上多层形状特征融合的可视化方法
CN103700134A (zh) * 2013-12-24 2014-04-02 四川川大智胜软件股份有限公司 基于可控制纹理烘焙的三维矢量模型实时光影延迟着色渲染方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289119B2 (en) * 2005-05-10 2007-10-30 Sony Computer Entertainment Inc. Statistical rendering acceleration
WO2011068582A2 (en) * 2009-09-18 2011-06-09 Logos Technologies, Inc. Systems and methods for persistent surveillance and large volume data streaming
US20140323148A1 (en) * 2013-04-30 2014-10-30 Qualcomm Incorporated Wide area localization from slam maps
US9036044B1 (en) * 2013-07-22 2015-05-19 Google Inc. Adjusting camera parameters associated with a plurality of images
US10321117B2 (en) * 2014-04-11 2019-06-11 Lucasfilm Entertainment Company Ltd. Motion-controlled body capture and reconstruction
US9984505B2 (en) * 2014-09-30 2018-05-29 Sony Interactive Entertainment Inc. Display of text information on a head-mounted display

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
CN101183276A (zh) * 2007-12-13 2008-05-21 上海交通大学 基于摄像头投影仪技术的交互***
CN101271585A (zh) * 2008-03-31 2008-09-24 北京大学 一种在图形处理器上拾取三维几何图元的方法
US20100329358A1 (en) * 2009-06-25 2010-12-30 Microsoft Corporation Multi-view video compression and streaming
US20120281873A1 (en) * 2011-05-05 2012-11-08 International Business Machines Corporation Incorporating video meta-data in 3d models
CN102915563A (zh) * 2012-09-07 2013-02-06 深圳市旭东数字医学影像技术有限公司 三维网格模型透明绘制的方法及其***
CN102903146A (zh) * 2012-09-13 2013-01-30 中国科学院自动化研究所 用于场景绘制的图形处理方法
CN103500463A (zh) * 2013-10-17 2014-01-08 北京大学 一种gpu上多层形状特征融合的可视化方法
CN103700134A (zh) * 2013-12-24 2014-04-02 四川川大智胜软件股份有限公司 基于可控制纹理烘焙的三维矢量模型实时光影延迟着色渲染方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘星明 等: "真实感三维模型的纹理融合", 《计算机辅助设计与图形学学报》 *
高娅莉: "基于Blendshape的人脸表情动画生成的研究与实现", 《万方数据知识服务平台》 *

Also Published As

Publication number Publication date
US10789752B2 (en) 2020-09-29
US11354840B2 (en) 2022-06-07
WO2017123387A1 (en) 2017-07-20
US20200219301A1 (en) 2020-07-09
US20180293774A1 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
US11354840B2 (en) Three dimensional acquisition and rendering
US7573475B2 (en) 2D to 3D image conversion
Matsuyama et al. Real-time dynamic 3-D object shape reconstruction and high-fidelity texture mapping for 3-D video
US10321117B2 (en) Motion-controlled body capture and reconstruction
Wu et al. Fusing multiview and photometric stereo for 3d reconstruction under uncalibrated illumination
US7573489B2 (en) Infilling for 2D to 3D image conversion
CN110728671B (zh) 基于视觉的无纹理场景的稠密重建方法
JP2000503177A (ja) 2次元映像(motion picture)を3次元映像に変換する方法及び装置
Starck et al. The multiple-camera 3-d production studio
JP2016537901A (ja) ライトフィールド処理方法
Bemana et al. Eikonal fields for refractive novel-view synthesis
CN101916455A (zh) 一种高动态范围纹理三维模型的重构方法及装置
JPH11175762A (ja) 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
CN107862718A (zh) 4d全息视频捕捉方法
Ye et al. High-fidelity 3D real-time facial animation using infrared structured light sensing system
CN113888694A (zh) 一种基于sdf场可微渲染的透明物体重建的方法及***
Ziegler et al. Multi-camera system for depth based visual effects and compositing
Evers‐Senne et al. Image based interactive rendering with view dependent geometry
Kang et al. View-dependent scene appearance synthesis using inverse rendering from light fields
Theobalt et al. High-quality reconstruction from multiview video streams
US11410378B1 (en) Image processing for generating three-dimensional shape and spatially-varying reflectance of the object using a deep neural network
CN115841539A (zh) 一种基于可视外壳的三维光场生成方法和装置
WO2022175688A1 (en) Image processing
Matsuyama Exploitation of 3D video technologies
Katayama et al. A method for converting three-dimensional models into auto-stereoscopic images based on integral photography

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180831

WD01 Invention patent application deemed withdrawn after publication