CN113763559B - 一种拟合深度图像的几何运动细节重建方法 - Google Patents

一种拟合深度图像的几何运动细节重建方法 Download PDF

Info

Publication number
CN113763559B
CN113763559B CN202110745796.3A CN202110745796A CN113763559B CN 113763559 B CN113763559 B CN 113763559B CN 202110745796 A CN202110745796 A CN 202110745796A CN 113763559 B CN113763559 B CN 113763559B
Authority
CN
China
Prior art keywords
geometric
offset
position offset
surface point
fitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110745796.3A
Other languages
English (en)
Other versions
CN113763559A (zh
Inventor
徐枫
郑成伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202110745796.3A priority Critical patent/CN113763559B/zh
Publication of CN113763559A publication Critical patent/CN113763559A/zh
Application granted granted Critical
Publication of CN113763559B publication Critical patent/CN113763559B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本申请提出一种拟合深度图像的几何运动细节重建方法,其中,方法包括:构造含有数据项的势能函数,根据势能函数计算位置偏移量大小;其中,数据项用于拟合深度数据,约束几何表面点在添加位置偏移量之后与输入的深度图像接近;根据位置偏移量大小,基于粗糙基础几何运动在几何表面点添加位置偏移量,位置偏移量在空间中的方向为沿相机视线方向;根据位置偏移量对细节几何运动进行重建。能够基于粗糙几何运动计算物体表面点的准确偏移量,从而重建物体的细节几何运动且不同表面点的计算过程完全并行进行,运行效率极高。

Description

一种拟合深度图像的几何运动细节重建方法
技术领域
本发明涉及计算机视觉、计算机图形学技术领域,特别涉及一种拟合深度图像的几何运动细节重建方法。
背景技术
三维几何重建在计算机图形学与视觉中一直是一个非常重要且有着广泛应用范围的研究内容。随着深度相机的发展,三维几何重建技术已经被广泛地运用到了专业级的应用以及一般用户的日常生活之中。而对于运动对象几何运动细节的重建对于得到高质量的重建结果至关重要。几何运动细节的重建对于渲染真实感强的图像序列、基于几何的物体编辑、重光照等应用都会带来明显的提升。
现有的方法大多关注于大尺度运动的重建而忽视了几何运动细节的重建,而一些现有的细节重建方法难以同时达到高重建质量与高运行效率。对于重建动态物体的运动序列,本发明提出了一种拟合深度图像的几何运动细节重建方法,借助深度相机输入,拟合其深度数据并加入正则项从而高效地完成动态对象几何运动细节的高质量重建。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种拟合深度图像的几何运动细节重建方法,在粗糙的几何与运动重建基础上,通过拟合深度数据的方法快速计算重建几何表面点的细节位置偏移量,从而建模物体表面的几何运动细节。
本发明的第二个目的在于提出一种拟合深度图像的几何运动细节重建装置。
为达上述目的,本发明第一方面实施例提出了一种拟合深度图像的几何运动细节重建方法,包括:
S1,构造含有数据项的势能函数,根据所述势能函数计算位置偏移量大小;其中,所述数据项用于拟合深度数据,约束几何表面点在添加位置偏移量之后与输入的深度图像接近;
S2,根据所述位置偏移量大小,基于粗糙基础几何运动在几何表面点添加位置偏移量,所述位置偏移量在空间中的方向为沿相机视线方向;
S3,根据所述位置偏移量对细节几何运动进行重建。
另外,根据本发明上述实施例的拟合深度图像的几何运动细节重建方法还可以具有以下附加的技术特征:
进一步的,在本发明的一个实施例中,所述构造含有数据项的势能函数,还包括:正则项,所述正则项约束某一几何表面点偏移量接近前一帧几何表面点偏移量的平均值。
进一步的,在本发明的一个实施例中,所述基于粗糙基础几何运动在几何表面点添加位置偏移量,包括:使用网格的形式对每个几何表面点添加一个位置的偏移量,并表示所述每个几何表面点的三维空间位置坐标。
进一步的,在本发明的一个实施例中,计算每一个网格顶点的偏移量,所述偏移量大小由下面的公式计算:
其中为偏移量的大小,/>为数据项,/>为正则项,/>为正则项的预定义权重。
进一步的,在本发明的一个实施例中,所述数据项的拟合输入的深度图像由下面的公式计算:
其中,为基础几何顶点在作用基础运动后到相机的距离,/>为该帧中对应于该顶点的输入图像的深度值。
进一步的,在本发明的一个实施例中,所述正则项由下面的公式计算:
其中,表示邻域集合。
进一步的,在本发明的一个实施例中,还包括:建立体素集并存储每个体素内网格顶点的平均偏移量。
本发明实施例的拟合深度图像的几何运动细节重建方法,通过构造含有数据项的势能函数,根据势能函数计算位置偏移量大小,其中,数据项用于拟合深度数据,约束几何表面点在添加位置偏移量之后与输入的深度图像接近,根据位置偏移量大小,基于粗糙基础几何运动在几何表面点添加位置偏移量,位置偏移量在空间中的方向为沿相机视线方向,根据位置偏移量对细节几何运动进行重建。该方法基于已重建得到的粗糙基础几何与运动,对于其每个表面点添加一个位置的偏移量,能够基于粗糙几何运动计算物体表面点的准确偏移量,从而重建物体的细节几何运动,不同表面点的计算过程完全并行进行,运行效率极高,允许粗糙的基础几何有网格拓扑上的变化。
为达上述目的,本发明第二方面实施例提出了一种拟合深度图像的几何运动细节重建装置,包括:
构造模块,用于构造含有数据项的势能函数,根据所述势能函数计算位置偏移量大小;其中,所述数据项用于拟合深度数据,约束几何表面点在添加位置偏移量之后与输入的深度图像接近;
添加模块,用于根据所述位置偏移量大小,基于粗糙基础几何运动在几何表面点添加位置偏移量,所述位置偏移量在空间中的方向为沿相机视线方向;
重建模块,用于根据所述位置偏移量对细节几何运动进行重建。
本发明实施例的拟合深度图像的几何运动细节重建装置,通过构造含有数据项的势能函数,根据势能函数计算位置偏移量大小,其中,数据项用于拟合深度数据,约束几何表面点在添加位置偏移量之后与输入的深度图像接近,根据位置偏移量大小,基于粗糙基础几何运动在几何表面点添加位置偏移量,位置偏移量在空间中的方向为沿相机视线方向。根据位置偏移量对细节几何运动进行重建。该方法基于已重建得到的粗糙基础几何与运动,对于其每个表面点添加一个位置的偏移量,能够基于粗糙几何运动计算物体表面点的准确偏移量,从而重建物体的细节几何运动,不同表面点的计算过程完全并行进行,运行效率极高,允许粗糙的基础几何有网格拓扑上的变化。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的拟合深度图像的几何运动细节重建方法的流程图。
图2为根据本发明一个实施例的拟合深度图像的几何运动细节重建装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的拟合深度图像的几何运动细节重建方法和装置。
本申请实施例的拟合深度图像的几何运动细节重建方法,基于已重建得到的粗糙基础几何与运动,本发明对于其每个表面点添加一个位置的偏移量,该偏移量使得物体表面点拥有更加准确的三维空间位置坐标,也就使得几何细节的重建更加准确。
图1为本发明实施例所提供的一种拟合深度图像的几何运动细节重建方法的流程图。
如图1所示,该拟合深度图像的几何运动细节重建方法包括:
步骤S1,构造含有数据项的势能函数,根据势能函数计算位置偏移量大小;其中,数据项用于拟合深度数据,约束几何表面点在添加位置偏移量之后与输入的深度图像接近。
对于偏移量的大小计算使用最小化势能函数的方法进行,本实施例提出的势能函数包含两项,数据项与正则项。其中数据项用于拟合深度数据,约束物体表面点在添加偏移量之后与输入的深度图像接近。偏移量会被添加到已重建得到的粗糙的运动后的基础几何上。正则项使得重建结果在空间与时间上更加平滑,约束某一表面点的偏移量接近前一帧中附近表面点偏移量的平均值,这有助于重建得到较为平滑的结果。。
具体的,构造以下能量函数用于计算偏移量的大小
其中为偏移量的大小,/>为数据项,/>为正则项,/>是正则项的预定义权重。
数据项拟合输入的深度图像:
这里是基础几何顶点在作用基础运动后到相机的距离,而/>是该帧中对应于该顶点的输入图像的深度值。增加的偏移量沿相机视线方向。
正则项表示为:
其中表示邻域集合。
S2,根据位置偏移量大小,基于粗糙基础几何运动在几何表面点添加位置偏移量,位置偏移量在空间中的方向为沿相机视线方向。
可以理解的是,本实施例中对表面点添加偏移量在空间中的方向为沿相机视线方向,因此在计算时仅需确定偏移量的大小即可。
可以理解的是,本实施例中已重建得到的粗糙的运动后基本几何可以使用网格这一通用的形式进行表达,在这种表达的基础上,计算每一个网格顶点的偏移量来对细节几何运动进行重建。
具体的,对于其每个表面点添加一个位置的偏移量,该偏移量使得物体表面点拥有更加准确的三维空间位置坐标。
S3,根据位置偏移量对细节几何运动进行重建。
可以理解的是,本发明计算每一个网格顶点的偏移量来对细节几何运动进行重建,偏移量会被添加到已重建得到的粗糙的运动后的基础几何上,而不同帧之间的网格拓扑是允许发生变化的。
可以理解的是,如果粗糙基础几何使用通用的网格表达,则不同帧之间其网格拓扑可能会发生变化,导致不同帧之间难以找到同一个网格顶点的对应关系。因此建立体素集并用于存储上一帧中的体素内表面点平均偏移量大小,体素集位于参考帧也就是序列第一帧的运动姿态下,这样同一个表面点在不同帧中不同的运动姿态下也对应于体素集的同一个体素。
由于在重建过程中基础网格的拓扑可能会发生变化,因此在参考帧也就是序列第一帧中构建了体素集,来存储前一帧每个体素中顶点的平均偏移量。这样同一个表面点在不同帧中不同的运动姿态下也对应于体素集的同一个体素,也就可以直接从该体素集中获取前一帧邻域里的偏移量,其中每个邻居对应一个体素。之后该体素将会被更新以用于下一帧的求解。
基于这些设计,上述细节拟合方法可以独立且完全并行地计算每个顶点的偏移量,这使得该***能够高效重建出高质量的几何而不需要去求解大规模的线性问题。同样,该方法可以方便的集成到其他的实时***中,而不影响其实时性。
应该注意的是,本发明中用于拟合深度输入的数据项仅在顶点对应有效深度值的时候才有效。如果顶点对应无深度数据的像素,则仅使用正则项来计算其偏移量。
图2为根据本发明一个实施例的拟合深度图像的几何运动细节重建装置的结构示意图。
如图2所示,该拟合深度图像的几何运动细节重建装置10包括:
构造模块100、添加模块200、重建模块300。
构造模块100,用于构造含有数据项的势能函数,根据势能函数计算位置偏移量大小;其中,数据项用于拟合深度数据,约束几何表面点在添加位置偏移量之后与输入的深度图像接近;
添加模块200,用于根据位置偏移量大小,基于粗糙基础几何运动在几何表面点添加位置偏移量,位置偏移量在空间中的方向为沿相机视线方向;
重建模块300,用于根据位置偏移量对细节几何运动进行重建。
进一步,所述构造模块100,还用于正则项约束某一几何表面点偏移量接近前一帧几何表面点偏移量的平均值。
进一步,该装置10还包括:体素集模块400,用于建立体素集并存储每个体素内网格顶点的平均偏移量。
根据本发明实施例提出的拟合深度图像的几何运动细节重建装置,通过构造含有数据项的势能函数,根据势能函数计算位置偏移量大小,其中,数据项用于拟合深度数据,约束几何表面点在添加位置偏移量之后与输入的深度图像接近,根据位置偏移量大小,基于粗糙基础几何运动在几何表面点添加位置偏移量,位置偏移量在空间中的方向为沿相机视线方向。根据位置偏移量对细节几何运动进行重建。该方法基于已重建得到的粗糙基础几何与运动,对于其每个表面点添加一个位置的偏移量,能够基于粗糙几何运动计算物体表面点的准确偏移量,从而重建物体的细节几何运动,不同表面点的计算过程完全并行进行,运行效率极高,允许粗糙的基础几何有网格拓扑上的变化。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (3)

1.一种拟合深度图像的几何运动细节重建方法,其特征在于,所述方法包括以下步骤:
构造含有数据项的势能函数,根据所述势能函数计算位置偏移量大小;其中,所述数据项用于拟合深度数据,约束几何表面点在添加位置偏移量之后与输入的深度图像接近;
根据所述位置偏移量大小,基于粗糙基础几何运动在几何表面点添加位置偏移量,所述位置偏移量在空间中的方向为沿相机视线方向;
根据所述位置偏移量对细节几何运动进行重建;
其中,所述构造含有数据项的势能函数,还包括:正则项,
所述正则项约束某一几何表面点偏移量接近前一帧几何表面点偏移量的平均值;
其中,所述基于粗糙基础几何运动在几何表面点添加位置偏移量,包括:
使用网格的形式对每个几何表面点添加一个位置的偏移量,并表示所述每个几何表面点的三维空间位置坐标;
其中,计算每一个网格顶点的偏移量,所述偏移量大小由下面的公式计算:
其中,为偏移量的大小,/>为数据项,/>为正则项,/>为正则项的预定义权重;
所述正则项由下面的公式计算:
其中,表示邻域集合。
2.根据权利要求1所述的拟合深度图像的几何运动细节重建方法,其特征在于,所述数据项的拟合输入的深度图像由下面的公式计算:
其中,为基础几何顶点在作用基础运动后到相机的距离,/>为该帧中对应于该顶点的输入图像的深度值。
3.根据权利要求1所述的拟合深度图像的几何运动细节重建方法,其特征在于,还包括:建立体素集并存储每个体素内网格顶点的平均偏移量。
CN202110745796.3A 2021-07-01 2021-07-01 一种拟合深度图像的几何运动细节重建方法 Active CN113763559B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110745796.3A CN113763559B (zh) 2021-07-01 2021-07-01 一种拟合深度图像的几何运动细节重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110745796.3A CN113763559B (zh) 2021-07-01 2021-07-01 一种拟合深度图像的几何运动细节重建方法

Publications (2)

Publication Number Publication Date
CN113763559A CN113763559A (zh) 2021-12-07
CN113763559B true CN113763559B (zh) 2024-04-09

Family

ID=78787533

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110745796.3A Active CN113763559B (zh) 2021-07-01 2021-07-01 一种拟合深度图像的几何运动细节重建方法

Country Status (1)

Country Link
CN (1) CN113763559B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616286A (zh) * 2014-12-17 2015-05-13 浙江大学 快速的半自动多视图深度修复方法
CN106327571A (zh) * 2016-08-23 2017-01-11 北京的卢深视科技有限公司 一种三维人脸建模方法及装置
CN107358648A (zh) * 2017-07-17 2017-11-17 中国科学技术大学 基于单张人脸图像的实时全自动高质量三维人脸重建方法
CN108090960A (zh) * 2017-12-25 2018-05-29 北京航空航天大学 一种基于几何约束的目标重建方法
CN108154550A (zh) * 2017-11-29 2018-06-12 深圳奥比中光科技有限公司 基于rgbd相机的人脸实时三维重建方法
CN108171791A (zh) * 2017-12-27 2018-06-15 清华大学 基于多深度摄像机的动态场景实时三维重建方法及装置
CN109658449A (zh) * 2018-12-03 2019-04-19 华中科技大学 一种基于rgb-d图像的室内场景三维重建方法
CN110310362A (zh) * 2019-06-24 2019-10-08 中国科学院自动化研究所 基于深度图及imu的高动态场景三维重建方法、***
CN111311662A (zh) * 2020-02-12 2020-06-19 清华大学深圳国际研究生院 一种实时重建三维场景的方法及装置
CN111968165A (zh) * 2020-08-19 2020-11-20 北京拙河科技有限公司 动态人体三维模型补全方法、装置、设备和介质
CN111968238A (zh) * 2020-08-22 2020-11-20 晋江市博感电子科技有限公司 基于动态融合算法的人体彩色三维重建方法
CN112634341A (zh) * 2020-12-24 2021-04-09 湖北工业大学 多视觉任务协同的深度估计模型的构建方法
CN112862736A (zh) * 2021-02-05 2021-05-28 浙江大学 一种基于点的实时三维重建与优化方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8670606B2 (en) * 2010-01-18 2014-03-11 Disney Enterprises, Inc. System and method for calculating an optimization for a facial reconstruction based on photometric and surface consistency

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616286A (zh) * 2014-12-17 2015-05-13 浙江大学 快速的半自动多视图深度修复方法
CN106327571A (zh) * 2016-08-23 2017-01-11 北京的卢深视科技有限公司 一种三维人脸建模方法及装置
CN107358648A (zh) * 2017-07-17 2017-11-17 中国科学技术大学 基于单张人脸图像的实时全自动高质量三维人脸重建方法
CN108154550A (zh) * 2017-11-29 2018-06-12 深圳奥比中光科技有限公司 基于rgbd相机的人脸实时三维重建方法
CN108090960A (zh) * 2017-12-25 2018-05-29 北京航空航天大学 一种基于几何约束的目标重建方法
CN108171791A (zh) * 2017-12-27 2018-06-15 清华大学 基于多深度摄像机的动态场景实时三维重建方法及装置
CN109658449A (zh) * 2018-12-03 2019-04-19 华中科技大学 一种基于rgb-d图像的室内场景三维重建方法
CN110310362A (zh) * 2019-06-24 2019-10-08 中国科学院自动化研究所 基于深度图及imu的高动态场景三维重建方法、***
CN111311662A (zh) * 2020-02-12 2020-06-19 清华大学深圳国际研究生院 一种实时重建三维场景的方法及装置
CN111968165A (zh) * 2020-08-19 2020-11-20 北京拙河科技有限公司 动态人体三维模型补全方法、装置、设备和介质
CN111968238A (zh) * 2020-08-22 2020-11-20 晋江市博感电子科技有限公司 基于动态融合算法的人体彩色三维重建方法
CN112634341A (zh) * 2020-12-24 2021-04-09 湖北工业大学 多视觉任务协同的深度估计模型的构建方法
CN112862736A (zh) * 2021-02-05 2021-05-28 浙江大学 一种基于点的实时三维重建与优化方法

Also Published As

Publication number Publication date
CN113763559A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
Xu et al. H-nerf: Neural radiance fields for rendering and temporal reconstruction of humans in motion
CN110335343B (zh) 基于rgbd单视角图像人体三维重建方法及装置
CN108053437B (zh) 基于体态的三维模型获取方法及装置
US7730406B2 (en) Image processing system and method
CN101400001B (zh) 一种视频帧深度图的生成方法及***
US9747668B2 (en) Reconstruction of articulated objects from a moving camera
JP2007000205A (ja) 画像処理装置及び画像処理方法並びに画像処理プログラム
CN103310420B (zh) 基于纹理与几何相似性的彩色图像空洞修复方法及***
CN107358645B (zh) 产品三维模型重建方法及其***
CN105005964A (zh) 基于视频序列影像的地理场景全景图快速生成方法
KR102464271B1 (ko) 포즈 획득 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN107507232B (zh) 基于多尺度迭代的立体匹配方法
CN113781621A (zh) 三维重建处理的方法、装置、设备及存储介质
CN107203962B (zh) 一种利用2d图片制作伪3d图像的方法及电子设备
Vyatkin et al. Offsetting and blending with perturbation functions
CN112002007B (zh) 基于空地影像的模型获取方法及装置、设备、存储介质
CN116363290A (zh) 一种用于大规模场景三维重建的纹理贴图生成方法
CN113763559B (zh) 一种拟合深度图像的几何运动细节重建方法
Voronin et al. A regularization algorithm for registration of deformable surfaces
Ray Computation of fluid and particle motion from a time-sequenced image pair: A global outlier identification approach
JP2014048896A (ja) 距離情報推定装置
Wang et al. Roaming of oblique photography model in unity3D
Liu et al. Superquadric based hierarchical reconstruction for virtualizing free form objects from 3D data
Fu et al. Real-time depth camera tracking with geometrically stable weight algorithm
CN110689625A (zh) 定制人脸混合表情模型自动生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant