CN116310104B - 一种复杂场景下的人体三维重建方法、***及存储介质 - Google Patents

一种复杂场景下的人体三维重建方法、***及存储介质 Download PDF

Info

Publication number
CN116310104B
CN116310104B CN202310214926.XA CN202310214926A CN116310104B CN 116310104 B CN116310104 B CN 116310104B CN 202310214926 A CN202310214926 A CN 202310214926A CN 116310104 B CN116310104 B CN 116310104B
Authority
CN
China
Prior art keywords
point cloud
human body
dimension
point
multiplied
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310214926.XA
Other languages
English (en)
Other versions
CN116310104A (zh
Inventor
姜明华
肖卓函
余锋
陈钊翔
任立宇
周昌龙
宋坤芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Textile University
Original Assignee
Wuhan Textile University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Textile University filed Critical Wuhan Textile University
Priority to CN202310214926.XA priority Critical patent/CN116310104B/zh
Publication of CN116310104A publication Critical patent/CN116310104A/zh
Application granted granted Critical
Publication of CN116310104B publication Critical patent/CN116310104B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及点云重建领域,并且更具体地,涉及一种复杂场景下的人体三维重建方法、***及存储介质,包括以下步骤:采用多个深度相机获取多幅人体点云图;根据所述多幅人体点云图中的密度信息进行聚类,以分离出人体点云信息;采用体素网格对所述人体点云信息进行下采样,得到多幅采样后人体点云图;将所述多幅采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型。利用深度学习网络进行人体点云的配准,能够准确地将多幅点云图的信息聚合为一幅,通过对大量的人体模型数据集学习能够得到深层的的特征表示,所求解的刚性变换矩阵鲁棒性更强,泛化能力更好。

Description

一种复杂场景下的人体三维重建方法、***及存储介质
技术领域
本发明涉及点云重建领域,并且更具体地,涉及一种复杂场景下的人体三维重建方法、***及存储介质。
背景技术
随着社会的发展,越来越多的行业需要运用到三维人体模型重建技术,如制衣业、医疗成像业、动漫业等。现在的建立人体三维模型一般有两种方法:一种是通过一些三维软件进行构建,这种方法是建立在标准的人体尺寸的基础上的,所构造出的是一种通用模型,在实际应用中有着很大的局限性;另一种是通过三维扫描技术,以现代光学为基础、辅以计算机图像学、计算机视觉、信息处理等科学技术,利用激光扫描仪或者红外光线进行非接触式的人体重建。但是在实际应用中,他们都无法被广泛应用,主要原因是三维人体重建设备体积过大,价格不菲,小型的商家难以低成本的使用。因此一种低成本、精准度高的人体三维重建方法很有价值。
其中在点云重建领域,主要分为传统点云配准重建方法和深度学习点云配准重建算法。传统的配准重建方法包括粗配准和精配准两个阶段。粗配准的目的是使源点云与目标点云大致对齐,给定一个变换矩阵的初值。而精配准是在粗配准的基础上,进行更精确的点云配准。但是在实际应用中,点云的前景分割、滤波去噪、迭代配准等过程繁琐,不能达到实时人体配准的需求。针对此类缺点,我们提出了一种复杂场景下的人体三维重建方法。
公开号为CN113066163A的中国专利公开了“一种基于二维图像的人体体型三维重建方法”根据采集到的多帧RGB图像,利用深度相机标定参数,然后进行三维重构出稀疏点云,最后进行去噪、稠密重建得到人体的三维模型。但是这项技术对于运算速度慢、参数量大,灵活性不够,而且仅使用2D的RGB图像进行三维重建准确率不符合当前需求。
发明内容
针对现用技术的以上缺陷或者改进需求,本发明提供了一种复杂场景下的人体三维重建方法,其目的在于解决在复杂场景下的人体三维重建问题,有效实施在商场等复杂场景下对人体进行三维重建、人体的身材数据测量等问题,提升人体尺寸测量的速度以及生成虚拟人的真实度。
为实现上述目的,本发明提供了一种复杂场景下的人体三维重建方法,包括以下步骤:
S1、采用深度相机获取人体点云图,深度相机为多个,人体点云图为多幅,一个相机获取一幅一个视角的人体点云图;
S2、根据所述人体点云图中的密度信息进行聚类,以消除人体点云图的背景得到人体点云信息;
S3、采用体素网格对所述人体点云信息进行下采样以减少人体点云信息,得到下采样后人体点云图;
S4、将所述下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型。
进一步地,深度相机为四个,四个深度相机呈90°间隔放置,以获得多幅人体点云图,所述多幅人体点云图整体的重叠率为30%。
进一步地,所述步骤S3中采用体素网格对所述人体点云信息进行下采样具体包括:将所述人体点云信息划分为多个正方体体素方格,计算出每个正方体体素方格的中心点,采用所述中心点代替所述正方体体素方格中的所有点云信息。
进一步地,所述步骤S4中将所述多幅采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型具体包括以下步骤:
S401、输入源点云和目标点云的坐标信息,利用单点特征提取网络对源点云和目标点云进行升维,将所述源点云和目标点云的点云维度分别升至N×1024;
S402、将所述升维后的源点云的单点特征和目标点云的单点特征相乘构建相似矩阵,获得预测点云;
S403、提取所述预测点云的单点特征,并进行升维,将所述预测点云的点云维度升至N×1024;
S404、基于升维后的预测点云的单点特征和源点云的单点特征进行计算得到特征匹配差值最小的匹配点对,基于所述匹配点对的坐标信息计算得到刚性变换矩阵;
S405、将所述刚性变换矩阵与所述源点云的坐标矩阵相乘构成人体三维重建模型。
进一步地,所述输入为源点云和目标点云的(x,y,z)坐标信息,输入维度为N×3,其中N表示输入点云中点的数量,3表示点的特征维度。
进一步地,所述特征匹配差值最小的匹配点对的筛选方法包括:通过所述升维后的源点云的单点特征与所述升维后的预测点云的单点特征匹配差值计算匹配点对的特征差异,遍历所有匹配点对,筛选出特征匹配差值最小的匹配点对计算刚性变换矩阵。
进一步地,所述单点特征提取网络的升维方法包括:
(1)输入点云维度为N×3,利用KNN算法搜索所述点云K个邻域,获得点云维度N×K×3;
(2)将所述点云的点云特征复制K次,与邻域特征作差,得到新的点云特征图;
(3)通过多层感知机对所述新的点云特征图的点云维度进行升维,获得点云维度N×K×64,采用最大池化在所述点云维度N×K×64上进行池化,获得点云维度N×64;
(4)通过融合注意力网络增强点云维度N×64下的点云特征,此时不改变维度,输出点云维度为N×64的融合点云特征图;
(5)输入点云维度为N×64,重复步骤(1)-(4),输出点云维度为N×256的融合点云特征图;
(6)输入点云维度为N×256,重复步骤(1)-(4),输出点云维度为N×1024的融合点云特征图。
进一步地,所述融合注意力网络的具体操作方法包括:将所述点云特征图进行平均池化和最大池化,得到两个向量;将所述两个向量通过激活函数后得到权重向量/>和权重向量/>,将权重向量/>和权重向量/>拼接,得到权重向量/>;将权重向量与点云特征图的输入特征相乘,获得融合点云特征图;
所述融合注意力网络的具体公式为:
其中代表更新后的特征值,/>代表输入特征值,/>、/>分别代表平均池化和最大池化,/>代表/>激活函数,/>表示/>激活函数,Conv代表卷积调整权重的长度,Cat表示拼接。
一种复杂场景下的人体三维重建方法的***,包括:
点云数据获取模块,用于获取多幅人体点云图;
前景分割模块,用于根据多幅人体点云图中的密度信息进行聚类以分离出人体点云信息;
下采样模块,用于对所述人体点云信息进行下采样,得到下采样后人体点云图;
点云配准模块,用于将所述下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以用于实现如上所述的一种复杂场景下的人体三维重建方法。
相比现有技术,本发明的有益效果在于:
(1)利用深度学习网络进行人体点云的配准,能够准确得将多幅点云图的信息聚合为一幅,通过对大量的人体模型数据集学习能够得到深层的的特征表示,所求解的刚性变换矩阵鲁棒性更强,泛化能力更好,提高三维重建准确率;
(2)利用密度聚类以及体素下采样预处理技术,对场景点云中的点云数据进行预处理,将人体数据从复杂场景中分割出来,避免了其余噪声对人体点云处理的影响,增加在真实场景使用时的准确性;同时使用体素下采样方法可以大幅的减少计算量,并且由于利用的是所有点的中心,可以尽可能的保存原图结构信息;
(3)利用融合注意力网络进一步对升维后的点云特征进行增强,利用注意力机制能够更好的获得图像中的关键信息,在复杂数据集中能够更快速、更准确的提取出所需要的特征信息;
(4)基于深度相机来采集场景的点云数据,相比较于仅仅利用2D图像,多个深度相机可以获得不同视角的特征信息以及细节信息,增加了配准精度,减少了在重建时人体的特征信息损失。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明一种复杂场景下的人体三维重建方法的流程示意图;
图2示出了本发明一种复杂场景下的人体三维重建方法中点云配准网络结构图;
图3示出了本发明一种复杂场景下的人体三维重建方法中单点特征提取网络结构示意图;
图4示出了本发明一种复杂场景下的人体三维重建方法中融合注意力网络结构示意图;
图5示出了本发明一种复杂场景下的人体三维重建方法的***结构示意图。
实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提供了一种复杂场景下的人体三维重建方法,包括以下步骤:
S1、采用深度相机获取人体点云图,深度相机为多个,人体点云图为多幅,一个相机获取一幅一个视角的人体点云图;
S2、根据所述人体点云图中的密度信息进行聚类,以消除人体点云图的背景得到人体点云信息;
S3、采用体素网格对所述人体点云信息进行下采样以减少人体点云信息,得到下采样后人体点云图;
S4、将所述下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型。
进一步地,在步骤S1中,多幅人体点云图对应多个视角的人体点云图。使用多个深度相机从不同的视角对人体进行拍摄,获取多幅稠密的人体点云图,其中采用多个深度相机对人体进行拍摄,主要是由于深度相机所拍摄的视角优先,不能体现出人体的全部信息,而使用多视角的深度相机拍摄可以最大程度的存储人体信息,所拍摄到的点云图也存在重叠度,为接下来的人体三维配准操作提供了基础。优选地,在获取不同视角的点云图时,采用4个深度相机呈90°放置,每一个深度相机可以获取不同视角的人体点云图,其中这四幅点云图存在30%的重叠率。
进一步地,在步骤S2中,根据所述人体点云图中的密度信息进行聚类,即利用点云图中的坐标信息对所有物体进行分割,基于人体离深度相机最近会使其点云密度最大的情况,挑选出密度最大的物体,该物体即为人体点云模型。通过基于密度信息的聚类可消除人体点云图的背景得到人体点云信息,可最大程度上分割出人体点云信息。由于深度相机能够存储点云的密度坐标信息,而人体离深度相机距离较近,因此人体的点云密度应该是最高的,利用密度进行聚类,可以获取到全部的人体点云。利用此方法可以将密度稀疏的点(背景)从复杂点云图中筛选出来,只保留人体点云。
进一步地,在步骤S3中,为减少点云信息的计算量,采用体素网格对所述人体点云信息进行下采样,具体包括:将人体点云信息中的所有点划分为多个正方体体素方格,计算出每个正方体体素方格中所有点的中心点,将这个中心点代替为正方体方格中的所有点。采用体素网格可以大幅度的减少计算量,并且由于利用的是所有点的中心,可以尽可能的保存原图结构信息。
如图2所示,进一步地,步骤S4中将所述下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型具体包括以下步骤:
S401、输入源点云和目标点云的坐标信息,利用单点特征提取网络对源点云和目标点云进行升维,将所述源点云和目标点云的点云维度分别升至N×1024;
S402、将所述升维后的源点云的单点特征和目标点云的单点特征相乘构建相似矩阵,获得预测点云;
优选的,网络的输入是源点云p与目标点云q的坐标信息,输入维度为N×3,其中N代表输入点云中点的数量,3代表点的特征维度,由于输入的是坐标,所以是3维。基于多个视角的人体点云图中的点云数据分别设定源点云和目标点云,即以其中一个视角采集到的点云图作为源点云,另一视角采集到的点云图作为目标点云,目标点云的点云图与源点云的点云图之间存在30%的重叠率。
具体地,利用单点特征提取网络对源点云与目标点云进行升维,得到升维后的源点云的单点特征和升维后的目标点云的单点特征/>。点云特征图的每一行代表的是每一个点的特征,而点的特征越相似,越有可能是同一个点,在不同点云中的同一个点称之为一组匹配点对。基于此,根据单点的特征可以得出源点云N个点和目标点云的相似关系,该相似关系即为相似矩阵,具体相似矩阵为:/>,维度为/>,其本质是一种重排序矩阵,我们将目标点云与矩阵相乘,可以得出一个预测点云
S403、提取所述预测点云的单点特征,并进行升维,将所述预测点云的点云维度升至N×1024;
S404、基于升维后的预测点云的单点特征和源点云的单点特征进行计算得到特征匹配差值最小的匹配点对,基于所述匹配点对的坐标信息计算得到刚性变换矩阵;
具体地,预测点云的形状与目标点云相同,但是点的顺序发生了改变,其与源点云中的点一一对应,并且构成匹配点对。将预测点云pre和源点云p的坐标信息输入到单点特征提取网络中进行升维,得到和/>。由于两幅点云的点是一一对应的,将矩阵相减,得到矩阵/>,矩阵/>的每一行代表的是匹配点的特征匹配差值,特征匹配差值越小,证明越有可能是正确的匹配点对。将矩阵/>通过一个SoftMax激活函数,使用TopK算法选出特征匹配差值最小的K个匹配点对计算刚性变换矩阵。SoftMax激活函数是python封装的一个指数函数,其作用是将矩阵D中的匹配点的特征匹配差值转换为概率值,TopK算法本质是一个python的接口,调用TopK算法可筛选出矩阵中值最小的K个值在矩阵D中的坐标,而在矩阵D中该值的横坐标即为源点云的第X个点,纵坐标即为目标点云中的第Y个点,以此可以找到K个匹配点对,然后使用奇异值分解算法求解刚性变换矩阵。
S403、将所述刚性变换矩阵与所述源点云的坐标矩阵相乘构成人体三维重建模型,将源点云的坐标矩阵与刚性变换矩阵相乘,改变源点云中的坐标值,使源点云的坐标值与目标点云配准,进而得到一个完整的人体三维重建模型。
如图3所示,进一步地,单点特征提取网络升维方法包括以下步骤:
(1)输入点云维度为N×3,利用KNN算法(K- Nearest Neighbor,K最邻近法)搜索所述初始点云K个邻域,获得点云维度N×K×3;(2)将所述初始点云的点云特征复制K次,与邻域特征作差,得到新的点云特征图;(3)通过多层感知机对所述新的点云特征图的点云维度进行升维,获得点云维度N×K×64,采用最大池化在所述点云维度N×K×64上进行池化,获得点云维度N×64;(4)通过融合注意力网络增强点云维度N×64下的点云特征,此时不改变维度,输出点云维度为N×64的融合点云特征图;(5)输入点云维度为N×64,重复步骤(1)-(4),输出点云维度为N×256的融合点云特征图;(6)输入点云维度为N×256,重复步骤(1)-(4),输出点云维度为N×1024的融合点云特征图。
具体地,输入点云维度为N×3,该点云为源点云或目标点云或预测点云,利用KNN算法搜索出每个点的K个领域,此时单点特征的维度变为。然后将原来的特征复制K次并与邻域特征作差,得到新的特征图,此特征地图存储的是在空间中点与邻域的信息。然后通过多层感知机升维到/>,后跟一个/>函数和/>激活函数,利用最大池化进行池化,将原有特征维度从/>变为/>,通过融合注意力网络对重要的特征部分进行增强,不改变维度。接着再次利用KNN算法搜索出每个点的K个邻域,这时特征的维度变为/>,然后将原来的特征复制K次并与邻域特征作差,得到特征图。接着通过多层感知机进行升维到/>,同样跟一个/>函数和/>激活函数,最后利用最大池化将原有特征从/>变为/>。然后通过融合注意力网络增强特征,不改变特征的维度。类似,在/>的基础上利用KNN算法那搜索出每个点的K个邻域,特征的维度变为/>,然后将原有特征复制K次并与邻域特征作差,得到特征图。通过多层感知机进行升维到/>,后跟一个/>函数和/>激活函数,利用最大池化将原有特征从/>变 为/>。然后通过融合注意力网络增强特征,不改变特征的维度。最后是网络输出部分,得到输出结果,维度为/>的升维后的源点云或维度为/>的升维后的目标点云或维度为/>的升维后的预测点云。
如图4所示,进一步地,融合注意力网络的具体操作方法包括:将输入的点云特征图先进行进行平均池化和最大池化,得到两个向量,将两个向量通过激活函数后得到权重向量/>和权重向量/>,分别将两个权重向量拼接,得到一个新的权重向量/>。随后跟一个卷积将其的长度缩小一倍,与原特征图的大小相同。最后将权重向量/>与输入特征相乘,实现对于点云特征的增强。
进一步地,融合注意力网络的特征增强公式为:
其中,代表更新后的特征值,/>代表输入特征值,/>、/>分别代表平均池化和最大池化,/>代表/>激活函数,/>表示/>激活函数,Conv代表卷积调整权重的长度,Cat表示拼接。
如图5所示,本发明还提供了一种复杂场景下的人体三维重建方法的***,包括:
点云数据获取模块,用于获取多幅人体点云图;
前景分割模块,用于根据多幅人体点云图中的密度信息进行聚类以分离出人体点云信息;
下采样模块,用于对所述人体点云信息进行下采样,得到多幅采样后人体点云图;
点云配准模块,用于将所述多幅采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以用于实现如上所述的一种复杂场景下的人体三维重建方法。
本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(AN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (6)

1.一种复杂场景下的人体三维重建方法,其特征在于,包括以下步骤:
S1、采用深度相机获取人体点云图,深度相机为多个,人体点云图为多幅,一个相机获取一幅一个视角的人体点云图;
S2、根据所述人体点云图中的密度信息进行聚类,以消除人体点云图的背景得到人体点云信息;
S3、采用体素网格对所述人体点云信息进行下采样以减少人体点云信息,得到下采样后人体点云图;
S4、将所述下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型;
所述步骤S4中将所述多幅采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型具体包括以下步骤:
S401、输入源点云和目标点云的坐标信息,利用单点特征提取网络对源点云和目标点云进行升维,将所述源点云和目标点云的点云维度分别升至N×1024;
S402、将所述升维后的源点云的单点特征和目标点云的单点特征相乘构建相似矩阵,获得预测点云;
S403、提取所述预测点云的单点特征,并进行升维,将所述预测点云的点云维度升至N×1024;
S404、基于升维后的预测点云的单点特征和源点云的单点特征进行计算得到特征匹配差值最小的匹配点对,基于所述匹配点对的坐标信息计算得到刚性变换矩阵;
S405、将所述刚性变换矩阵与所述源点云的坐标矩阵相乘构成人体三维重建模型;
所述输入为源点云和目标点云的(x,y,z)坐标信息,输入维度为N×3,其中N表示输入点云中点的数量,3表示点的特征维度;
所述特征匹配差值最小的匹配点对的筛选方法包括:通过所述升维后的源点云的单点特征与所述升维后的预测点云的单点特征匹配差值计算匹配点对的特征差异,遍历所有匹配点对,筛选出特征匹配差值最小的匹配点对计算刚性变换矩阵;
所述单点特征提取网络的升维方法包括:
(1)输入点云维度为N×3,利用KNN算法搜索所述点云K个邻域,获得点云维度N×K×3;
(2)将所述点云的点云特征复制K次,与邻域特征作差,得到新的点云特征图;
(3)通过多层感知机对所述新的点云特征图的点云维度进行升维,获得点云维度N×K×64,采用最大池化在所述点云维度N×K×64上进行池化,获得点云维度N×64;
(4)通过融合注意力网络增强点云维度N×64下的点云特征,此时不改变维度,输出点云维度为N×64的融合点云特征图;
(5)输入点云维度为N×64,重复步骤(1)-(4),输出点云维度为N×256的融合点云特征图;
(6)输入点云维度为N×256,重复步骤(1)-(4),输出点云维度为N×1024的融合点云特征图。
2.根据权利要求1所述的一种复杂场景下的人体三维重建方法,其特征在于,深度相机为四个,四个深度相机呈90°间隔放置,以获得四幅人体点云图,所述四幅人体点云图之间的重叠率为30%。
3.根据权利要求1所述的一种复杂场景下的人体三维重建方法,其特征在于,所述步骤S3中采用体素网格对所述人体点云信息进行下采样具体包括:将所述人体点云信息划分为多个正方体体素方格,计算出每个正方体体素方格的中心点,采用所述中心点代替所述正方体体素方格中的所有点云信息。
4.根据权利要求1所述的一种复杂场景下的人体三维重建方法,其特征在于,所述融合注意力网络的具体操作方法包括:将所述点云特征图进行平均池化和最大池化,得到两个向量;将所述两个向量通过Sigmoid激活函数后得到权重向量w1和权重向量w2,将权重向量w1和权重向量w2拼接,得到权重向量w3;将权重向量w3与点云特征图的输入特征相乘,获得融合点云特征图;
所述融合注意力网络的具体公式为:
F=F×Relu(Conv(Cat(Sigmoid(Avg(F)),Sigmoid(Max(F))))),
其中F代表更新后的特征值,F代表输入特征值,Avg、Max分别代表平均池化和最大池化,Sigmoid代表Sigmoid激活函数,Relu表示Relu激活函数,Conv代表卷积调整权重的长度,Cat表示拼接。
5.根据权利要求1-4任一项所述的一种复杂场景下的人体三维重建方法的***,其特征在于,包括:
点云数据获取模块,用于获取多幅人体点云图;
前景分割模块,用于根据多幅人体点云图中的密度信息进行聚类以分离出人体点云信息;
下采样模块,用于对所述人体点云信息进行下采样,得到下采样后人体点云图;
点云配准模块,用于将所述下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成人体三维重建模型。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以用于实现如权利要求1-4任一项所述的一种复杂场景下的人体三维重建方法。
CN202310214926.XA 2023-03-08 2023-03-08 一种复杂场景下的人体三维重建方法、***及存储介质 Active CN116310104B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310214926.XA CN116310104B (zh) 2023-03-08 2023-03-08 一种复杂场景下的人体三维重建方法、***及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310214926.XA CN116310104B (zh) 2023-03-08 2023-03-08 一种复杂场景下的人体三维重建方法、***及存储介质

Publications (2)

Publication Number Publication Date
CN116310104A CN116310104A (zh) 2023-06-23
CN116310104B true CN116310104B (zh) 2023-08-18

Family

ID=86812618

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310214926.XA Active CN116310104B (zh) 2023-03-08 2023-03-08 一种复杂场景下的人体三维重建方法、***及存储介质

Country Status (1)

Country Link
CN (1) CN116310104B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117132501B (zh) * 2023-09-14 2024-02-23 武汉纺织大学 一种基于深度相机的人体点云空洞修复方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015188684A1 (zh) * 2014-06-12 2015-12-17 深圳奥比中光科技有限公司 三维模型重建方法与***
CN114937122A (zh) * 2022-06-16 2022-08-23 黄冈强源电力设计有限公司 一种水泥纤维板房的快速三维模型重建方法
CN115272616A (zh) * 2022-08-18 2022-11-01 中国地质大学(武汉) 一种室内场景三维重建方法、***、装置及存储介质
CN115690188A (zh) * 2022-10-21 2023-02-03 武汉纺织大学 基于点云模型优化的人体三维测量方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103198523B (zh) * 2013-04-26 2016-09-21 清华大学 一种基于多深度图的非刚体三维重建方法及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015188684A1 (zh) * 2014-06-12 2015-12-17 深圳奥比中光科技有限公司 三维模型重建方法与***
CN114937122A (zh) * 2022-06-16 2022-08-23 黄冈强源电力设计有限公司 一种水泥纤维板房的快速三维模型重建方法
CN115272616A (zh) * 2022-08-18 2022-11-01 中国地质大学(武汉) 一种室内场景三维重建方法、***、装置及存储介质
CN115690188A (zh) * 2022-10-21 2023-02-03 武汉纺织大学 基于点云模型优化的人体三维测量方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于单个深度相机的人体三维重建;耿璇;王召巴;金永;郭维;;国外电子测量技术(09);全文 *

Also Published As

Publication number Publication date
CN116310104A (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
Cheng et al. Learning depth with convolutional spatial propagation network
US10353271B2 (en) Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
Meuleman et al. Progressively optimized local radiance fields for robust view synthesis
Hu et al. Deep depth completion from extremely sparse data: A survey
CN112529015A (zh) 一种基于几何解缠的三维点云处理方法、装置及设备
CN110910437B (zh) 一种复杂室内场景的深度预测方法
CN116310104B (zh) 一种复杂场景下的人体三维重建方法、***及存储介质
CN113674400A (zh) 基于重定位技术的光谱三维重建方法、***及存储介质
Liu et al. Microscopic 3D reconstruction based on point cloud data generated using defocused images
CN114255197A (zh) 一种红外与可见光图像自适应融合对齐方法及***
CN116958420A (zh) 一种数字人教师三维人脸的高精度建模方法
Huang et al. Boosting point clouds rendering via radiance mapping
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN117095132B (zh) 基于隐式函数的三维重建方法和***
CN116681839B (zh) 一种基于改进NeRF的实景三维目标重建与单体化方法
CN117788296A (zh) 基于异构组合深度网络的红外遥感图像超分辨率重建方法
Jisen A study on target recognition algorithm based on 3D point cloud and feature fusion
CN114998630B (zh) 一种从粗到精的地对空图像配准方法
Farhood et al. 3D point cloud reconstruction from a single 4D light field image
Frisky et al. Investigation of single image depth prediction under different lighting conditions: A case study of ancient Roman coins
CN112435345B (zh) 一种基于深度学习的人体三维测量方法及***
Xiong et al. SPEAL: Skeletal Prior Embedded Attention Learning for Cross-Source Point Cloud Registration
Li et al. 3D face point cloud super-resolution network
CN113256693A (zh) 基于K-means与正态分布变换的多视角配准方法
CN110580451A (zh) 一种基于三维优化子曲面的人脸识别方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant