CN115456900A - 一种基于改进的Transformer的秦俑碎块去噪方法 - Google Patents

一种基于改进的Transformer的秦俑碎块去噪方法 Download PDF

Info

Publication number
CN115456900A
CN115456900A CN202211133859.0A CN202211133859A CN115456900A CN 115456900 A CN115456900 A CN 115456900A CN 202211133859 A CN202211133859 A CN 202211133859A CN 115456900 A CN115456900 A CN 115456900A
Authority
CN
China
Prior art keywords
point
point cloud
sampling
manifold
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211133859.0A
Other languages
English (en)
Inventor
徐雪丽
耿国华
王红珍
王敬禹
周明全
曹欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwest University
Yanan University
Original Assignee
Northwest University
Yanan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwest University, Yanan University filed Critical Northwest University
Priority to CN202211133859.0A priority Critical patent/CN115456900A/zh
Publication of CN115456900A publication Critical patent/CN115456900A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于改进的Transformer的秦俑碎块去噪方法,包括步骤:1、对秦俑数据的点云样本预处理;2、将预处理的点云样本作为训练集导入输入嵌入模块并映射到高维空间;3、将高维空间点云导入Transformer编码器的自适应下采样模块,用FPS获得相对统一的点作为原始采样点,AS自动学***稳,得到去噪后的干净点云,对高噪声具有更好的鲁棒性。

Description

一种基于改进的Transformer的秦俑碎块去噪方法
技术领域
本发明属于文物保护技术领域,具体是一种基于改进的Transformer的秦俑碎块去噪方法。
背景技术
在文物挖掘保护领域,文物碎块的数字初始化获取受测量设备、外部环境和被测物体表面特性等多种因素影响,扫描获取的初始点云数据模型中往往含有大量的噪声点。这些噪声点的数量越多,对点云质量的影响也就越大,直接影响后期特征提取、配准、曲面重建、可视化等任务的精度和效率。因此,对获取的初始数字化点云数据进行降噪处理是该领域的重要研究内容。
传统的去噪方法中,基于曲面拟合的点云数据去噪方法首先将物体的三维扫描点云数据进行表面拟合,然后计算各点至拟合表面的距离,最后根据一定的准则删除点云数据的粗差或异常值,达到点云数据去噪的目的。这是一种简单有效的估计方法,但精确度不高,尤其对于复杂模型和含有噪声的模型存在较大的计算误差;基于稀疏表示理论的一种移动鲁棒主成分分析方法中,通过局部平均计算点的估计位置,用加权最小化方法保留尖锐特征,利用权重测量局部邻域中的法向矢量之间的相似性来更新点的位置进行消噪。但当噪声水平较高时,由于过度平滑或过度锐化,性能往往会下降。
近年来,以深度学习为代表的人工智能方法取得了一系列重要突破,收到了前所未有的关注。PointNet为直接在点云上应用深度学习模型进行特征学习开创了先河,为保证置换不变性,该方法将归一化旋转矩阵施加在点云上,导致点过于独立;为实现顺序无关性,该网络用全局池化操作对所有点云数据进行全局特征提取,但这样会忽视点之间的几何相关性,导致丢失一部分局部特征信息;一些基于PointNet的改进网络,如pointnet++、Neural Projection神经投影,PointCleanNet和Total Denoising等考虑了点的局部特性,用于提高模型性能。这些方法可以推断噪声距潜在表面的位移并重建点,但这些点并未指定用于明确恢复表面,可能导致次优的去噪结果。
发明内容
针对现有技术存在的不足,本发明的目的是提供一种基于改进的Transformer的秦俑碎块去噪方法,有助于学习噪声点云的潜在流形并捕获固有结构用于恢复表面进行流形重建,对高噪声具有更好的鲁棒性。
为了实现上述目的,本发明采用以下技术方案予以实现:
一种基于改进的Transformer的秦俑碎块去噪方法,包括如下步骤:
步骤1、对秦俑数据的点云样本进行预处理从而实现数据增强和标注处理;
步骤2、将预处理后的点云样本全部作为训练集,并分批导入输入嵌入模块并映射到高维空间;
步骤3、将高维空间的点云导入改进后的Transformer编码器中的自适应下采样模块,先用最远点采样算法FPS获得相对统一的点作为原始采样点,再用自适应邻域采样算法AS自动学习每个采样点的偏移并更新采样点位置信息,从而缩小数据量并保留原点云模型的结构属性;
步骤4、将下采样后的结果导入经过改进的Transformer的编码器模块,通过点云的相对注意力RA模块增强点云的特征从而实现特征的有效提取;
步骤5、以改进的Transformer的解码器的输出作为依据,对每个点的流形进行重建并在每个点对应的流形结构上按比例进行采样,使用自适应采样方法选择更接近干净点云的点来重建三维表面;
步骤6、利用改进的Transformer编码器-解码器架构对导入的数据不断的进行步骤3-步骤5的迭代训练,直到损失函数loss值很小且趋于平稳,得到去噪后的干净点云。
进一步地,所述步骤1的数据增强包括对数据旋转、平移和缩放。
进一步地,所述步骤3的自适应邻域采样算法AS包括如下步骤:
步骤3.1、令Ps为从第N个输入点采样Ns个点构成的点集,且Ns<N,xi为点集Ps中的采样点,xi∈Ps,fi是采样点xi的特征,fi∈Fs,通过k-NN查询将采样点xi的邻居分组,并使用一般的自注意力机制进行特征更新;
步骤3.2、将采样点xi的k个邻居xi,1,...,xi,k对应的特征fi,1,...,fi,k表示为:
Figure BDA0003851057360000031
式中,A用于聚合特征,R用于描述采样点xi与邻居点xi,j之间的高级关系,γ用于改变每个邻居点的特征维度,为减少计算量,令γ(xi,j)=Wγf i,j,关系函数R表示为:
Figure BDA0003851057360000032
式中,D'是Conv的输出通道;
步骤3.3、对每一个采样点xi使用MLP+Softmax,获得组内每个点的坐标及特征通道的归一化权重Wp和Wf,表示为:
Wp=Softmax(mlp(xi,j)) (3)
Wf=Softmax(mlp(fi,j)) (4)
公式(3)和(4)中,j∈[1,k];
步骤3.4、通过加权求和运算实现采样点xi及其特征fi的自适应更新,
Figure BDA0003851057360000033
Figure BDA0003851057360000034
即为更新后的点信息,表示为:
Figure BDA0003851057360000035
Figure BDA0003851057360000036
进一步地,所述步骤4中点云的相对注意力RA模块用于计算自注意力SA模块特征与输入特征之间的相对注意力特征,表示为:
Fra=Fin-Fsa (7)
式中,Fra为相对注意力特征,Fin为输入特征,Fsa为自注意力SA模块特征;
最终,相对注意力特征Fra通过网络与输入特征Fin作为整个点云的相对注意力RA模块最终输出特征Fout的输入,表示为:
Fout=RA(Fin)=relu(bn(mlp(Fra)))+Fin。 (8)
进一步地,所述自注意力SA模块特征表示为:
Figure BDA0003851057360000041
式中,(Q,K,V)=Fin.(Wq,Wk,Wv);Wq、Wk和Wv为共享学习的权重矩阵,Q、K和V分别为通过输入特征线性变换生成的Query、Key和Value矩阵,
Figure BDA0003851057360000042
为一个query和key向量的维度。
进一步地,所述相对注意力特征的计算公式(7)为离散拉普拉斯算子,在具有N个节点的图G中,N维向量f表示为:
f=(f1,f2,...,fN) (10)
式中,fi为函数f在节点i的函数值;
对i点进行扰动,将它变为任意一个与它相邻的节点j,则节点j变化到节点i所带来的增益表示为:
Figure BDA0003851057360000043
当边Eij具有权重Wij时,则:
Figure BDA0003851057360000044
当Wij=0时,表示节点i和节点j不相邻,则:
Figure BDA0003851057360000045
最终得到:
Figure BDA0003851057360000046
式中,
Figure BDA0003851057360000047
是顶点i的度;wi:=(wi1,...,wiN)是N维行向量;
Figure BDA0003851057360000048
是N维列向量;wi:f表示两个向量的内积,对于所有的N个节点增益累积表示为:
Figure BDA0003851057360000051
式中,Wi:表示第i个点对应操作的权重,W代表所有点对应操作的权重,D-W即为拉普拉斯矩阵L。
进一步地,所述步骤(5)中解码器先将每个采样点及其邻域的嵌入特征转换为以该点为中心的局部曲面来推断潜在流形,然后在推断的面片流形上重复采样以产生降噪点集
Figure BDA0003851057360000052
重构出一个干净点云
Figure BDA0003851057360000053
进一步地,所述步骤(5)具体包括如下步骤:
步骤5.1、先将嵌入在由特征向量y参数化的3D空间中的2D流形M定义为:
M(u,v;y):[-1,1]×[-1,1]→R3 (16)
式中,(u,v)是2D矩形区域[-1,1]2中的某个点;
由函数逼近器MLP通过公式(16)将2D矩形映射到由y参数化的任意形状的面片流形,表示为:
Mi(u,v;yi)=MLPM([u,v,yi]) (17)
式中,Mi(u,v;yi)代表参数化的面片流形;
步骤5.2、将自适应下采样集合
Figure BDA0003851057360000054
中的点Pi对应的面片流形Mi定义为:
Mi(u,v;yi)=pi+M(u,v;yi) (18)
公式(18)表示将构造的流形M(u,v;yi)移动到以pi为中心的局部曲面,
Figure BDA0003851057360000055
中所有点对应的面片流形可表示为
Figure BDA0003851057360000056
即表征了点云的潜在表面;
步骤5.3、通过步骤5.1和步骤5.2将自适应下采样过程中将输入的点数减少了一半,即M=N/2,对每个面片流形M(u,v;yi)重采样,且每个面片流形上采两个点,得到去噪点云
Figure BDA0003851057360000057
表示为:
Figure BDA0003851057360000061
进一步地,所述步骤(6)中的损失函数loss包括损失函数Las和损失函数Lus;
所述损失函数Las用于量化自适应下采样集合
Figure BDA0003851057360000062
与ground truth点云Pgt之间的距离,由于
Figure BDA0003851057360000063
和Pgt包含不同数量的点,且
Figure BDA0003851057360000064
故选择倒角距离CD作为Las,表示为:
Figure BDA0003851057360000065
所述损失函数Lus用于量化最终重建的点云
Figure BDA0003851057360000066
与ground truth Pgt之间的距离,使用地球移动距离EMD作为Lus,表示为:
Figure BDA0003851057360000067
式中,
Figure BDA0003851057360000068
φ是双射;
最后,对网络进行端到端有监督的训练,最小化总损失函数表示为:
Ldenoise=λLas+(1-λ)Lus (22)
式中,λ为经验值0.01。
本发明与现有技术相比,具有如下技术效果:
基于Transformer在自然语言处理中的高性能及其所有操作的顺序无关性,对其进行改进,使其非常适合点云特征学习,改进的Transformer中的相对注意力RA模块对广泛使用的最远点采样方法FPS存在的对异常点非常敏感导致在处理现实世界中的点云数据时很不稳定的问题、以及来自FPS的采样点必须是原始点云的子集从而加大对原始数据与原始几何信息推断的问题进行了有效改进,继而能够自适应的提取基础点云信息,对后续工作的顺利开展提供了更有价值的依据,同时,在特征提取过程中使用注意力机制以及全局池化操作,不仅能够提取全局信息,而且能够保持局部细节信息的完整性。具体体现在,利用改进的Transformer结构获得秦俑数据的点云样本的丰富的高维特征,并从采样点中学习噪声点云的潜在流形,即通过自适应下采样模块对FPS获得的采样点进行自适应,使其更靠近点所在表面;然后将每个采样点及其嵌入的邻域特征转换到局部表面来推断面片流形,通过在每个面片流形上采样,重构一个捕获内部结构的干净点云,而不受异常值的影响,用于恢复表面进行流形重建,实现去噪,且在合成噪声和真实噪声下具有良好的鲁棒性,对于计算机辅助秦俑虚拟复原工作具有良好的推进作用。
附图说明
图1:本发明基于改进的transformer的点云去噪网络结构图;
图2:本发明不同去噪方法的定性分析对比图;
图3:本发明的自适应下采样原理示意图;
图4:本发明的相对注意力模块RA结构图,虚线框内为自注意力模块结构SA;
图5:本发明的面片流形重构和重采样示意图。
具体实施方式
以下结合实施例对本发明的具体内容做进一步详细解释说明。
如图1所示,一种基于改进的Transformer的秦俑碎块去噪方法,包括如下步骤:
步骤1、对秦俑数据的点云样本进行预处理,通过旋转、平移和缩放从而实现数据增强,并对数据进行标注处理;
步骤2、将预处理后的点云样本全部作为训练集,并分批导入输入嵌入模块并映射到高维空间;
步骤3、将高维空间的点云导入改进后的Transformer编码器中的自适应下采样模块以便在缩小数据量同时尽可能保留原点云模型的结构属性;
具体过程如图3所示,先用最远点采样算法FPS获得相对统一的点作为原始采样点,再用自适应邻域采样算法AS自动学习每个采样点的偏移并更新采样点位置信息;
所述自适应邻域采样算法AS具体包括如下步骤:
步骤3.1、令Ps为从第N个输入点采样Ns个点构成的点集,且Ns<N,xi为点集Ps中的采样点,xi∈Ps,fi是采样点xi的特征,fi∈Fs,对应维度为D1,通过k-NN查询将采样点xi的邻居分组,并使用一般的自注意力机制进行特征更新;
步骤3.2、将采样点xi的k个邻居xi,1,...,xi,k对应的特征fi,1,...,fi,k表示为:
Figure BDA0003851057360000081
式中,A用于聚合特征,R用于描述采样点xi与邻居点xi,j之间的高级关系,γ用于改变每个邻居点的特征维度,为减少计算量,令γ(xi,j)=Wγf i,j,关系函数R表示为:
Figure BDA0003851057360000082
式中,D'是Conv的输出通道;
步骤3.3、对每一个采样点xi使用MLP+Softmax,获得组内每个点的坐标及特征通道的归一化权重Wp和Wf,表示为:
Wp=Softmax(mlp(xi,j)) (3)
Wf=Softmax(mlp(fi,j)) (4)
公式(3)和(4)中,j∈[1,k];
步骤3.4、通过加权求和运算实现采样点xi及其特征fi的自适应更新,
Figure BDA0003851057360000083
Figure BDA0003851057360000084
即为更新后的点信息,表示为:
Figure BDA0003851057360000085
Figure BDA0003851057360000086
上述自适应下采样操作可以获得更接近潜在表面的点,即噪声扰动较小的点,有助于在流形重建时缩小用于重构潜在流形的潜在空间;
步骤4、将下采样后的结果导入经过改进的Transformer的编码器模块,通过点云的相对注意力RA模块增强点云的特征从而实现特征的有效提取;
Attention是从大量信息中筛选出少量重要信息,并聚焦到这些重要信息上,忽略大多不重要的信息,权重越大越聚焦于其对应的Value值上,原始transformer中的自我注意力SA是一种机制,用于在对每个单词编码时关注输入句子的其他单词,图4中虚线框内描述了SA层的体系结构,切换到点数据流时,按照术语,令Q、K和V分别为通过输入特征线性变换生成的Query、Key和Value矩阵,先根据Query和Key计算权重系数,之后根据权重系数对Value进行加权求和,对于权重系数,目前最常见的方法包括:求两者的向量点积、求两者的向量Cosine相似性或通过再引入额外的神经网络来求值,实施例使用向量点积的方法进行计算,为防止计算结果过大,通过除以一个尺度标度
Figure BDA0003851057360000091
其中
Figure BDA0003851057360000092
为一个query和key向量的维度,再利用Softmax将其结果归一化为概率分布,然后再乘以矩阵Value就得到权重求和的表示,即,自注意力SA模块特征表示为:
Figure BDA0003851057360000093
式中,(Q,K,V)=Fin.(Wq,Wk,Wv);Wq、Wk和Wv为共享学习的权重矩阵。
由公式(9)的计算过程可知,整个自注意力过程是置换不变的,使其非常适合点云的无序和不规则性,但同一点云经刚性变换后其绝对坐标与变换前会大不相同,为描述点云的固有特性,本实施例引入点云的相对注意力特征,受图卷积网络中使用拉普拉斯矩阵L=D-A替换邻接矩阵A的启发,D是一个对角矩阵,每个对角元素Dii表示第i个结点的度,将原始transformer中自注意力SA模块替换为相对注意力RA模块来增强点云的特征表示,如图4所示,相对注意力RA模块是计算自注意力SA特征与输入特征之间的相对注意力特征,表示为:
Fra=Fin-Fsa (7)
式中,Fra为相对注意力特征,Fin为输入特征,Fsa为自注意力SA模块特征;
最后,相对注意力特征进一步通过网络与输入特征作为整个RA的最终输出特征Fout的输入,表示为:
Fout=RA(Fin)=relu(bn(mlp(Fra)))+Fin (8)
Fin-Fsa类似于离散拉普拉斯算子,在具有N个节点的图G中,N维向量f表示为:
f=(f1,f2,...,fN) (10)
式中fi为函数f在节点i的函数值;
对i点进行扰动,它可能变为任意一个与它相邻的节点j,因拉普拉斯算子可计算一个点到它所有自由度上微小扰动的增益,用图表示即任意一个节点j变化到节点i所带来的增益,表示为:
Figure BDA0003851057360000101
当边Eij具有权重Wij时,则:
Figure BDA0003851057360000102
当Wij=0时,表示节点i和节点j不相邻,则:
Figure BDA0003851057360000103
最终得到:
Figure BDA0003851057360000104
式中,
Figure BDA0003851057360000105
是顶点i的度;wi:=(wi1,...,wiN)是N维行向量;
Figure BDA0003851057360000106
是N维列向量;wi:f表示两个向量的内积,对于所有的N个节点增益累积表示为:
Figure BDA0003851057360000107
式中,Wi:表示第i个点对应操作的权重,W代表所有点对应操作的权重,D-W即为拉普拉斯矩阵L。
拉普拉斯矩阵中的第i行实际上反应了第i个节点在对其他所有节点产生扰动时所产生的增益累积。直观上讲,图拉普拉斯反映了在节点i上施加一个势,这个势能够顺畅的流向其他节点从而对模型迭代优化起到监督指引作用。相对注意力会增加注意力权重并减少噪音的影响,这对下游任务很有帮助。
步骤5、以改进的Transformer的解码器的输出作为依据,对每个点的流形进行重建并在每个点对应的流形结构上按比例进行采样,使用自适应采样方法选择更接近干净点云的点来重建三维表面;
解码器在获取点云高维特征表示后,可用于处理去噪任务,先前的去噪工作大多依赖于点距潜在表面位移的思想,但这些点并未指定用于恢复表面,可能导致次优的去噪效果,点云通常表示一组采样点的某些潜在表面或2D流形,为实现去噪效果的鲁棒性,本实施例苟能学习噪声点云的潜在流形、捕获原点云的固有结构,用于重建和恢复表面,其过程如图1中(b)解码器部分所示;
解码器将每个采样点及其邻域的嵌入特征转换为以该点为中心的局部曲面来推断潜在流形,然后在推断的面片流形上多次采样以产生降噪点集
Figure BDA0003851057360000111
即重构出一个干净点云
Figure BDA0003851057360000112
整个过程如图5所示,具体包括如下步骤:
步骤5.1、先将嵌入在由某些特征向量y参数化的3D空间中的2D流形M定义为:
M(u,v;y):[-1,1]×[-1,1]→R3 (16)
式中,(u,v)是2D矩形区域[-1,1]2中的某个点;
公式(16)将2D矩形映射到由y参数化的任意形状的面片流形,参数化的面片流形Mi(u,v;yi)由MLP实现,因为MLP是一个通用函数逼近器,其表达能力足以逼近任意形状的流形,表示为:
Mi(u,v;yi)=MLPM([u,v,yi]) (17)
式中,Mi(u,v;yi)代表参数化的面片流形;
步骤5.2、有了流形M的定义后,将自适应下采样集合
Figure BDA0003851057360000113
中的点Pi对应的面片流形Mi定义为:
Mi(u,v;yi)=pi+M(u,v;yi) (18)
公式(18)表示将构造的流形M(u,v;yi)移动到以pi为中心的局部曲面,
Figure BDA0003851057360000121
中所有点对应的面片流形可表示为
Figure BDA0003851057360000122
即表征了点云的潜在表面;
步骤5.3、通过步骤5.1和步骤5.2将自适应下采样过程中将输入的点数减少了一半,即M=N/2,对每个面片流形M(u,v;yi)重采样,且每个面片流形上采两个点,得到去噪点云
Figure BDA0003851057360000123
表示为:
Figure BDA0003851057360000124
步骤6、利用改进的Transformer编码器-解码器架构对导入的数据不断的进行步骤3-步骤5的迭代训练,直到损失函数loss值很小且趋于平稳,得到去噪后的干净点云。
为了测量最终点云的重构质量,损失函数Loss包含两个部分:1)损失函数Las,用于量化自适应下采样集合
Figure BDA0003851057360000125
与ground truth点云Pgt之间的距离;2)损失函数Lus量化最终重建的点云
Figure BDA0003851057360000126
与ground truth Pgt之间的距离。
由于
Figure BDA0003851057360000127
和Pgt包含不同数量的点,且
Figure BDA0003851057360000128
故选择倒角距离CD作为Las,表示为:
Figure BDA0003851057360000129
使用地球移动距离Earth Mover’s distance(EMD)作为Lus,衡量去噪点云
Figure BDA00038510573600001210
与ground truth点云Pgt之间的距离,表示为:
Figure BDA00038510573600001211
式中,
Figure BDA00038510573600001212
φ是双射;
最后,对网络进行端到端有监督的训练,最小化总损失函数表示为:
Ldenoise=λLas+(1-λ)Lus (22)
式中,λ为经验值0.01。
本实施例的秦俑数据集是西北大学文化遗产数字化国家地方联合工程研究中心的科研人员到兵马俑博物馆实地扫描采集的模型,现有模型500余个,且大部分已经被准确标注。图2是用不同去噪方法对秦俑头部和手部数据集去噪效果的定性分析对比图,可以看出其他三种基于深度学习的方法NPD和TlDn以及PCNet相比,本发明的去噪方法对异常值的鲁棒性更好,得到的结果更干净。
本实施例中基于Transformer的点云去噪网络作为特征提取器,对点云的结构和语义理解能力更强,与其他三种去噪方法相比,随着噪声水平的提高,本发明的去噪效果越显著,具体如表1所示,可见,本发明优于之前的深度学习方法,并对高噪声更鲁棒。
表1不同噪声比率下的各去噪方法的CD(倒角距离)比较
0.25% 0.5% 1% 2% 3%
NPD 0.24 0.62 1.28 2.32 3.27
PCNet 0.18 0.46 0.97 1.42 2.91
TlDn 0.34 0.78 1.15 2.26 3.12
TDNet-RA(ours) 0.16 0.39 0.83 1.20 2.15

Claims (9)

1.一种基于改进的Transformer的秦俑碎块去噪方法,其特征在于,包括如下步骤:
步骤1、对秦俑数据的点云样本进行预处理从而实现数据增强和标注处理;
步骤2、将预处理后的点云样本全部作为训练集,并分批导入输入嵌入模块并映射到高维空间;
步骤3、将高维空间的点云导入改进后的Transformer编码器中的自适应下采样模块,先用最远点采样算法FPS获得相对统一的点作为原始采样点,再用自适应邻域采样算法AS自动学习每个采样点的偏移并更新采样点位置信息,从而缩小数据量并保留原点云模型的结构属性;
步骤4、将下采样后的结果导入经过改进的Transformer的编码器模块,通过点云的相对注意力RA模块增强点云的特征从而实现特征的有效提取;
步骤5、以改进的Transformer的解码器的输出作为依据,对每个点的流形进行重建并在每个点对应的流形结构上按比例进行采样,选择更接近干净点云的点重建三维表面;
步骤6、利用改进的Transformer编码器-解码器架构对导入的数据不断的进行步骤3-步骤5的迭代训练,直到损失函数loss值很小且趋于平稳,得到去噪后的干净点云。
2.根据权利要求1所述的基于改进的Transformer的秦俑碎块去噪方法,其特征在于,所述步骤1的数据增强包括对数据旋转、平移和缩放。
3.根据权利要求1所述的基于改进的Transformer的秦俑碎块去噪方法,其特征在于,所述步骤3的自适应邻域采样算法AS包括如下步骤:
步骤3.1、令Ps为从第N个输入点采样Ns个点构成的点集,且Ns<N,xi为点集Ps中的采样点,xi∈Ps,fi是采样点xi的特征,fi∈Fs,通过k-NN查询将采样点xi的邻居分组,并使用一般的自注意力机制进行特征更新;
步骤3.2、将采样点xi的k个邻居xi,1,...,xi,k对应的特征fi,1,...,fi,k表示为:
Figure FDA0003851057350000021
式中,A用于聚合特征,R用于描述采样点xi与邻居点xi,j之间的高级关系,γ用于改变每个邻居点的特征维度,为减少计算量,令γ(xi,j)=Wγfi,j,关系函数R表示为:
Figure FDA0003851057350000022
式中,D'是Conv的输出通道;
步骤3.3、对每一个采样点xi使用MLP+Softmax,获得组内每个点的坐标及特征通道的归一化权重Wp和Wf,表示为:
Wp=Soft max(mlp(xi,j)) (3)
Wf=Soft max(mlp(fi,j)) (4)
公式(3)和(4)中,j∈[1,k];
步骤3.4、通过加权求和运算实现采样点xi及其特征fi的自适应更新,
Figure FDA0003851057350000023
Figure FDA0003851057350000024
即为更新后的点信息,表示为:
Figure FDA0003851057350000025
Figure FDA0003851057350000026
4.根据权利要求1所述的基于改进的Transformer的秦俑碎块去噪方法,其特征在于,所述步骤4中点云的相对注意力RA模块用于计算自注意力SA模块特征与输入特征之间的相对注意力特征,表示为:
Fra=Fin-Fsa (7)
式中,Fra为相对注意力特征,Fin为输入特征,Fsa为自注意力SA模块特征;
最终,相对注意力特征Fra通过网络与输入特征Fin作为整个点云的相对注意力RA模块最终输出特征Fout的输入,表示为:
Fout=RA(Fin)=relu(bn(mlp(Fra)))+Fin。 (8)
5.根据权利要求4所述的基于改进的Transformer的秦俑碎块去噪方法,其特征在于,所述自注意力SA模块特征表示为:
Figure FDA0003851057350000031
式中,(Q,K,V)=Fin.(Wq,Wk,Wv);Wq、Wk和Wv为共享学习的权重矩阵,Q、K和V分别为通过输入特征线性变换生成的Query、Key和Value矩阵,
Figure FDA0003851057350000036
为一个query和key向量的维度。
6.根据权利要求4所述的基于改进的Transformer的秦俑碎块去噪方法,其特征在于,所述相对注意力特征的计算公式(7)为离散拉普拉斯算子,在具有N个节点的图G中,N维向量f表示为:
f=(f1,f2,...,fN) (10)
式中,fi为函数f在节点i的函数值;
对i点进行扰动,将它变为任意一个与它相邻的节点j,则节点j变化到节点i所带来的增益表示为:
Figure FDA0003851057350000032
当边Eij具有权重Wij时,则:
Figure FDA0003851057350000033
当Wij=0时,表示节点i和节点j不相邻,则:
Figure FDA0003851057350000034
最终得到:
Figure FDA0003851057350000035
式中,
Figure FDA0003851057350000041
是顶点i的度;wi:=(wi1,...,wiN)是N维行向量;
Figure FDA0003851057350000042
是N维列向量;wi:f表示两个向量的内积,对于所有的N个节点增益累积表示为:
Figure FDA0003851057350000043
式中,Wi:表示第i个点对应操作的权重,W代表所有点对应操作的权重,D-W即为拉普拉斯矩阵L。
7.根据权利要求1所述的基于改进的Transformer的秦俑碎块去噪方法,其特征在于,所述步骤(5)中解码器先将每个采样点及其邻域的嵌入特征转换为以该点为中心的局部曲面来推断潜在流形,然后在推断的面片流形上重复采样以产生降噪点集
Figure FDA0003851057350000044
重构出一个干净点云
Figure FDA0003851057350000045
8.根据权利要求7所述的基于改进的Transformer的秦俑碎块去噪方法,其特征在于,所述步骤(5)具体包括如下步骤:
步骤5.1、先将嵌入在由特征向量y参数化的3D空间中的2D流形M定义为:
M(u,v;y):[-1,1]×[-1,1]→R3 (16)
式中,(u,v)是2D矩形区域[-1,1]2中的某个点;
由函数逼近器MLP通过公式(16)将2D矩形映射到由y参数化的任意形状的面片流形,表示为:
Mi(u,v;yi)=MLPM([u,v,yi]) (17)
式中,Mi(u,v;yi)代表参数化的面片流形;
步骤5.2、将自适应下采样集合
Figure FDA0003851057350000046
中的点Pi对应的面片流形Mi定义为:
Mi(u,v;yi)=pi+M(u,v;yi) (18)
公式(18)表示将构造的流形M(u,v;yi)移动到以pi为中心的局部曲面,
Figure FDA0003851057350000047
中所有点对应的面片流形可表示为
Figure FDA0003851057350000051
即表征了点云的潜在表面;
步骤5.3、通过步骤5.1和步骤5.2将自适应下采样过程中将输入的点数减少了一半,即M=N/2,对每个面片流形Mi([u,v;yi])重采样,且每个面片流形上采两个点,得到去噪点云
Figure FDA0003851057350000052
表示为:
Figure FDA0003851057350000053
9.根据权利要求1所述的基于改进的Transformer的秦俑碎块去噪方法,其特征在于,所述步骤(6)中的损失函数loss包括损失函数Las和损失函数Lus;
所述损失函数Las用于量化自适应下采样集合
Figure FDA0003851057350000054
与ground truth点云Pgt之间的距离,由于
Figure FDA0003851057350000055
和Pgt包含不同数量的点,且
Figure FDA0003851057350000056
故选择倒角距离CD作为Las,表示为:
Figure FDA0003851057350000057
所述损失函数Lus用于量化最终重建的点云
Figure FDA0003851057350000058
与ground truth Pgt之间的距离,使用地球移动距离EMD作为Lus,表示为:
Figure FDA0003851057350000059
式中,
Figure FDA00038510573500000510
φ是双射;
最后,对网络进行端到端有监督的训练,最小化总损失函数表示为:
Ldenoise=λLas+(1-λ)Lus (22)
式中,λ为经验值0.01。
CN202211133859.0A 2022-09-19 2022-09-19 一种基于改进的Transformer的秦俑碎块去噪方法 Pending CN115456900A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211133859.0A CN115456900A (zh) 2022-09-19 2022-09-19 一种基于改进的Transformer的秦俑碎块去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211133859.0A CN115456900A (zh) 2022-09-19 2022-09-19 一种基于改进的Transformer的秦俑碎块去噪方法

Publications (1)

Publication Number Publication Date
CN115456900A true CN115456900A (zh) 2022-12-09

Family

ID=84304288

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211133859.0A Pending CN115456900A (zh) 2022-09-19 2022-09-19 一种基于改进的Transformer的秦俑碎块去噪方法

Country Status (1)

Country Link
CN (1) CN115456900A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012266A (zh) * 2023-03-29 2023-04-25 中国科学技术大学 图像去噪方法、***、设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012266A (zh) * 2023-03-29 2023-04-25 中国科学技术大学 图像去噪方法、***、设备及存储介质

Similar Documents

Publication Publication Date Title
Qian et al. PUGeo-Net: A geometry-centric network for 3D point cloud upsampling
CN111079532B (zh) 一种基于文本自编码器的视频内容描述方法
CN113780149A (zh) 一种基于注意力机制的遥感图像建筑物目标高效提取方法
CN109064412A (zh) 一种低秩图像的去噪方法
CN113269691B (zh) 一种基于卷积稀疏进行噪声仿射拟合的sar图像去噪方法
WO2023202474A1 (zh) 一种海水水质三维时空序列多参数精准预测方法及***
CN114494297B (zh) 处理多种先验知识的自适应视频目标分割方法
Han et al. An improved corner detection algorithm based on harris
CN115456900A (zh) 一种基于改进的Transformer的秦俑碎块去噪方法
CN112465889A (zh) 一种基于二维-三维集成的植株点云分割方法、***和存储介质
CN108133182B (zh) 一种基于云成像的新能源发电预测方法及装置
CN112529777A (zh) 基于多模态学习卷积稀疏编码网络的图像超分辨率分析方法
CN114663777B (zh) 基于时空联合图注意机制的高光谱影像变化检测方法
CN114595635A (zh) 火电机组主汽温度数据的特征选择方法、***及设备
CN111080516B (zh) 基于自样例增强的超分辨率图像重建方法
CN117727046A (zh) 新型山洪前端仪器仪表读数自动识别方法及***
CN115861384B (zh) 基于生成对抗和注意力机制的光流估计方法及***
Li et al. Towards communication-efficient digital twin via AI-powered transmission and reconstruction
CN117196963A (zh) 一种基于降噪自编码器的点云去噪方法
CN113591685B (zh) 一种基于多尺度池化的地理对象空间关系识别方法及***
CN116129326A (zh) 基于局部和全局注意力机制的视频动作识别方法
AU2021104479A4 (en) Text recognition method and system based on decoupled attention mechanism
CN115131414A (zh) 基于深度学习的无人机图像对齐方法、电子设备和存储介质
Chen et al. Single satellite imagery superresolution based on hybrid nonlocal similarity constrained convolution sparse coding
Zhong et al. Investigating transformer‐based models for spatial downscaling and correcting biases of near‐surface temperature and wind‐speed forecasts

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination