CN109921799B - 一种基于聚能量字典学习的张量压缩方法 - Google Patents

一种基于聚能量字典学习的张量压缩方法 Download PDF

Info

Publication number
CN109921799B
CN109921799B CN201910126833.5A CN201910126833A CN109921799B CN 109921799 B CN109921799 B CN 109921799B CN 201910126833 A CN201910126833 A CN 201910126833A CN 109921799 B CN109921799 B CN 109921799B
Authority
CN
China
Prior art keywords
tensor
dictionary
matrix
representing
compression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910126833.5A
Other languages
English (en)
Other versions
CN109921799A (zh
Inventor
张祖凡
毛军伟
甘臣权
孙韶辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201910126833.5A priority Critical patent/CN109921799B/zh
Publication of CN109921799A publication Critical patent/CN109921799A/zh
Application granted granted Critical
Publication of CN109921799B publication Critical patent/CN109921799B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Machine Translation (AREA)

Abstract

本发明请求保护一种基于聚能量字典学习的张量压缩方法,属于信号处理领域。所述方法包括以下步骤:1、将张量分别进行塔克分解和稀疏表示,得到字典、稀疏系数和核张量;2、通过张量的稀疏系数和核张量的关系,得到关于张量的新的稀疏表示形式;3、利用聚能量字典学习算法对映射矩阵中的字典进行降维,从而实现张量的压缩。本发明提出的基于聚能量字典学习的张量压缩算法,实现了张量的有效压缩,相对于其他压缩算法,能够更有效地保留原始张量的信息,达到更好地去噪效果。

Description

一种基于聚能量字典学习的张量压缩方法
技术领域
本发明属于信号处理领域,具体涉及基于聚能量字典学习的张量信号压缩算法,可以实现张量信号的有效压缩。
背景技术
随着信息技术的发展,多维信号在信号处理领域发挥着越来越重要的作用。与此同时多维(Multidimensional,MD)信号也会给传输和存储过程带来很大的负担。为了应对多维信号处理带来的挑战,多维信号的张量表示引起了人们的关注,将多维信号表示为张量并对其进行处理,为多维信号的处理带来极大的方便。因此,对多维信号的压缩本质上就是对张量进行有效压缩,所以张量压缩算法在多维信号压缩领域发挥着越来越重要的作用,已成为当今研究的热点。
近年来,针对张量压缩的问题,研究者们在CP分解和塔克分解算法的基础上提出了很多有效地压缩算法,大致的分为两个方面,一种是针对张量数据本身,直接在张量分解地基础上对张量数据惊醒矢量化操作。然而,根据著名的“丑小鸭”定理,没有任何先验知识就没有最优的模式表示,换句话说,张量数据的矢量化并不总是有效的。具体来说,这可能会导致以下问题:首先,破坏原始数据中固有的高阶结构和固有相关性,信息丢失或掩盖冗余信息和原始数据的高阶依赖性,因此,不可能在原始数据中获得可能更有意义的模型表示;第二,矢量化操作会生成高维向量,导致出现“过度拟合”,“维度灾难”和小样本问题。
另一方面,张量的稀疏表示被应用到张量的压缩当中。由于张量塔克模型和Kronecker表示的等价性,张量可以被定义为具有特定稀疏性的给定Kronecker字典的表示形式,例如多向稀疏性和块稀疏性。随着张量稀疏性的出现,一些稀疏编码的方式也随之出现,例如Kroneker-OMP和N-way Block OMP等算法,这些算法为张量压缩带来了极大的便利;同时,与各种稀疏编码算法相对应的也产生了很多字典学习算法,在各个维度上分别对张量进行稀疏编码和字典学习,从而实现稀疏表示的目的。然而,以上基于稀疏表示的张量处理算法的过程中,往往会引入一些新的噪声,这将对数据的准确性产生一定的影响。并且,在稀疏表示过程中,稀疏度的确定也会给张量的处理带来一定的挑战。
所以,在处理包含大数据量的张量中,在对张量进行有效地压缩,提取出有用信息,降低传输和存储成本方面面临着前所未有的挑战。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种能够提升原始数据保存能力,增强去噪能力的基于聚能量字典学习的张量压缩方法。本发明的技术方案如下:
一种基于聚能量字典学习的张量压缩方法,其包括以下步骤:
步骤1):获取多维信号并将多维信号表示为张量,输入张量并进行稀疏表示和塔克分解;
步骤2)利用稀疏表示中稀疏系数张量与塔克分解得到的核心张量的近似关系,得到关于原始张量的新的张量稀疏表示形式;;
步骤3)对步骤2)新的张量稀疏表示形式,根据张量运算性质,转换为关于字典表示的映射矩阵形式;
步骤4)利用聚能量字典学习算法降维的思想对映射矩阵中的字典进行降维,从而实现张量的压缩。
进一步的,所述步骤1)通过塔克分解得到核心张量在每个维度上与映射矩阵乘积的形式,在塔克分解过程中,得到如下表示
Figure BDA0001973893910000021
A∈RI×P,B∈RJ×Q,C∈RK×R,为正交矩阵又称为因子矩阵,反应了各个维度上的主成分,Z∈RP×Q×R为核心张量,反应了各个维度的相关情况,P、Q和R分别对应因子矩阵A、B和C的列数,I、J和K表示原始张量每个维度的大小,若P、Q、R小于I、J、K,那么核心张量可以看做是原始张量的压缩;
对于N阶张量,塔克分解形式为
χ=Z×1A1×2A2...×NAN
χ表示输入的张量信号,Z表示核心张量,Ai表示各个维度上的分解矩阵,为正交矩阵。
进一步的,所述步骤1)张量的稀疏表示的表示形式为
Figure BDA0001973893910000031
Figure BDA0001973893910000032
表示稀疏表示之后的信号,S表示稀疏系数张量,N表示自张量的阶数,Di表示各个维度上的字典。
进一步的,所述步骤2)通过观察张量的稀疏表示和塔克分解形式,发现两个表达式是相似的,由塔克分解得到核张量的表示为
Z=χ×1A1 T×2A2 T...×NAN T
利用稀疏系数张量和核张量的近似关系,将核张量的表达式代入张量稀疏表示中得到
Figure BDA0001973893910000033
进一步的,所述步骤3)对步骤2)新的张量稀疏表示形式,根据张量运算性质,转换为关于字典表示的映射矩阵形式,具体包括:
在张量的运算中,
当m≠n时,
Ψ×mnB=Ψ×n(BA)
其中Ψ表示N阶张量,×m表示张量与矩阵的m模乘积,×n表示张量与矩阵的n模乘积。
当m≠n时,
Ψ×mnB=Ψ×nmA
将以上的两个性质应用到新的稀疏表示中,可以得到
Figure BDA0001973893910000034
进一步的,所述步骤4)利用聚能能量字典学习算法降维的思想对映射矩阵中的字典进行降维,从而实现张量的压缩,具体步骤包括:
输入:T个训练样本构成的张量
Figure BDA0001973893910000041
稀疏度k,最大迭代次数Itermax,终止门限ε
1.初始化字典
Figure BDA0001973893910000042
为高斯矩阵,并对各个字典的列进行归一化
2.塔克分解:χ=Z×1A1×2A2...×NAN
3.初始化字典经过聚能量字典学习算法中的Γ(D)过程;
4.计算更新次数i=0时S,并利用
Figure BDA0001973893910000043
计算未经任何迭代更新时的绝对误差E0
5.第i次字典更新
For k=1:IN
利用
Figure BDA0001973893910000044
计算第i个字典的更新值
End
6.对上一步中求得的N个字典进行归一化;
7.利用第i次更新的字典,更新稀疏系数张量Si
8.计算第i次更新后的绝对误差Ei和相对误差Er
9.终止条件判断,若Er<ε或者迭代次数超出最大限制,则终止循环,否则继续步骤5-8;
10.得到字典
Figure BDA0001973893910000045
11.根据式
Figure BDA0001973893910000046
得到Ud,则字典/>
Figure BDA0001973893910000047
12.将字典P带入
Figure BDA0001973893910000048
输出:压缩张量
Figure BDA0001973893910000049
进一步的,为了使降维之后的字典P保留原始字典D中的主成分,需要对字典D进行预处理,处理过程如下
DTD=uΛvT
u为奇异值分解的左奇异矩阵,v为右奇异矩阵,Λ为奇异值矩阵,表示形式为
Figure BDA0001973893910000051
其次对奇异值进行更新
Figure BDA0001973893910000052
其中,k表示字典列数,td表示主成分阈值,
Figure BDA0001973893910000053
表示更新后的前d个奇异值,/>
Figure BDA0001973893910000054
表示更新后的后r个奇异值。/>
从而得到新的奇异值
Figure BDA0001973893910000055
Figure BDA0001973893910000056
与初始左奇异矩阵和右奇异矩阵构成新的字典,即
Figure BDA0001973893910000057
进一步的,在对字典进行预处理之后,需对字典进行更新,在更新过程中采用基于张量的多维字典学习算法TKSVD,完成对高维张量信号的字典更新过程,与K-SVD字典更新算法不同的是,TKSVD算法中,具体包括:
(1)在进行张量字典学习时,与二维信号学习方式不同,根据张量范数的定义,可得到:
Figure BDA0001973893910000058
其中,
Figure BDA0001973893910000059
DN第N维字典,D1表示第1维字典,IT表示T阶单位阵,通过最小二乘法求解上式,得到字典Di的更新值为
Figure BDA00019738939100000510
其中,yi表示张量的i模展开矩阵,
Figure BDA00019738939100000511
表示伪逆,即/>
Figure BDA00019738939100000512
其中/>
Figure BDA00019738939100000513
表示矩阵M的伪逆矩阵,MT表示矩阵M的转置矩阵。另一方面,完成一次迭代后,计算在当前字典和稀疏系数下可以恢复的数据与原始的训练数据之间的绝对误差和相对误差,第i次迭代后的绝对误差仍以张量的Frobenius范数定义
Figure BDA0001973893910000061
其中S表示系数张量、
Figure BDA0001973893910000062
表示移除G个原子后真实信号与逼近信号的误差。
对字典进行更新完成之后,对字典进行降维处理,对更新后的字典进行奇异值分解
Figure BDA0001973893910000063
其中Ud表示左奇异矩阵的前d列,Ur表示左奇异矩阵的后r列,Θd表示奇异值矩阵的前d个奇异值,Θr表示奇异值矩阵的后r个奇异值,Vd表示右奇异矩阵的前d列,Vr表示右奇异矩阵的后r列。则降维后的字典表示为
Figure BDA0001973893910000064
将降维后的字典P代入映射矩阵T中,从而完成张量压缩。
本发明的优点及有益效果如下:
本发明提出一种基于聚能量字典学习的张量压缩算法。具体创新步骤包括:1)将张量的稀疏表示应用到张量压缩中,在去噪能力方面优于其他算法;2)通过对映射矩阵的降维完成张量的压缩,避免了矢量化操作对张量内部数据结构的破坏;3)对张量的字典采用聚能能量字典学习算法降维,使得每一维度上的数据之间的数据结构能够得以保留,提高了数据保留能力。
附图说明
图1是本发明提供优选实施例中所用到的三阶张量塔克分解图;
图2是基于聚能量字典学习的张量压缩算法示意图;
图3是基于聚能量字典学习的张量压缩算法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
本发明重点解决在传统张量压缩算法中,破坏数据结构,导致信息丢失以及引入新的噪声的问题。主要思路是通过塔克分解和稀疏表示得到字典、稀疏系数张量和核张量,然后通过稀疏系数张量与核张量的近似关系构成新的稀疏表示形式,最后利用聚能量字典学习算法对稀疏表示中的字典进行降维,从而实现张量的压缩。
图2为本发明的总体流程图,下面结合附图进行说明,包括以下几个步骤:
步骤一:对输入张量同时进行稀疏表示和塔克分解,在稀疏表示过程中,得到如下表示
Figure BDA0001973893910000071
张量经稀疏表示之后,得到稀疏系数张量在每个维度上乘积的形式,换句话说,稀疏表示中,稀疏系数张量以字典D作为映射矩阵,在每个维度上进行投影,从而得到稀疏化后的张量。
给定一个三阶张量χ∈RI×J×K,其塔克分解过程如图1所示。在塔克分解过程中,得到如下表示
Figure BDA0001973893910000072
A∈RI×P,B∈RJ×Q,C∈RK×R,为正交矩阵又称为因子矩阵,反应了各个维度上的主成分,Z∈RP×Q×R为核心张量,反应了各个维度的相关情况。P、Q和R分别对应因子矩阵A、B和C的列数,I、J和K表示原始张量每个维度的大小,若P、Q、R小于I、J、K,那么核心张量可以看做是原始张量的压缩。
更一般地,对于N阶张量,塔克分解形式为
χ=Z×1A1×2A2...×NAN
步骤二)利用稀疏表示中稀疏系数张量与塔克分解得到的核心张量的近似关系,得到关于原始张量的新的张量稀疏表示形式。
通过观察张量的稀疏表示和塔克分解形式,发现两个表达式是相似的,由塔克分解得到核张量的表示为
Z=χ×1A1 T×2A2 T...×NAN T
利用稀疏系数张量和核张量的近似关系,将核张量的表达式代入张量稀疏表示中得到
Figure BDA0001973893910000081
/>
步骤三:对新的张量稀疏表示形式,根据张量运算性质,转换为关于字典表示的映射矩阵形式,具体步骤包括:
在张量的运算当中,当m≠n时,
Ψ×mnB=Ψ×n(BA)
其中Ψ表示N阶张量,×m表示张量与矩阵的m模乘积,×n表示张量与矩阵的n模乘积。
当m≠n时,
Ψ×mnB=Ψ×nmA
将以上的两个性质应用到新的稀疏表示中,可以得到
Figure BDA0001973893910000082
令Ti=DiAi T,将Ti带入上式,得到
Figure BDA0001973893910000083
从上式看出,稀疏表示为一个关于原始矩阵在个维度上投影的形式。在MPCA算法中,高维张量通过投影矩阵的处理实现张量压缩,即,通过保留投影矩阵的主成分,达到投影矩阵压缩的目的,从而实现张量压缩。收到MPCA思想的启发,这里对矩阵Ti进行降维,从而实现原始张量χ的压缩。为完成对矩阵Ti的降维,这里对考虑稀疏Ti的字典D进行降维,从而实现对映射矩阵Ti的降维。
步骤四:利用聚能能量字典学习算法中字典降维的思想实现对张量的压缩。算法中为使降维之后的字典P保留原始字典D中的主成分,需要对字典D进行预处理,处理过程如下
DTD=uΛvT
u为奇异值分解的左奇异矩阵,v为右奇异矩阵,Λ为奇异值矩阵,表示形式为
Figure BDA0001973893910000091
其次对奇异值进行更新
Figure BDA0001973893910000092
其中,k表示字典列数,td表示主成分阈值,
Figure BDA0001973893910000093
表示更新后的前d个奇异值,/>
Figure BDA0001973893910000094
表示更新后的后r个奇异值。
从而得到新的奇异值
Figure BDA0001973893910000095
Figure BDA0001973893910000096
与初始左奇异矩阵和右奇异矩阵构成新的字典,即
Figure BDA0001973893910000097
在对字典进行预处理之后,需对字典进行更新,在更新过程中采用基于张量的多维字典学习算法(TKSVD),完成对高维张量信号的字典更新过程。与K-SVD字典更新算法不同的是,TKSVD算法中,需要注意的有两点:
(2)在进行张量字典学习时,与二维信号学习方式不同,根据张量范数的定义,可得到:
Figure BDA0001973893910000098
其中,
Figure BDA0001973893910000099
IT表示T阶单位阵,DN第N维字典,D1表示第1维字典。显然可以通过最小二乘法求解上式,可以得到字典Di的更新值为
Figure BDA00019738939100000910
其中,yi表示张量的i模展开矩阵,
Figure BDA00019738939100000911
表示伪逆,即/>
Figure BDA00019738939100000912
其中/>
Figure BDA00019738939100000913
表示矩阵M的伪逆矩阵,MT表示矩阵M的转置矩阵。另一方面,完成一次迭代后,可以计算在当前字典和稀疏系数下可以恢复的数据与原始的训练数据之间的绝对误差和相对误差,第i次迭代后的绝对误差仍以张量的Frobenius范数定义
Figure BDA0001973893910000101
其中S表示系数张量、
Figure BDA0001973893910000102
表示移除G个原子后真实信号与逼近信号的误差。
对字典进行更新完成之后,对字典进行降维处理。对更新后的字典进行奇异值分解
Figure BDA0001973893910000103
其中Ud表示左奇异矩阵的前d列,Ur表示左奇异矩阵的后r列,Θd表示奇异值矩阵的前d个奇异值,Θr表示奇异值矩阵的后r个奇异值,Vd表示右奇异矩阵的前d列,Vr表示右奇异矩阵的后r列。则降维后的字典表示为
Figure BDA0001973893910000104
将降维后的字典P代入映射矩阵T中,从而完成张量压缩。
为基于聚能量字典学习的张量压缩算法,具体的步骤包括:
输入:T个训练样本构成的张量
Figure BDA0001973893910000105
稀疏度k,最大迭代次数Itermax,终止门限ε
1.初始化字典
Figure BDA0001973893910000106
为高斯矩阵,并对各个字典的列进行归一化
2.塔克分解:χ=Z×1A1×2A2...×NAN
3.初始化字典经过聚能能量字典学习算法中的Γ(D)过程
4.计算更新次数i=0时S,并利用
Figure BDA0001973893910000107
计算未经任何迭代更新时的绝对误差E0
5.第i次字典更新
For k=1:IN
利用
Figure BDA0001973893910000108
计算第i个字典的更新值
End
6.对上一步中求得的N个字典进行归一化
7.利用第i次更新的字典,更新稀疏系数张量Si
8.计算第i次更新后的绝对误差Ei和相对误差Er
9.终止条件判断,若Er<ε或者迭代次数超出最大限制,则终止循环,否则继续步骤5-8
10.得到字典
Figure BDA0001973893910000111
11.根据式
Figure BDA0001973893910000112
得到Ud,则字典/>
Figure BDA0001973893910000113
12.将字典P带入
Figure BDA0001973893910000114
输出:压缩张量
Figure BDA0001973893910000115
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (4)

1.一种基于聚能量字典学习的张量压缩方法,其特征在于,包括以下步骤:
步骤1):获取多维信号并将多维信号表示为张量,输入张量并进行稀疏表示和塔克分解;
步骤2)利用稀疏表示中稀疏系数张量与塔克分解得到的核心张量的近似关系,得到关于原始张量的新的张量稀疏表示形式;
步骤3)对步骤2)新的张量稀疏表示形式,根据张量运算性质,转换为关于字典表示的映射矩阵形式;
步骤4)利用聚能量字典学习算法降维的思想对映射矩阵中的字典进行降维,从而实现张量的压缩;
所述步骤1)通过塔克分解得到核心张量在每个维度上与映射矩阵乘积的形式,在塔克分解过程中,得到如下表示
Figure FDA0004045267790000011
A∈RI×P,B∈RJ×Q,C∈RK×R,为正交矩阵又称为因子矩阵,反应了各个维度上的主成分,Z∈RP×Q×R为核心张量,反应了各个维度的相关情况,P、Q和R分别对应因子矩阵A、B和C的列数,I、J和K表示原始张量每个维度的大小,若P、Q、R小于I、J、K,那么核心张量可以看做是原始张量的压缩;
对于N阶张量,塔克分解形式为
χ=Z×1A1×2A2×NAN
χ表示输入的张量信号,Z表示核心张量,Ai表示各个维度上的分解矩阵,为正交矩阵;
所述步骤1)张量的稀疏表示的表示形式为
Figure FDA0004045267790000012
Figure FDA0004045267790000013
表示稀疏表示之后的信号,S表示稀疏系数张量,N表示自张量的阶数,Di表示各个维度上的字典;
所述步骤2)通过观察张量的稀疏表示和塔克分解形式,发现两个表达式是相似的,由塔克分解得到核张量的表示为
Z=χ×1A1 T×2A2 T...×NAN T
利用稀疏系数张量和核张量的近似关系,将核张量的表达式代入张量稀疏表示中得到
Figure FDA0004045267790000021
所述步骤3)对步骤2)新的张量稀疏表示形式,根据张量运算性质,转换为关于字典表示的映射矩阵形式,具体包括:
在张量的运算中,
当m=n时,
Ψ×mnB=Ψ×n(BA)
其中Ψ表示N阶张量,×m表示张量与矩阵的m模乘积,×n表示张量与矩阵的n模乘积;
当m≠n时,
Ψ×mnB=Ψ×nmA
将以上的两个性质应用到新的稀疏表示中,可以得到
Figure FDA0004045267790000022
2.根据权利要求1所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,所述步骤4)利用聚能能量字典学习算法降维的思想对映射矩阵中的字典进行降维,从而实现张量的压缩,具体步骤包括:
输入:T个训练样本构成的张量
Figure FDA0004045267790000023
稀疏度k,最大迭代次数Itermax,终止门限ε
1.初始化字典
Figure FDA0004045267790000024
为高斯矩阵,并对各个字典的列进行归一化
2.塔克分解:χ=Z×1A1×2A2...×NAN
3.初始化字典经过聚能能量字典学习算法中的Γ(D)过程;
4.计算更新次数i=0时S,并利用
Figure FDA0004045267790000031
计算未经任何迭代更新时的绝对误差E0
5.第i次字典更新
For k=1:IN
利用
Figure FDA0004045267790000032
计算第i个字典的更新值
End
6.对上一步中求得的N个字典进行归一化;
7.利用第i次更新的字典,更新稀疏系数张量Si
8.计算第i次更新后的绝对误差Ei和相对误差Er
9.终止条件判断,若Er<ε或者迭代次数超出最大限制,则终止循环,否则继续步骤5-8;
10.得到字典
Figure FDA0004045267790000033
11.根据式
Figure FDA0004045267790000034
得到Ud,则字典/>
Figure FDA0004045267790000035
12.将字典P带入
Figure FDA0004045267790000036
输出:压缩张量
Figure FDA0004045267790000037
3.根据权利要求2所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,为了使降维之后的字典P保留原始字典D中的主成分,需要对字典D进行预处理,处理过程如下
DTD=uΛvT
u为奇异值分解的左奇异矩阵,v为右奇异矩阵,Λ为奇异值矩阵,表示形式为
Figure FDA0004045267790000038
其次对奇异值进行更新
Figure FDA0004045267790000039
其中,k表示字典列数,td表示主成分阈值,
Figure FDA00040452677900000310
表示更新后的前d个奇异值,/>
Figure FDA00040452677900000311
表示更新后的后r个奇异值;
从而得到新的奇异值
Figure FDA0004045267790000041
Figure FDA0004045267790000042
与初始左奇异矩阵和右奇异矩阵构成新的字典,即
Figure FDA0004045267790000043
4.根据权利要求3所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,在对字典进行预处理之后,需对字典进行更新,在更新过程中采用基于张量的多维字典学习算法TKSVD,完成对高维张量信号的字典更新过程,与K-SVD字典更新算法不同的是,TKSVD算法中,具体包括:
(1)在进行张量字典学习时,与二维信号学习方式不同,根据张量范数的定义,可得到:
Figure FDA0004045267790000044
其中,
Figure FDA0004045267790000045
DN第N维字典,D1表示第1维字典,IT表示T阶单位阵,通过最小二乘法求解上式,得到字典Di的更新值为
Figure FDA0004045267790000046
其中,yi表示张量的i模展开矩阵,
Figure FDA0004045267790000047
表示伪逆,即/>
Figure FDA0004045267790000048
其中/>
Figure FDA0004045267790000049
表示矩阵M的伪逆矩阵,MT表示矩阵M的转置矩阵;另一方面,完成一次迭代后,计算在当前字典和稀疏系数下可以恢复的数据与原始的训练数据之间的绝对误差和相对误差,第i次迭代后的绝对误差仍以张量的Frobenius范数定义
Figure FDA00040452677900000410
其中S表示系数张量、
Figure FDA00040452677900000411
表示移除G个原子后真实信号与逼近信号的误差;
对字典进行更新完成之后,对字典进行降维处理,对更新后的字典进行奇异值分解
Figure FDA00040452677900000412
其中Ud表示左奇异矩阵的前d列,Ur表示左奇异矩阵的后r列,Θd表示奇异值矩阵的前d个奇异值,Θr表示奇异值矩阵的后r个奇异值,Vd表示右奇异矩阵的前d列,Vr表示右奇异矩阵的后r列,则降维后的字典表示为
Figure FDA0004045267790000051
将降维后的字典P代入映射矩阵T中,从而完成张量压缩。/>
CN201910126833.5A 2019-02-20 2019-02-20 一种基于聚能量字典学习的张量压缩方法 Active CN109921799B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910126833.5A CN109921799B (zh) 2019-02-20 2019-02-20 一种基于聚能量字典学习的张量压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910126833.5A CN109921799B (zh) 2019-02-20 2019-02-20 一种基于聚能量字典学习的张量压缩方法

Publications (2)

Publication Number Publication Date
CN109921799A CN109921799A (zh) 2019-06-21
CN109921799B true CN109921799B (zh) 2023-03-31

Family

ID=66961845

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910126833.5A Active CN109921799B (zh) 2019-02-20 2019-02-20 一种基于聚能量字典学习的张量压缩方法

Country Status (1)

Country Link
CN (1) CN109921799B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110579967B (zh) * 2019-09-23 2020-06-30 中南大学 基于同时降维和字典学习的过程监控方法
CN111241076B (zh) * 2020-01-02 2023-10-31 西安邮电大学 一种基于张量链分解的流式数据增量处理方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096118A (ja) * 2012-11-12 2014-05-22 Nippon Telegr & Teleph Corp <Ntt> 欠損値予測装置及び方法及びプログラム及び商品推薦装置及び方法及びプログラム
CN107561576A (zh) * 2017-08-31 2018-01-09 电子科技大学 基于字典学习正则化稀疏表示的地震信号恢复方法
CN108305297A (zh) * 2017-12-22 2018-07-20 上海交通大学 一种基于多维张量字典学习算法的图像处理方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5861827A (en) * 1996-07-24 1999-01-19 Unisys Corporation Data compression and decompression system with immediate dictionary updating interleaved with string search
CN1297822C (zh) * 2003-02-21 2007-01-31 重庆邮电学院 一种基于td-scdma无线定位来波方向的估计方法
US7490071B2 (en) * 2003-08-29 2009-02-10 Oracle Corporation Support vector machines processing system
US20100246920A1 (en) * 2009-03-31 2010-09-30 Iowa State University Research Foundation, Inc. Recursive sparse reconstruction
CN102130862B (zh) * 2011-04-26 2013-07-17 重庆邮电大学 一种降低通信***信道估计开销的方法
US8935308B2 (en) * 2012-01-20 2015-01-13 Mitsubishi Electric Research Laboratories, Inc. Method for recovering low-rank matrices and subspaces from data in high-dimensional matrices
US10545919B2 (en) * 2013-09-27 2020-01-28 Google Llc Decomposition techniques for multi-dimensional data
CN105099460B (zh) * 2014-05-07 2018-05-04 瑞昱半导体股份有限公司 字典压缩方法、字典解压缩方法与字典建构方法
US9870519B2 (en) * 2014-07-08 2018-01-16 Nec Corporation Hierarchical sparse dictionary learning (HiSDL) for heterogeneous high-dimensional time series
CN104318064B (zh) * 2014-09-26 2018-01-30 大连理工大学 基于典范多元分解的头相关脉冲响应三维数据压缩方法
CN104683074B (zh) * 2015-03-13 2018-09-11 重庆邮电大学 基于压缩感知的大规模mimo***有限反馈方法
CN104933684B (zh) * 2015-06-12 2017-11-21 北京工业大学 一种光场重建方法
US10235600B2 (en) * 2015-06-22 2019-03-19 The Johns Hopkins University System and method for structured low-rank matrix factorization: optimality, algorithm, and applications to image processing
CN106506007A (zh) * 2015-09-08 2017-03-15 联发科技(新加坡)私人有限公司 一种无损数据压缩和解压缩装置及其方法
CN106023098B (zh) * 2016-05-12 2018-11-16 西安电子科技大学 基于张量结构多字典学习与稀疏编码的图像修补方法
CN106097278B (zh) * 2016-06-24 2021-11-30 北京工业大学 一种多维信号的稀疏模型、重建方法和字典训练方法
CN106897685A (zh) * 2017-02-17 2017-06-27 深圳大学 基于核非负矩阵分解的字典学习和稀疏特征表示的人脸识别方法及***
US10436871B2 (en) * 2017-04-24 2019-10-08 Cedars-Sinai Medical Center Low-rank tensor imaging for multidimensional cardiovascular MRI
CN107516129B (zh) * 2017-08-01 2020-06-02 北京大学 基于维度自适应的Tucker分解的深度网络压缩方法
CN107507253B (zh) * 2017-08-15 2020-09-01 电子科技大学 基于高阶张量近似的多属性体数据压缩方法
CN108521586B (zh) * 2018-03-20 2020-01-14 西北大学 兼顾时间上下文与隐式反馈的iptv电视节目个性化推荐方法
CN108510013B (zh) * 2018-07-02 2020-05-12 电子科技大学 基于低秩核心矩阵的改进稳健张量主成分分析的背景建模方法
CN109241491A (zh) * 2018-07-28 2019-01-18 天津大学 基于联合低秩和稀疏表示的张量结构性缺失填充方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096118A (ja) * 2012-11-12 2014-05-22 Nippon Telegr & Teleph Corp <Ntt> 欠損値予測装置及び方法及びプログラム及び商品推薦装置及び方法及びプログラム
CN107561576A (zh) * 2017-08-31 2018-01-09 电子科技大学 基于字典学习正则化稀疏表示的地震信号恢复方法
CN108305297A (zh) * 2017-12-22 2018-07-20 上海交通大学 一种基于多维张量字典学习算法的图像处理方法

Also Published As

Publication number Publication date
CN109921799A (zh) 2019-06-21

Similar Documents

Publication Publication Date Title
Zhang et al. Robust low-rank kernel multi-view subspace clustering based on the schatten p-norm and correntropy
Rathi et al. Statistical shape analysis using kernel PCA
Yin et al. Kernel sparse subspace clustering on symmetric positive definite manifolds
Xie et al. Tensor completion via nonlocal low-rank regularization
Majumdar et al. Robust greedy deep dictionary learning for ECG arrhythmia classification
Duan et al. K-CPD: Learning of overcomplete dictionaries for tensor sparse coding
CN108875459B (zh) 一种基于稀疏系数相似的加权稀疏表示人脸识别方法及***
WO2020010602A1 (zh) 一种非线性非负矩阵分解人脸识别构建方法、***及存储介质
CN110717519A (zh) 训练、特征提取、分类方法、设备及存储介质
CN109921799B (zh) 一种基于聚能量字典学习的张量压缩方法
JP2012507793A (ja) 複雑度正規化パターンの表現、探索、及び圧縮
Zhang et al. Two-dimensional non-negative matrix factorization for face representation and recognition
Jin et al. Multiple graph regularized sparse coding and multiple hypergraph regularized sparse coding for image representation
Wang et al. Efficient and robust discriminant dictionary pair learning for pattern classification
CN111325275A (zh) 基于低秩二维局部鉴别图嵌入的鲁棒图像分类方法及装置
CN113221660B (zh) 一种基于特征融合的跨年龄人脸识别方法
Hu et al. Feature nonlinear transformation non-negative matrix factorization with Kullback-Leibler divergence
CN108460412B (zh) 一种基于子空间联合稀疏低秩结构学习的图像分类方法
CN111798531B (zh) 一种应用于植株监测的图像深度卷积压缩感知重构方法
CN113221992A (zh) 一种基于l2,1范数的大规模数据快速聚类方法
CN112001865A (zh) 一种人脸识别方法、装置和设备
Kärkkäinen et al. A Douglas–Rachford method for sparse extreme learning machine
CN110266318B (zh) 一种在压缩感知信号重建中基于梯度投影算法的测量矩阵优化方法
CN112417234B (zh) 一种数据聚类方法和装置,及计算机可读存储介质
CN111475768A (zh) 一种基于低相干单位范数紧框架的观测矩阵构造方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant