CN106056082B - 一种基于稀疏低秩编码的视频动作识别方法 - Google Patents

一种基于稀疏低秩编码的视频动作识别方法 Download PDF

Info

Publication number
CN106056082B
CN106056082B CN201610377217.3A CN201610377217A CN106056082B CN 106056082 B CN106056082 B CN 106056082B CN 201610377217 A CN201610377217 A CN 201610377217A CN 106056082 B CN106056082 B CN 106056082B
Authority
CN
China
Prior art keywords
video
time
rank
interest
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610377217.3A
Other languages
English (en)
Other versions
CN106056082A (zh
Inventor
李平
彭勇
计忠平
徐向华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201610377217.3A priority Critical patent/CN106056082B/zh
Publication of CN106056082A publication Critical patent/CN106056082A/zh
Application granted granted Critical
Publication of CN106056082B publication Critical patent/CN106056082B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于稀疏低秩编码的视频动作识别方法。本发明对给定的视频集合进行如下操作:1)对每个视频从空间和时间两个维度使用立方体检测和描述视频动作的兴趣点,并形成相应的局部时空特征;2)利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并用改进的平均池化技术获得全局时空特征向量作为视频的数据表示;3)对所有视频样本实施上述步骤获得相应的时空数据表示,并分为训练样本和测试样本,再利用支持向量机建立分类模型用于识别测试样本的视频动作。本发明能够从局部和全局角度利用视频兴趣点的时空特征有力刻画视频动作,并通过稀疏低秩编码获得更优的视频数据表示,提高了视频动作识别的准确率。

Description

一种基于稀疏低秩编码的视频动作识别方法
技术领域
本发明属于视频分析技术领域,特别是基于稀疏低秩编码的视频动作识别方法。
背景技术
随着视频采集设备的日益丰富和城市安防监控需求的逐步增大,各类视频数据源源不断地产生,使得视频大数据的理解受到学术界和产业界研究人员的广泛关注,同时引起了国家高层的重视。不同于传统的文本和图像,视频往往呈现非结构化、规模大的特点且具有时序关联性,给理解和分析视频数据带来很大挑战。常见的视频数据应用包括目标定位与跟踪、目标识别、动作识别、事件检测等。其中,视频动作识别作为典型的视频理解问题,可用于地铁广场监控、交通流监管,同时为视频数据的高层语义分析奠定基础,例如视频事件一般由多个相互关联的视频动作组成,因而视频动作识别方法的研究有利于提高视频事件检测技术的发展。
视频的数据表示是实现视频动作识别的关键,即对视频提取特征并将其表示为向量形式。最为直接的方法是提取视频帧的图像特征,如SIFT、SURF等,但是该方法未考虑视频帧之间的时间关系,不能反映兴趣点的时空变化。由此,研究人员提出许多时空兴趣点提取方法,比如立方体(Cuboid)算子,分别从时间和空间两个维度提取给定视频的兴趣点,并用合适的描述子表征兴趣点。同时,对兴趣点表征向量的进一步优化是提升视频动作识别效果的重要途径,例如词袋(BoW)表示、稀疏表示、低秩表示、非负矩阵分解等等。然后,对优化后的兴趣点表示利用最大池化技术或平均池化技术获得视频的向量化特征表示。最后,在视频样本集的新特征表示上建立分类模型,用于对未标记的视频样本进行动作识别。
上述方法存在一些缺陷,例如词袋表示和非负矩阵分解均未充分考虑视频样本与字典间的重构关系、稀疏表示未考虑重构矩阵的低秩特性、低秩表示未考虑重构矩阵的稀疏特性,使得视频样本的特征表示不能很好地刻画动作的兴趣点。另外,最大池化技术仅考虑了占比最大兴趣点而忽略了其他重要兴趣点;平均池化技术由于利用了所有的兴趣点特征,使之不可避免地将一些噪声兴趣点特征用于计算视频的全局特征表示。总体而言,这些视频特征表示方法或多或少都存在无法克服的缺点,不利于视频样本分类器的建立,直接影响了视频动作的识别效果。因此,迫切需要设计一种能准确反映视频时空兴趣点结构的特征编码方法,同时考虑局部和全局信息,从而构建泛化能力更强的视频动作识别分类器,提高识别的精度。
发明内容
为了准确表征视频动作序列的时空结构,从局部和全局两个角度反映视频中兴趣点的时空信息,增强视频动作识别的效果,本发明提出了一种基于稀疏低秩编码的视频动作识别方法,该方法包括以下步骤:
1、获取视频样本集合后,进行以下操作:
1)对每个视频从空间和时间两个维度使用立方体算子检测和描述视频动作的兴趣点,并形成相应的局部时空特征。
2)利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并采用改进的平均池化技术获得全局时空特征向量作为一个视频的数据表示。
3)对所有的视频样本实施上述步骤后,可获得相应的时空数据表示,将其分为训练样本和测试样本,利用支持向量机建立分类模型用于识别测试样本的视频动作。
进一步,所述的步骤1)中的对每个视频从空间和时间两个维度使用立方体算子检测和描述视频动作的兴趣点,并形成相应的局部时空特征,具体是:
1.1)对每个视频分别用二维高斯光滑核(Gaussian smoothing kernel)与一维高波滤波器(Gabor filter)从空间维度和时间维度生成n个兴趣点,并采用立方体描述子(Cuboid descriptor)表示这些局部时空兴趣点。
1.2)单个视频的所有兴趣点表示组成的集合记为其中每个兴趣点表示Ii(i=1,2,…,n)为长度为80维的具有局部时空特性的列向量,这些列向量组成该视频对应的特征矩阵
进一步,所述的步骤2)中的利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并采用改进的平均池化技术获得全局时空特征向量作为一个视频的数据表示,具体是:
2.1)视频的特征矩阵X分解为两部分,一部分为从数据字典为字典的原子个数,80为字典原子的维度)重构获得的低秩矩阵另一部分为噪声矩阵并对低秩矩阵Z添加l1范式约束||Z||1,使得重构矩阵Z尽可能逼近视频中兴趣点的局部时空特性结构。
2.2)数据字典A通过对视频的特征矩阵X运用k均值(k-means)聚类算法获得,即将视频的所有兴趣点表示聚为500个簇,而簇中心以列向量的形式组成数据字典A。
2.3)根据视频的特征矩阵及其数据字典,计算最优稀疏低秩编码矩阵Z的目标函数为
其中,常数α>0,λ>0,符号||·||*表示矩阵的核范数为矩阵的奇异值之和,符号||·||2,1表示矩阵的l2,1范数,即先求矩阵各列向量的l2范式再求其l1范式。
2.4)为了减少求解核范数的时间复杂度,特将矩阵Z分解为两个矩阵,即用Frobenius范数||·||F近似替换核范数,则计算效率更高的目标函数为
这样,该目标函数中共有四个变量需要优化。
2.5)利用变量交替迭代优化方法求解2.4)中目标函数的最优解,可得到视频的最优稀疏低秩编码表示Z*,其中变量交替迭代方法的本质特点在于每轮迭代中依次固定其他变量的同时仅优化一个变量。
2.6)最优稀疏低秩编码表示Z*由500个维度为n的行向量组成,即{z1,z2,…,z500},对其运用改进的平均池化技术,即对矩阵Z*中各行向量依次取前20个最大元素值的算术平均值(先对行向量中的n个元素做降序排列),便可以得到视频的全局时空特征向量x,其维度为500。
所述的步骤3)中的对所有的视频样本实施上述步骤后,可获得相应的时空数据表示,将其分为训练样本和测试样本,利用支持向量机建立分类模型用于识别测试样本的视频动作,具体是:
3.1)对所有的视频样本实施步骤1)和步骤2)后,可获得相应的时空数据表示{y1,y2,…,ym},此处设有m个视频样本。
3.2)将m个视频样本一分为二,其中80%作为训练样本(即具有动作类别标记的视频),20%作为测试样本(即无标记的视频),利用支持向量机(SVM)在训练样本上建立分类模型,则输入测试样本的数据表示可通过SVM分类器获得对应的类别标记,即实现了视频动作的识别功能。
本发明提出了基于稀疏低秩编码的视频动作识别方法,其优点在于:通过立方体算子从空间和时间两个维度对视频检测和描述其兴趣点,能充分地刻画视频的动作序列特性;利用稀疏低秩矩阵分解基于字典矩阵对兴趣点特征进行重构表示,能有效地反映视频的兴趣点的时空信息;采用改进的平均池化技术对兴趣点的局部时空特征进行编码,能更好地刻画视频的全局特征建立泛化能力更强的分类器,从而提高了视频的动作识别效果,为智慧城市的安防监控等应用提供了技术支持。
附图说明
图1是本发明的方法流程图。
具体实施方式
参照附图1,进一步说明本发明:
1、获取视频集合后,进行以下操作:
1)对每个视频从空间和时间两个维度使用立方体算子检测和描述视频动作的兴趣点,并形成相应的局部时空特征。
2)利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并采用改进的平均池化技术获得全局时空特征向量作为一个视频的数据表示。
3)对所有的视频样本实施上述步骤后,可获得相应的时空数据表示,将其分为训练样本和测试样本,利用支持向量机建立分类模型用于识别测试样本的视频动作。
步骤1)中所述的对每个视频从空间和时间两个维度使用立方体算子检测和描述视频动作的兴趣点,并形成相应的局部时空特征,具体是:
1.1)对每个视频分别用二维高斯光滑核(Gaussian smoothing kernel)与一维高波滤波器(Gabor filter)从空间维度和时间维度生成n个兴趣点,并采用立方体描述子(Cuboid descriptor)表示这些局部时空兴趣点。
1.2)单个视频的所有兴趣点表示组成的集合记为其中每个兴趣点表示Ii(i=1,2,…,n)为长度为80维的具有局部时空特性的列向量,这些列向量组成该视频对应的特征矩阵
步骤2)中的利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并采用改进的平均池化技术获得全局时空特征向量作为一个视频的数据表示,具体是:
2.1)视频的特征矩阵X分解为两部分,一部分为从数据字典为字典的原子个数,80为字典原子的维度)重构获得的低秩矩阵另一部分为噪声矩阵并对低秩矩阵Z添加l1范式约束||Z||1,使得重构矩阵Z尽可能逼近视频中兴趣点的局部时空特性结构。
2.2)数据字典A通过对视频的特征矩阵X运用k均值(k-means)聚类算法获得,即将视频的所有兴趣点表示聚为500个簇,而簇中心以列向量的形式组成数据字典A。
2.3)根据视频的特征矩阵及其数据字典,计算最优稀疏低秩编码矩阵Z的目标函数为
其中,常数α>0,λ>0,符号||·||*表示矩阵的核范数为矩阵的奇异值之和,符号||·||2,1表示矩阵的l2,1范数,即先求矩阵各列向量的l2范式再求其l1范式。
2.4)为了减少求解核范数的时间复杂度,特将矩阵Z分解为两个矩阵,即用Frobenius范数||·||F近似替换核范数,则计算效率更高的目标函数为
这样,该目标函数中共有四个变量需要优化。
2.5)利用变量交替迭代优化方法求解2.4)中目标函数的最优解,可得到视频的最优稀疏低秩编码表示Z*,其中变量交替迭代方法的本质特点在于每轮迭代中依次固定其他变量的同时仅优化一个变量。
2.6)最优稀疏低秩编码表示Z*由500个维度为n的行向量组成,即{z1,z2,…,z500},对其运用改进的平均池化技术,即对矩阵Z*中各行向量依次取前20个最大元素值的算术平均值(先对行向量中的n个元素做降序排列),便可以得到视频的全局时空特征向量x,其维度为500。
步骤3)中的对所有的视频样本实施上述步骤后,可获得相应的时空数据表示,将其分为训练样本和测试样本,利用支持向量机建立分类模型用于识别测试样本的视频动作,具体是:
3.1)对所有的视频样本实施步骤1)和步骤2)后,可获得相应的时空数据表示{y1,y2,…,ym},此处设有m个视频样本。
3.2)将m个视频样本一分为二,其中80%作为训练样本(即具有动作类别标记的视频),20%作为测试样本(即无标记的视频),利用支持向量机(SVM)在训练样本上建立分类模型,则输入测试样本的数据表示可通过SVM分类器获得对应的类别标记,即实现了视频动作的识别功能。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (3)

1.一种基于稀疏低秩编码的视频动作识别方法,该方法的特征在于对给定的视频集合,进行如下操作:
1)对每个视频从空间和时间两个维度使用立方体算子检测和描述视频动作的兴趣点,并形成相应的局部时空特征;
2)利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并采用改进的平均池化技术获得全局时空特征向量作为一个视频的数据表示;
3)对所有的视频样本实施上述步骤后,可获得相应的时空数据表示,将其分为训练样本和测试样本,利用支持向量机建立分类模型用于识别测试样本的视频动作;
所述的步骤2)中的利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并采用改进的平均池化技术获得全局时空特征向量作为一个视频的数据表示,具体是:
2.1)视频的特征矩阵X分解为两部分,一部分为从数据字典重构获得的低秩矩阵另一部分为噪声矩阵并对低秩矩阵Z添加l1范式约束||Z||1,使得重构矩阵Z尽可能逼近视频中兴趣点的局部时空特性结构;
2.2)数据字典A通过对视频的特征矩阵X运用k均值聚类算法获得,即将视频的所有兴趣点表示聚为500个簇,而簇中心以列向量的形式组成数据字典A;
2.3)根据视频的特征矩阵及其数据字典,计算最优稀疏低秩编码矩阵Z的目标函数为
其中,常数a>0,λ>0,符号||·||*表示矩阵的核范数为矩阵的奇异值之和,符号||·||2,1表示矩阵的l2,1范数,即先求矩阵各列向量的l2范式再求其l1范式;
2.4)为了减少求解核范数的时间复杂度,将矩阵Z分解为两个矩阵,即用Frobenius范数||·||F近似替换核范数,则计算效率更高的目标函数为
这样,该目标函数中共有四个变量需要优化;
2.5)利用变量交替迭代优化方法求解2.4)中目标函数的最优解,可得到视频的最优稀疏低秩编码表示Z*,其中变量交替迭代方法的本质特点在于每轮迭代中依次固定其他变量的同时仅优化一个变量;
2.6)最优稀疏低秩编码表示Z*由500个维度为n的行向量组成,即{z1,z2,…,z500},对其运用改进的平均池化技术,即对矩阵Z*中各行向量依次取前20个最大元素值的算术平均值,便可以得到视频的全局时空特征向量x,其维度为500。
2.如权利要求1所述的基于稀疏低秩编码的视频动作识别方法,其特征在于:所述的步骤1)中的对每个视频从空间和时间两个维度使用立方体算子检测和描述视频动作的兴趣点,并形成相应的局部时空特征,具体是:
1.1)对每个视频分别用二维高斯光滑核与一维高波滤波器从空间维度和时间维度生成n个兴趣点,并采用立方体描述子表示这些局部时空兴趣点;
1.2)单个视频的所有兴趣点表示组成的集合记为其中每个兴趣点表示Ii(i=1,2,…,n)为长度为80维的具有局部时空特性的列向量,这些列向量组成该视频对应的特征矩阵
3.如权利要求1所述的基于稀疏低秩编码的视频动作识别方法,其特征在于:所述的步骤3)中的对所有的视频样本实施上述步骤后,可获得相应的时空数据表示,将其分为训练样本和测试样本,利用支持向量机建立分类模型用于识别测试样本的视频动作,具体是:
3.1)对所有的视频样本实施步骤1)和步骤2)后,可获得相应的时空数据表示{y1,y2,…,ym},此处设有m个视频样本;
3.2)将m个视频样本一分为二,其中80%作为训练样本,20%作为测试样本,利用支持向量机在训练样本上建立分类模型,则输入测试样本的数据表示可通过支持向量机分类器获得对应的类别标记,即实现了视频动作的识别功能。
CN201610377217.3A 2016-05-31 2016-05-31 一种基于稀疏低秩编码的视频动作识别方法 Active CN106056082B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610377217.3A CN106056082B (zh) 2016-05-31 2016-05-31 一种基于稀疏低秩编码的视频动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610377217.3A CN106056082B (zh) 2016-05-31 2016-05-31 一种基于稀疏低秩编码的视频动作识别方法

Publications (2)

Publication Number Publication Date
CN106056082A CN106056082A (zh) 2016-10-26
CN106056082B true CN106056082B (zh) 2019-03-08

Family

ID=57173152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610377217.3A Active CN106056082B (zh) 2016-05-31 2016-05-31 一种基于稀疏低秩编码的视频动作识别方法

Country Status (1)

Country Link
CN (1) CN106056082B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106649668A (zh) * 2016-12-14 2017-05-10 华南师范大学 一种基于向量模型的海量时空数据检索方法及***
CN108108652B (zh) * 2017-03-29 2021-11-26 广东工业大学 一种基于字典学习的跨视角人体行为识别方法及装置
CN107145889B (zh) * 2017-04-14 2020-02-18 中国人民解放军国防科学技术大学 基于具有RoI池化的双CNN网络的目标识别方法
CN107766790B (zh) * 2017-08-31 2021-04-30 电子科技大学 一种基于局部约束低秩编码的人体行为识别方法
CN109190479A (zh) * 2018-08-04 2019-01-11 台州学院 一种基于混合深度学习的视频序列表情识别方法
CN110110610B (zh) * 2019-04-16 2023-06-30 天津大学 一种用于短视频的事件检测方法
CN111460876B (zh) * 2019-06-05 2021-05-25 北京京东尚科信息技术有限公司 用于识别视频的方法和装置
CN111898703B (zh) * 2020-08-14 2023-11-10 腾讯科技(深圳)有限公司 多标签视频分类方法、模型训练方法、装置及介质
CN112329604B (zh) * 2020-11-03 2022-09-20 浙江大学 一种基于多维度低秩分解的多模态情感分析方法
CN113780460A (zh) * 2021-09-18 2021-12-10 广东人工智能与先进计算研究院 一种材质识别方法、装置、机器人、电子设备及存储介质
CN116092577B (zh) * 2023-01-09 2024-01-05 中国海洋大学 一种基于多源异质信息聚合的蛋白质功能预测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632385A (zh) * 2013-12-05 2014-03-12 南京理工大学 基于空谱联合稀疏先验的卫星高光谱压缩感知重建方法
CN103824063A (zh) * 2014-03-06 2014-05-28 西安电子科技大学 基于稀疏表示的动态手势识别方法
CN104298977A (zh) * 2014-10-24 2015-01-21 西安电子科技大学 一种基于不相关性约束的低秩表示人体行为识别方法
CN104933439A (zh) * 2015-06-02 2015-09-23 西安电子科技大学 基于稀疏低秩回归的高光谱图像分类方法
CN105184298A (zh) * 2015-08-27 2015-12-23 重庆大学 一种快速局部约束低秩编码的图像分类方法
US20160050343A1 (en) * 2014-08-15 2016-02-18 University Of Washington Using dynamic mode decomposition for real-time background/foreground separation in video

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632385A (zh) * 2013-12-05 2014-03-12 南京理工大学 基于空谱联合稀疏先验的卫星高光谱压缩感知重建方法
CN103824063A (zh) * 2014-03-06 2014-05-28 西安电子科技大学 基于稀疏表示的动态手势识别方法
US20160050343A1 (en) * 2014-08-15 2016-02-18 University Of Washington Using dynamic mode decomposition for real-time background/foreground separation in video
CN104298977A (zh) * 2014-10-24 2015-01-21 西安电子科技大学 一种基于不相关性约束的低秩表示人体行为识别方法
CN104933439A (zh) * 2015-06-02 2015-09-23 西安电子科技大学 基于稀疏低秩回归的高光谱图像分类方法
CN105184298A (zh) * 2015-08-27 2015-12-23 重庆大学 一种快速局部约束低秩编码的图像分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于Gabor低秩恢复稀疏表示分类的人脸图像识别方法;杜海顺等;《电子学报》;20141231;第42卷(第12期);全文 *

Also Published As

Publication number Publication date
CN106056082A (zh) 2016-10-26

Similar Documents

Publication Publication Date Title
CN106056082B (zh) 一种基于稀疏低秩编码的视频动作识别方法
Harouni et al. Online Persian/Arabic script classification without contextual information
CN105956560B (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN1333366C (zh) 基于统计结构特征的联机手写汉字识别方法
Zhang et al. Action recognition using context-constrained linear coding
Gao et al. Multi‐dimensional data modelling of video image action recognition and motion capture in deep learning framework
Lin et al. Representing and recognizing objects with massive local image patches
CN110472652B (zh) 基于语义引导的少量样本分类方法
Khelalef et al. An efficient human activity recognition technique based on deep learning
CN106295690A (zh) 基于非负矩阵分解的时间序列数据聚类方法及***
CN106055653A (zh) 基于图像语义注释的视频浓缩对象检索方法
CN104298977A (zh) 一种基于不相关性约束的低秩表示人体行为识别方法
Gao et al. Human action recognition via multi-modality information
CN104239859A (zh) 基于结构化因子分析的人脸识别方法
CN104268507A (zh) 一种基于rgb-d图像的手语字母识别方法
Li et al. Human action recognition using improved salient dense trajectories
Zheng et al. Fine-grained image recognition via weakly supervised click data guided bilinear CNN model
Li et al. Augmenting bag-of-words: a robust contextual representation of spatiotemporal interest points for action recognition
Li et al. Locally-enriched cross-reconstruction for few-shot fine-grained image classification
Peng et al. Hybrid super vector with improved dense trajectories for action recognition
Liu et al. Fine-grained action recognition by motion saliency and mid-level patches
CN102902984B (zh) 基于局部一致性的遥感影像半监督投影降维方法
CN102129557A (zh) 一种基于lda子空间学习的人脸识别方法
Tian et al. Research on artificial intelligence of accounting information processing based on image processing
Sakshi et al. Cnn-based handwritten mathematical symbol recognition model

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant