CN113537072B - 一种基于参数硬共享的姿态估计与人体解析联合学习*** - Google Patents

一种基于参数硬共享的姿态估计与人体解析联合学习*** Download PDF

Info

Publication number
CN113537072B
CN113537072B CN202110811913.1A CN202110811913A CN113537072B CN 113537072 B CN113537072 B CN 113537072B CN 202110811913 A CN202110811913 A CN 202110811913A CN 113537072 B CN113537072 B CN 113537072B
Authority
CN
China
Prior art keywords
branch
point
classification
human body
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110811913.1A
Other languages
English (en)
Other versions
CN113537072A (zh
Inventor
吴渊
郑泉石
金城
程乐超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Zhejiang Lab
Original Assignee
Fudan University
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University, Zhejiang Lab filed Critical Fudan University
Priority to CN202110811913.1A priority Critical patent/CN113537072B/zh
Publication of CN113537072A publication Critical patent/CN113537072A/zh
Application granted granted Critical
Publication of CN113537072B publication Critical patent/CN113537072B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉技术领域,具体为一种基于参数硬共享的姿态估计与人体解析联合学习***。该***分为多尺度特征提取模块、联合学习模块、人体解析分支和姿态估计分支四个部分。输入图像首先经过多尺度特征提取模块得到不同尺度下的图像特征,并进行跨尺度的特征融合;再将各尺度的特征分别送入联合学习模块,得到姿态估计与人体解析的联合特征;最后将姿态估计与人体解析的联合特征分别送入姿态估计分支和人体解析分支中得到姿态估计与人体解析的结果。本发明提出了用于姿态估计与人体解析的多任务联合学习***。本发明所提***在姿态估计与人体解析任务上的表现优秀。

Description

一种基于参数硬共享的姿态估计与人体解析联合学习***
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于参数硬共享的姿态估计与人体解析联合学习***。
背景技术
姿态估计与人体解析是进行人体分析的两个基本任务,是上层任务(例如行人再识别、人机交互、行为识别等)的基础。姿态估计预测出人体的姿态结构,其结果形式是人体各关键点的准确坐标。而人体解析将包含若干人的图像按照语义不同分割成多个部分(例如手臂,鞋子,头发等),其结果形式是逐像素的分类预测。两个任务均是对人体结构进行分析,具有较强的相关性,然而由于两者结果的表示形式不同,目前已有的工作大多将他们视为孤立的两个任务,未能很好的利用两个任务之间的关联。另一方面,已有的工作大多采用“先检测再分析”的两阶段框架,该框架首先使用通用目标检测算法从图像中检测出若干个人体的响应框,再对其进行人体解析与姿态估计。人体响应框的检测引入了大量额外误差,大大降低了人体解析与姿态估计任务的准确率;检测与分析阶段会多次对原图进行特征提取,也大大降低了程序的运行效率。
发明内容
为解决现有技术存在的问题,本发明提出了一种基于参数硬共享的姿态估计与人体解析联合学习***,以提高人体解析与姿态估计任务检测的准确率和效率。
本发明提供的***分为多尺度特征提取模块、联合学习模块、人体解析分支、姿态估计分支4部分。下面介绍***各部分的具体内容:
一、多尺度特征提取模块
多尺度特征模块融合不同尺度图像特征,并输出融合后的各尺度图像特征。该模块由ResNet-101,三个1*1卷积层、两个转置卷积层和两个融合层组成。模块的输入是图像,经过ResNet-101得到三个尺度的特征图C1、C2和C3,将三个尺度的特征图分别经过一个1*1卷积层得到特征图E1、E2和E3。将E1通过转置卷积层1的结果与E2送入融合层得到融合特征图FM-1,将FM-1通过转置卷积层2的结果与E3送入融合层得到融合特征图FM-2。最终整个模块输出融合特征图FM-1,FM-2和最高层的增强特征图E1。
二、联合学习模块
联合学习模块用于进一步提取图像特征输出特征图。该模块分为多孔空间金字塔池化子模块、去局部化子模块和卷积子模块三部分。模块结构如图3所示。
(1)多孔空间金字塔池化子模块
多孔空间金字塔池化[1]子模块提取大尺度特征,输出特征图。多孔空间金字塔池化子模块有3套独立的模块参数,输入分别是FM-1、FM-2和E1。输入同时经过四种不同采样率的空洞卷积层生成四个特征图A1、A2、A3和A4,再经过融合层将A1、A2、A3和A4的逐元素相加得到通道数为1024的特征图。三个输入分别得到特征图FM-3,FM-4,FM-5。
(2)去局部化子模块
去局部化[2]子模块为特征图每个元素添加所有元素的信息,该子模块由3个卷积层,两个矩阵乘法层,一个融合层组成。该子模块有三套独立的参数,输入分别是FM-3,FM-4,FM-5。输入同时经过三个卷积层得到三个特征图N1、N2、N3,将N1与N2送入矩阵乘法层得到特征图M1,再将M1与N3送入矩阵乘法层得到特征图M2,最后将M2与输入特征图FM-3,FM-4,FM-5进行逐元素相加得到融合特征图。三个输入分别得到融合特征图FM-6,FM-7,FM-8。
(3)卷积子模块
卷积子模块进一步提取特征图的特征。该子模块同样有三套独立的模块参数,输入分别是FM-6,FM-7,FM-8。该子模块包含两组独立的包含四个3*3卷积层的卷积块,同时对经过非局部化处理的融合特征图进行卷积处理,卷积结果FM-9用于人体解析分支,FM-10同时用于人体解析分支与姿态估计分支。三个输入分别对应卷积结果FM-9-1、FM-10-1,FM-9-2、FM-10-2、FM-9-3、FM-10-3。
三、人体解析分支
人体解析分支包含三个子分支:中心点置信度预测子分支、中心点分类预测子分支和中心-边缘距离预测子分支。各分支都有三套独立的模块参数,输入分别是FM-9-1、FM-10-1,FM-9-2、FM-10-2,FM-9-3、FM-10-3。三个子分支均由四个堆叠的3*3卷积层构成。其中距离预测子分支仅使用FM-9作为输入,而中心点分类预测子分支和中心-边缘距离预测子分支仅使用FM-10作为输入。
每个子分支通过NMS保留三套参数对应输出的最佳结果作为该子分支输出。
中心点置信度预测子分支输出热力图,热力图每个点表示以该点作为部位中心的置信度。中心点分类预测子分支输出分类图,分类图每个点表示,若以该点为某部位中心,则此部位分类结果。中心-边缘距离预测子分支则输出距离图,距离图每个点表示若以该点为某部位中心,则此部位中心到边缘的距离。
通过三个步骤综合三个子分支的输出结果:
步骤1,输入图像中的点和距离图中的点一一对应,输入图像中的每个点利用距离预测结果得到一个以该点为中心的部位多边形。
步骤2,利用该点的分类预测和置信度预测结果,得到部位多边形的分类和分类得分。H*W大小的输入图像共可以得到H*W个部位多边形及其分类与得分。
步骤3,将输入图像中每个点所处的部位多边形分类作为该点的部位分类,如果点处于多个部位多边形中则以分类得分最高的部位多边形的分类作为此点的部位分类。最后输出一张H*W的分类图,每一个点的值代表该点的部位分类结果。
四、姿态估计分支
姿态估计分支包含两个子分支:关键点置信度预测子分支和关键点分类预测子分支。分支同样有三套独立的模块参数,输入分别是FM-10-1、FM-10-2和FM-10-3。每个子分支通过NMS保留三套参数对应输出的最佳结果作为该子分支输出。两个子分支均由四个堆叠的3*3卷积层构成。
关键点置信度预测子分支输出热力图。热力图每个点表示以该点作为人体关键点的置信度,关键点分类预测子分支输出分类图。分类图每个点表示该点的关节分类。
通过2个步骤综合2个子分支的输出结果:
步骤1,输入图像中的点和分类图中的点一一对应,通过分类预测结果得到输入图像中每个点的关节点分类。
步骤2,输入图像中的点和热力图中的点一一对应,通过热力图得到每个点的分类置信度。分到同一类别的点只保留置信度最高的点作为关节点。最后输出一张H*W的骨架图,每一个点的值是一个三元组。三元组的第一个第二个值代表该关节点的坐标,第三个值代表该关节点的分类置信度。
和现有技术相比,本发明针对目前主流的方法大多只针对姿态估计与人体解析中一个任务进行研究,没有充分利用这两个任务的相关性,以及反复提取图像特征导致姿态估计与人体解析速度慢等问题,提出了用于姿态估计与人体解析的多任务联合学习***。本发明所提***在姿态估计与人体解析任务上的表现优秀,本方法在LIP数据集上的姿态估计与人体解析人物结果表明,相比DeepLab(ResNet-101),CPM,SHNet等基线方法,本发明姿态估计和人体解析结果准确度上有较大的提升,而相对于JPPNet方法,我们有着更快的处理速度。本方法每秒能完成10张图的人体解析与姿态估计,而JPPNet每秒仅能完成1张图的人体解析与姿态估计。
附图说明
图1:一种基于参数硬共享的人体解析与姿态估计***示意图。
图2:多尺度特征提取模块网络结构示意图。
图3:联合学习模块网络结构示意图。
图4:多孔空间金字塔池化模块网络结构示意图。
图5:去局部化模块网络结构示意图。
图6:人体解析分支与姿态估计分支网络结构示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案进行详细介绍。
图1是一种基于多任务深度学习的人体解析与姿态估计***示意图,该***包括多尺度特征提取模块、联合学习模块、人体解析分支、姿态估计分支4部分;图2是多尺度特征提取模块网络结构示意图,该模块由ResNet-101,三个1*1卷积层、两个转置卷积层和两个融合层组成;图3是联合学习模块网络结构示意图,该模块分为多孔空间金字塔池化子模块、去局部化子模块和卷积子模块三部分。图4是多孔空间金字塔池化模块网络结构示意图,多孔空间金字塔池化子模块中,四种空洞卷积层的卷积核大小分别是3*3,采样率分别是6、12、18、24。图5是去局部化模块网络结构示意图,去局部化子模块中,三个卷积层的卷积核大小分别是1*1。图6是人体解析分支与姿态估计分支网络结构示意图。
输入图像首先经过多尺度特征提取模块得到不同尺度下的图像特征,并进行跨尺度的特征融合;再将各尺度的特征分别送入联合学习模块,得到姿态估计与人体解析的联合特征;最后将姿态估计与人体解析的联合特征分别送入姿态估计分支和人体解析分支中得到姿态估计与人体解析的结果。
下面结合实验结果说明本发明的优越性:
本发明与基线方法在LIP数据集上进行姿态估计与人体解析对比试验。实验结果如表1,表2所示。
表1在LIP数据集上的姿态估计对比试验
方法 PCKh
DeepLab(ResNet-101) 76.5
CPM 77
SHNet 77.5
JPPNet 82.5
Ours 78.5
表2在LIP数据集上的人体解析对比试验
本方法在LIP数据集上的姿态估计与人体解析人物结果相比DeepLab(ResNet-101),CPM,SHNet等方法有较大的提升,而相对于JPPNet方法,我们有着更快的处理速度。本方法每秒能完成10张图的人体解析与姿态估计,而JPPNet每秒仅能完成1张图的人体解析与姿态估计。以上实验表明了本方法的有效性。
参考文献:
[1]Chen Liang-Chieh,et al."Rethinking atrous convolution for semanticimage segmentation."arXiv preprint arXiv:1706.05587(2017).
[2]Wang Xiaolong,et al."Non-local neural networks."Proceedings of theIEEE conference on computer vision and pattern recognition.2018。

Claims (3)

1.一种基于参数硬共享的姿态估计与人体解析联合学习***,其特征在于,其包括多尺度特征提取模块、联合学习模块、人体解析分支和姿态估计分支四个部分;其中:
(1)多尺度提取模块,用于融合不同尺度图像特征,并输出融合后的各尺度图像特征;
该模块由ResNet-101网络,三个1*1卷积层、两个转置卷积层和两个融合层组成,模块的输入是图像,经过ResNet-101网络得到三个尺度的特征图C1、C2和C3,将三个尺度的特征图分别经过一个1*1卷积层得到特征图E1、E2和E3,将特征图E1通过一个转置卷积层的结果与E2送入融合层得到融合特征图FM-1,将融合特征图FM-1通过另一个转置卷积层的结果与E3送入融合层得到融合特征图FM-2,最终整个模块输出融合特征图FM-1,FM-2和最高层的增强特征图E1;
(2) 联合学习模块,用于进一步提取图像特征,输出姿态估计与人体解析的联合特征;
该模块分为多孔空间金字塔池化子模块、去局部化子模块和卷积子模块三部分;
多孔空间金字塔池化子模块提取大尺度特征,输出特征图,多孔空间金字塔池化子模块有3套独立的模块参数,输入分别是FM-1、FM-2和E1,输入同时经过四种不同采样率的空洞卷积层生成四个特征图A1、A2、A3和A4,再经过融合层将A1、A2、A3和A4的逐元素相加得到通道数为1024的特征图,三个输入分别得到特征图FM-3,FM-4,FM-5;
去局部化子模块为特征图每个元素添加所有元素的信息,该子模块由三个卷积层,两个矩阵乘法层,一个融合层组成;该子模块有三套独立的参数,输入分别是FM-3,FM-4,FM-5,输入同时经过三个卷积层得到三个特征图N1、N2、N3,将N1与N2送入一个矩阵乘法层得到特征图M1,再将M1与N3送入另一个矩阵乘法层得到特征图M2,最后将M2与输入特征图FM-3或FM-4或FM-5进行逐元素相加得到融合特征图,三个输入分别得到融合特征图FM-6,FM-7,FM-8;
卷积子模块进一步提取特征图的特征,该子模块同样有三套独立的模块参数,输入分别是FM-6,FM-7,FM-8;该子模块包含两组独立的包含四个3*3卷积层的卷积块,同时对经过非局部化处理的融合特征图进行卷积处理,卷积结果FM-9用于人体解析分支,FM-10同时用于人体解析分支与姿态估计分支,三个输入分别对应卷积结果FM-9-1、FM-10-1,FM-9-2、FM-10-2、FM-9-3、FM-10-3;
(3)人体解析分支,基于姿态估计与人体解析的联合特征得到人体解析的结果;
人体解析分支包含三个子分支:中心点置信度预测子分支、中心点分类预测子分支和中心-边缘距离预测子分支;各子分支都有三套独立的模块参数,输入分别是FM-9-1、FM-10-1,FM-9-2、FM-10-2,FM-9-3、FM-10-3;三个子分支均由四个堆叠的3*3卷积层构成,其中距离预测子分支仅使用FM-9作为输入,而中心点分类预测子分支和中心-边缘距离预测子分支仅使用FM-10作为输入;每个子分支通过非极大值抑制NMS保留三套参数对应输出的最佳结果作为该子分支输出;
中心点置信度预测子分支输出热力图,热力图每个点表示以该点作为部位中心的置信度;中心点分类预测子分支输出分类图,分类图每个点表示,若以该点为某部位中心,则此部位分类结果;中心-边缘距离预测子分支则输出距离图,距离图每个点表示若以该点为某部位中心,则此部位中心到边缘的距离;
通过三个步骤综合三个子分支的输出结果:
步骤1,输入图像中的点和距离图中的点一一对应,输入图像中的每个点利用距离预测结果得到一个以该点为中心的部位多边形;
步骤2,利用该点的分类预测和置信度预测结果,得到部位多边形的分类和分类得分,H*W大小的输入图像共得到H*W个部位多边形及其分类与得分,H,W分别代表输入图像的宽和高;
步骤3,将输入图像中每个点所处的部位多边形分类作为该点的部位分类,如果点处于多个部位多边形中则以分类得分最高的部位多边形的分类作为此点的部位分类,最后输出一张H*W的分类图,每一个点的值代表该点的部位分类结果;
(4)姿态估计分支,基于姿态估计与人体解析的联合特征得到姿态估计的结果;其中:
姿态估计分支包含两个子分支:关键点置信度预测子分支和关键点分类预测子分支;每个子分支同样有三套独立的模块参数,输入分别是FM-10-1、FM-10-2和FM-10-3,每个子分支通过非极大值抑制NMS保留三套参数对应输出的最佳结果作为该子分支输出,两个子分支均由四个堆叠的3*3卷积层构成;
关键点置信度预测子分支输出热力图,热力图每个点表示以该点作为人体关键点的置信度,关键点分类预测子分支输出分类图,分类图每个点表示该点的关节分类;
通过2个步骤综合2个子分支的输出结果:
步骤1,输入图像中的点和分类图中的点一一对应,通过分类预测结果得到输入图像中每个点的关节点分类;
步骤2,输入图像中的点和热力图中的点一一对应,通过热力图得到每个点的分类置信度,分到同一类别的点只保留置信度最高的点作为关节点,最后输出一张H*W的骨架图,H,W分别代表原始图像的宽和高,每一个点的值是一个三元组,三元组的第一个第二个
值代表该关节点的坐标,第三个值代表该关节点的分类置信度。
2.根据权利要求1所述的基于参数硬共享的姿态估计与人体解析联合学习***,其特征在于,多孔空间金字塔池化子模块中,四种空洞卷积层的卷积核大小分别是3*3,采样率分别是6、12、18、24。
3.根据权利要求1所述的基于参数硬共享的姿态估计与人体解析联合学习***,其特征在于,去局部化子模块中,三个卷积层的卷积核大小分别是1*1。
CN202110811913.1A 2021-07-19 2021-07-19 一种基于参数硬共享的姿态估计与人体解析联合学习*** Active CN113537072B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110811913.1A CN113537072B (zh) 2021-07-19 2021-07-19 一种基于参数硬共享的姿态估计与人体解析联合学习***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110811913.1A CN113537072B (zh) 2021-07-19 2021-07-19 一种基于参数硬共享的姿态估计与人体解析联合学习***

Publications (2)

Publication Number Publication Date
CN113537072A CN113537072A (zh) 2021-10-22
CN113537072B true CN113537072B (zh) 2024-03-12

Family

ID=78128631

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110811913.1A Active CN113537072B (zh) 2021-07-19 2021-07-19 一种基于参数硬共享的姿态估计与人体解析联合学习***

Country Status (1)

Country Link
CN (1) CN113537072B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018052586A1 (en) * 2016-09-14 2018-03-22 Konica Minolta Laboratory U.S.A., Inc. Method and system for multi-scale cell image segmentation using multiple parallel convolutional neural networks
CN108710830A (zh) * 2018-04-20 2018-10-26 浙江工商大学 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法
WO2019232894A1 (zh) * 2018-06-05 2019-12-12 中国石油大学(华东) 一种基于复杂场景下的人体关键点检测***及方法
CN111738091A (zh) * 2020-05-27 2020-10-02 复旦大学 一种基于多任务深度学习的姿态估计与人体解析***
CN112270249A (zh) * 2020-10-26 2021-01-26 湖南大学 一种融合rgb-d视觉特征的目标位姿估计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018052586A1 (en) * 2016-09-14 2018-03-22 Konica Minolta Laboratory U.S.A., Inc. Method and system for multi-scale cell image segmentation using multiple parallel convolutional neural networks
CN108710830A (zh) * 2018-04-20 2018-10-26 浙江工商大学 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法
WO2019232894A1 (zh) * 2018-06-05 2019-12-12 中国石油大学(华东) 一种基于复杂场景下的人体关键点检测***及方法
CN111738091A (zh) * 2020-05-27 2020-10-02 复旦大学 一种基于多任务深度学习的姿态估计与人体解析***
CN112270249A (zh) * 2020-10-26 2021-01-26 湖南大学 一种融合rgb-d视觉特征的目标位姿估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种结合姿态和场景的图像中人体行为分类方法;雷庆;李绍滋;陈锻生;;小型微型计算机***;20150515(05);全文 *
基于ASPP的高分辨率卷积神经网络2D人体姿态估计研究;申小凤;王春佳;;现代计算机;20200505(13);全文 *

Also Published As

Publication number Publication date
CN113537072A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
US11670071B2 (en) Fine-grained image recognition
CN111860495B (zh) 一种层级化网络结构搜索方法、设备及可读存储介质
CN107229757B (zh) 基于深度学习和哈希编码的视频检索方法
CN110443805B (zh) 一种基于像素密切度的语义分割方法
CN111738091A (zh) 一种基于多任务深度学习的姿态估计与人体解析***
CN112348036A (zh) 基于轻量化残差学习和反卷积级联的自适应目标检测方法
CN112434618B (zh) 基于稀疏前景先验的视频目标检测方法、存储介质及设备
CN110674741A (zh) 一种基于双通道特征融合的机器视觉中手势识别方法
Chen et al. Dr-tanet: Dynamic receptive temporal attention network for street scene change detection
CN113378938B (zh) 一种基于边Transformer图神经网络的小样本图像分类方法及***
Petrovai et al. Multi-task network for panoptic segmentation in automated driving
Shental et al. Learning and inferring image segmentations using the GBP typical cut algorithm
CN115018039A (zh) 一种神经网络蒸馏方法、目标检测方法以及装置
CN113392831A (zh) 分析一组帧中的对象
CN116091946A (zh) 一种基于YOLOv5的无人机航拍图像目标检测方法
CN112348056A (zh) 点云数据分类方法、装置、设备及可读存储介质
Vora et al. Iterative spectral clustering for unsupervised object localization
CN115049833A (zh) 一种基于局部特征增强和相似性度量的点云部件分割方法
CN109993135B (zh) 一种基于增强现实的手势识别方法、***及装置
CN114693923A (zh) 一种基于上下文和注意力的三维点云语义分割方法
CN114387608A (zh) 一种联合卷积与图神经网络的表格结构识别方法
CN113537072B (zh) 一种基于参数硬共享的姿态估计与人体解析联合学习***
CN117115911A (zh) 一种基于注意力机制的超图学习动作识别***
CN116977265A (zh) 缺陷检测模型的训练方法、装置、计算机设备和存储介质
Srinitya et al. Automated SAR image segmentation and classification using modified deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant