CN110334584B - 一种基于区域全卷积网络的手势识别方法 - Google Patents

一种基于区域全卷积网络的手势识别方法 Download PDF

Info

Publication number
CN110334584B
CN110334584B CN201910419349.1A CN201910419349A CN110334584B CN 110334584 B CN110334584 B CN 110334584B CN 201910419349 A CN201910419349 A CN 201910419349A CN 110334584 B CN110334584 B CN 110334584B
Authority
CN
China
Prior art keywords
network
candidate
frame
layer
regional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201910419349.1A
Other languages
English (en)
Other versions
CN110334584A (zh
Inventor
杨锦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201910419349.1A priority Critical patent/CN110334584B/zh
Publication of CN110334584A publication Critical patent/CN110334584A/zh
Application granted granted Critical
Publication of CN110334584B publication Critical patent/CN110334584B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于区域全卷积网络的手势识别方法,对于输入的手势图像,通过全卷积网络进行特征提取,获得一组特征图并生成候选框,而位置敏感子网络产生位置敏感得分图,通过池化层为每个手势类别进行打分,从而实现目标手势的定位与分类;本发明主要特点是整个区域全卷积网络是一个共享的全卷积结构,整个结构是端到端的学习,在实现高精度的识别率的同时避免了复杂的计算,并且结合OHEM技术,网络模型对负样本有了更高的拒识率,便于实际应用,对于人机交互领域有着重要意义。

Description

一种基于区域全卷积网络的手势识别方法
技术领域
本发明涉及计算机视觉、机器学习和模式识别技术领域,具体涉及一种利用区域全卷积网络实现端到端的手势识别方法。
背景技术
当前,随着众多VR(Virtual Reality)和AR(Augmenting Reality)越来越受欢迎,使得人机交互技术受到越来越多的人关注。而手势作为一种最直接、最方便的人机交互方式受到了广大研究者的关注,手势识别逐渐成为计算机视觉领域重要的研究方向。计算机如何精确地识别出手势的意义则是手势人机交互***中的重要一环,由于人手是复杂形变体,手势具有多样性、多义性以及时间上的差异等特点,并且手势通常处于复杂的场景中,像光照过亮或过暗、有多个手势存在以及手势与设备的距离不同等各种复杂的场景因素,手势识别仍然是一项巨大的挑战。
比较典型的手势识别方法主要基于隐马尔可夫模型、模板匹配和人工神经网络等。这些传统的手势识别方法必须人工设置特征,再对手势提取这些特征进行识别,存在处理过程复杂、效率低的缺点。
发明内容
本发明的目的是提供一种基于区域全卷积网络的手势识别方法,以提升识别效率,降低计算的复杂度。
为了实现上述任务,本发明采用以下技术方案:
一种基于区域全卷积网络的手势识别方法,包括以下步骤:
步骤1,建立全卷积网络
使用残差网络ResNet-34网络架构作为骨架,将RerNet-34网络的步长由32像素改为16像素,删除了ResNet-34网络架构的平均池化层和全连接层,然后利用ResNet-34网络架构的卷积层构建全卷积网络,以提取输入图像的特征;输入图像经过全卷积网络后输出特征图,特征图上的每一个像素点产生多个用于预测坐标框位置的候选框;
步骤2,建立区域候选网络
建立区域候选网络,该网络包括所述全卷积网络的最后一个卷积层,在该卷积层之后有两个分支,其中一个分支依次为卷积层、第一调整层、归一化层和第二调整层,该分支的作用是用于判断所述候选框属于前景、背景的分数,另外一个分支为一个卷积层,其作用是预测候选框与真实坐标框位置的偏移量;所述的第一调整层、第二调整层用于改变图像的维度,归一化层用于进行归一化操作;
步骤3,训练区域候选网络
筛选候选框用以训练区域候选网络,筛选的规则是:
如果候选框与真实坐标框的重叠率≥0.7,则认为该候选框是前景;如候选框与真实坐标框的重叠率<0.3,则认为该候选框是背景;将前景、背景对应的候选框作为区域候选网络的训练数据进行训练,其中,前景对应的候选框为正样本,背景对应的候选框为负样本;区域候选网络训练的损失函数为:
L=cls_loss+λ*reg_loss
其中,λ为可调节参数;为了训练区域候选网络,将一个二进制类标签分配给需要训练的候选框,设pi是第i个候选框属于前景的预测概率,
Figure BDA0002065498950000021
是真实标签,则cls_loss定义为:
Figure BDA0002065498950000022
reg_loss用于回归候选框与真实坐标框的偏差量,定义为:
Figure BDA0002065498950000023
Figure BDA0002065498950000024
式中i∈(x,y,w,h),ti是第i个候选框与真实坐标框[x,y,w,h]的偏移量的预测输出,
Figure BDA0002065498950000025
是第i个候选框与真实坐标框的[x,y,w,h]的偏移量的真实值,x,y表示坐标,w、h表示宽度、高度;
区域候选网络利用所述的损失函数L,通过反向传播和随机梯度下降法进行端到端训练,用标准偏差0.01的零均值高斯分布来初始化权重;
步骤4,构建位置敏感子网络
所述的位置敏感子网络包括在所述全卷积网络最后一个卷积层之后连接的一个卷积层,输入图像经过全卷积网络处理后,输出的特征图再经过该卷积层进行卷积操作后,得到位置敏感得分图;该卷积层为每个手势类别产生一个维数为k2(c+1)的位置敏感得分图,k2个位置敏感得分图是由k*k个空间网格来描述的相对位置,其中c代表识别物体类别数;
步骤5,位置敏感候选框的池化
训练后的区域候选网络输出候选框与真实坐标框的偏差量,其中包含候选框区域的位置信息;根据所述位置信息,将候选框对应到步骤4中得到的位置敏感得分图,而候选框会被划分成k*k个子区域,每个子区域都对应到得分图上的一个区域;所述的位置敏感子网络还包括一个池化层,用于实现以下功能:
从候选框中分别抽取每个类别对应的位置敏感得分图,分别对抽取的得分图求均值,然后按照位置组成矩阵,对矩阵中所有值求和,得到一个值;对所有类别进行同样的处理后,得到的所有值共同构成一个输出向量,将输出向量进行归一化处理,从而估计当前候选区域属于什么类别;
步骤6,对网络利用手势图片的数据库进行训练,保存训练后的网络模型用于手势分类。
本发明具有以下技术特点:
本发明的整个区域全卷积网络是一个共享的全卷积结构,整个结构是端到端的学习,在实现高精度的识别率的同时避免了复杂的计算,并且结合OHEM技术,网络模型对负样本有了更高的拒识率,便于实际应用。本发明在人机交互***等的智能行为分析与后处理方法,对于辅助汽车控制***、手语识别和个人穿戴***等领域的智能化建设具有一定的实用价值。
附图说明
图1为本发明方法中网络的结构图;
图2为区域候选网络的结构图;
图3为从特征图上获取候选框的示意图;
图4为本发明实施例中待训练的七种手势示意图;
图5为手势1的9个位置敏感得分图位置对应关系;
图6为本发明方法的手势识别测试结果。
具体实施方式
本发明提供一种基于区域全卷积网络的手势识别方法,包括以下步骤:
步骤1,建立全卷积网络
本方案中,使用残差网络ResNet-34网络架构作为骨架,将RerNet-34网络的步长由32像素改为16像素,删除了ResNet-34网络架构的平均池化层和全连接层,然后利用ResNet-34网络架构的卷积层构建全卷积网络,以提取输入图像的特征。
如图1所示,本方案中的全卷积网络包含两个部分,第一部分是卷积核大小7*7的卷积层处理输入图像,第二部分是3*3的卷积核组成的四组不同深度的残差块,残差块是残差网络用来提取特征的重要结构。
输入图像经过全卷积网络后,通过最后一个卷积层输出特征图,特征图上的每一个像素点产生9个用于预测坐标框位置的候选框;则对于维度为w*h*d(宽度*高度*深度)的三维卷积层共产生w*h*9个候选框。候选框为矩形框,共有三种形状,长宽比为[1:1,1:2,2:1]三种。
步骤2,建立区域候选网络
建立区域候选网络,该网络包括所述全卷积网络的最后一个卷积层,在该卷积层之后有两个分支,其中一个分支依次为卷积层、第一调整层、归一化层和第二调整层,该分支的作用是用于判断卷积层输出特征图上,每个像素点产生的候选框属于输入图像前景、背景的分数;另外一个分支为一个卷积层,其作用是预测候选框与真实坐标框位置的偏移量;所述的第一调整层、第二调整层用于进行Reshape操作,即改变图像的维度。
本实施例中,第一个分支的卷积层卷积核大小为1*1*18,经过全卷积网络最后一个卷积层输出的特征图经过第一个分支的卷积层后,得到的特征图维度为(w,h,9*2),继而经过第一调整层Reshape、归一化层进行归一化、第二调整层Reshape后得到候选框输入图像前景、背景的预测概率;第二个分支的卷积层的卷积核大小为1*1*36,经过该卷积层后得到的特征图维度可表示为(w,h,4*9),代表着w*h*9个候选框与真实坐标框位置的偏移量。
步骤3,训练区域候选网络
筛选候选框用以训练区域候选网络,筛选的规则是:
如图3所示,如果候选框与真实坐标框的重叠率≥0.7,则认为该候选框是前景;如候选框与真实坐标框的重叠率<0.3,则认为该候选框是背景;将前景、背景对应的候选框作为区域候选网络的训练数据进行训练,其中,前景对应的候选框为正样本,对应目标手势区域的类别;背景对应的候选框为负样本;而其他的候选框不参与训练。
区域候选网络训练的损失函数分为两部分:cls_lossreg_loss
cls_loss用于分类候选框为前景/背景,本方案中为了训练区域候选网络,将一个二进制类标签(前景:0,背景:1)分配给需要训练的候选框,设pi是第i个候选框属于前景的预测概率,
Figure BDA0002065498950000051
是真实标签(只能是0或1),则cls_loss交叉熵损失函数定义为:
Figure BDA0002065498950000052
reg_loss用于回归候选框与真实坐标框的偏差量,回归任务不能使用上述中交叉熵损失函数,reg_loss损失函数定义为:
Figure BDA0002065498950000053
Figure BDA0002065498950000054
式中i∈(x,y,w,h),ti是第i个候选框与真实坐标框[x,y,w,h]的偏移量的预测输出,
Figure BDA0002065498950000055
是第i个候选框与真实坐标框的[x,y,w,h]的偏移量的真实值,x,y表示坐标,w、h表示宽度、高度。
这两部分损失由于数量级不同,用一个可调节参数λ平衡二者,使在训练时,使区域候选网络总的损失函数计算过程中能够均匀考虑两种损失。区域候选网络的损失函数L定义为:
L=cls_loss+λ*reg_loss
区域候选网络利用所述的损失函数L,通过反向传播和随机梯度下降法进行端到端训练,用标准偏差0.01的零均值高斯分布来初始化权重;训练所需初始化参数的部分包括步骤1中的全卷积网络参数、区域候选网络中卷积层的参数。
步骤4,构建位置敏感子网络
所述的位置敏感子网络包括在所述全卷积网络最后一个卷积层之后连接的一个卷积层conv_L,输入图像经过全卷积网络处理后,输出的特征图再经过该卷积层conv_L进行卷积操作后,得到位置敏感得分图。该卷积层为每个手势类别产生一个维数为k2(c+1)的位置敏感得分图(c为手势类别+1个背景类),k2个位置敏感得分图是由k*k个空间网格来描述的相对位置。
该卷积层的高heigh和宽width和全卷积网络最后一个卷积层一样,但它的通道个数是k*k*(c+1),其中k表示所要划分的网格数,c代表识别物体类别数,再加上一个背景类别,如图4所示,本方案识别任务类别数有七种,所以共有8个类,而每个类别都有k*k个得分图,以手势1为例,每一个得分图表示原始输入图像中的那些位置含有手势1的某个部分,得分图会在含有对应手势1的某个部位的位置有高的响应,将k取为3,表示将原始输入图像分为9个不同位置并有9个位置敏感得分图。
步骤5,位置敏感候选框的池化
步骤3训练后的区域候选网络输出候选框与真实坐标框的偏差量,其中包含候选框区域的位置信息[x,y,w,h]四个值;根据所述的位置信息,将候选框区域对应到步骤4中得到的位置敏感得分图,而候选框区域会被划分成k*k个子区域,每个子区域都对应到得分图上的一个区域;所述的位置敏感子网络还包括一个池化层,用于实现以下功能:
从候选框中分别抽取每个类别对应的位置敏感得分图,分别对抽取的得分图求均值,然后按照位置组成矩阵,对矩阵中所有值求和,得到一个值S;对所有类别进行同样的处理后,得到的所有值S共同构成一个输出向量,将输出向量进行归一化处理,从而估计当前候选区域属于什么类别。
本实施例中,每个类别有9个位置敏感得分图,以类别手势1为例,从候选框中抽取类别1的9个得分图,如图5所示,分别对抽取的得分图求均值,然后按照位置组成一个3*3大小的矩阵,对3*3的矩阵中的所有值求和,得到一个值;对类别2-8重新使用上述步骤,最终得到一个1*8这样的向量,将向量进行softmax归一化处理,计算属于每个类别的softmax响应,以估计当前选框区域属于什么类别,从而输出预测结果。
位置敏感子网络中候选框分类损失函数采用交叉熵损失函数定义为:
Figure BDA0002065498950000061
其中,sci是1*8维输出向量中属于i类的真实输出,
Figure BDA0002065498950000071
是1*8维输出向量中属于i类的预测输出,θ是整个网络(全卷积网络、区域候选网络、位置敏感子网络)中卷积层的参数集。
步骤6,对整个网络利用手势图片的数据库训练,保存训练后的网络模型用于手势分类。
本实施例中,利用CGD数据库对网络进行训练,该数据库有三十个基本的手势动作,图片大小需要进行归一化为224*224,此外区域候选网络与位置敏感子网络共享网络参数,所以只需要训练一次网络就满足要求,通过深度学习框架pytorch搭建网络模型,在CGD数据集中选择有代表性的7种手势,如图4所示,训练集8000张,测试集500张。训练周期设置为500,保存模型后,进行端到端的测试,输入含有手势的图片后输出结果,如图5所示。从图中可以看出,手势的类别与坐标框位置都被识别出来,由此证明本方案在手势识别上有着很好的表现。
发明采用了OHEM(online hard example mining)技术,计算所有的手势区域的损失函数值,然后对所有的手势区域按照损失值排序,挑选出损失值最大的B个具有最高损失的手势区域进行反向传播。

Claims (1)

1.一种基于区域全卷积网络的手势识别方法,其特征在于,包括以下步骤:
步骤1,建立全卷积网络
使用残差网络ResNet-34网络架构作为骨架,将RerNet-34网络的步长由32像素改为16像素,删除了ResNet-34网络架构的平均池化层和全连接层,然后利用ResNet-34网络架构的卷积层构建全卷积网络,以提取输入图像的特征;输入图像经过全卷积网络后输出特征图,特征图上的每一个像素点产生多个用于预测坐标框位置的候选框;
步骤2,建立区域候选网络
建立区域候选网络,该网络包括所述全卷积网络的最后一个卷积层,在该卷积层之后有两个分支,其中一个分支依次为卷积层、第一调整层、归一化层和第二调整层,该分支的作用是用于判断所述候选框属于前景、背景的分数,另外一个分支为一个卷积层,其作用是预测候选框与真实坐标框位置的偏移量;所述的第一调整层、第二调整层用于改变图像的维度,归一化层用于进行归一化操作;
步骤3,训练区域候选网络
筛选候选框用以训练区域候选网络,筛选的规则是:
如果候选框与真实坐标框的重叠率≥0.7,则认为该候选框是前景;如候选框与真实坐标框的重叠率<0.3,则认为该候选框是背景;将前景、背景对应的候选框作为区域候选网络的训练数据进行训练,其中,前景对应的候选框为正样本,背景对应的候选框为负样本;区域候选网络训练的损失函数为:
L=cls_loss+λ*reg_loss
其中,λ为可调节参数;为了训练区域候选网络,将一个二进制类标签分配给需要训练的候选框,设pi是第i个候选框属于前景的预测概率,
Figure FDA0002065498940000011
是真实标签,则cls_loss定义为:
Figure FDA0002065498940000012
reg_loss用于回归候选框与真实坐标框的偏差量,定义为:
Figure FDA0002065498940000013
Figure FDA0002065498940000021
式中i∈(x,y,w,h),ti是第i个候选框与真实坐标框[x,y,w,h]的偏移量的预测输出,
Figure FDA0002065498940000022
是第i个候选框与真实坐标框的[x,y,w,h]的偏移量的真实值,x,y表示坐标,w、h表示宽度、高度;
区域候选网络利用所述的损失函数L,通过反向传播和随机梯度下降法进行端到端训练,用标准偏差0.01的零均值高斯分布来初始化权重;
步骤4,构建位置敏感子网络
所述的位置敏感子网络包括在所述全卷积网络最后一个卷积层之后连接的一个卷积层,输入图像经过全卷积网络处理后,输出的特征图再经过该卷积层进行卷积操作后,得到位置敏感得分图;该卷积层为每个手势类别产生一个维数为k2(c+1)的位置敏感得分图,k2个位置敏感得分图是由k*k个空间网格来描述的相对位置,其中c代表识别物体类别数;
步骤5,位置敏感候选框的池化
训练后的区域候选网络输出候选框与真实坐标框的偏差量,其中包含候选框区域的位置信息;根据所述位置信息,将候选框对应到步骤4中得到的位置敏感得分图,而候选框会被划分成k*k个子区域,每个子区域都对应到得分图上的一个区域;所述的位置敏感子网络还包括一个池化层,用于实现以下功能:
从候选框中分别抽取每个类别对应的位置敏感得分图,分别对抽取的得分图求均值,然后按照位置组成矩阵,对矩阵中所有值求和,得到一个值;对所有类别进行同样的处理后,得到的所有值共同构成一个输出向量,将输出向量进行归一化处理,从而估计当前候选区域属于什么类别;
步骤6,对网络利用手势图片的数据库进行训练,保存训练后的网络模型用于手势分类。
CN201910419349.1A 2019-05-20 2019-05-20 一种基于区域全卷积网络的手势识别方法 Expired - Fee Related CN110334584B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910419349.1A CN110334584B (zh) 2019-05-20 2019-05-20 一种基于区域全卷积网络的手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910419349.1A CN110334584B (zh) 2019-05-20 2019-05-20 一种基于区域全卷积网络的手势识别方法

Publications (2)

Publication Number Publication Date
CN110334584A CN110334584A (zh) 2019-10-15
CN110334584B true CN110334584B (zh) 2023-01-20

Family

ID=68139443

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910419349.1A Expired - Fee Related CN110334584B (zh) 2019-05-20 2019-05-20 一种基于区域全卷积网络的手势识别方法

Country Status (1)

Country Link
CN (1) CN110334584B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111026898A (zh) * 2019-12-10 2020-04-17 云南大学 一种基于交叉空间池化策略的弱监督图像情感分类与定位方法
CN111814626B (zh) * 2020-06-29 2021-01-26 中南民族大学 一种基于自注意力机制的动态手势识别方法和***
CN112699837A (zh) * 2021-01-13 2021-04-23 新大陆数字技术股份有限公司 一种基于深度学习的手势识别方法及设备
CN113591764B (zh) * 2021-08-09 2024-06-07 广州博冠信息科技有限公司 手势识别方法、装置、存储介质和电子设备
CN114708507A (zh) * 2022-04-13 2022-07-05 中国农业大学 一种动物热红外图像的处理方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010049A (zh) * 2017-11-09 2018-05-08 华南理工大学 使用全卷积神经网络分割定格动画中人手部区域的方法
CN109299644A (zh) * 2018-07-18 2019-02-01 广东工业大学 一种基于区域全卷积网络的车辆目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709532B (zh) * 2017-01-25 2020-03-10 京东方科技集团股份有限公司 图像处理方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010049A (zh) * 2017-11-09 2018-05-08 华南理工大学 使用全卷积神经网络分割定格动画中人手部区域的方法
CN109299644A (zh) * 2018-07-18 2019-02-01 广东工业大学 一种基于区域全卷积网络的车辆目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于改进的R-FCN带纹理透明塑料裂痕检测;关日钊 等;《计算机工程与应用》;20190315;第55卷(第6期);第1-2页 *

Also Published As

Publication number Publication date
CN110334584A (zh) 2019-10-15

Similar Documents

Publication Publication Date Title
CN110334584B (zh) 一种基于区域全卷积网络的手势识别方法
CN111310861B (zh) 一种基于深度神经网络的车牌识别和定位方法
CN111489358B (zh) 一种基于深度学习的三维点云语义分割方法
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN111428765B (zh) 一种基于全局卷积、局部深度卷积融合的目标检测方法
CN106845430A (zh) 基于加速区域卷积神经网络的行人检测与跟踪方法
CN111310773A (zh) 一种高效的卷积神经网络的车牌定位方法
CN112907602B (zh) 一种基于改进k-近邻算法的三维场景点云分割方法
CN109285162A (zh) 一种基于局部区域条件随机场模型的图像语义分割方法
CN109492596B (zh) 一种基于K-means聚类和区域推荐网络的行人检测方法及***
CN111626200A (zh) 一种基于Libra R-CNN的多尺度目标检测网络和交通标识检测方法
CN109064389B (zh) 一种手绘线条画生成现实感图像的深度学习方法
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN111126459A (zh) 一种车辆细粒度识别的方法及装置
CN113744311A (zh) 基于全连接注意力模块的孪生神经网络运动目标跟踪方法
CN110287798B (zh) 基于特征模块化和上下文融合的矢量网络行人检测方法
CN112347970A (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN107146219B (zh) 一种基于流形正则化支持向量机的图像显著性检测方法
CN113032613B (zh) 一种基于交互注意力卷积神经网络的三维模型检索方法
CN107577983A (zh) 一种循环发现关注区域识别多标签图像的方法
CN115223017B (zh) 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法
CN112396655A (zh) 一种基于点云数据的船舶目标6d位姿估计方法
CN114120067A (zh) 一种物体识别方法、装置、设备及介质
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
CN113988164B (zh) 一种面向代表点自注意力机制的轻量级点云目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20230120

CF01 Termination of patent right due to non-payment of annual fee