CN112766021A - 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 - Google Patents

一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 Download PDF

Info

Publication number
CN112766021A
CN112766021A CN201911064930.2A CN201911064930A CN112766021A CN 112766021 A CN112766021 A CN 112766021A CN 201911064930 A CN201911064930 A CN 201911064930A CN 112766021 A CN112766021 A CN 112766021A
Authority
CN
China
Prior art keywords
layer
key point
semantic segmentation
fcn
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911064930.2A
Other languages
English (en)
Inventor
常伟
余捷全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Yuxiu Technology Co ltd
Original Assignee
Guangdong Yuxiu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Yuxiu Technology Co ltd filed Critical Guangdong Yuxiu Technology Co ltd
Priority to CN201911064930.2A priority Critical patent/CN112766021A/zh
Publication of CN112766021A publication Critical patent/CN112766021A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及行人重识别技术领域,尤其是一种基于行人的关键点信息与语义分割信息进行行人重识别的方法;包括:目标检测,语义分割,人脸识别,关键点检测,行人重识别,通过关键点信息锁定行人,在行走过程中行人的各种动作甚至脸部关键信息的缺失都不会造成目标丢失,通过语义分割可快速将我们感兴趣的区域/目标呈现,减少追踪的工作量。

Description

一种基于行人的关键点信息与语义分割信息进行行人重识别 的方法
技术领域
本发明涉及行人重识别技术领域,尤其是一种基于行人的关键点信息与语义分割信息进行行人重识别的方法。
背景技术
中国专利公开了一种行人重识别方法,专利号为201610922236.X,其中记载:包括行人特征提取和特征的度量;行人特征提取主要采用滑动窗口提取图像颜色直方图,对主颜色进行扩展,再在每一行滑窗中统计每一颜色模式出现的次数,选取较大的几次之和作为该颜色的特征输出,滑窗遍历整幅图像,归一化后形...
上述方案计算量较小可快速得出结果,但显而易见的,行人是一种姿态多变且周围环境在不断变换的目标,甚至会出现换装等情况,现有技术难以识别。
发明内容
针对现有技术的不足,本发明提供一种基于行人的关键点信息与语义分割信息进行行人重识别的方法。
本发明的技术方案为:
一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,包括以下步骤:
S1,目标检测,在图片中找到目标的位置,输出目标的位置信息;
S2,语义分割,在图片中找到目标的位置,输出目标的具体形状掩码;
S3,人脸识别,识别出人脸的具体类别,包括身份、性别和年龄段;
S4,关键点检测,定位人在图像中的位置以及人体各个关键点的位置;
S5,行人重识别,以人的身体属性识别出人的身份,可以理解的,此时的图片可能是视频中的一帧,故分辨率可以较低,甚至可以看不见其脸部信息。
其中,语义分割方法:具体步骤如下:
Encoder:使用预先培训过的VGG16作为编码器。解码器从VGG16的第7层开始。
FCN Layer-8:最后一个完全连接的VGG16层被1x1卷积替换。
FCN Layer-9:fcn layer-8升序2次,与VGG16的layer 4匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding='same')。之后,在VGG16的第4层和fcn的第9层之间添加了一个跳过连接。
FCN Layer-10:fcn layer-9被放大2倍,以便与VGG16第3层的尺寸匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding=(相同))。之后,在VGG16的第3层和fcn第10层之间添加了一个跳过连接。
FCN Layer-11:fcn layer-10被放大4倍以匹配输入图像大小的尺寸,因此我们得到实际图像,深度等于类数,使用带参数的转置卷积:(kernel=(16,16),step=(8,8),padding='same')。
进一步地,所述语义分割的具体实现步骤:
步骤1
我们首先将预先培训过的VGG-16模型加载到TensorFlow中。
步骤2
现在,我们主要使用vgg模型中的张量为fcn创建层。给定vgg层输出的张量和要分类的类数,我们返回该输出最后一层的张量。特别地,我们将1X1卷积应用于编码器层,然后将解码器层添加到具有跳过连接和升序采样的网络中。
步骤3
优化神经网络,也就是建立TensorFlow损失函数和优化器操作。
步骤4
定义了train-nn函数,它接受重要的参数,包括epoch数、批大小、丢失函数、优化器操作和输入图像的占位符、标签图像、学习速率。
步骤5
训练网络,在这个run函数中,首先使用load_vgg、layers和optimize函数构建网络;然后,使用train_nn函数对网络进行训练,并保存推理数据以备记录。
具体的,所述关键点检测的方法采用二维人体骨骼关键点检测或者三维人体骨骼关键点检测。
具体的,所述二维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,将处理后的图像输出(输出方式为RGB)。
具体的,所述三维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,转到三维空间,将处理后的图像输出(输出方式为RGBD)。
本发明的有益效果为:通过关键点信息锁定行人,在行走过程中行人的各种动作甚至脸部关键信息的缺失都不会造成目标丢失,通过语义分割可快速将我们感兴趣的区域/目标呈现,减少追踪的工作量。
附图说明
图1为本发明中语义分割的示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明:
实施例1
如图1所示,一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,包括以下步骤:
S1,目标检测,在图片中找到目标的位置,输出目标的位置信息;
S2,语义分割,在图片中找到目标的位置,输出目标的具体形状掩码;
S3,人脸识别,识别出人脸的具体类别,包括身份、性别和年龄段;
S4,关键点检测,定位人在图像中的位置以及人体各个关键点的位置;
S5,行人重识别,以人的身体属性识别出人的身份,可以理解的,此时的图片可能是视频中的一帧,故分辨率可以较低,甚至可以看不见其脸部信息。
其中,语义分割方法:具体步骤如下:
Encoder:使用预先培训过的VGG16作为编码器。解码器从VGG16的第7层开始。
FCN Layer-8:最后一个完全连接的VGG16层被1x1卷积替换。
FCN Layer-9:fcn layer-8升序2次,与VGG16的layer 4匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding='same')。之后,在VGG16的第4层和fcn的第9层之间添加了一个跳过连接。
FCN Layer-10:fcn layer-9被放大2倍,以便与VGG16第3层的尺寸匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding=(相同))。之后,在VGG16的第3层和fcn第10层之间添加了一个跳过连接。
FCN Layer-11:fcn layer-10被放大4倍以匹配输入图像大小的尺寸,因此我们得到实际图像,深度等于类数,使用带参数的转置卷积:(kernel=(16,16),step=(8,8),padding='same')。
进一步地,所述语义分割的具体实现步骤:
步骤1
我们首先将预先培训过的VGG-16模型加载到TensorFlow中。以TensorFlowsession和vgg文件夹的路径(可在此处下载)为例,我们返回vgg模型中的张量元组,包括图像输入、keep-prob(控制辍学率)、第3层、第4层和第7层。
Figure BDA0002259027330000031
Figure BDA0002259027330000041
步骤2
现在,我们主要使用vgg模型中的张量为fcn创建层。给定vgg层输出的张量和要分类的类数,我们返回该输出最后一层的张量。特别地,我们将1X1卷积应用于编码器层,然后将解码器层添加到具有跳过连接和升序采样的网络中。
Figure BDA0002259027330000042
Figure BDA0002259027330000051
步骤3
下一步是优化我们的神经网络,也就是建立TensorFlow损失函数和优化器操作。这里我们使用交叉熵作为损失函数,使用Adam作为优化算法。
Figure BDA0002259027330000052
Figure BDA0002259027330000061
步骤4
这里我们定义了train-nn函数,它接受重要的参数,包括epoch数、批大小、丢失函数、优化器操作和输入图像的占位符、标签图像、学习速率。对于培训过程,我们还将保持概率设置为0.5,学习率设置为0.001。为了跟踪进度,我们还打印出培训期间的损失。
Figure BDA0002259027330000062
步骤5
最后,是时候训练我们的网络了!在这个run函数中,我们首先使用load_vgg、layers和optimize函数构建网络。然后,我们使用train_nn函数对网络进行训练,并保存推理数据以备记录。
Figure BDA0002259027330000071
Figure BDA0002259027330000081
选择epochs=40,batch_size=16,num_classes=2,image_shape=(160,576)。
具体的,所述关键点检测的方法采用二维人体骨骼关键点检测。
具体的,所述二维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,将处理后的图像输出(输出方式为RGB)。
实施例2
如图1所示,一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,包括以下步骤:
S1,目标检测,在图片中找到目标的位置,输出目标的位置信息;
S2,语义分割,在图片中找到目标的位置,输出目标的具体形状掩码;
S3,人脸识别,识别出人脸的具体类别,包括身份、性别和年龄段;
S4,关键点检测,定位人在图像中的位置以及人体各个关键点的位置;
S5,行人重识别,以人的身体属性识别出人的身份,可以理解的,此时的图片可能是视频中的一帧,故分辨率可以较低,甚至可以看不见其脸部信息。
其中,语义分割方法:具体步骤如下:
Encoder:使用预先培训过的VGG16作为编码器。解码器从VGG16的第7层开始。
FCN Layer-8:最后一个完全连接的VGG16层被1x1卷积替换。
FCN Layer-9:fcn layer-8升序2次,与VGG16的layer 4匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding='same')。之后,在VGG16的第4层和fcn的第9层之间添加了一个跳过连接。
FCN Layer-10:fcn layer-9被放大2倍,以便与VGG16第3层的尺寸匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding=(相同))。之后,在VGG16的第3层和fcn第10层之间添加了一个跳过连接。
FCN Layer-11:fcn layer-10被放大4倍以匹配输入图像大小的尺寸,因此我们得到实际图像,深度等于类数,使用带参数的转置卷积:(kernel=(16,16),step=(8,8),padding='same')。
进一步地,所述语义分割的具体实现步骤:
步骤1
我们首先将预先培训过的VGG-16模型加载到TensorFlow中。以TensorFlowsession和vgg文件夹的路径(可在此处下载)为例,我们返回vgg模型中的张量元组,包括图像输入、keep-prob(控制辍学率)、第3层、第4层和第7层。
Figure BDA0002259027330000091
步骤2
现在,我们主要使用vgg模型中的张量为fcn创建层。给定vgg层输出的张量和要分类的类数,我们返回该输出最后一层的张量。特别地,我们将1X1卷积应用于编码器层,然后将解码器层添加到具有跳过连接和升序采样的网络中。
Figure BDA0002259027330000101
步骤3
下一步是优化我们的神经网络,也就是建立TensorFlow损失函数和优化器操作。这里我们使用交叉熵作为损失函数,使用Adam作为优化算法。
Figure BDA0002259027330000111
步骤4
这里我们定义了train-nn函数,它接受重要的参数,包括epoch数、批大小、丢失函数、优化器操作和输入图像的占位符、标签图像、学习速率。对于培训过程,我们还将保持概率设置为0.5,学习率设置为0.001。为了跟踪进度,我们还打印出培训期间的损失。
Figure BDA0002259027330000112
Figure BDA0002259027330000121
步骤5
最后,是时候训练我们的网络了!在这个run函数中,我们首先使用load_vgg、layers和optimize函数构建网络。然后,我们使用train_nn函数对网络进行训练,并保存推理数据以备记录。
Figure BDA0002259027330000122
Figure BDA0002259027330000131
Figure BDA0002259027330000141
选择epochs=40,batch_size=16,num_classes=2,image_shape=(160,576)。
具体的,所述关键点检测的方法采用三维人体骨骼关键点检测。
具体的,所述三维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,转到三维空间,将处理后的图像输出(输出方式为RGBD)。
上述实施例和说明书中描述的只是说明本发明的原理和最佳实施例,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。

Claims (6)

1.一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,包括以下步骤:
S1,目标检测,在图片中找到目标的位置,输出目标的位置信息;
S2,语义分割,在图片中找到目标的位置,输出目标的具体形状掩码;
S3,人脸识别,识别出人脸的具体类别,包括身份、性别和年龄段;
S4,关键点检测,定位人在图像中的位置以及人体各个关键点的位置;
S5,行人重识别,以人的身体属性识别出人的身份。
2.根据权利要求1所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:语义分割方法:具体步骤如下:
Encoder:使用预先培训过的VGG16作为编码器;解码器从VGG16的第7层开始;
FCN Layer-8:最后一个完全连接的VGG16层被1x1卷积替换;
FCN Layer-9:fcn layer-8升序2次,与VGG16的layer 4匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding='same');之后,在VGG16的第4层和fcn的第9层之间添加了一个跳过连接;
FCN Layer-10:fcn layer-9被放大2倍,以便与VGG16第3层的尺寸匹配,使用带参数的转置卷积:(kernel=(4,4),stead=(2,2),padding=(相同));之后,在VGG16的第3层和fcn第10层之间添加了一个跳过连接;
FCN Layer-11:fcn layer-10被放大4倍以匹配输入图像大小的尺寸,因此我们得到实际图像,深度等于类数,使用带参数的转置卷积:(kernel=(16,16),step=(8,8),padding='same')。
3.根据权利要求1所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:所述语义分割的具体实现步骤:
步骤1
首先将预先培训过的VGG-16模型加载到TensorFlow中;
步骤2
使用vgg模型中的张量为fcn创建层;给定vgg层输出的张量和要分类的类数,返回该输出最后一层的张量;特别地,将1X1卷积应用于编码器层,然后将解码器层添加到具有跳过连接和升序采样的网络中;
步骤3
优化神经网络,也就是建立TensorFlow损失函数和优化器操作;
步骤4
定义了train-nn函数,它接受重要的参数,包括epoch数、批大小、丢失函数、优化器操作和输入图像的占位符、标签图像、学习速率;
步骤5
训练网络,在这个run函数中,首先使用load_vgg、layers和optimize函数构建网络;然后,使用train_nn函数对网络进行训练,并保存推理数据以备记录。
4.根据权利要求1所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:所述关键点检测的方法采用二维人体骨骼关键点检测或者三维人体骨骼关键点检测。
5.根据权利要求4所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:所述二维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,将处理后的图像输出。
6.根据权利要求4所述的一种基于行人的关键点信息与语义分割信息进行行人重识别的方法,其特征在于:所述三维人体骨骼关键点检测方法为:
图像数据获取,然后进行人体关键点检测,继而进行人体关键点组合,而后将关键点信息映射到原图,转到三维空间,将处理后的图像输出。
CN201911064930.2A 2019-11-04 2019-11-04 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 Pending CN112766021A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911064930.2A CN112766021A (zh) 2019-11-04 2019-11-04 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911064930.2A CN112766021A (zh) 2019-11-04 2019-11-04 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法

Publications (1)

Publication Number Publication Date
CN112766021A true CN112766021A (zh) 2021-05-07

Family

ID=75692266

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911064930.2A Pending CN112766021A (zh) 2019-11-04 2019-11-04 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法

Country Status (1)

Country Link
CN (1) CN112766021A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256574A (zh) * 2021-05-13 2021-08-13 中国科学院长春光学精密机械与物理研究所 一种三维目标检测方法
CN113469081A (zh) * 2021-07-08 2021-10-01 西南交通大学 一种运动状态识别方法
CN113569853A (zh) * 2021-06-25 2021-10-29 北京机械设备研究所 一种基于多任务学习的特征点提取与语义分割方法
WO2023273102A1 (zh) * 2021-06-30 2023-01-05 北京市商汤科技开发有限公司 一种图像处理方法、装置、计算机设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344787A (zh) * 2018-10-15 2019-02-15 浙江工业大学 一种基于人脸识别与行人重识别的特定目标跟踪方法
CN109740541A (zh) * 2019-01-04 2019-05-10 重庆大学 一种行人重识别***与方法
CN110334675A (zh) * 2019-07-11 2019-10-15 山东大学 一种基于人体骨骼关键点分割和列卷积的行人重识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344787A (zh) * 2018-10-15 2019-02-15 浙江工业大学 一种基于人脸识别与行人重识别的特定目标跟踪方法
CN109740541A (zh) * 2019-01-04 2019-05-10 重庆大学 一种行人重识别***与方法
CN110334675A (zh) * 2019-07-11 2019-10-15 山东大学 一种基于人体骨骼关键点分割和列卷积的行人重识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
蓝三金: "使用深度学习实现简单语义分割(FCN)", pages 1 - 11, Retrieved from the Internet <URL:https://blog.csdn.net/qq_20084101/article/details/80501502> *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256574A (zh) * 2021-05-13 2021-08-13 中国科学院长春光学精密机械与物理研究所 一种三维目标检测方法
CN113256574B (zh) * 2021-05-13 2022-10-25 中国科学院长春光学精密机械与物理研究所 一种三维目标检测方法
CN113569853A (zh) * 2021-06-25 2021-10-29 北京机械设备研究所 一种基于多任务学习的特征点提取与语义分割方法
CN113569853B (zh) * 2021-06-25 2024-04-09 北京机械设备研究所 一种基于多任务学习的特征点提取与语义分割方法
WO2023273102A1 (zh) * 2021-06-30 2023-01-05 北京市商汤科技开发有限公司 一种图像处理方法、装置、计算机设备和存储介质
CN113469081A (zh) * 2021-07-08 2021-10-01 西南交通大学 一种运动状态识别方法
CN113469081B (zh) * 2021-07-08 2023-06-06 西南交通大学 一种运动状态识别方法

Similar Documents

Publication Publication Date Title
CN109583340B (zh) 一种基于深度学习的视频目标检测方法
CN112766021A (zh) 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法
CN112307958A (zh) 基于时空外观运动注意力网络的微表情识别方法
CN113496217B (zh) 视频图像序列中人脸微表情识别方法
CN107516316B (zh) 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法
CN109934158B (zh) 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法
CN105718873A (zh) 基于双目视觉的人流分析方法
CN112883896B (zh) 一种基于bert网络的微表情检测方法
CN111476178A (zh) 一种基于2d-3d cnn的微表情识别方法
CN112396036B (zh) 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法
CN112070010B (zh) 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法
CN112861718A (zh) 一种轻量级特征融合人群计数方法及***
CN112883931A (zh) 基于长短期记忆网络的实时真假运动判断方法
CN114973383A (zh) 一种微表情识别方法、装置、电子设备及存储介质
Zia et al. An adaptive training based on classification system for patterns in facial expressions using SURF descriptor templates
Wang et al. Facial expression recognition based on CNN
CN113076905B (zh) 一种基于上下文交互关系的情绪识别方法
Vanaja et al. Hand Gesture Recognition for Deaf and Dumb Using CNN Technique
Mohamed Automatic system for Arabic sign language recognition and translation to spoken one
CN117173677A (zh) 手势识别方法、装置、设备及存储介质
KR20180092453A (ko) Cnn과 스테레오 이미지를 이용한 얼굴 인식 방법
Safar et al. Learning shape priors for object segmentation via neural networks
CN112270220B (zh) 一种基于深度学习的缝纫手势识别方法
CN113033263B (zh) 一种人脸图像年龄特征识别方法
Kalidindi et al. Plant disease detection using faster RCNN networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination