CN110826401B - 一种人体肢体语言识别方法及*** - Google Patents
一种人体肢体语言识别方法及*** Download PDFInfo
- Publication number
- CN110826401B CN110826401B CN201910918406.0A CN201910918406A CN110826401B CN 110826401 B CN110826401 B CN 110826401B CN 201910918406 A CN201910918406 A CN 201910918406A CN 110826401 B CN110826401 B CN 110826401B
- Authority
- CN
- China
- Prior art keywords
- module
- human body
- key point
- limb language
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000007781 pre-processing Methods 0.000 claims abstract description 21
- 238000001514 detection method Methods 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 32
- 238000012549 training Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000002265 prevention Effects 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- Human Computer Interaction (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Software Systems (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Emergency Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种人体肢体语言识别方法,所述方法如下:由摄像机获取图像,并将获取的图像上传到服务器;关键点检测器识别并标记出身体特点的部位;对识别的数据进行预处理;预处理后的数据进行特征提取;对提取的特征进行匹配,进而识别出人的当前姿态;本发明还公开了一种人体肢体语言识别***;本发明的有益效果是:关键点检测器识别并标记出身体特点的部位,帮助身体跟踪算法了解不同角度下每个姿势的表现;通过设计的报警模块,用于对识别的可疑人体肢体语言的人进行声报警或短信报警,及时识别可疑人物,达到预防犯罪的目的。
Description
技术领域
本发明属于人体肢体语言识别技术领域,具体涉及一种人体肢体语言识别方法还涉及一种人体肢体语言识别***。
背景技术
肢体语言又叫身体语言,是由人的身体运动引起的,是通过一个人的仪表、姿态、面部表情、手势、眼神及各种身体动作等来表达含义的符号或代码系列;它是一个信息发射站,是一种无声的语言,有声语言如果辅以适当的肢体语言会起到更好的传情达意的效果。
为了提高人体肢体语言识别的效率,达到预防犯罪的目的,为此我们提出一种人体肢体语言识别方法及***。
发明内容
本发明的目的在于提供一种人体肢体语言识别方法及***,提高人体肢体语言识别的效率,达到预防犯罪的目的。
为实现上述目的,本发明提供如下技术方案:一种人体肢体语言识别方法,所述方法如下:
步骤一:由摄像机获取图像,并将获取的图像上传到服务器;
步骤二:关键点检测器识别并标记出身体特点的部位;
步骤三:对识别的数据进行预处理;
步骤四:预处理后的数据进行特征提取;
步骤五:对提取的特征进行匹配,进而识别出人的当前姿态。
作为本发明的一种优选的技术方案,所述摄像机为H9R深度摄像机。
作为本发明的一种优选的技术方案,所述步骤五中,利用分类器对提取的特征进行匹配。
本发明还公开了一种人体肢体语言识别***,包括信息采集模块、图像预处理模块、特征提取模块、人体姿态识别模块、多线程模块、通信模块、服务器,其中:
信息采集模块,该模块利用H9R深度摄像机获取到RGB图像和深度图像,并将采集的图像信息通过通信模块上传给服务器;
图像预处理模块,该模块用于去除获取图像的噪声,并对识别的数据进行预处理;
特征提取模块,该模块提取出关键特征,表征人体当前的姿态,去掉冗余的信息;
人体姿态识别模块,检测人的当前姿态,并对人的当前姿态进行识别。
作为本发明的一种优选的技术方案,还包括多线程模块,该模块用于加速处理。
作为本发明的一种优选的技术方案,还包括报警模块,该模块用于对识别的可疑人体肢体语言的人进行报警。
作为本发明的一种优选的技术方案,报警的方式为声报警或短信报警中的一种或两种。
作为本发明的一种优选的技术方案,所述通信模块为GPRS、3G、4G、WiFi 中的一种或几种。
与现有技术相比,本发明的有益效果是:
(1)关键点检测器识别并标记出身体特点的部位,帮助身体跟踪算法了解不同角度下每个姿势的表现;
(2)通过设计的报警模块,用于对识别的可疑人体肢体语言的人进行声报警或短信报警,及时识别可疑人物,达到预防犯罪的目的。
附图说明
图1为本发明的识别方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
请参阅图1,本发明提供一种技术方案:一种人体肢体语言识别方法,包括如下步骤:
步骤一:由H9R深度摄像机获取图像,并将获取的图像上传到服务器;
步骤二:关键点检测器识别并标记出身体特点的部位,帮助身体跟踪算法了解不同角度下每个姿势的表现;
步骤三:对识别的数据进行预处理;
步骤四:预处理后的数据进行特征提取;
步骤五:利用分类器对提取的特征进行匹配,进而识别出人的当前姿态。
一种人体肢体语言识别***,包括信息采集模块、图像预处理模块、特征提取模块、人体姿态识别模块、多线程模块、通信模块、服务器,其中:
信息采集模块,该模块利用H9R深度摄像机获取到RGB图像和深度图像,并将采集的图像信息通过通信模块上传给服务器;通信模块为GPRS模块;
图像预处理模块,该模块用于去除获取图像的噪声,并对识别的数据进行预处理;
特征提取模块,该模块提取出关键特征,表征人体当前的姿态,去掉冗余的信息,减少数据量,提高后续的识别工作效率;
人体姿态识别模块,检测人的当前姿态,并对人的当前姿态进行识别。
还包括多线程模块,该模块用于加速处理。
还包括报警模块,该模块用于对识别的可疑人体肢体语言的人进行报警;报警的方式为声报警。
需要说明的是:身体跟踪算法为已知技术。
SBR 关键点检测器,能够利用无监督的方式增强任何基于图像的人脸关键点检测器,SBR 利用了物体在视频中的运动比较平滑的特性来提升一个现有的人脸关键点检测器,相比较其他人脸关键点检测算法,SBR 不需要利用任何额外的人工标注信息就能提升检测器的性能。
SBR使用的训练数据是有标注的图像数据和无标注的视频数据,在训练过程中,SBR 可以用无监督的方式从视频中提取监督信息来优化检测器(神经网络)。
SBR 的训练过程包含两个损失函数,一个是检测器损失函数,另一个是时序配准损失函数;这两者可以相互补充让人脸关键点检测器更加鲁棒,检测器损失函数作用于模型检测结果和人工标注上,优化使得在有标注的数据上,模型的检测结果和人工标注尽可能的接近,时序配准损失函数是优化在连续几帧内关键点检测结果的时序一致性;具体来说,输入连续的两帧图像 t-1和t,通过同一个人脸关键点检测器后,可以得到对于第t-1帧的检测结果和第t帧的检测结果,我们将第t-1 帧的检测结果通过Lucas-Kanade算法跟踪到第t帧得到结果,时序配准损失函数就是为了让在第t帧上跟踪得到的结果和检测得到的,尽可能一致;值得注意的是,因为Lucas-Kanade 算法不需要训练且有封闭解,我们将Lucas-Kanade算法写成了一个可求导的模块嵌入到CNN中,在训练的时候,检测器损失函数利用人脸外观信息通过人工标注学习关键点检测器;时序配准损失函数通过嵌入Lucas-Kanade模块保证了时序一致性,梯度可以通过Lucas-Kanade 模块传给检测模型使得检测结果在相邻帧上一致。
实施例2
请参阅图1,本发明提供一种技术方案:一种人体肢体语言识别方法,包括如下步骤:
步骤一:由H9R深度摄像机获取图像,并将获取的图像上传到服务器;
步骤二:关键点检测器识别并标记出身体特点的部位,帮助身体跟踪算法了解不同角度下每个姿势的表现;
步骤三:对识别的数据进行预处理;
步骤四:预处理后的数据进行特征提取;
步骤五:利用分类器对提取的特征进行匹配,进而识别出人的当前姿态。
一种人体肢体语言识别***,包括信息采集模块、图像预处理模块、特征提取模块、人体姿态识别模块、多线程模块、通信模块、服务器,其中:
信息采集模块,该模块利用H9R深度摄像机获取到RGB图像和深度图像,并将采集的图像信息通过通信模块上传给服务器;通信模块为4G模块;
图像预处理模块,该模块用于去除获取图像的噪声,并对识别的数据进行预处理;
特征提取模块,该模块提取出关键特征,表征人体当前的姿态,去掉冗余的信息,减少数据量,提高后续的识别工作效率;
人体姿态识别模块,检测人的当前姿态,并对人的当前姿态进行识别。
还包括多线程模块,该模块用于加速处理。
还包括报警模块,该模块用于对识别的可疑人体肢体语言的人进行报警;报警的方式为短信报警。
需要说明的是:身体跟踪算法为已知技术。
SBR关键点检测器,能够利用无监督的方式增强任何基于图像的人脸关键点检测器,SBR利用了物体在视频中的运动比较平滑的特性来提升一个现有的人脸关键点检测器,相比较其他人脸关键点检测算法,SBR不需要利用任何额外的人工标注信息就能提升检测器的性能。
SBR使用的训练数据是有标注的图像数据和无标注的视频数据,在训练过程中,SBR可以用无监督的方式从视频中提取监督信息来优化检测器(神经网络)。
SBR的训练过程包含两个损失函数,一个是检测器损失函数,另一个是时序配准损失函数;这两者可以相互补充让人脸关键点检测器更加鲁棒,检测器损失函数作用于模型检测结果和人工标注上,优化使得在有标注的数据上,模型的检测结果和人工标注尽可能的接近,时序配准损失函数是优化在连续几帧内关键点检测结果的时序一致性;具体来说,输入连续的两帧图像 t-1和t,通过同一个人脸关键点检测器后,可以得到对于第t-1 帧的检测结果和第t帧的检测结果,我们将第t-1 帧的检测结果通过Lucas-Kanade算法跟踪到第t帧得到结果,时序配准损失函数就是为了让在第t帧上跟踪得到的结果和检测得到的,尽可能一致;值得注意的是,因为Lucas-Kanade 算法不需要训练且有封闭解,我们将Lucas-Kanade算法写成了一个可求导的模块嵌入到CNN中,在训练的时候,检测器损失函数利用人脸外观信息通过人工标注学习关键点检测器;时序配准损失函数通过嵌入Lucas-Kanade模块保证了时序一致性,梯度可以通过Lucas-Kanade 模块传给检测模型使得检测结果在相邻帧上一致。
实施例3
请参阅图1,本发明提供一种技术方案:一种人体肢体语言识别方法,包括如下步骤:
步骤一:由H9R深度摄像机获取图像,并将获取的图像上传到服务器;
步骤二:关键点检测器识别并标记出身体特点的部位,帮助身体跟踪算法了解不同角度下每个姿势的表现;
步骤三:对识别的数据进行预处理;
步骤四:预处理后的数据进行特征提取;
步骤五:利用分类器对提取的特征进行匹配,进而识别出人的当前姿态。
一种人体肢体语言识别***,包括信息采集模块、图像预处理模块、特征提取模块、人体姿态识别模块、多线程模块、通信模块、服务器,其中:
信息采集模块,该模块利用H9R深度摄像机获取到RGB图像和深度图像,并将采集的图像信息通过通信模块上传给服务器;通信模块为WiFi模块;
图像预处理模块,该模块用于去除获取图像的噪声,并对识别的数据进行预处理;
特征提取模块,该模块提取出关键特征,表征人体当前的姿态,去掉冗余的信息,减少数据量,提高后续的识别工作效率;
人体姿态识别模块,检测人的当前姿态,并对人的当前姿态进行识别。
还包括多线程模块,该模块用于加速处理。
还包括报警模块,该模块用于对识别的可疑人体肢体语言的人进行报警;报警的方式为声报警和短信报警相结合。
需要说明的是:身体跟踪算法为已知技术。
SBR 关键点检测器,能够利用无监督的方式增强任何基于图像的人脸关键点检测器,SBR 利用了物体在视频中的运动比较平滑的特性来提升一个现有的人脸关键点检测器,相比较其他人脸关键点检测算法,SBR 不需要利用任何额外的人工标注信息就能提升检测器的性能。
SBR使用的训练数据是有标注的图像数据和无标注的视频数据,在训练过程中,SBR 可以用无监督的方式从视频中提取监督信息来优化检测器(神经网络)。
SBR 的训练过程包含两个损失函数,一个是检测器损失函数,另一个是时序配准损失函数;这两者可以相互补充让人脸关键点检测器更加鲁棒,检测器损失函数作用于模型检测结果和人工标注上,优化使得在有标注的数据上,模型的检测结果和人工标注尽可能的接近,时序配准损失函数是优化在连续几帧内关键点检测结果的时序一致性;具体来说,输入连续的两帧图像 t-1和t,通过同一个人脸关键点检测器后,可以得到对于第t-1帧的检测结果和第t帧的检测结果,我们将第t-1 帧的检测结果通过Lucas-Kanade算法跟踪到第t帧得到结果,时序配准损失函数就是为了让在第t帧上跟踪得到的结果和检测得到的,尽可能一致;值得注意的是,因为Lucas-Kanade 算法不需要训练且有封闭解,我们将Lucas-Kanade算法写成了一个可求导的模块嵌入到CNN中,在训练的时候,检测器损失函数利用人脸外观信息通过人工标注学习关键点检测器;时序配准损失函数通过嵌入Lucas-Kanade模块保证了时序一致性,梯度可以通过Lucas-Kanade 模块传给检测模型使得检测结果在相邻帧上一致。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (8)
1.一种人体肢体语言识别方法,其特征在于,所述方法如下:
步骤一:由摄像机获取图像,并将获取的图像上传到服务器;
步骤二:关键点检测器识别并标记出身体特点的部位;
步骤三:对识别的数据进行预处理;
步骤四:预处理后的数据进行特征提取;
步骤五:对提取的特征进行匹配,进而识别出人的当前姿态;
所述关键点检测器为SBR关键点检测器,其训练内容包括,
使用的训练数据是有标注的图像数据和无标注的视频数据,
训练过程包含两个损失函数,一个是检测器损失函数,另一个是时序配准损失函数;这两者相互补充增强SBR关键点检测器的鲁棒性,检测器损失函数作用于模型检测结果和人工标注上,优化使得在有标注的数据上,模型的检测结果和人工标注尽可能的接近,时序配准损失函数是优化在连续几帧内关键点检测结果的时序一致性;
其作用内容包括,输入连续的两帧图像 t-1和t,通过SBR关键点检测器后,得到对于第t-1 帧的检测结果和第t帧的检测结果,将第t-1 帧的检测结果通过Lucas-Kanade算法跟踪到第t帧得到结果,通过时序配准损失函数使在第t帧上跟踪得到的结果和检测得到的结果尽可能保持一致;基于Lucas-Kanade 算法不需要训练且有封闭解,将Lucas-Kanade算法以一个可求导的模块嵌入到CNN中,在训练的时候,检测器损失函数利用人脸外观信息通过人工标注学习SBR关键点检测器;时序配准损失函数通过嵌入Lucas-Kanade模块保证了时序一致性,梯度可以通过Lucas-Kanade 模块传给检测模型使得检测结果在相邻帧上一致。
2.根据权利要求1所述的一种人体肢体语言识别方法,其特征在于:所述摄像机为H9R深度摄像机。
3.根据权利要求1所述的一种人体肢体语言识别方法,其特征在于:所述步骤五中,利用分类器对提取的特征进行匹配。
4.一种人体肢体语言识别***,其特征在于,应用了权利要求1-3中任一项所述的一种人体肢体语言识别方法,其特征在于,包括信息采集模块、图像预处理模块、特征提取模块、人体姿态识别模块、多线程模块、通信模块、服务器,其中:
信息采集模块,该模块利用H9R深度摄像机获取到RGB图像和深度图像,并将采集的图像信息通过通信模块上传给服务器;
图像预处理模块,该模块用于去除获取图像的噪声,并对识别的数据进行预处理;
特征提取模块,该模块提取出关键特征,表征人体当前的姿态,去掉冗余的信息;
人体姿态识别模块,检测人的当前姿态,并对人的当前姿态进行识别。
5.根据权利要求4所述的一种人体肢体语言识别***,其特征在于:还包括多线程模块,该模块用于加速处理。
6.根据权利要求4所述的一种人体肢体语言识别***,其特征在于:还包括报警模块,该模块用于对识别的可疑人体肢体语言的人进行报警。
7.根据权利要求6所述的一种人体肢体语言识别***,其特征在于:报警的方式为声报警或短信报警中的一种或两种。
8.根据权利要求4所述的一种人体肢体语言识别***,其特征在于:所述通信模块为GPRS、3G、4G、WiFi中的一种或几种。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910918406.0A CN110826401B (zh) | 2019-09-26 | 2019-09-26 | 一种人体肢体语言识别方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910918406.0A CN110826401B (zh) | 2019-09-26 | 2019-09-26 | 一种人体肢体语言识别方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110826401A CN110826401A (zh) | 2020-02-21 |
CN110826401B true CN110826401B (zh) | 2023-12-26 |
Family
ID=69548441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910918406.0A Active CN110826401B (zh) | 2019-09-26 | 2019-09-26 | 一种人体肢体语言识别方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110826401B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850846A (zh) * | 2015-06-02 | 2015-08-19 | 深圳大学 | 一种基于深度神经网络的人体行为识别方法及识别*** |
CN107103733A (zh) * | 2017-07-06 | 2017-08-29 | 司马大大(北京)智能***有限公司 | 一种摔倒报警方法、装置及设备 |
CN108305283A (zh) * | 2018-01-22 | 2018-07-20 | 清华大学 | 基于深度相机和基本姿势的人体行为识别方法及装置 |
CN108629306A (zh) * | 2018-04-28 | 2018-10-09 | 北京京东金融科技控股有限公司 | 人体姿态识别方法及装置、电子设备、存储介质 |
CN108898063A (zh) * | 2018-06-04 | 2018-11-27 | 大连大学 | 一种基于全卷积神经网络的人体姿态识别装置及方法 |
CN109165552A (zh) * | 2018-07-14 | 2019-01-08 | 深圳神目信息技术有限公司 | 一种基于人体关键点的姿态识别方法、***及存储器 |
CN109299659A (zh) * | 2018-08-21 | 2019-02-01 | 中国农业大学 | 一种基于rgb相机和深度学习的人体姿态识别方法与*** |
CN109376663A (zh) * | 2018-10-29 | 2019-02-22 | 广东工业大学 | 一种人体姿态识别方法及相关装置 |
CN109389562A (zh) * | 2018-09-29 | 2019-02-26 | 深圳市商汤科技有限公司 | 图像修复方法及装置 |
CN109614882A (zh) * | 2018-11-19 | 2019-04-12 | 浙江大学 | 一种基于人体姿态估计的暴力行为检测***及方法 |
-
2019
- 2019-09-26 CN CN201910918406.0A patent/CN110826401B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850846A (zh) * | 2015-06-02 | 2015-08-19 | 深圳大学 | 一种基于深度神经网络的人体行为识别方法及识别*** |
CN107103733A (zh) * | 2017-07-06 | 2017-08-29 | 司马大大(北京)智能***有限公司 | 一种摔倒报警方法、装置及设备 |
CN108305283A (zh) * | 2018-01-22 | 2018-07-20 | 清华大学 | 基于深度相机和基本姿势的人体行为识别方法及装置 |
CN108629306A (zh) * | 2018-04-28 | 2018-10-09 | 北京京东金融科技控股有限公司 | 人体姿态识别方法及装置、电子设备、存储介质 |
CN108898063A (zh) * | 2018-06-04 | 2018-11-27 | 大连大学 | 一种基于全卷积神经网络的人体姿态识别装置及方法 |
CN109165552A (zh) * | 2018-07-14 | 2019-01-08 | 深圳神目信息技术有限公司 | 一种基于人体关键点的姿态识别方法、***及存储器 |
CN109299659A (zh) * | 2018-08-21 | 2019-02-01 | 中国农业大学 | 一种基于rgb相机和深度学习的人体姿态识别方法与*** |
CN109389562A (zh) * | 2018-09-29 | 2019-02-26 | 深圳市商汤科技有限公司 | 图像修复方法及装置 |
CN109376663A (zh) * | 2018-10-29 | 2019-02-22 | 广东工业大学 | 一种人体姿态识别方法及相关装置 |
CN109614882A (zh) * | 2018-11-19 | 2019-04-12 | 浙江大学 | 一种基于人体姿态估计的暴力行为检测***及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110826401A (zh) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10691925B2 (en) | Enhanced face-detection and face-tracking for resource-limited embedded vision systems | |
Jiang et al. | Action unit detection using sparse appearance descriptors in space-time video volumes | |
US20220147735A1 (en) | Face-aware person re-identification system | |
CN110991315A (zh) | 一种基于深度学习的安全帽佩戴状态实时检测方法 | |
CN108960076B (zh) | 基于卷积神经网络的耳朵识别与跟踪方法 | |
CN106355154B (zh) | 一种监控视频中检测频繁过人的方法 | |
CN112836675B (zh) | 一种基于聚类生成伪标签的无监督行人重识别方法及*** | |
CN112699265A (zh) | 图像处理方法及装置、处理器、存储介质 | |
Zhao et al. | Real-time sign language recognition based on video stream | |
CN113642482B (zh) | 一种基于视频时空上下文的视频人物关系分析方法 | |
Ardiansyah et al. | Systematic literature review: American sign language translator | |
Xu et al. | Unusual event detection in crowded scenes using bag of LBPs in spatio-temporal patches | |
CN117058595A (zh) | 视频语义特征和可扩展粒度感知时序动作检测方法及装置 | |
Bulzomi et al. | End-to-end neuromorphic lip-reading | |
CN110826401B (zh) | 一种人体肢体语言识别方法及*** | |
CN116883900A (zh) | 一种基于多维生物特征的视频真伪鉴别方法和*** | |
CN105893967B (zh) | 基于时序保留性时空特征的人体行为分类检测方法及*** | |
CN116612542A (zh) | 基于多模态生物特征一致性的音视频人物识别方法及*** | |
CN111246176A (zh) | 一种节带化视频传输方法 | |
Ahmed et al. | Robust suspicious action recognition approach using pose descriptor | |
CN109670435A (zh) | 一种基于人体步态特征对身份进行识别的方法 | |
CN113705339A (zh) | 基于对抗性域适应策略的跨用户人体行为识别方法 | |
Chen | Embracing multimodal data in multimedia data analysis | |
Mahbub et al. | One-shot-learning gesture recognition using motion history based gesture silhouettes | |
CN112784631A (zh) | 一种基于深度神经网络进行人脸情绪识别的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |