CN109583363B - 基于人体关键点检测改进演讲者姿体动作的方法及*** - Google Patents
基于人体关键点检测改进演讲者姿体动作的方法及*** Download PDFInfo
- Publication number
- CN109583363B CN109583363B CN201811422699.5A CN201811422699A CN109583363B CN 109583363 B CN109583363 B CN 109583363B CN 201811422699 A CN201811422699 A CN 201811422699A CN 109583363 B CN109583363 B CN 109583363B
- Authority
- CN
- China
- Prior art keywords
- key point
- human body
- body key
- point
- combination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于人体关键点检测改进演讲者姿体动作的方法及***,该方法包括:在数据库中存储标准的预设人体关键点数据以及每一组预设人体关键点数据对应的描述语;通过摄像头装置,获取带有深度信息的视频流;从带有深度信息的视频流中提取人体关键点信号,将人体关键点信号与数据库中的预设人体关键点数据进行逐一比对,若人体关键点信号与数据库中预设人体关键点数据的差异小于阈值,判定比对成功,获取组预设人体关键点数据对应的描述语;将描述语语音播报给用户。本发明与传统训练方法相比,具有实时性,效率高同时费用低等优点。
Description
技术领域
本发明涉及教育领域以及计算机视觉领域,尤其涉及一种基于人体关键点检测改进演讲者姿体动作的方法及***。
背景技术
目前大部分个人在公众演讲时,都会有或多或少自己不易察觉的细微姿体动作这些多余的小动作有时非常影响整体的演讲效果,为了克服这些不利影响,人们通常是通过反复观看录像进行刻意训练或者请专业的指导教练在旁进行监督训练。前一种仅凭录像进行自我学***的参差不齐,因而很难普及。
发明内容
本发明提供了一种基于人体关键点检测改进演讲者姿体动作的方法及***,用以解决现有演讲姿体改进效率低以及价格贵的技术问题。
为解决上述技术问题,本发明提出的技术方案为:
一种基于人体关键点检测改进演讲者姿体动作的方法,包括以下步骤:
在数据库中存储标准的预设人体关键点数据以及每一组预设人体关键点数据对应的描述语;
通过摄像头装置,获取带有深度信息的视频流;
从带有深度信息的视频流中提取人体关键点信号,将人体关键点信号与数据库中的预设人体关键点数据进行逐一比对,若人体关键点信号与数据库中预设人体关键点数据的差异小于阈值,判定比对成功,获取组预设人体关键点数据对应的描述语;
将描述语语音播报给用户。
作为本发明的方法的进一步改进:
优选地,若人体关键点信号与数据库中预设人体关键点数据的差异大于或等于阈值时,返回重新获取带有深度信息的视频流,重新提取人体关键点信号,进行比对。
优选地,人体关键点信号为人体2D关键点位置组合,包括:右眼的上眼皮外侧点37、上眼皮内侧点38、下眼皮内侧点40和下眼皮外侧点41的4个关键点位置组成的组合一,左眼的上眼皮内侧点43、上眼皮外侧点44、下眼皮外侧点46和下眼皮内侧点47的4个关键点位置组成的组合二,右眉毛的内侧点21和左眉毛内侧点22的关键点位置组成的组合三。
优选地,人体3D关键点位置组合,包括:左右手各21个关键点的3D点云坐标
优选地,人体3D关键点位置组合,包括:鼻子0、右手腕4和左手腕7的3个关键点的3D点云坐标。
本发明还提供一种基于人体关键点检测改进演讲者姿体动作的***,包括:
存储模块,用于在数据库中存储标准的预设人体关键点数据以及每一组预设人体关键点数据对应的描述语;
输入模块,用于通过摄像头装置,获取带有深度信息的视频流;
3D人体关键点检测模块,用于从带有深度信息的视频流中提取人体关键点信号输入控制模块;
控制模块,用于将人体关键点信号与数据库中的预设人体关键点数据进行逐一比对,若人体关键点信号与数据库中预设人体关键点数据的差异小于阈值,判定比对成功,获取组预设人体关键点数据对应的描述语;
语音提示模块,用于将描述语语音播报给用户。
优选地,控制模块,还用于在人体关键点信号与数据库中预设人体关键点数据的差异大于或等于阈值时,返回通知输入模块重新获取带有深度信息的视频流,并经3D人体关键点检测模块重新提取人体关键点信号,进行比对。
优选地,人体关键点信号为人体2D关键点位置组合,包括:右眼的上眼皮外侧点37、上眼皮内侧点38、下眼皮内侧点40和下眼皮外侧点41的4个关键点位置组成的组合一,左眼的上眼皮内侧点43、上眼皮外侧点44、下眼皮外侧点46和下眼皮内侧点47的4个关键点位置组成的组合二,右眉毛的内侧点21和左眉毛内侧点22的关键点位置组成的组合三。
本发明还提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述任一方法的步骤。
本发明具有以下有益效果:
本发明的基于人体关键点检测改进演讲者姿体动作的方法及***,采用3D人体关键点检测模块对人体的3D动作进行检测,获取3D人体关键点信号,控制模块将3D人体关键点信号与存储模块中预设的3D人体关键点数据进行一一比对,得出比对成功的3D人体关键点对应的描述语,进而提示用户,已达到不断改进演讲者姿体动作的目的。本发明与传统训练方法相比,具有实时性,效率高同时费用低等优点。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明优选实施例的基于人体关键点检测改进演讲者姿体动作的方法的流程示意图;
图2是本发明优选实施例1的基于人体关键点检测改进演讲者姿体动作的结构示意图;
图3是本发明优选实施例2的脸部70个关键点示意图;
图4是本发明优选实施例3的手部21个关键点示意图;
图5是本发明优选实施例4的身体25个关键点示意图;
图6是本发明优选实施例1的3D人体关键点示意图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
参见图1,本发明的基于人体关键点检测改进演讲者姿体动作的方法,包括以下步骤:
在数据库中存储标准的预设人体关键点数据以及每一组预设人体关键点数据对应的描述语;
通过摄像头装置,获取带有深度信息的视频流;
从带有深度信息的视频流中提取人体关键点信号,将人体关键点信号与数据库中的预设人体关键点数据进行逐一比对,若人体关键点信号与数据库中预设人体关键点数据的差异小于阈值,判定比对成功,获取组预设人体关键点数据对应的描述语;
将描述语语音播报给用户。
上述步骤,采用3D人体关键点检测模块对人体的3D动作进行检测,获取3D人体关键点信号,控制模块将3D人体关键点信号与存储模块中预设的3D人体关键点数据进行一一比对,得出比对成功的3D人体关键点对应的描述语,进而提示用户,已达到不断改进演讲者姿体动作的目的。
实际实施时,以上的方法还能进行以下的扩充或应用,以下实施例中的技术特征都能相互组合,实施例仅作为示例,不作为对技术特征的正常组合限制。
实施例1:
参见图1,本发明的基于人体关键点检测改进演讲者姿体动作的方法,包括以下步骤:
在数据库中存储标准的预设人体关键点数据以及每一组预设人体关键点数据对应的描述语;
通过摄像头装置,获取带有深度信息的视频流;
从带有深度信息的视频流中提取人体关键点信号,将人体关键点信号与数据库中的预设人体关键点数据进行逐一比对:
若人体关键点信号与数据库中预设人体关键点数据的差异小于阈值,判定比对成功,获取组预设人体关键点数据对应的描述语;将描述语语音播报给用户;
若人体关键点信号与数据库中预设人体关键点数据的差异大于或等于阈值时,返回重新获取带有深度信息的视频流,重新提取人体关键点信号,进行比对。图6是本发明优选实施例1的3D人体关键点示意图,关键点总共135个,图6中未示出,实际包括图2的脸部70个关键点、图4的手部21个关键点(乘以2)以及图5的身体25个关键点的总和(其中,手腕部的0号关键点是与身体关键点重复,只计算一次)。
参见图2,本实施例还提供一种基于人体关键点检测改进演讲者姿体动作的***,包括:
存储模块,用于在数据库中存储标准的预设人体关键点数据以及每一组预设人体关键点数据对应的描述语;
输入模块,用于通过摄像头装置,获取带有深度信息的视频流;
3D人体关键点检测模块,用于从带有深度信息的视频流中提取人体关键点信号输入控制模块;
控制模块,用于将人体关键点信号与数据库中的预设人体关键点数据进行逐一比对,若人体关键点信号与数据库中预设人体关键点数据的差异小于阈值,判定比对成功,获取组预设人体关键点数据对应的描述语;还用于在人体关键点信号与数据库中预设人体关键点数据的差异大于或等于阈值时,返回通知输入模块重新获取带有深度信息的视频流,并经3D人体关键点检测模块重新提取人体关键点信号,进行比对。
语音提示模块,用于在获取描述语后将描述语语音播报给用户。
实施例2:
本实施例为实施例1的应用例,本实施例的步骤与实施例1基本相同,在此不再赘述。二者的不同之处在于:人体关键点信号为人体2D关键点位置组合,如图3所示,包括:右眼的37(上眼皮外侧点)、38(上眼皮内侧点)、40(下眼皮内侧点)、41(下眼皮外侧点)号4个关键点位置组成的组合一,左眼的43(上眼皮内侧点)、44(上眼皮外侧点)、46(下眼皮外侧点)、47(下眼皮内侧点)号4个关键点位置组成的组合二,右眉毛的21(内侧点)号关键点和左眉毛22(内侧点)号关键点位置组成的组合三。
获取多张人体面部包括瞪眼、正常的睁眼、半开眼以及闭眼的正面图像、得到组合一和组合二中所有关键点的位置坐标;针对组合一,计算37号和41号以及38号和40号坐标在图像坐标系(横坐标u表示图像数组中列数,纵坐标v表示图像数组中行数)中v值的欧几里得距离并做累加,得到的值作为后续判断右眼是否瞪眼、正常的睁眼、半开眼以及闭眼的阈值。组合二与组合一类似,计算43号和47号以及44号和46号坐标在图像坐标系中v值的欧几里得距离并做累加,得到的值作为后续判断左眼是否瞪眼、正常的睁眼、半开眼以及闭眼的阈值。
获取多张人体面部正常表情和皱眉表情下的正面图像、得到组合三中21和22号关键点的位置坐标,计算21号和22号坐标在图像坐标系中u值的欧几里得距离,得到的值作为后续判断是否皱眉的阈值。
判断过程,通过实时检测并利用上述计算方法得到的组合一、二、三的距离值与相应阈值做比较,如果大于正常睁眼的阈值则进行语音提示:“左/右眼睁开过大”,如果小于半开眼的阈值则进行语音提示:“左/右眼闭合”;如果组合三距离值小于正常表情下的阈值,同时与皱眉表情下的阈值差小于正常表情下的阈值与皱眉表情下的阈值差的一半则认为用户皱眉了,进行语音提示:“皱眉了”。
实施例3:
本实施例为实施例1的应用例,本实施例的步骤与实施例1基本相同,在此不再赘述。二者的不同之处在于:人体3D关键点位置组合,如图4所示,包括:左右手各21个关键点的点云坐标。
获取多张用户双手张开、微张开、握拳状态下的手部检测图像,得到其3D点云坐标,并分别计算左右手在各状态下,所有关键点的方差值,并作为它们的状态阈值。
判断过程,通过实时检测并计算双手所有关键点的方差值与各状态的阈值进行比较,如果小于微张状态下的阈值,并且与握拳状态下的阈值差小于微张和握拳状态下阈值差的一半,则认为用户握拳了,进行语音提示:“左/右手握拳了”。
实施例4:
本实施例为实施例1的应用例,本实施例的步骤与实施例1基本相同,在此不再赘述。二者的不同之处在于:人体3D关键点位置组合,如图5所示,包括:0号(鼻子)、4号(右手腕)和7号(左手腕)3个关键点的3D点云坐标。
获取多张用户正常站立状态下的身体检测图像,得到其3D点云坐标,分别计算4号与0号、7号与0号的欧几里得距离,将其值作为正常站姿状态的阈值。
获取多张用户左手放在左耳、鼻子、摸头,右手放在右耳、鼻子,摸头状态下的身体检测图像,得到其3D点云坐标,分别计算4号与0号、7号与0号的欧几里得距离,然后计算左右手在三种状态下欧几里得距离的平均值,将其值作为左右手摸头状态的阈值。
判断过程,通过实时检测并计算4号与0号、7号与0号的欧几里得距离与阈值进行比较,如果检测的距离值小于正常站姿状态的阈值,并且检测的距离值与左右手摸头状态的阈值差小于正常站姿状态的阈值与左右手摸头状态的阈值差的1/3,则认为用户摸头了,进行语音提示:“左/右手摸头了”。
实施例5:
本实施例提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述任一实施例的步骤。
综上可知,本发明与传统训练方法相比,具有实时性,效率高同时费用低等优点。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于人体关键点检测改进演讲者姿体动作的方法,其特征在于,包括以下步骤:
在数据库中存储标准的预设人体关键点数据以及每一组预设人体关键点数据对应的描述语;
通过摄像头装置,获取带有深度信息的视频流;
从所述带有深度信息的视频流中提取人体关键点信号,将所述人体关键点信号与数据库中的预设人体关键点数据进行逐一比对,将人体关键点组合的欧几里得距离与数据库中预设人体关键点组合状态的阈值进行比对,若欧几里得距离小于正常状态下的阈值并且与异常状态下的阈值差小于所述正常状态下和异常状态下的阈值差的1/2,判定比对成功,获取所述组预设人体关键点数据对应的描述语;将所述描述语语音播报给用户;
其中,所述人体关键点信号包括人体2D关键点位置组合,包括:右眼的上眼皮外侧点(37)、上眼皮内侧点 (38)、下眼皮内侧点 (40)和下眼皮外侧点 (41)的4个关键点位置组成的组合一,左眼的上眼皮内侧点 (43)、上眼皮外侧点 (44)、下眼皮外侧点 (46)和下眼皮内侧点 (47)的4个关键点位置组成的组合二,右眉毛的内侧点 (21)和左眉毛内侧点(22)的关键点位置组成的组合三;对应的所述人体关键点组合的欧几里得距离为:分别计算得到的组合一、组合二和组合三中对应的各关键点的坐标在图像坐标系中v值或u值的欧几里得距离的累加和;
若所述人体关键点信号与数据库中预设人体关键点数据的差异大于或等于阈值时,返回重新获取带有深度信息的视频流,重新提取人体关键点信号,进行比对。
2.一种基于人体关键点检测改进演讲者姿体动作的***,其特征在于,包括:
存储模块,用于在数据库中存储标准的预设人体关键点数据以及每一组预设人体关键点数据对应的描述语;
输入模块,用于通过摄像头装置,获取带有深度信息的视频流;
3D人体关键点检测模块,用于从所述带有深度信息的视频流中提取人体关键点信号输入控制模块;
控制模块,用于将所述人体关键点信号与数据库中的预设人体关键点数据进行逐一比对,将人体关键点组合的欧几里得距离与数据库中预设人体关键点组合状态的阈值进行比对,若欧几里得距离小于正常状态下的阈值并且与异常状态下的阈值差小于所述正常状态下和异常状态下的阈值差的1/2,判定比对成功,获取所述组预设人体关键点数据对应的描述语;语音提示模块,用于将所述描述语语音播报给用户;
其中,所述人体关键点信号包括人体2D关键点位置组合,包括:右眼的上眼皮外侧点(37)、上眼皮内侧点 (38)、下眼皮内侧点 (40)和下眼皮外侧点 (41)的4个关键点位置组成的组合一,左眼的上眼皮内侧点 (43)、上眼皮外侧点 (44)、下眼皮外侧点 (46)和下眼皮内侧点 (47)的4个关键点位置组成的组合二,右眉毛的内侧点 (21)和左眉毛内侧点(22)的关键点位置组成的组合三;对应的所述人体关键点组合的欧几里得距离为:分别计算得到的组合一、组合二和组合三中对应的各关键点的坐标在图像坐标系中v值或u值的欧几里得距离的累加和;
所述控制模块,还用于在所述人体关键点信号与数据库中预设人体关键点数据的差异大于或等于阈值时,返回通知输入模块重新获取带有深度信息的视频流,并重新提取人体关键点信号,进行比对。
3.一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811422699.5A CN109583363B (zh) | 2018-11-27 | 2018-11-27 | 基于人体关键点检测改进演讲者姿体动作的方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811422699.5A CN109583363B (zh) | 2018-11-27 | 2018-11-27 | 基于人体关键点检测改进演讲者姿体动作的方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109583363A CN109583363A (zh) | 2019-04-05 |
CN109583363B true CN109583363B (zh) | 2022-02-11 |
Family
ID=65924785
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811422699.5A Active CN109583363B (zh) | 2018-11-27 | 2018-11-27 | 基于人体关键点检测改进演讲者姿体动作的方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109583363B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113299132A (zh) * | 2021-06-08 | 2021-08-24 | 上海松鼠课堂人工智能科技有限公司 | 基于虚拟现实场景的学生演讲技能训练方法及*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3115956A1 (en) * | 2015-07-09 | 2017-01-11 | Fujitsu Limited | Interest degree determination device, interest degree determination method, and interest degree determination program |
CN106997243A (zh) * | 2017-03-28 | 2017-08-01 | 北京光年无限科技有限公司 | 基于智能机器人的演讲场景监控方法及装置 |
CN107281710A (zh) * | 2017-07-31 | 2017-10-24 | 尚晟 | 一种矫正动作误差的方法 |
CN108256433A (zh) * | 2017-12-22 | 2018-07-06 | 银河水滴科技(北京)有限公司 | 一种运动姿态评估方法及*** |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8418085B2 (en) * | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
TWI528336B (zh) * | 2013-11-29 | 2016-04-01 | Speech skills of audio and video automatic assessment and training system | |
TWI508034B (zh) * | 2014-01-08 | 2015-11-11 | Ind Tech Res Inst | 心肺復甦術教學系統及方法 |
CN107194361B (zh) * | 2017-05-27 | 2021-04-02 | 成都通甲优博科技有限责任公司 | 二维姿势检测方法及装置 |
-
2018
- 2018-11-27 CN CN201811422699.5A patent/CN109583363B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3115956A1 (en) * | 2015-07-09 | 2017-01-11 | Fujitsu Limited | Interest degree determination device, interest degree determination method, and interest degree determination program |
CN106997243A (zh) * | 2017-03-28 | 2017-08-01 | 北京光年无限科技有限公司 | 基于智能机器人的演讲场景监控方法及装置 |
CN107281710A (zh) * | 2017-07-31 | 2017-10-24 | 尚晟 | 一种矫正动作误差的方法 |
CN108256433A (zh) * | 2017-12-22 | 2018-07-06 | 银河水滴科技(北京)有限公司 | 一种运动姿态评估方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN109583363A (zh) | 2019-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI646444B (zh) | 一種喚醒智慧機器人的方法及智慧機器人 | |
Hsieh et al. | A real time hand gesture recognition system using motion history image | |
Zafrulla et al. | American sign language recognition with the kinect | |
Yang et al. | Eigenjoints-based action recognition using naive-bayes-nearest-neighbor | |
Ibrahim et al. | Embedded system for eye blink detection using machine learning technique | |
WO2016172872A1 (zh) | 用于验证活体人脸的方法、设备和计算机程序产品 | |
CN110531853B (zh) | 一种基于人眼注视点检测的电子书阅读器控制方法及*** | |
WO2020124993A1 (zh) | 活体检测方法、装置、电子设备及存储介质 | |
WO2018103416A1 (zh) | 用于人脸图像的检测方法和装置 | |
CN106648078A (zh) | 应用于智能机器人的多模态交互方法及*** | |
CN111046825A (zh) | 人体姿态识别方法、装置、***及计算机可读存储介质 | |
CN110221693A (zh) | 一种基于人机交互的智能零售终端操作*** | |
CN111241922B (zh) | 一种机器人及其控制方法、计算机可读存储介质 | |
CN111860394A (zh) | 一种基于姿态估计和动作检测的动作活体识别方法 | |
CN112784926A (zh) | 一种手势交互的方法和*** | |
CN109583363B (zh) | 基于人体关键点检测改进演讲者姿体动作的方法及*** | |
CN113347381B (zh) | 预测不雅举止轨迹的方法及*** | |
CN111223549A (zh) | 一种基于姿态矫正的疾病预防的移动端***及方法 | |
CN116266415A (zh) | 基于健身教学训练的动作评价方法及***及装置及介质 | |
CN113177531A (zh) | 一种基于视频分析的说话识别方法、***、设备及介质 | |
CN104992085A (zh) | 一种基于触摸轨迹跟踪的人体活体检测方法及装置 | |
CN116301381A (zh) | 一种交互方法及相关设备和*** | |
Hu et al. | Gesture detection from RGB hand image using modified convolutional neural network | |
CN112527103B (zh) | 显示设备的遥控方法、装置、设备及计算机可读存储介质 | |
CN113093907B (zh) | 人机交互方法、***、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |