CN108829233B - 一种交互方法及装置 - Google Patents
一种交互方法及装置 Download PDFInfo
- Publication number
- CN108829233B CN108829233B CN201810387822.8A CN201810387822A CN108829233B CN 108829233 B CN108829233 B CN 108829233B CN 201810387822 A CN201810387822 A CN 201810387822A CN 108829233 B CN108829233 B CN 108829233B
- Authority
- CN
- China
- Prior art keywords
- target person
- key point
- image
- human skeleton
- skeleton key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人机交互技术领域,公开了一种交互方法及装置,该方法包括:识别摄像头采集图像中所有人的人体骨骼关键点坐标集;从所述人体骨骼关键点坐标集获取目标人物的坐标数据;跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互;通过基于深度学习的卷积神经网络算法,提高了人机交互的速度和准确率,达到了自动跟踪目标人物的效果,且只需要普通摄像头来采集图像,成本较低,兼容性强。
Description
技术领域
本发明涉及人机交互技术领域,尤其涉及一种交互方法及装置。
背景技术
体感游戏是指玩家通过改变身体动作与智能设备进行交互的新型游戏,相比于传统的依赖按键或触摸等交互方式的游戏,体感游戏能够增强玩家的参与感,越来越受到游戏玩家的喜欢和市场的认可。
随着人工智能的重要性日益凸显,各种技术及应用层出不穷,深度学习作为人工智能领域中热门的研究方向,其能使得机器能模仿人脑学习机制去处理图像、声音等数据的方法,特别是在图像方面,基于深度学习算法的处理效果明显优于传统的图像处理算法。
体感游戏的核心技术是计算机如何获取玩家的身体动作信息,目前主要的实现方式有两种,一种是微软的Kinect摄像头,其能获取到玩家的身体动作信息,这种方法识别效果较好,缺点是硬件成本高,设备配置复杂。另一种方式是使用普通摄像头采集到玩家图像后,通过身体动作识别的深度学习算法获取到玩家动作信息,普通摄像头与Kinect摄像头的区别在于普通摄像头只能采集二维图像,而Kinect摄像头能采集到三维图像。这种方法硬件成本低,但玩家体验效果较差,容易受到现场环境的干扰,比如玩家身体被短暂遮挡后,再次出现再图像中,体感游戏无法重新识别出该玩家的身体动作信息。
发明内容
本发明的主要目的在于提出一种交互方法及装置,通过基于深度学习的卷积神经网络算法,提高了人机交互的速度和准确率,达到了自动跟踪目标人物的效果,且只需要普通摄像头来采集图像,成本较低,兼容性强。
为实现上述目的,本发明提供的一种交互方法,包括:
识别摄像头采集图像中所有人的人体骨骼关键点坐标集;
从所述人体骨骼关键点坐标集获取目标人物的坐标数据;
跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互。
可选地,所述识别摄像头采集图像中所有人的人体骨骼关键点坐标集包括:
获取摄像头采集到的图像;
使用人体骨骼关键点识别算法识别出所述图像中所有人的人体骨骼关键点坐标集。
可选地,所述跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互包括:
获取目标人物所在矩形区域的图像,确定初始跟踪区域;
通过目标跟踪算法估算所述目标人物某一时刻在摄像头采集图像中的矩形区域;
通过所述人体骨骼关键点识别算法计算出所述目标人物的实时坐标数据;
计算所述实时坐标数据对应的矩形区域与估算得到的矩形区域的交并比;
判断所述交并比是否大于预设的阈值,若是,将所述实时坐标数据作为目标人物与***进行交互的控制数据;
否则,记录所述某一时刻的目标人物的动作为异常动作,并累加异常次数。
可选地,所述记录所述某一时刻的目标人物的动作为异常动作,并累加异常次数之后还包括:
判断所述异常次数是否大于预设的次数阈值;
若是,则获取此时摄像头采集图像中所有人的人体骨骼关键点坐标集,计算所有人所在矩形区域与所述初始跟踪区域的相似度;
将所述相似度最大的人物作为目标人物。
可选地,所述目标人物为图像中完成预设动作的人物。
作为本发明的另一方面,提供的一种交互装置,包括:
识别模块,用于识别摄像头采集图像中所有人的人体骨骼关键点坐标集;
交互模块,用于从所述人体骨骼关键点坐标集获取目标人物的坐标数据;
跟踪模块,用于跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互。
可选地,所述识别模块包括:
图像获取单元,用于获取摄像头采集到的图像;
坐标计算单元,用于使用人体骨骼关键点识别算法识别出所述图像中所有人的人体骨骼关键点坐标集。
可选地,所述跟踪模块包括:
初始单元,用于获取目标人物所在矩形区域的图像,确定初始跟踪区域;
估算单元,用于通过目标跟踪算法估算所述目标人物某一时刻在摄像头采集图像中的矩形区域;
实时坐标计算单元,用于通过所述人体骨骼关键点识别算法计算出所述目标人物的实时坐标数据;
交并比计算单元,用于计算所述实时坐标数据对应的矩形区域与估算得到的矩形区域的交并比;
第一判断单元,用于判断所述交并比是否大于预设的阈值,若是,将所述实时坐标数据作为目标人物与***进行交互的控制数据;否则,记录所述某一时刻的目标人物的动作为异常动作,并累加异常次数。
可选地,所述跟踪模块还包括:
第二判断单元,用于判断所述异常次数是否大于预设的次数阈值;
相似度计算单元,用于当异常次数大于预设的次数阈值时,则获取此时摄像头采集图像中所有人的人体骨骼关键点坐标集,计算所有人所在矩形区域与所述初始跟踪区域的相似度;
重新获取目标单元,用于将所述相似度最大的人物作为目标人物。
可选地,所述目标人物为图像中完成预设动作的人物。
本发明提出的一种交互方法及装置,该方法包括:识别摄像头采集图像中所有人的人体骨骼关键点坐标集;从所述人体骨骼关键点坐标集获取目标人物的坐标数据;跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互;通过基于深度学习的卷积神经网络算法,提高了人机交互的速度和准确率,达到了自动跟踪目标人物的效果,且只需要普通摄像头来采集图像,成本较低,兼容性强。
附图说明
图1为本发明实施例一提供的一种交互方法流程图;
图2为图1中步骤S10的方法流程图;
图3为图1中步骤S30的一种方法流程图;
图4为图1中步骤S30的另一种方法流程图;
图5为本发明实施例二提供的一种交互装置示范性结构框图;
图6为图5中识别模块的示范性结构框图;
图7为图5中跟踪模块的一种示范性结构框图;
图8为图5中跟踪模块的另一种示范性结构框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
实施例一
如图1所示,在本实施例中,一种交互方法,包括:
S10、识别摄像头采集图像中所有人的人体骨骼关键点坐标集;
S20、从所述人体骨骼关键点坐标集获取目标人物的坐标数据;
S30、跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互。
在本实施例中,通过基于深度学习的卷积神经网络算法,提高了人机交互的速度和准确率,达到了自动跟踪目标人物的效果,且只需要普通摄像头来采集图像,成本较低,兼容性强。
在本实施例中,人体骨骼关键点通常指眼睛、鼻子、颈部、左肩、左肘、左腕、右肩、右肘、右腕、左臀、左膝盖、左踝、右臀、右膝盖、右踝等关键点,而这些关键点的坐标数据与采集的图像有关,比如一张尺寸大小为H×W的图像,以图像的左顶点为原点坐标(0,0),以原点向右顶点的方向为X轴,以原点向左下点的方向为Y轴,则关键点的坐标为(x,y),其中0≤x≤W,0≤y≤H。一种图像中可能存在零或多个人,人体骨骼关键点坐标数据集指的是把零或多个人的坐标数据放在一个集合中。
在本实施例中,所述目标人物为图像中完成预设动作的人物。
体感游戏启动时,会提示玩家做出预设的指定动作控制开始游戏,指定的动作如举手、站立等,这些动作映射到人体骨骼关键点坐标时是具有可分辨的特征的,所以能从人体骨骼关键点坐标数据集中选择出来。
如图2所示,在本实施例中,所述步骤S10包括:
S11、获取摄像头采集到的图像;
S12、使用人体骨骼关键点识别算法识别出所述图像中所有人的人体骨骼关键点坐标集。
在本实施例中,人体骨骼关键点识别算法包括基于深度学习的OpenPose算法。
在本实施例中,使用普通的摄像头作为图像数据采集设备,不仅硬件成本低,而且兼容性强,便于推广和使用;普通摄像头采集图像Ft,使用人体骨骼关键点识别算法识别出Ft中所有人的人体骨骼关键点坐标数据集{P1,P2,…,Pn}。Ft表示当前时刻采集到的图像,摄像头的帧率决定了时刻的单位,摄像头的分辨率决定了Ft图像的尺寸大小,Pn表示第n个人的人体骨骼关键点坐标数据。从{P1,P2,…,Pn}中选择指定动作的目标玩家的人体骨骼关键点坐标数据Pk,k∈{1,2,…,n},指定的动作包括举手、站立,但不限于具体动作。
如图3所示,在本实施例中,所述步骤S30包括:
S31、获取目标人物所在矩形区域的图像,确定初始跟踪区域;
根据人体骨骼关键点坐标数据Pk,截取保存图像Ft中目标玩家k所在的矩形区域O,并以此矩形区域的图像作为目标跟踪算法的初始化参数,初始化目标跟踪算法。
S32、通过目标跟踪算法估算所述目标人物某一时刻在摄像头采集图像中的矩形区域;
在本实施例中,目标跟踪算法包括基于深度学习的GOTURN算法。
S33、通过所述人体骨骼关键点识别算法计算出所述目标人物的实时坐标数据;
S34、计算所述实时坐标数据对应的矩形区域与估算得到的矩形区域的交并比;
摄像头采集图像Ft+1,目标跟踪算法估计出图像Ft+1中目标玩家所在区域的矩形M,人体骨骼关键点识别算法识别出Ft+1中所有人的人体骨骼关键点坐标数据集{P1,P2,…,Pn},计算{P1,P2,…,Pn}对应的人体所在的区域{N1,N2,…,Nn},然后在计算出{IoU1,IoU2,…,IoUn},最后取IoUk=max{IoU1,IoU2,…,IoUn},其中IoU(Intersectionover Union,交并比)的定义为:
S35、判断所述交并比是否大于预设的阈值,若是,S36、将所述实时坐标数据作为目标人物与***进行交互的控制数据;
否则,S37、记录所述某一时刻的目标人物的动作为异常动作,并累加异常次数。
若IoUk≥T1,T1为预设的阈值,则输出Pk作为目标玩家与体感游戏实际交互的控制数据;若IoUk<T1,记录并累加IoUk<T1的异常次数C。
如图4所示,在本实施例中,所述步骤S37之后还包括:
S38、判断所述异常次数是否大于预设的次数阈值;
若是,则S39、获取此时摄像头采集图像中所有人的人体骨骼关键点坐标集,计算所有人所在矩形区域与所述初始跟踪区域的相似度;否则,进入步骤S310、继续累加所示异常次数;
S311、将所述相似度最大的人物作为目标人物。
摄像头重新采集当前时刻图像Ft’,人体骨骼关键点识别算法识别出Ft’中所有人的人体骨骼关键点坐标数据集{P1,P2,…,Pn},计算{P1,P2,…,Pn}对应的人体所在的区域{N1,N2,…,Nn},然后在计算出{S1,S2,…,Sn},Sm表示区域O的图像与区域Nm的图像的相似度,其中m∈{1,2,…,n}。遍历{S1,S2,…,Sn},选择出Sk>T2,T2为预设的阈值,以Nk区域图像作为目标跟踪算法的初始化参数。
在本实施例中,本方法能够自动跟踪目标玩家,这种功能有效解决游戏中目标玩家受身体被短时间遮挡后导致跟踪目标丢失的问题,快速重新跟踪目标玩家,这极大提高了玩家对体感游戏的参与感,给玩家带来了更好的游戏体验。
实施例二
如图5所示,在本实施例中,一种交互装置,包括:
识别模块10,用于识别摄像头采集图像中所有人的人体骨骼关键点坐标集;
交互模块20,用于从所述人体骨骼关键点坐标集获取目标人物的坐标数据;
跟踪模块30,用于跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互。
在本实施例中,通过基于深度学习的卷积神经网络算法,提高了人机交互的速度和准确率,达到了自动跟踪目标人物的效果,且只需要普通摄像头来采集图像,成本较低,兼容性强。
在本实施例中,人体骨骼关键点通常指眼睛、鼻子、颈部、左肩、左肘、左腕、右肩、右肘、右腕、左臀、左膝盖、左踝、右臀、右膝盖、右踝等关键点,而这些关键点的坐标数据与采集的图像有关,比如一张尺寸大小为H×W的图像,以图像的左顶点为原点坐标(0,0),以原点向右顶点的方向为X轴,以原点向左下点的方向为Y轴,则关键点的坐标为(x,y),其中0≤x≤W,0≤y≤H。一种图像中可能存在零或多个人,人体骨骼关键点坐标数据集指的是把零或多个人的坐标数据放在一个集合中。
在本实施例中,所述目标人物为图像中完成预设动作的人物。
体感游戏启动时,会提示玩家做出预设的指定动作控制开始游戏,指定的动作如举手、站立等,这些动作映射到人体骨骼关键点坐标时是具有可分辨的特征的,所以能从人体骨骼关键点坐标数据集中选择出来。
如图6所示,在本实施例中,所述识别模块包括:
图像获取单元11,用于获取摄像头采集到的图像;
坐标计算单元12,用于使用人体骨骼关键点识别算法识别出所述图像中所有人的人体骨骼关键点坐标集。
在本实施例中,人体骨骼关键点识别算法包括基于深度学习的OpenPose算法。
在本实施例中,使用普通的摄像头作为图像数据采集设备,不仅硬件成本低,而且兼容性强,便于推广和使用;普通摄像头采集图像Ft,使用人体骨骼关键点识别算法识别出Ft中所有人的人体骨骼关键点坐标数据集{P1,P2,…,Pn}。Ft表示当前时刻采集到的图像,摄像头的帧率决定了时刻的单位,摄像头的分辨率决定了Ft图像的尺寸大小,Pn表示第n个人的人体骨骼关键点坐标数据。从{P1,P2,…,Pn}中选择指定动作的目标玩家的人体骨骼关键点坐标数据Pk,k∈{1,2,…,n},指定的动作包括举手、站立,但不限于具体动作。
如图7所示,在本实施例中,所述跟踪模块包括:
初始单元31,用于获取目标人物所在矩形区域的图像,确定初始跟踪区域;
根据人体骨骼关键点坐标数据Pk,截取保存图像Ft中目标玩家k所在的矩形区域O,并以此矩形区域的图像作为目标跟踪算法的初始化参数,初始化目标跟踪算法。
估算单元32,用于通过目标跟踪算法估算所述目标人物某一时刻在摄像头采集图像中的矩形区域;
在本实施例中,目标跟踪算法包括基于深度学习的GOTURN算法。
实时坐标计算单元33,用于通过所述人体骨骼关键点识别算法计算出所述目标人物的实时坐标数据;
交并比计算单元34,用于计算所述实时坐标数据对应的矩形区域与估算得到的矩形区域的交并比;
摄像头采集图像Ft+1,目标跟踪算法估计出图像Ft+1中目标玩家所在区域的矩形M,人体骨骼关键点识别算法识别出Ft+1中所有人的人体骨骼关键点坐标数据集{P1,P2,…,Pn},计算{P1,P2,…,Pn}对应的人体所在的区域{N1,N2,…,Nn},然后在计算出{IoU1,IoU2,…,IoUn},最后取IoUk=max{IoU1,IoU2,…,IoUn},其中IoU(Intersectionover Union,交并比)的定义为:
第一判断单元35,用于判断所述交并比是否大于预设的阈值,若是,将所述实时坐标数据作为目标人物与***进行交互的控制数据;否则,记录所述某一时刻的目标人物的动作为异常动作,并累加异常次数。
若IoUk≥T1,T1为预设的阈值,则输出Pk作为目标玩家与体感游戏实际交互的控制数据;若IoUk<T1,记录并累加IoUk<T1的异常次数C。
如图8所示,在本实施例中,所述跟踪模块还包括:
第二判断单元36,用于判断所述异常次数是否大于预设的次数阈值;
相似度计算单元37,用于当异常次数大于预设的次数阈值时,则获取此时摄像头采集图像中所有人的人体骨骼关键点坐标集,计算所有人所在矩形区域与所述初始跟踪区域的相似度;
重新获取目标单元38,用于将所述相似度最大的人物作为目标人物。
摄像头重新采集当前时刻图像Ft’,人体骨骼关键点识别算法识别出Ft’中所有人的人体骨骼关键点坐标数据集{P1,P2,…,Pn},计算{P1,P2,…,Pn}对应的人体所在的区域{N1,N2,…,Nn},然后在计算出{S1,S2,…,Sn},Sm表示区域O的图像与区域Nm的图像的相似度,其中m∈{1,2,…,n}。遍历{S1,S2,…,Sn},选择出Sk>T2,T2为预设的阈值,以Nk区域图像作为目标跟踪算法的初始化参数。
在本实施例中,本方法能够自动跟踪目标玩家,这种功能有效解决游戏中目标玩家受身体被短时间遮挡后导致跟踪目标丢失的问题,快速重新跟踪目标玩家,这极大提高了玩家对体感游戏的参与感,给玩家带来了更好的游戏体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (8)
1.一种交互方法,其特征在于,包括:
识别摄像头采集图像中所有人的人体骨骼关键点坐标集;
从所述人体骨骼关键点坐标集获取目标人物的坐标数据;
跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互;
其中,所述跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互的步骤包括:
获取目标人物所在矩形区域的图像,确定初始跟踪区域;
通过目标跟踪算法估算所述目标人物某一时刻在摄像头采集图像中的矩形区域;
通过所述人体骨骼关键点识别算法计算出所述目标人物的实时坐标数据;
计算所述实时坐标数据对应的矩形区域与估算得到的矩形区域的交并比;
判断所述交并比是否大于预设的阈值,若是,将所述实时坐标数据作为目标人物与***进行交互的控制数据;
否则,记录所述某一时刻的目标人物的动作为异常动作,并累加异常次数。
2.根据权利要求1所述的一种交互方法,其特征在于,所述识别摄像头采集图像中所有人的人体骨骼关键点坐标集包括:
获取摄像头采集到的图像;
使用人体骨骼关键点识别算法识别出所述图像中所有人的人体骨骼关键点坐标集。
3.根据权利要求1所述的一种交互方法,其特征在于,所述记录所述某一时刻的目标人物的动作为异常动作,并累加异常次数之后还包括:
判断所述异常次数是否大于预设的次数阈值;
若是,则获取此时摄像头采集图像中所有人的人体骨骼关键点坐标集,计算所有人所在矩形区域与所述初始跟踪区域的相似度;
将所述相似度最大的人物作为目标人物。
4.根据权利要求1所述的一种交互方法,其特征在于,所述目标人物为图像中完成预设动作的人物。
5.一种交互装置,其特征在于,包括:
识别模块,用于识别摄像头采集图像中所有人的人体骨骼关键点坐标集;
交互模块,用于从所述人体骨骼关键点坐标集获取目标人物的坐标数据;
跟踪模块,用于跟踪所述目标人物,根据所述目标人物的实时坐标数据进行交互;
其中,所述跟踪模块包括:
初始单元,用于获取目标人物所在矩形区域的图像,确定初始跟踪区域;
估算单元,用于通过目标跟踪算法估算所述目标人物某一时刻在摄像头采集图像中的矩形区域;
实时坐标计算单元,用于通过所述人体骨骼关键点识别算法计算出所述目标人物的实时坐标数据;
交并比计算单元,用于计算所述实时坐标数据对应的矩形区域与估算得到的矩形区域的交并比;
第一判断单元,用于判断所述交并比是否大于预设的阈值,若是,将所述实时坐标数据作为目标人物与***进行交互的控制数据;否则,记录所述某一时刻的目标人物的动作为异常动作,并累加异常次数。
6.根据权利要求5所述的一种交互装置,其特征在于,所述识别模块包括:
图像获取单元,用于获取摄像头采集到的图像;
坐标计算单元,用于使用人体骨骼关键点识别算法识别出所述图像中所有人的人体骨骼关键点坐标集。
7.根据权利要求5所述的一种交互装置,其特征在于,所述跟踪模块还包括:
第二判断单元,用于判断所述异常次数是否大于预设的次数阈值;
相似度计算单元,用于当异常次数大于预设的次数阈值时,则获取此时摄像头采集图像中所有人的人体骨骼关键点坐标集,计算所有人所在矩形区域与所述初始跟踪区域的相似度;
重新获取目标单元,用于将所述相似度最大的人物作为目标人物。
8.根据权利要求5所述的一种交互装置 ,其特征在于,所述目标人物为图像中完成预设动作的人物。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810387822.8A CN108829233B (zh) | 2018-04-26 | 2018-04-26 | 一种交互方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810387822.8A CN108829233B (zh) | 2018-04-26 | 2018-04-26 | 一种交互方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108829233A CN108829233A (zh) | 2018-11-16 |
CN108829233B true CN108829233B (zh) | 2021-06-15 |
Family
ID=64154163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810387822.8A Active CN108829233B (zh) | 2018-04-26 | 2018-04-26 | 一种交互方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108829233B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110502986A (zh) * | 2019-07-12 | 2019-11-26 | 平安科技(深圳)有限公司 | 识别图像中人物位置方法、装置、计算机设备和存储介质 |
CN110555404A (zh) * | 2019-08-29 | 2019-12-10 | 西北工业大学 | 基于人体姿态识别的飞翼无人机地面站交互装置及方法 |
CN113450534A (zh) * | 2020-03-27 | 2021-09-28 | 海信集团有限公司 | 检测儿童靠近危险品的装置及方法 |
CN113362324B (zh) * | 2021-07-21 | 2023-02-24 | 上海脊合医疗科技有限公司 | 一种基于视频图像的骨骼健康检测方法及*** |
CN115955603B (zh) * | 2022-12-06 | 2024-05-03 | 广州紫为云科技有限公司 | 一种基于智慧屏的体感交互的智能摄像头装置和实现方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129293A (zh) * | 2010-01-15 | 2011-07-20 | 微软公司 | 在运动捕捉***中跟踪用户组 |
CN103559491A (zh) * | 2013-10-11 | 2014-02-05 | 北京邮电大学 | 人体动作捕获及姿态分析*** |
CN104978029A (zh) * | 2015-06-30 | 2015-10-14 | 北京嘿哈科技有限公司 | 一种屏幕操控方法及装置 |
CN105469113A (zh) * | 2015-11-19 | 2016-04-06 | 广州新节奏智能科技有限公司 | 一种二维视频流中的人体骨骼点追踪方法及*** |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012181688A (ja) * | 2011-03-01 | 2012-09-20 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよびプログラム |
-
2018
- 2018-04-26 CN CN201810387822.8A patent/CN108829233B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129293A (zh) * | 2010-01-15 | 2011-07-20 | 微软公司 | 在运动捕捉***中跟踪用户组 |
CN103559491A (zh) * | 2013-10-11 | 2014-02-05 | 北京邮电大学 | 人体动作捕获及姿态分析*** |
CN104978029A (zh) * | 2015-06-30 | 2015-10-14 | 北京嘿哈科技有限公司 | 一种屏幕操控方法及装置 |
CN105469113A (zh) * | 2015-11-19 | 2016-04-06 | 广州新节奏智能科技有限公司 | 一种二维视频流中的人体骨骼点追踪方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN108829233A (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108829233B (zh) | 一种交互方法及装置 | |
Ibrahim et al. | An automatic Arabic sign language recognition system (ArSLRS) | |
CN110570455B (zh) | 一种面向房间vr的全身三维姿态跟踪方法 | |
CN105389539B (zh) | 一种基于深度数据的三维手势姿态估计方法及*** | |
CN107688391B (zh) | 一种基于单目视觉的手势识别方法和装置 | |
CN112926423B (zh) | 捏合手势检测识别方法、装置及*** | |
US8639020B1 (en) | Method and system for modeling subjects from a depth map | |
CN106527709B (zh) | 一种虚拟场景调整方法及头戴式智能设备 | |
CN109325456B (zh) | 目标识别方法、装置、目标识别设备及存储介质 | |
US20100208038A1 (en) | Method and system for gesture recognition | |
CN109176512A (zh) | 一种体感控制机器人的方法、机器人及控制装置 | |
WO2008007471A1 (fr) | Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur | |
US20120163661A1 (en) | Apparatus and method for recognizing multi-user interactions | |
CN113658211B (zh) | 一种用户姿态的评估方法、装置以及处理设备 | |
CN104933734A (zh) | 一种基于多kinect的人体姿态数据融合方法 | |
CN109308437B (zh) | 动作识别纠错方法、电子设备、存储介质 | |
WO2022174594A1 (zh) | 基于多相机的裸手追踪显示方法、装置及*** | |
CN106030610A (zh) | 移动设备的实时3d姿势识别和跟踪*** | |
CN112200074A (zh) | 一种姿态对比的方法和终端 | |
CN111596767A (zh) | 一种基于虚拟现实的姿态捕获方法和装置 | |
CN111222379A (zh) | 一种手部检测方法及装置 | |
CN104898971B (zh) | 一种基于视线跟踪技术的鼠标指针控制方法及*** | |
CN111368787A (zh) | 视频处理方法及装置、设备和计算机可读存储介质 | |
Tiwari et al. | Sign language recognition through kinect based depth images and neural network | |
Carrasco et al. | Exploiting eye–hand coordination to detect grasping movements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200629 Address after: Building 1, No.2, Danzi North Road, Kengzi street, Pingshan District, Shenzhen City, Guangdong Province Applicant after: SHENZHEN TONGWEI COMMUNICATION TECHNOLOGY Co.,Ltd. Address before: 518000 A 305-307, Nanshan medical instrument Park, 1019 Nanhai Road, Nanshan District merchants street, Shenzhen, Guangdong. Applicant before: SHENZHEN DEEPCONV TECHNOLOGIES Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |