CN103885597A - 空间输入识别方法和*** - Google Patents
空间输入识别方法和*** Download PDFInfo
- Publication number
- CN103885597A CN103885597A CN201410120673.0A CN201410120673A CN103885597A CN 103885597 A CN103885597 A CN 103885597A CN 201410120673 A CN201410120673 A CN 201410120673A CN 103885597 A CN103885597 A CN 103885597A
- Authority
- CN
- China
- Prior art keywords
- input operation
- speed
- velocity
- time
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
一种空间输入识别方法和***,其中方法包括:获取对象各部位对应在三维坐标中的原始坐标,根据各原始坐标建立对象的三维模型;对对象各部位进行特征识别,获取对象的待识别部位对应在三维坐标中的当前坐标并记录获取的时间,根据各当前坐标以及三维模型计算待识别部位各时间对应的三维速度;计算三维速度在各二维平面的速度分量,并建立对应二维平面的速度-时间折线图;根据预设速度范围判断速度-时间折线图的速度值,删除在速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作;根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型。通过本方案提高识别效率和准确率。
Description
技术领域
本发明涉及识别技术领域,特别是涉及一种空间输入识别方法和***。
背景技术
目前,随着三维设备、空间识别***的使用越来越普及,空间操作上的输入方法也越来越多。越来越多的产品开始在空间操作上对目标对象进行直接操作,从而代替传统鼠标,触摸屏等二维空间输入接触式控制。这样不仅操作直观,而且在交互性上与***更加融合,符合现实的三维空间操作逻辑,而且在大型拼接墙可避免直接接触设备的不便,可直接在墙前一段距离就可对显示屏操作,留给操作对象的屏幕空间视觉更加广。
比如,空间输入可以是通过操作者的手势进行输入。现有的计算机***在识别空间手势主要通过如下几点特征识别:1、通过手掌面向识别设备时手掌在肢体方位的投影经过的肢***置条件判断是否符合手势生成条件;2、通过手势方向条件识别手势;3、在指定获取的输入操作总数中是否满足手势生成条件。上述的生成手势特殊,都可在一定范围识别手势的输入操作并生成手势,但同时容易引发误操作,生成并非操作者所需的手势,如:操作者的手部无意识移动时经过肢***置、操作者正在行走时手部的无意间晃动输入操作、操作者甩手输入操作、录制设备获取到的不稳定数据时手部数据“跳点”得到的不实点输入操作、手部移动等。另外,还会由于未达到指定位置而使手势无法生成等问题,这些都会影响使用都对空中手势的使用信心。
发明内容
基于此,有必要针对空间输入识别效率低以及不准确的问题,提供一种空间输入识别方法和***。
一种空间输入识别方法,包括步骤:
获取对象各部位对应在三维坐标中的原始坐标,根据各所述原始坐标建立对象的三维模型,其中,所述三维模型中对象的各面所在平面分别与三维坐标中其中两维构成的平面平行;
对所述对象各部位进行特征识别,获取对象的待识别部位对应在三维坐标中的当前坐标并记录获取的时间,根据各所述当前坐标以及所述三维模型计算待识别部位各时间对应的三维速度,其中,三维速度包括方向和速度值;
计算所述三维速度在各二维平面的速度分量,获得二维平面的速度,根据每个二维平面的速度和对应时间建立对应二维平面的速度-时间折线图;
根据预设速度范围判断所述速度-时间折线图的速度值,删除在所述速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作;
根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型。
一种空间输入识别***,包括:
三维模型建立模块,用于获取对象各部位对应在三维坐标中的原始坐标,根据各所述原始坐标建立对象的三维模型,其中,所述三维模型中对象的各面所在平面分别与三维坐标中其中两维构成的平面平行;
三维速度计算模块,用于对所述对象各部位进行特征识别,获取对象的待识别部位对应在三维坐标中的当前坐标并记录获取的时间,根据各所述当前坐标以及所述三维模型计算待识别部位各时间对应的三维速度,其中,三维速度包括方向和速度值;
折线图确定模块,用于计算所述三维速度在各二维平面的速度分量,获得二维平面的速度,根据每个二维平面的速度和对应时间建立对应二维平面的速度-时间折线图;
输入操作确定模块,用于根据预设速度范围判断所述速度-时间折线图的速度值,删除在所述速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作;
输入操作类型判断模块,用于根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型。
上述空间输入识别方法和***,通过建立对象的三维模型,并获取对象的待识别部位对应的坐标,计算得到该待识别部位不同时间对应的三维速度,根据三维速度和对应的时间建立对应二维平面的速度-时间折线图,根据速度-时间折线图确定哪些速度属于当前输入操作;根据当前输入操作的各速度的方向与预设坐标方向的关系确定当前输入操作的类型。从而在持续的时间空间的运动线上通过对速度的判断实现对操作对象输入操作的识别,提高了识别效率,同时根据每次输入操作的速度的方向与预设坐标方向的关系确定该次输入操作的类型,避免了对误操作的识别,从而提高了识别的准确率。
附图说明
图1为本发明空间输入识别方法实施例的流程示意图;
图2为本发明实施例中其中一个二维平面的速度-时间折线图;
图3为本发明实施例中其中一个二维平面的速度-时间离散图;
图4为本发明空间输入识别***实施例的结构示意图。
具体实施方式
以下针对本发明空间输入识别方法和***的各实施例进行详细的描述。
如图1所示,为本发明空间输入识别方法实施例的流程示意图,包括:
步骤S101:获取对象各部位对应在三维坐标中的原始坐标,根据各原始坐标建立对象的三维模型,其中,三维模型中对象的各面所在平面分别与三维坐标中其中两维构成的平面平行;
该步骤目的是为了建立操作对象的三维模型。操作对象是指给***发出输入指令的对象。比如,操作对象可以是人类、动物、机器人等。操作对象一般认为有六个面,即正面、背面、左面、右面、上面和下面。这六个面各自所在平面与三维坐标中其中两维构成的平面平行。这样建立的三维模型有利于后续利用速度方向判断输入操作类型。比如,操作对象是人类时,因为一般获取数据时人体是正对获取装置的,所以采集到的数据中,人体正面所在平面与三维坐标中其中两维构成的平面平行。当三维模型中人体正面所在平面与三维坐标中其中两维构成的平面不平行时,则将其校正为与三维坐标中其中两维构成的平面平行,目的是为了后续速度方向的准确判断。
步骤S102:对对象各部位进行特征识别,获取对象的待识别部位对应在三维坐标中的当前坐标并记录获取的时间,根据各当前坐标以及三维模型计算待识别部位各时间对应的三维速度,其中,三维速度包括方向和速度值;
对象进行空间输入时,一般是由对象的其中一个部位进行滑动实现输入。因此本实施例只对待识别部位进行获取坐标数据,目的是避免其他部位引起的误操作,从而导致误识别。获取对象的待测识别部位可以是获取待测识别部位的每一个点对应的当前坐标,也可以是能代表该待识别部位特征的一些特征点对应的当前坐标。例如,在对人体手势识别时,人体手部可以是指手掌、手指等。获取手部每个点对应在三维坐标中的当前坐标,并将获取时间进行存储。也可以仅对手部骨骸进行识别,获取骨骸每个骨骸点对应的当前坐标。另外,还可以不获取人体手部所有骨骸点对应的数据,可以仅获取几个关键骨骸点对应在三维坐标中的当前坐标并记录获取的时间,根据这些数据对手势进行判断。关键骨骸点可以预设。通过这样的方式,可以大大提高处理效率。
步骤S103:计算三维速度在各二维平面的速度分量,获得二维平面的速度,根据每个二维平面的速度和对应时间建立对应二维平面的速度-时间折线图;
三维速度是三维的,所以要先将三维速度转换为二维平面的速度,从而建立不同纬度的折线图。由于获取数据的频率是很高的,所以将速度与时间的关系用二维坐标绘制出来后,线路是连续的,即可得到折线图。如图2所示,为其中一个实施例其中一个二维平面的速度-时间折线图。该图记录的是操作对象反复翻页时其中一维的输入操作。
另外,二维平面是基于三维模型生成的,即二维平面为三维模型中的三个二维平面。二维平面中的二维坐标与三维模型其中一个面的坐标相同。即第一个二维平面的二维坐标由三维坐标的X、Y组成,第二个二维平面的二维坐标由三维坐标的X、Z组成,第三个二维平面的二维坐标由三维坐标的Y、Z组成。同时,这里需要申明,三维速度是指三维速度,速度是指二维平面的速度。
步骤S104:根据预设速度范围判断速度-时间折线图的速度值,删除在速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作;
折线图中记载的数据较多,将折线图中在预设速度范围内的数据删除。预设范围可以是-0.05m/s~0.05m/s。因为这个范围内的速度比较小,可以认为是非正常输入操作。删除速度后,获得新的速度-时间折线图。根据新的速度-时间折线图可以确定该折线图中各速度所属的输入操作,即哪些速度是属于同一个输入操作。确定方法有很多种,比如可以根据折线图进行特征采样,得到速度-时间离散图,然后根据速度-时间离散图的密集度确定各速度的所属的输入操作。如图3所示,同一输入操作的速度距离相对较近,该图中密集度较高的每一簇离散点表示输入操作是正在翻页时的往返数据集。
输入操作是指待识别部位在空间上的移动操作。这里确定各速度所属输入操作是指确定各速度是属于哪一个输入操作,目的是将各速度进行划分,找出同一输入操作的速度。因为速度是有方向的,同一次输入操作内的速度方向相同,且有一定的变化规律。因此,可以将密集度比较大的一些速度划分为同一输入操作。
步骤S105:根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型。
输入操作类型可以是指待识别部位在空间上的移动操作类型,例如,向左滑动、向右滑动、向上滑动、向下滑动、点击等。这些输入操作可以和坐标方向关联起来。由于建立的对象的三维模型中,对象各面所在平面与三维坐标中其中两面是平行的,则左右滑动方向是三维坐标其中一轴的方向,上下滑动方向是三维坐标其中一轴的方向,点击(即向前滑动)是三维坐标最后一轴的方向。而二维平面是基于三维模型建立的,则二维平面的坐标方向与三维模型的坐标方向相同,因此预设坐标方向即为三维坐标的坐标方向。所以可以根据速度方向与坐标方向判断输入操作类型。另外,可以根据速度大小判断哪一个二维平面才是输入操作的主要滑动平面。因此可以避免由于误操作导致的错误识别。同时,由于只需计算三维速度,因此可以提高效率。
为了提高空间输入识别的准确性,在其中一个实施例中提出一种判断各个速度是否为同一输入操作内的速度的方法。即:
根据预设速度范围判断速度-时间折线图的速度值,删除在速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作步骤,包括:
判断速度-时间折线图中的速度是否在预设速度范围内;
若否,则计算该速度对应的时间与当前输入操作最小时间的差值,将差值与平均输入操作时间比较,若小于或等于平均输入操作时间,该速度为当前输入操作内的速度,若大于平均输入操作时间,则该速度为新输入操作的速度;
若是,则删除在预设速度范围内的速度。
其中,平均输入操作时间可以根据历史数据获得。本实施例是想通过平均输入操作时间来判断是否为同一输入操作。因为每个速度都对应有时间(因为三维速度分量的时间与三维速度时间相同),求出时间差,并将时间差与平均输入操作时间进行对比,从而判断出是否为同一输入操作内的速度。并且删除一些速度比较小的速度,将其认为是非正常手势输入操作行为。
在另一个实施例中,根据预设速度范围判断速度-时间折线图的速度值,删除在速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作步骤,包括:
判断速度-时间折线图中的速度是否在预设速度范围内;
若否,则将各速度按照其对应的时间进行排序,判断排序后的速度是否满足先升序后降序的规则,若满足,则各速度为当前输入操作内的速度,若不满足,则删除该次输入操作内的速度;
若是,则删除在预设速度范围内的速度。
本实施例是利用输入操作的常规规律,由于滑动或点击时,往往会出现先慢,再快,最后慢下来的规律,因此可以按照时间进行排序,判断该输入操作内的速度是否满足这种规律,如果满足,则认为是正常手势输入操作,如果不满足,则认为是不正常手势输入操作。比如,人体走动,则获取到手部的速度是匀速的,或者说是不存在上述规律的。则可以将这种输入操作认为是非正常手势输入操作。
另外,还可以通过周期的形式判断速度是否为同一输入操作。比如,一个周期内设置只能产生一次符合规则的输入操作,则将周期内其他多次输入操作进行删除。
当然,上述判断各个二维平面的速度是否为同一输入操作内的速度的两个实施例可以组合在一起,对速度同时进行判断。比如,根据预设速度范围判断速度-时间折线图的速度值,删除在速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作步骤,包括:
判断速度-时间折线图中的速度是否在预设速度范围内;
若否,则计算该速度对应的时间与当前输入操作最小时间的差值,将差值与平均输入操作时间比较,若小于或等于平均输入操作时间,该速度为当前输入操作内的速度,若大于平均输入操作时间,则该速度为新输入操作的速度;
若是,则删除在预设速度范围内的速度。
将上述当前输入操作内的速度按照其对应的时间进行排序,判断排序后的速度是否满足先升序后降序的规则,若满足,则当前输入操作正常,若不满足,则删除该次输入操作内的速度。
为了提高获取三维速度的准确性,从而提高识别准确率。可以对获取的坐标数据进行过滤。比如,在其中一个实施例中,对对象各部位进行特征识别,获取对象的待识别部位对应在三维坐标中的当前坐标并记录获取的时间,根据各当前坐标以及三维模型计算待识别部位各时间对应的三维速度步骤,包括:
对对象各部位进行特征识别,以预设频率获取对象的待识别部位对应在三维坐标中的当前坐标并记录时间,并将获取的坐标和时间进行缓存;
将当前缓存数据进行过滤,删除跳点数据,跳点数据为不符合当前数据规律的数据;
根据过滤后的数据以及三维模型计算待识别部位各时间对应的三维速度。
比如,通过三维设备获取的对象数据坐标,并将数据进行缓存。设定缓存总数K值,根据数据获取频率取K值大小,如小于30帧时,每秒取K=3作为缓存数,30帧以上取K=5。以便达到一个较好的性能和时间效率比例。缓存数小于K时存入数据和时间点,缓存数大于K时取位于缓存中部压入缓存中的数据,提交数据到数据过滤器中以便进一步分析,同时将最早的数据删除,保持缓存数为K。
截取三维坐标中其中一维度的记录的一段数据,有时会出现很明显的异常数据,这些数据是设备捕获到的偶发“跳点”数据,并非用户的真实输入操作数据。假如数据x与缓存数据时间相隔过久(大于缓存中平均的时间间隔值)则丢弃本数据并重置缓存中x之前的数据。保留x点之后获取的数据。如果出现数据点跳点(前一帧和下一帧坐标相近,而当前点数据出现大偏移),则更正当前点数据为前一帧与后一帧的中间值。过滤后数据存入第二缓冲器中。这一步的目的是为了删除跳点数据,并用平均数据来替代。
在其中一个实施例中,根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型步骤,包括:
A1:在同一时间段里,比较各二维平面对应的当前输入操作的速度的大小,将速度大对应的当前输入操作确定为目标输入操作;
A2:当目标输入操作的各速度方向为第一轴方向时,根据速度的正负确定该输入操作为左滑动或右滑动。
其中,A1步骤目的是确认同一时间段里,哪一个二维平面才是输入操作的主要平面。可以通过速度大小进行比较判断,选出速度比较大的二维平面作为输入操作真正实施的平面。当然,也可以在步骤S103时,通过判断速度分量的大小,将速度分量大的二维平面保留,并生成该二维平面的速度-时间折线图。不生成其他二维平面的速度-时间折线图。
这里是将同一目标输入操作的各个速度方向与第一轴方向进行比较。由于二维平面的二维坐标是基于三维坐标建立的,因此这里的第一轴方向为三维坐标中的第一轴方向。当各个速度的方向不一致时,可以求的这些速度的主要方向。比如,可以求各个速度在二维平面的二维坐标方向的分量,将分量大对应的坐标方向认为是速度的主要方向。
该步骤是只对左右滑动进行识别,其他输入操作都认为是误操作。当然,也可以根据速度方向只对左滑动或右滑动进行识别。
在其中一个实施例中,根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型步骤,包括:
B1:在同一时间段里,比较各二维平面对应的当前输入操作的速度的大小,将速度大对应的当前输入操作确定为目标输入操作;
B2:当目标输入操作的各速度方向为第二轴方向时,确定该目标输入操作为点击输入操作。
其中,B1步骤目的是确认同一时间段里,哪一个二维平面才是输入操作的主要平面。可以通过速度大小进行比较判断,选出速度比较大的二维平面作为输入操作真正实施的平面。当然,也可以在步骤S103时,通过判断速度分量的大小,将速度分量大的二维平面保留,并生成该二维平面的速度-时间折线图。不生成其他二维平面的速度-时间折线图。
这里是将同一目标输入操作的各个速度方向与第二轴方向进行比较。由于二维平面的二维坐标是基于三维坐标建立的,因此这里的第二轴方向为三维坐标中的第二轴方向。当各个速度的方向不一致时,可以求的这些速度的主要方向。比如,可以求各个速度在二维平面的二维坐标方向的分量,将分量大对应的坐标方向认为是速度的主要方向。
该步骤是只对前后滑动进行识别,其他输入操作都认为是误操作。当然,也可以根据速度方向只对前滑动或后滑动进行识别。
在其中一个实施例中,根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型步骤,包括:
C1:在同一时间段里,比较各二维平面对应的当前输入操作的速度的大小,将速度大对应的当前输入操作确定为目标输入操作;
C2:当目标输入操作的各速度方向为第三轴方向时,根据速度的正负确定该输入操作为上滑动或下滑动。
其中,这里是将同一目标输入操作的各个速度方向与第三轴方向进行比较。由于二维平面的二维坐标是基于三维坐标建立的,因此这里的第三轴方向为三维坐标中的第三轴方向。当各个速度的方向不一致时,可以求的这些速度的主要方向。比如,可以求各个速度在二维平面的二维坐标方向的分量,将分量大对应的坐标方向认为是速度的主要方向。
该步骤是只对上下滑动进行识别,其他输入操作都认为是误操作。当然,也可以根据速度方向只对上滑动或下滑动进行识别。
当然,这三个实施例可以任意组合进行判断。比如同时对上行滑动和左右滑动进行判断,或者同时对上滑动、右滑动、前滑动进行判断等。
本发明可以用于对人体输入操作的识别。比如,获取人体各骨骸点对应在三维坐标中的原始坐标,根据各原始坐标建人体的三维模型。对人体进行特征识别,获取人体手部各个骨骸点对应在三维坐标中的当前坐标并记录获取的时间,根据各当前坐标以及三维骨骸模型计算各骨骸点的三维骨骸速度,其中,三维骨骸速度包括方向和速度值;计算三维骨骸速度在各二维平面的速度分量,获得二维平面的二维骨骸速度,根据二维骨骸速度和对应的时间建立各维度的速度-时间折线路图,并确定二维骨骸速度所属的输入操作。根据当前输入操作的各二维骨骸速度的方向与三维坐标的预设坐标方向的关系确定当前输入操作的类型。以骨骸正面前视方向为Z负轴,沿头部向上的延伸方向为Y正轴,人体左边为X正轴。手部输入操作在向左边或右挥动时以X轴为主增量,Y轴和Z轴增量小于X轴增量。对数据进行Y轴和Z轴数据分析,抛弃操作者在Y轴和Z轴输入操作大于X轴输入操作数据,即可知道该输入操作为左右滑动。当速度为X正方向时,则为向左滑动,当速度为X负方向时,则为向右滑动。
根据上述方法,本发明还提供一种空间输入识别***,如图4所示,一种空间输入识别***,包括:
三维模型建立模块410,用于获取对象各部位对应在三维坐标中的原始坐标,根据各原始坐标建立对象的三维模型,其中,三维模型中对象的各面所在平面分别与三维坐标中其中两维构成的平面平行;
三维速度计算模块420,用于对对象各部位进行特征识别,获取对象的待识别部位对应在三维坐标中的当前坐标并记录获取的时间,根据各当前坐标以及三维模型计算待识别部位各时间对应的三维速度,其中,三维速度包括方向和速度值;
折线图确定模块430,用于计算三维速度在各二维平面的速度分量,获得二维平面的速度,根据每个二维平面的速度和对应时间建立对应二维平面的速度-时间折线图;
输入操作确定模块440,用于根据预设速度范围判断速度-时间折线图的速度值,删除在速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作;
输入操作类型判断模块450,用于根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型。
在其中一个实施例中,输入操作确定模块包括:
判断模块,用于判断速度-时间折线图中的速度是否在预设速度范围内;
第一确定模块,用于当速度不在预设速度范围时,计算该速度对应的时间与当前输入操作最小时间的差值,将差值与平均输入操作时间比较,若小于或等于平均输入操作时间,该速度为当前输入操作内的速度,若大于平均输入操作时间,则该速度为新输入操作的速度;
删除模块,用于当速度在预设速度范围时,删除在预设范围内的速度。
在其中一个实施例中,输入操作确定模块还包括:
第二确定模块,用于将当前输入操作内的速度按照其对应的时间进行排序,判断排序后的速度是否满足先升序后降序的规则,若满足,则当前输入操作正常,若不满足,则删除该次输入操作内的速度。
在其中一个实施例中,三维速度计算模块包括:
缓存模块,用于对对象各部位进行特征识别,以预设频率获取对象的待识别部位对应在三维坐标中的当前坐标并记录时间,并将获取的坐标和时间进行缓存;
过滤模块,用于将当前缓存数据进行过滤,删除跳点数据,跳点数据为不符合当前数据规律的数据;
计算模块,用于根据过滤后的数据以及三维模型计算待识别部位各时间对应的三维速度。
在其中一个实施例中,输入操作类型判断模块包括:
目标输入操作确定模块,用于在同一时间段里,比较各二维平面对应的当前输入操作的速度的大小,将速度大对应的当前输入操作确定为目标输入操作;
左右滑动输入操作确定模块,用于当目标输入操作的各速度方向为第一轴方向时,根据速度的正负确定该输入操作为左滑动或右滑动;
点击输入操作确定模块,用于当目标输入操作的各速度方向为第二轴方向时,确定该目标输入操作为点击输入操作;
上下滑动输入操作确定模块,用于当目标输入操作的各速度方向为第三轴方向时,根据速度的正负确定该输入操作为上滑动或下滑动。
本发明的空间输入识别***与本发明的空间输入识别方法是一一对应的,上述空间输入识别方法实施例中的相关技术特征及其技术效果均适用于空间输入识别***实施例中,在此不再赘述。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种空间输入识别方法,其特征在于,包括步骤:
获取对象各部位对应在三维坐标中的原始坐标,根据各所述原始坐标建立对象的三维模型,其中,所述三维模型中对象的各面所在平面分别与三维坐标中其中两维构成的平面平行;
对所述对象各部位进行特征识别,获取对象的待识别部位对应在三维坐标中的当前坐标并记录获取的时间,根据各所述当前坐标以及所述三维模型计算待识别部位各时间对应的三维速度,其中,三维速度包括方向和速度值;
计算所述三维速度在各二维平面的速度分量,获得二维平面的速度,根据每个二维平面的速度和对应时间建立对应二维平面的速度-时间折线图;
根据预设速度范围判断所述速度-时间折线图的速度值,删除在所述速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作;
根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型。
2.根据权利要求1所述的空间输入识别方法,其特征在于,所述根据预设速度范围判断所述速度-时间折线图的速度值,删除在所述速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作步骤,包括:
判断所述速度-时间折线图中的速度是否在预设速度范围内;
若否,则计算该速度对应的时间与当前输入操作最小时间的差值,将所述差值与平均输入操作时间比较,若小于或等于平均输入操作时间,该速度为当前输入操作内的速度,若大于平均输入操作时间,则该速度为新输入操作的速度;
若是,则删除在预设速度范围内的速度。
3.根据权利要求2所述的空间输入识别方法,其特征在于,还包括:
将当前输入操作内的速度按照其对应的时间进行排序,判断排序后的速度是否满足先升序后降序的规则,若满足,则当前输入操作正常,若不满足,则删除该次输入操作内的速度。
4.根据权利要求1至3任意一项所述的空间输入识别方法,其特征在于,所述对所述对象各部位进行特征识别,获取对象的待识别部位对应在三维坐标中的当前坐标并记录获取的时间,根据各所述当前坐标以及所述三维模型计算待识别部位各时间对应的三维速度步骤,包括:
对所述对象各部位进行特征识别,以预设频率获取对象的待识别部位对应在三维坐标中的当前坐标并记录时间,并将获取的坐标和时间进行缓存;
将当前缓存数据进行过滤,删除跳点数据,所述跳点数据为不符合当前数据规律的数据;
根据过滤后的数据以及所述三维模型计算待识别部位各时间对应的三维速度。
5.根据权利要求1至3任意一项所述的空间输入识别方法,其特征在于,
所述根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型步骤,包括:
在同一时间段里,比较各二维平面对应的当前输入操作的速度的大小,将速度大对应的当前输入操作确定为目标输入操作;
当目标输入操作的各速度方向为第一轴方向时,根据所述速度的正负确定该输入操作为左滑动或右滑动,
和/或
在同一时间段里,比较各二维平面对应的当前输入操作的速度的大小,将速度大对应的当前输入操作确定为目标输入操作;
当目标输入操作的各速度方向为第二轴方向时,确定该目标输入操作为点击输入操作,
和/或
在同一时间段里,比较各二维平面对应的当前输入操作的速度的大小,将速度大对应的当前输入操作确定为目标输入操作;
当目标输入操作的各速度方向为第三轴方向时,根据所述速度的正负确定该输入操作为上滑动或下滑动。
6.一种空间输入识别***,其特征在于,包括:
三维模型建立模块,用于获取对象各部位对应在三维坐标中的原始坐标,根据各所述原始坐标建立对象的三维模型,其中,所述三维模型中对象的各面所在平面分别与三维坐标中其中两维构成的平面平行;
三维速度计算模块,用于对所述对象各部位进行特征识别,获取对象的待识别部位对应在三维坐标中的当前坐标并记录获取的时间,根据各所述当前坐标以及所述三维模型计算待识别部位各时间对应的三维速度,其中,三维速度包括方向和速度值;
折线图确定模块,用于计算所述三维速度在各二维平面的速度分量,获得二维平面的速度,根据每个二维平面的速度和对应时间建立对应二维平面的速度-时间折线图;
输入操作确定模块,用于根据预设速度范围判断所述速度-时间折线图的速度值,删除在所述速度范围内的速度,并确定删除速度后的速度-时间折线图中各速度所属的输入操作;
输入操作类型判断模块,用于根据当前输入操作的速度的方向、速度的大小与预设坐标方向的关系确定当前输入操作的类型。
7.根据权利要求6所述的空间输入识别***,其特征在于,所述输入操作确定模块包括:
判断模块,用于判断所述速度-时间折线图中的速度是否在预设速度范围内;
第一确定模块,用于当所述速度不在预设速度范围时,计算该速度对应的时间与当前输入操作最小时间的差值,将所述差值与平均输入操作时间比较,若小于或等于平均输入操作时间,该速度为当前输入操作内的速度,若大于平均输入操作时间,则该速度为新输入操作的速度;
删除模块,用于当所述速度在预设速度范围时,删除在预设范围内的速度。
8.根据权利要求7所述的空间输入识别***,其特征在于,所述输入操作确定模块还包括:
第二确定模块,用于将当前输入操作内的速度按照其对应的时间进行排序,判断排序后的速度是否满足先升序后降序的规则,若满足,则当前输入操作正常,若不满足,则删除该次输入操作内的速度。
9.根据权利要求6至8任意一项所述的空间输入识别***,其特征在于,所述三维速度计算模块包括:
缓存模块,用于对所述对象各部位进行特征识别,以预设频率获取对象的待识别部位对应在三维坐标中的当前坐标并记录时间,并将获取的坐标和时间进行缓存;
过滤模块,用于将当前缓存数据进行过滤,删除跳点数据,所述跳点数据为不符合当前数据规律的数据;
计算模块,用于根据过滤后的数据以及所述三维模型计算待识别部位各时间对应的三维速度。
10.根据权利要求6至8任意一项所述的空间输入识别***,其特征在于,所述输入操作类型判断模块包括:
目标输入操作确定模块,用于在同一时间段里,比较各二维平面对应的当前输入操作的速度的大小,将速度大对应的当前输入操作确定为目标输入操作;
左右滑动输入操作确定模块,用于当目标输入操作的各速度方向为第一轴方向时,根据所述速度的正负确定该输入操作为左滑动或右滑动;
点击输入操作确定模块,用于当目标输入操作的各速度方向为第二轴方向时,确定该目标输入操作为点击输入操作;
上下滑动输入操作确定模块,用于当目标输入操作的各速度方向为第三轴方向时,根据所述速度的正负确定该输入操作为上滑动或下滑动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410120673.0A CN103885597B (zh) | 2014-03-27 | 2014-03-27 | 空间输入识别方法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410120673.0A CN103885597B (zh) | 2014-03-27 | 2014-03-27 | 空间输入识别方法和*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103885597A true CN103885597A (zh) | 2014-06-25 |
CN103885597B CN103885597B (zh) | 2017-06-13 |
Family
ID=50954531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410120673.0A Expired - Fee Related CN103885597B (zh) | 2014-03-27 | 2014-03-27 | 空间输入识别方法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103885597B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105573496A (zh) * | 2015-12-11 | 2016-05-11 | 山东大学 | 一种Kinect工作区域的划分方法与应用 |
CN108920052A (zh) * | 2018-06-26 | 2018-11-30 | Oppo广东移动通信有限公司 | 页面显示控制方法及相关产品 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102707799A (zh) * | 2011-09-12 | 2012-10-03 | 北京盈胜泰科技术有限公司 | 一种手势识别方法及手势识别装置 |
CN102799273A (zh) * | 2012-07-11 | 2012-11-28 | 华南理工大学 | 交互控制***及其交互控制方法 |
CN102866827A (zh) * | 2012-08-21 | 2013-01-09 | 刘炳林 | 一种人机交互设备的文档编辑方法和装置 |
CN102880287A (zh) * | 2012-08-16 | 2013-01-16 | 深圳Tcl新技术有限公司 | 手势识别方法及手势识别装置 |
US20130050074A1 (en) * | 2011-08-31 | 2013-02-28 | Ryouhei YASUDA | Information processing apparatus, information processing method, and program |
CN102981624A (zh) * | 2012-12-03 | 2013-03-20 | 中国联合网络通信集团有限公司 | 三维手势输入方法及装置 |
CN103197761A (zh) * | 2013-03-28 | 2013-07-10 | 深圳泰山在线科技有限公司 | 手势识别方法及装置 |
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互***和方法 |
CN103257711A (zh) * | 2013-05-24 | 2013-08-21 | 河南科技大学 | 空间手势输入方法 |
KR20130124061A (ko) * | 2012-05-04 | 2013-11-13 | 삼성전자주식회사 | 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말 |
CN103529948A (zh) * | 2013-11-06 | 2014-01-22 | 广东威创视讯科技股份有限公司 | 一种基于手势识别的控制方法 |
-
2014
- 2014-03-27 CN CN201410120673.0A patent/CN103885597B/zh not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130050074A1 (en) * | 2011-08-31 | 2013-02-28 | Ryouhei YASUDA | Information processing apparatus, information processing method, and program |
CN102707799A (zh) * | 2011-09-12 | 2012-10-03 | 北京盈胜泰科技术有限公司 | 一种手势识别方法及手势识别装置 |
KR20130124061A (ko) * | 2012-05-04 | 2013-11-13 | 삼성전자주식회사 | 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말 |
CN102799273A (zh) * | 2012-07-11 | 2012-11-28 | 华南理工大学 | 交互控制***及其交互控制方法 |
CN102880287A (zh) * | 2012-08-16 | 2013-01-16 | 深圳Tcl新技术有限公司 | 手势识别方法及手势识别装置 |
CN102866827A (zh) * | 2012-08-21 | 2013-01-09 | 刘炳林 | 一种人机交互设备的文档编辑方法和装置 |
CN102981624A (zh) * | 2012-12-03 | 2013-03-20 | 中国联合网络通信集团有限公司 | 三维手势输入方法及装置 |
CN103197761A (zh) * | 2013-03-28 | 2013-07-10 | 深圳泰山在线科技有限公司 | 手势识别方法及装置 |
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互***和方法 |
CN103257711A (zh) * | 2013-05-24 | 2013-08-21 | 河南科技大学 | 空间手势输入方法 |
CN103529948A (zh) * | 2013-11-06 | 2014-01-22 | 广东威创视讯科技股份有限公司 | 一种基于手势识别的控制方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105573496A (zh) * | 2015-12-11 | 2016-05-11 | 山东大学 | 一种Kinect工作区域的划分方法与应用 |
CN105573496B (zh) * | 2015-12-11 | 2018-10-23 | 山东大学 | 一种Kinect工作区域的划分方法与应用 |
CN108920052A (zh) * | 2018-06-26 | 2018-11-30 | Oppo广东移动通信有限公司 | 页面显示控制方法及相关产品 |
CN108920052B (zh) * | 2018-06-26 | 2021-08-24 | Oppo广东移动通信有限公司 | 页面显示控制方法及相关产品 |
Also Published As
Publication number | Publication date |
---|---|
CN103885597B (zh) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2711029C2 (ru) | Классификация касаний | |
US8427440B2 (en) | Contact grouping and gesture recognition for surface computing | |
Chen et al. | Rapid recognition of dynamic hand gestures using leap motion | |
CN104123007A (zh) | 一种多维加权的3d动态手势识别方法 | |
CN106598227A (zh) | 基于Leap Motion和Kinect的手势识别方法 | |
CN103294401A (zh) | 一种具有触摸屏的电子设备的图标处理方法及装置 | |
CN105589553A (zh) | 一种智能设备的手势控制方法和*** | |
CN104317391A (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和*** | |
CN104007819A (zh) | 手势识别方法、装置及Leap Motion体感控制*** | |
CN103226387A (zh) | 基于Kinect的视频人手指尖定位方法 | |
US9779292B2 (en) | System and method for interactive sketch recognition based on geometric contraints | |
CN102810015B (zh) | 基于空间运动的输入方法及终端 | |
CN104517100B (zh) | 手势预判方法和*** | |
CN104777984A (zh) | 一种触摸轨迹跟踪的方法、装置及触屏设备 | |
CN104217192A (zh) | 基于深度图像的手定位方法和设备 | |
Wang et al. | Immersive human–computer interactive virtual environment using large-scale display system | |
CN111353466B (zh) | 车道线识别处理方法、设备、存储介质 | |
Lin et al. | Tracking touched trajectory on capacitive touch panels using an adjustable weighted prediction covariance matrix | |
CN107220634B (zh) | 基于改进d-p算法与多模板匹配的手势识别方法 | |
CN113342208B (zh) | 基于多点触控设备的铁路选线方法、终端及存储介质 | |
RU2552192C2 (ru) | Способ и система для взаимодействия человек-машина, основанного на жестах, и машиночитаемый носитель для этого | |
CN103885597A (zh) | 空间输入识别方法和*** | |
CN105468200A (zh) | 一种指纹触控的方法、装置及指纹设备 | |
CN111062360B (zh) | 一种手部追踪***及其追踪方法 | |
CN105975139B (zh) | 触摸点提取方法、装置和显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: Kezhu road high tech Industrial Development Zone, Guangzhou city of Guangdong Province, No. 233 510670 Patentee after: VTRON GROUP Co.,Ltd. Address before: 510670 Guangdong city of Guangzhou province Kezhu Guangzhou high tech Industrial Development Zone, Road No. 233 Patentee before: VTRON TECHNOLOGIES Ltd. |
|
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170613 |