CN103389793B - 人机交互方法和*** - Google Patents

人机交互方法和*** Download PDF

Info

Publication number
CN103389793B
CN103389793B CN201210138372.1A CN201210138372A CN103389793B CN 103389793 B CN103389793 B CN 103389793B CN 201210138372 A CN201210138372 A CN 201210138372A CN 103389793 B CN103389793 B CN 103389793B
Authority
CN
China
Prior art keywords
labelling
length
value
display screen
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210138372.1A
Other languages
English (en)
Other versions
CN103389793A (zh
Inventor
陈翔
黄政林
师丹玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Taishan Sports Technology Co.,Ltd.
Original Assignee
SHENZHEN TOL TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN TOL TECHNOLOGY Co Ltd filed Critical SHENZHEN TOL TECHNOLOGY Co Ltd
Priority to CN201210138372.1A priority Critical patent/CN103389793B/zh
Publication of CN103389793A publication Critical patent/CN103389793A/zh
Application granted granted Critical
Publication of CN103389793B publication Critical patent/CN103389793B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本发提供了一种人机交互方法和***。所述方法包括采集标记的图像;识别出标记的位置和长度;根据所述标记的位置和长度产生控制指令;响应所述控制指令。所述***包括:图像采集模块,用于采集标记的图像;识别模块,用于识别出标记的位置和长度;处理模块,用于根据所述标记的位置和长度产生控制指令;响应模块,用于响应所述控制指令。采用本发明提高了使用的灵活性。

Description

人机交互方法和***
技术领域
本发明涉及交互技术,特别是涉及一种人机交互方法和***。
背景技术
在各种终端设备的交互中,用户通常依赖于键盘、鼠标或者触摸屏等交互设备进行操作指令的输入,进而交互设备和终端设备之间的交互。例如,用户通过敲击键盘或者点击鼠标输入操作指令,与键盘或鼠标相连接的终端设备对输入的操作指令进行响应;用户也可以在终端设备上设置的触摸屏中滑动以输入相应的操作指令。
但是,无论是哪一种输入方式均需要借助于电源,对用户的操作造成较大的限制,用户无法随意自在地输入操作指令,降低了使用的灵活性。
发明内容
基于此,有必要针对交互设备必须借助于电源,对用户的操作造成较大的限制的问题,提供一种能提高使用的灵活性的人机交互方法。
此外,还有必要提供一种能提高使用的灵活性的人机交互***。
一种人机交互方法,包括如下步骤:采集标记的图像;识别出标记的位置和长度;根据所述标记的位置和长度产生控制指令;响应所述控制指令。
在其中一个实施例中,还包括:确定虚拟屏的中心位置;按照所述中心位置进行初始化形成三维立体屏幕,所述虚拟屏为三维立体屏幕中的平面;建立所述虚拟屏中标记的位置和显示屏幕中像素值之间的映射关系。
在其中一个实施例中,所述确定虚拟屏的中心位置的步骤包括:检测标记的图像,从所述图像中识别出晃动动作;获取所述晃动动作的停留位置,将所述停留位置设置为虚拟屏的中心位置。
在其中一个实施例中,所述检测标记的图像,从所述图像中识别出晃动动作的步骤包括:以当前帧为起始提取预设帧数的图像序列;检测所述图像序列中的标记之间的位移是否大于位移极值,且所述位移之间的方向相反,若是,则获取相应标记的位置产生时间;判断所述检测得到的位移数量是否达到预设数量,若是,则从所述位置产生时间中提取起始时间和终止时间;进一步判断所述起始时间和终止时间的时间间隔是否小于时间距离,若是,则判定发生晃动动作。
在其中一个实施例中,所述根据所述标记的位置和长度产生控制指令的步骤包括:判断所述标记的长度是否小于长度限值,若是,则产生显示屏幕中的按住指令,若否,则产生显示屏幕中的松开指令。
在其中一个实施例中,所述根据所述标记的位置和长度产生控制指令的步骤包括:获取所述标记的识别距离,并提取所述识别距离对应的距离长度值;判断所述标记的长度是否小于距离长度值的缩小值,若是,则产生显示屏幕的按住指令,若否,则产生显示屏幕中的松开指令。
在其中一个实施例中,所述响应所述控制指令的步骤包括:根据所述映射关系得到所述标记在显示屏幕中的像素值;按照所述标记在显示屏幕中的像素值显示所述控制指令对应的图标。
在其中一个实施例中,所述根据所述映射关系得到所述标记在显示屏幕中的像素值的步骤之前还包括:根据所述标记的长度得到长度变化值;判断所述长度变化值是否小于阈值,若否,则根据所述标记的位置得到位置变化值;按照所述位置变化值调整所述虚拟屏中标记的位置。
在其中一个实施例中,还包括:识别出标记的面积;判断所述标记的面积是否大于面积限值,若是,则进行操控界面的回退。
一种人机交互***,包括:图像采集模块,用于采集标记的图像;识别模块,用于识别出标记的位置和长度;处理模块,用于根据所述标记的位置和长度产生控制指令;响应模块,用于响应所述控制指令。
在其中一个实施例中,还包括:识别模块还用于确定虚拟屏的中心位置;初始模块,用于按照所述中心位置进行初始化形成三维立体屏幕,所述虚拟屏为三维立体屏幕中远离显示屏幕的平面;映射模块,用于建立所述虚拟屏中标记的位置和显示屏幕中像素值之间的映射关系。
在其中一个实施例中,所述识别模块包括:动作检测单元,用于检测标记的图像,从所述图像中识别出晃动动作;位置获取单元,用于获取所述晃动动作的停留位置,将所述停留位置设置为虚拟屏的中心位置。
在其中一个实施例中,所述动作检测单元包括:图像序列提取单元,用于以当前帧为起始提取预设帧数的图像序列;标记判断单元,用于检测所述图像序列中标记之间的位移是否大于位移极值,且所述位移之间的方向相反,若是,则获取相应标记的位置产生时间;位移处理单元,用于判断所述检测得到的位移数量是否达到预设数量,若是,则从所述位置产生时间中提取起始时间和终止时间;动作判定单元,用于判断所述起始时间和终止时间的时间间隔是否小于时间距离,若是,则判定发生晃动动作。
在其中一个实施例中,所述处理模块还用于判断所述标记的长度是否小于长度限值,若是,则产生显示屏幕中的按住指令,若否,则产生显示屏幕中的松开指令。
在其中一个实施例中,所述处理模块包括:距离处理单元,用于获取所述标记的识别距离,并提取所述识别距离对应的距离长度值;长度判断单元,用于判断所述标记的长度是否小于距离长度值的缩小值,若是,则产生显示屏幕的按住指令,若否,则产生显示屏幕中的松开指令。
在其中一个实施例中,所述响应模块包括:坐标获取单元,用于根据所述映射关系得到所述标记在显示屏幕中的像素值;显示单元,用于按照所述标记在显示屏幕中的像素值显示所述控制指令对应的图标。
在其中一个实施例中,所述响应模块还包括:变化获取单元,用于根据所述标记的长度得到长度变化值;变化判断单元,用于判断所述长度变化值是否小于阈值,若否,则根据所述标记的位置得到位置变化值;调整单元,用于按照所述位置变化值调整所述虚拟屏中标记的位置。
在其中一个实施例中,所述识别模块还用于识别出标记的面积;所述处理模块还用于判断所述标记的面积是否大于面积限值,若是,则通知所述响应模块;所述响应模块还用于进行操控界面的回退。
上述人机交互方法和***中,用户通过标记在显示屏幕前方进行操控,通过识别得到的标记的位置和长度产生相应的控制指令,进而对控制指令进行响应,并显示,以对用户的操控进行反馈,用户使用的标记不需要借助于电源,这将使得用户能够使用标记进行随意地操作,提高了使用的灵活性。
上述人机交互方法和***中,用户使用标记在模拟出的虚拟屏上进行操控,产生相应的控制指令,不需要借助有源的交互设备就能实现人机交互,提高了一种新型的人机交互方式,操作简单,大大地提高了用户的体验效果。
附图说明
图1为一个实施例中人机交互方法的流程图;
图2为一个实施例中掌带在松开的手掌中的示意图;
图3为一个实施例中实现虚拟屏的原理图;
图4为另一个实施例中人机交互方法的流程图;
图5为图4中确定虚拟屏的中心位置的方法流程图;
图6为图5中检测标记的图像,从图像中识别出晃动动作的方法流程图;
图7为一个实施例中根据标记的位置和长度产生控制指令的方法流程图;
图8为一个实施例中掌带在握下的手掌中的示意图;
图9为另一个实施例中根据标记的位置和长度产生控制指令的方法流程图;
图10为一个实施例中将响应控制指令的方法流程图;
图11为一个实施例中显示屏幕显示的图标示意图;
图12为另一个实施例中显示屏幕显示的图标示意图;
图13为另一个实施例中将响应控制指令的方法流程图;
图14为一个实施例中人机交互***的结构示意图;
图15为另一个实施例中人机交互***的结构示意图;
图16为一个实施例中识别模块的结构示意图;
图17为图16中动作检测单元的结构示意图;
图18为一个实施例中处理模块的结构示意图;
图19为一个实施例中响应模块的结构示意图;
图20为另一个实施例中响应模块的结构示意图。
具体实施方式
如图1所示,在一个实施例中,一种人机交互方法,包括如下步骤:
步骤S110,采集标记的图像。
本实施例中,标记是指定颜色和/或形状的物体。进一步的,标记可以为指定颜色和/或形状的反光材料。优选的,如图2所示,标记201为外部覆盖着反光材料的环状物体,可根据手掌的大小进行调整,以便于标记套入手掌时能够与手掌相匹配。进一步的,套在手掌中的环状标记包括长条形的带子以及与带子连接的延伸部。具体的,长条形的带子可首尾相接形成可调整大小的环状结构,延伸部贴设于带子外侧;此外,延伸部也可以是设置于带子外侧的凸起。
对套设于手掌上的标记进行图像拍摄得到包含标记的图像,进而对用户手掌所附带的标记进行识别。在其它实施例中,标记还可以是人体的某一部位,例如,手掌中的某一区域。
步骤S130,识别出标记的位置和长度。
本实施例中,在采集的图像中进行检测识别出标记所在的位置和长度。具体的,标记的位置实质为标记的重心位置,表现三维坐标的形式,即预先设定三维坐标系,用于对标记进行定位以及确定标记的长度。
所设定的三维坐标系可以显示屏幕的中心为坐标原点,例如,如图3所示,三维坐标系以图像采集装置所在平面为XY平面。
进一步的,用户带动套设在手掌中的标记进行移动等操控动作时所处的区域为操作区域,与图像采集模块所在的平面,该平面垂直于视线,即剪切面。虚拟屏是与剪切面平行,并且与用户相对的一个虚拟平面。将用户在操作区域中标记的重心投影至虚拟屏中所得到的位置即为标记的位置,依此类推,通过投影的方式得到标记的长度,由于用户的手掌以及套设于手掌上的标记是曲面的,通过投影所得到的位置和长度有效地减小了处理的复杂度,又保证了处理的精确度。
步骤S150,根据标记的位置和长度产生控制指令。
本实施例中,通过标记的位置以及长度来确定用户所进行的操作,进而产生相应的控制指令。控制指令包括了按住指令和松开指令,例如,按住某一应用程序图标;或者按住某一应用程序图标时松开的操作。
步骤S170,响应控制指令。
本实施例中,将产生的控制指令显示在显示设备中,例如,控制指令为某一应用程序图标的按住指令,则对于显示设备而言该应用程序图标上将显示为手形图标的按住效果。显示设备包括CRT(Cathode Ray Tube)显示器、LED(LightEmitting Diode)显示器、液晶显示器(Liquid Crystal Display,简称LCD)、投影仪以及3D液晶显示器等。
如图4所示,在另一个实施例中,上述人机交互方法还包括如下步骤:
步骤S210,确定虚拟屏的中心位置。
本实施例中,在识别标记的位置和长度,产生控制指令之前,需确定中心位置,进而按照中心位置形成三维坐标系以及用户的操作区域。虚拟屏是与用户相对的平面,设置于三维坐标系中,用于为用户提供可操作区域。
具体地,虚拟屏中心位置的确定可以通过识别用户的晃动动作得到相应的位置,将得到的位置作业虚拟屏的中心位置。此外,根据需要以及用户习惯,虚拟屏中心位置的确定还可以通过其它动作实现。例如,识别用户的旋转动作,判断旋转动作中标记的旋转角度是否达到预设角度,若是,则根据标记的旋转角度得到中心位置。又例如,用于实现中心位置确定的动作可以是用户将左手遮挡于右手面前,附带了标记的右手在左手手掌上划一道线,此时,将无法识别到标记,得到一段未识别到标记的识别结果,进而根据与这一段识别结果首尾相邻的标识的位置确定虚拟屏的中心位置。用于实现中心位置确定的动作还可是其它形式,在此不再赘述。
如图5所示,在一个实施例中,上述步骤S210的具体过程包括:
步骤S211,检测标记的图像,从图像中识别出晃动动作。
本实施例中,对采集得到的多个图像进行检测,得到标记的位置,进而根据连续的位置变化识别出用户的晃动动作,通过用户的晃动动作触发中心位置的设定以及虚拟屏的初始化。具体的,晃动动作可以是用户手掌中附带的掌带若干次连续的反方向移动,例如,用户的手掌带动掌带向左移动后向右移动,然后再向左移动,产生左右左方向上的晃动动作。依此类推,晃动动作还可以是右左右方向上的晃动动作,左右左右方向上的晃动动作以及上下上方向上的晃动动作等。
如图6所示,在一个实施例中,上述步骤S211的具体过程包括:
步骤S2111,以当前帧为起始提取预设帧数的图像序列。
本实施例中,持续采集标记的图像,得到包含多帧标记的图像的图像序列,该图像序列是按照采集时间对多帧标记的图像进行依次存储的,当前帧的标记的图像即为当前时刻最后采集到的标记的图像。
以当前帧为起始,在图像序列中向前提取预设帧数的标记的图像。优选的实施例中,预设帧数为15帧。
步骤S2112,检测图像序列中的标记之间的位移是否大于位移极值,且位移之间的方向相反,若是,则进入步骤S2113,若否,则结束。
本实施例中,标记之间的位移是提取的图像序列中得到的两个标记的位置所形成的位移,用于表示用户带动标记进行移动的距离和方向。若位移之间的方向相反,则说明用户带动标记沿某一方向移动之后又向相反的方向移动。
在优选的实施例中,位移极值为30毫米。假设用户的晃动动作为水平方向上连续三次反向移动,例如,用户的手掌带动标记向左水平移动后向右水平移动,然后再向左水平移动。此时,在提取的图像序列中,标记的位置之间将会检测到三个达到位移极值的位移,在这三个位移中,第一个标记的位置较前一个标记的位置向左移动了一定距离,第二个标记的位置较第一个标记的位置向右移动了一定距离,而第三个标记的位置较第二个标记的位置向左移动了一定距离,并且X轴坐标上的位移均大于Y轴坐标上的位移以及Z轴坐标上的位移。
步骤S2113,获取相应标记的位置产生时间。
步骤S2114,判断检测得到的位移数量是否达到预设数量,若是,则进入步骤S2115,若否,则结束。
本实施例中,若存在若干个相互之间方向相反的位移,则说明用户带动标记进行了若干次反向移动。在优选的实施例中,预设数量为3次。
步骤S2115,进一步判断起始时间和终止时间的时间间隔是否小于时间距离,若是,则进入步骤S2116,若否,则结束。
本实施例中,在获取的多个位置产生时间中提取起始时间和终止时间,进而得到产生检测得到的位移所耗费的时间。若判断到起始时间和终止时间之间的时间间隔小于时间距离,则说明产生若干个位移的动作为晃动动作。
步骤S2116,判定发生晃动动作。
本实施例中,判定发生晃动动作之后,若在预设的时间限值内再次判定发生晃动动作,则忽略判定的晃动动作,以避免用户晃动次数过多,频繁地根据晃动动作变换中心位置。例如,该预设的时间限值为1秒。
步骤S213,获取晃动动作的停留位置,将停留位置设置在虚拟屏的中心位置。
本实施例中,识别出用户的晃动动作之后,获取晃动动作的停留位置,该停留位置为三维坐标的形式,将停留位置作为虚拟屏的中心位置。
步骤S230,按照中心位置进行初始化形成三维立体屏幕,虚拟屏为三维立体屏幕中的平面。
本实施例中,按照中心位置形成与用户相对设置的虚拟屏,中心位置即为虚拟屏的中心,进而将虚拟屏向显示屏幕的方向延伸形成三维立体屏幕。在优选的实施例中,虚拟屏的宽度为250毫米,高度为186毫米。
步骤S250,建立虚拟屏中标记的位置和显示屏幕中像素值之间的映射关系。
本实施例中,按照虚拟屏与显示屏幕之间的比例关系将标记的位置折算为显示屏幕中的像素值,将标记的位置与折算得到的像素值相关联,建立映射关系。
例如,虚拟屏的大小为250毫米×186毫米,显示屏幕的大小为1280×720个像素,则显示屏幕的中心为从左数640个像素,从上往下数第360个像素,相应地,标记在虚拟屏中每移动1毫米,则相当于在显示屏幕中移动1280/250≈4个像素点。
进一步的,中心位置为(x0,y0,z0),显示屏幕的中心像素值为(640,360)。标记在虚拟屏中移动到(x1,y1,z1)时,对应的像素值为(x2,y2),其中,x2=640+(x1-x0*1280/250),并且若x2<0,则将x2设置为0,若x2>1280,则将x2设置为1280;y2=360-(y1-y0)*720/186,并且若y2<0,则将y2设置为0,若y2>720,则将y2设置为720。以上均以毫米为单位进行计算,并且显示屏幕中纵向排列的像素值正方向是与虚拟屏中Y坐标轴的正方向相反的。
如图7所示,在一个实施例中,上述步骤S150的具体过程包括:
步骤S 151,判断标记的长度是否小于长度限值,若是,则进入步骤S152,若否,则进入步骤S153。
本实施例中,标记为长条形的掌带,将套在用户的手掌中。随着用户手掌的握下和松开,标记的长度将会发生变化。如图8所示,若判断到标记的长度小于长度限值,则说明用户握下手掌,产生显示屏幕中的按住指令,若判断到标记的长度并没有小于长度限值,则说明用户松开手掌,相应的,显示屏幕中的按住指令将会变换为松开指令。
步骤S152,产生显示屏幕中的按住指令。
步骤S153,产生显示屏幕中的松开指令。
如图9所示,在另一个实施例中,上述步骤S150的具体过程包括:
步骤S155,获取标记的识别距离,并提取识别距离对应的距离长度值。
本实施例中,标记的识别距离是采集标记的图像时标记和图像采集装置之间的距离。随着识别距离的逐渐变小,采集的标记的图像中,标记逐渐变大,标记的长度也变长;而随着识别距离的逐渐变小,采集的标记的图像中,标记逐渐变小,标记的长度也随之变小,因此,需屏蔽识别距离的影响,使用户在距离图像采集装置无论远近如何均可以操控自如。
预先对标记的长度进行采样,得到每一识别距离下标记的长度,该标记的长度即为距离长度值。每一识别距离下标记的长度是在松开手掌的前提下采集标记的图像,并从这一图像中识别得到的。将得到的距离长度值与识别距离相关联,建立距离长度值与识别距离之间的映射关系。
在识别出标记的位置和长度之后还需要获取标记的识别距离,将从距离长度值与识别距离之间的映射关系中提取出获取的识别距离所对应的距离长度值。
步骤S156,判断标记的长度是否小于距离长度值的缩小值,若是,则进入步骤S157,若否,则进入步骤S158。
本实施例中,距离长度值的缩小值是在某一标记的识别距离下手掌处于握下状态时得到的标记的长度,在手掌从松开状态变换为握下状态时标记的长度将大致由距离长度值变换为距离长度的缩小值。在优选的实施例中,缩小值为距离长度值的二分之一。将缩小值设定为距离长度值的二分之一将有效地避免用户手掌发生偏移而未正对图像采集装置时标记的长度稍微变小而被误认为用户手掌处于握下状态,提高了判断的精确度。
处于松开状态下标记的长度是接近于识别距离所对应的距离长度值的,并且必定不会小于距离长度值的缩小值。因此,对识别得到的标记的长度进行判断,若判断到标记的长度小于距离长度值的缩小值,则说明用户的手掌处于松开状态,进而产生显示屏幕的松开指令;若判断到标记的长度大于或等于距离长度值的缩小值,则说明用户的手掌处于握住状态,进而产生显示屏幕的按住指令。
步骤S157,产生显示屏幕的按住指令。
步骤S158,产生显示屏幕的松开指令。
如图10所示,在一个实施例中,上述步骤S170的具体过程包括:
步骤S171,根据映射关系得到标记在显示屏幕中的像素值。
本实施例中,根据虚拟屏中标记的位置和显示屏幕中像素值之间的映射关系得到标记在显示屏幕中的像素值,实现标记位置到像素值的转换。
步骤S173,按照标记在显示屏幕中的像素值显示控制指令对应的图标。
本实施例中,根据控制指令的不同,显示屏幕中展示的图标也各不相同。例如,如图11所示,控制指令为某一应用程序图标的按住指令,此时,将模拟鼠标按住应用程序图标的场景,在显示屏幕中显示手形图案的图标,该手形图案中的手形是处于握下状态的;如图12所示,控制指令为应用程序图标的松开指令,从应用程序图标的按住指令变为松开指令,此时,在显示屏幕中显示手形图案中手形为松开状态的图标。
显示屏幕中的图标是与虚拟屏上的标记对应的,例如,在虚拟屏的中心位置握下手掌所识别到的标记将与显示屏幕的中心位置手形图案中手形处于握下状态的图标对应。在其它实施例中,图标还可以是光标、指针等形式。
如图13所示,在另一个实施例中,上述步骤S171之前还包括如下步骤:
步骤S175,根据标记的长度得到长度变化值。
本实施例中,分别从相邻的两帧采集得到的图像中获取标记的长度,并通过标记的长度之间的差值得到长度变化值。
步骤S176,判断长度变化值是否小于阈值,若否,则进入步骤S177,若是,则返回步骤S175。
本实施例中,若判断到长度变化值达到了阈值,则说明用户当前正在握下手掌的可能性非常高,在用户握下手掌的过程中标记极可能从手心向手掌外侧偏移,进而造成标记的位置发生偏移,此时,将判断长度变化值是否超出了阈值,若是,则说明标记已经从手心向手掌外侧偏移,标记的位置发生了偏移,此时,需屏蔽标记的位置发生的偏移对显示屏幕中图标所对应的像素值产生影响,此时,将重新调整虚拟屏的中心位置。在优选的实施例中,阈值为标记的识别距离所对应的距离长度值的四分之一。
进一步的,在用户从握下手掌的状态松开手掌时,在相邻两帧标记的图像中得到的长度变化值也极可能产生较为剧烈的变化,此时也将进入步骤S177中进行标记的位置调整。
步骤S177,根据标记的位置得到位置变化值。
本实施例中,在当前帧标记的图像中标记的位置为(x1,y1,z1),而前一帧标记的图标中标记的位置为(x0,y0,z0),在X坐标轴上的位置变化值为x1-x0,在Y坐标轴上的位置变化值为y1-y0。
步骤S178,按照位置变化值调整虚拟屏中标记的位置。
本实施例中,重新设置虚拟屏的中心位置,以使标记虽然从手心向手掌外侧偏移时与标记对应的图标在显示屏幕中的位置没有发生变化,忽略标记发生的偏移所造成的影响。按照位置变化值进行调整所得到的标记的位置中,X坐标轴上的坐标值为x+x1-x0,Y坐标轴上的坐标值为y+y1-y0,其中,(x,y)为调整前标记在X坐标轴和Y坐标轴上的坐标。
在另一个实施例中,上述人机交互***还包括:识别出标记的面积,并判断标记的面积是否大于面积限值,若是,则进行操控界面的回退。
本实施例中,标记中与手背对应的反光材料的长度和面积均大于与手掌心对应的反光材料,用户的手掌心由面向图像采集装置的位置进行翻转,变为手背面向图像采集装置,反光材料的面积也由小变大,因此,在发生了翻转动作之后,将会使得标记的面积大于面积限值,此时,将退出当前操控界面,返回上一层操控界面或退出操控界面。
如图14所示,在一个实施例中,一种人机交互***包括图像采集模块110、识别模块130、处理模块150以及响应模块170。
图像采集模块110,用于采集标记的图像。
本实施例中,标记是指定颜色和/或形状的物体。进一步的,标记可以为指定颜色和/或形状的反光材料。优选的,标记为外部覆盖着有反光材料的环状物体,可根据手掌的大小进行调整,以便于标记套入手掌时能够与手掌相匹配。进一步的,套在手掌中的环状标记包括长条形的带子以及与带子连接的延伸部。具体的,长条形的带子可首尾相接形成可调整大小的环状结构,延伸部贴设于带子外侧;此外,延伸部也可以是设置于带子外侧的凸起。
对套设于手掌上的标记进行图像拍摄得到包含标记的图像,进而对用户手掌所附带的标记进行识别。在其它实施例中,标记还可以是人体的某一部位,例如,手掌中的某一区域。
识别模块130,用于识别出标记的位置和长度。
本实施例中,识别模块130在采集的图像中进行检测识别出标记所在的位置和长度。具体的,标记的位置实质为标记的重心位置,表现三维坐标的形式,即预先设定三维坐标系,用于对标记进行定位以及确定标记的长度。
进一步的,用户带动套设在手掌中的标记进行移动等操控动作时所处的区域为操作区域,与图像采集模块所在的平面,该平面垂直于视线,即剪切面。虚拟屏是与剪切面平行,并且与用户相对的一个虚拟平面。识别模块130将用户在操作区域中标记的重心投影至虚拟屏中所得到的位置即为标记的位置,依此类推,通过投影的方式得到标记的长度,由于用户的手掌以及套设于手掌上的标记是曲面的,通过投影所得到的位置和长度有效地减小了处理的复杂度,又保证了处理的精确度。
处理模块150,用于根据标记的位置和长度产生控制指令。
本实施例中,处理模块150通过标记的位置以及长度来确定用户所进行的操作,进而产生相应的控制指令。控制指令包括了按住指令和松开指令,例如,按住某一应用程序图标;或者按住某一应用程序图标时松开的操作。
响应模块170,用于响应控制指令。
本实施例中,响应模块170将产生的控制指令显示在显示屏幕中,例如,控制指令为某一应用程序图标的按住指令,则响应模块的显示屏幕中该应用程序图标上将显示为手形图标的按住效果。响应模块包括CRT显示器、LED显示器、液晶显示器、投影仪以及3D液晶显示器等,可与图像采集模块110集成为一体。
如图15所示,在另一个实施例中,上述人机交互***还包括初始模块210以及映射模块230。
上述识别模块130还用于确定虚拟屏的中心位置。
本实施例中,在识别标记的位置和长度,产生控制指令之前,需识别模块130确定中心位置,进而按照中心位置形成三维坐标系以及用户的操作区域。虚拟屏是与用户相对的平面,设置于三维坐标系中,用于为用户提供可操作区域。
具体地,虚拟屏中心位置的确定可以是识别模块130通过识别用户的晃动动作得到相应的位置,将得到的位置作业虚拟屏的中心位置。此外,根据需要以及用户习惯,虚拟屏中心位置的确定还可以通过其它动作实现。例如,识别模块130识别用户的旋转动作,判断旋转动作中标记的旋转角度是否达到预设角度,若是,则根据标记的旋转角度得到中心位置。又例如,用于实现中心位置确定的动作可以是用户将左手遮挡于右手面前,附带了标记的右手在左手手掌上划一道线,此时,识别模块130将无法识别到标记,得到一段未识别到标记的识别结果,进而根据与这一段识别结果首尾相邻的标识的位置确定虚拟屏的中心位置。用于实现中心位置确定的动作还可是其它形式,在此不再赘述。
如图16所示,在一个实施例中,上述识别模块130包括动作检测单元131以及位置获取单元133。
动作检测单元131,用于检测标记的图像,从图像中识别出晃动动作。
本实施例中,对采集得到的多个图像进行检测,得到标记的位置,进而动作检测单元131根据连续的位置变化识别出用户的晃动动作,通过用户的晃动动作触发中心位置的设定以及虚拟屏的初始化。具体的,晃动动作可以是用户手掌中附带的掌带的若干次连续的反方向移动,例如,用户的手掌带动掌带向左移动后向右移动,然后再向左移动,产生左右左方向上的晃动动作。依此类推,晃动动作还可以是右左右方向上的晃动动作,左右左右方向上的晃动动作以及上下上方向上的晃动动作等。
如图17所示,在一个实施例中,上述动作检测单元131包括图像序列提取单元1311、标记判断单元1313、位移处理单元1315以及动作判定单元1317。
图像序列提取单元1311,用于以当前帧为起始提取预设帧数的图像序列。
本实施例中,持续采集标记的图像,得到包含多帧标记的图像的图像序列,该图像序列是按照采集时间对多帧标记的图像进行依次存储的,当前帧的标记的图像即为当前时刻最后采集到的标记的图像。
图像序列提取单元1311以当前帧为起始,在图像序列中向前提取预设帧数的标记的图像。优选的实施例中,预设帧数为15帧。
标记判断单元1313,用于检测图像序列中标记之间的位移是否大于位移极值,且位移之间的方向相反,若是,则获取相应标记的位置产生时间,若否,则停止执行。
本实施例中,标记之间的位移是提取的图像序列中得到的两个标记的位置所形成的位移,用于表示用户带动标记进行移动的距离和方向。若位移之间的方向相反,则说明用户带动标记沿某一方向移动之后又向相反的方向移动。
在优选的实施例中,位移极值为30毫米。假设用户的晃动动作为水平方向上连续三次反向移动,例如,用户的手掌带动标记向左水平移动后向右水平移动,然后再向左水平移动。此时,在提取的图像序列中,标记的位置之间将会检测到三个达到位移极值的位移,在这三个位移中,第一个标记的位置较前一个标记的位置向左移动了一定距离,第二个标记的位置较第一个标记的位置向右移动了一定距离,而第三个标记的位置较第二个标记的位置向左移动了一定距离,并且X轴坐标上的位移均大于Y轴坐标上的位移以及Z轴坐标上的位移。
位移处理单元1315,用于判断检测得到的位移数量是否达到预设数量,若是,则从位置产生时间中提取起始时间和终止时间。
本实施例中,若位移处理单元1315判断到存在若干个相互之间方向相反的位移,则说明用户带动标记进行了若干次反向移动。在优选的实施例中,预设数量为3次。
动作判定单元1317,用于判断起始时间和终止时间的时间间隔是否小于时间距离,若是,则判定发生晃动动作,若否,则停止执行。
本实施例中,在获取的多个位置产生时间中提取起始时间和终止时间,进而得到产生检测得到的位移所耗费的时间。若动作判定单元1317判断到起始时间和终止时间之间的时间间隔小于时间距离,则说明产生若干个位移的动作为晃动动作。判定发生晃动动作之后,若在预设的时间限值内再次判定发生晃动动作,则忽略判定的晃动动作,以避免用户晃动次数过多,频繁地根据晃动动作变换中心位置。例如,该预设的时间限值为1秒。
位置获取单元133,用于获取晃动动作的停留位置,将停留位置设置为虚拟屏的中心位置。
本实施例中,识别出用户的晃动动作之后,位置获取单元133获取晃动动作的停留位置,该停留位置为三维坐标的形式,可以是标记的重心,将停留位置作为虚拟屏的中心位置。
初始模块210,用于按照中心位置进行初始化形成三维立体屏幕,虚拟屏为三维立体屏幕中的平面。
本实施例中,初始模块210按照中心位置形成与用户相对设置的虚拟屏,中心位置即为虚拟屏的中心,进而将虚拟屏向显示屏幕的方向延伸形成三维立体屏幕。在优选的实施例中,虚拟屏的宽度为250毫米,高度为186毫米。
映射模块230,用于建立虚拟屏中标记的位置和显示屏幕中像素值之间的映射关系。
本实施例中,映射模块230按照虚拟屏与显示屏幕之间的比例关系将标记的位置折算为显示屏幕中的像素值,将标记的位置与折算得到的像素值相关联,建立映射关系。
在另一个实施例中,上述处理模块150还用于判断标记的长度是否小于长度限值,若是,则产生显示屏幕中的按住指令,若否,则产生显示屏幕中的松开指令。
本实施例中,标记为长条形的掌带,将套在用户的手掌中。随着用户手掌的握下和松开,标记的长度将会发生变化。若处理模块150判断到标记的长度小于长度限值,则说明用户握下手掌,产生显示屏幕中的按住指令,若判断到标记的长度并没有小于长度限值,则说明用户松开手掌,相应的,显示屏幕中的按住指令将会变换为松开指令。
如图18所示,在一个实施例中,上述处理模块150包括距离处理单元151以及长度判断单元153。
距离处理单元151,用于获取标记的识别距离,并提取识别距离对应的距离长度值。
本实施例中,标记的识别距离是采集标记的图像时标记和图像采集装置之间的距离。随着识别距离的逐渐变小,采集的标记的图像中,标记逐渐变大,标记的长度也变长;而随着识别距离的逐渐变小,采集的标记的图像中,标记逐渐变小,标记的长度也随之变小,因此,需屏蔽识别距离的影响,使用户在距离图像采集装置无论远近如何均可以操控自如。
预先对标记的长度进行采样,得到每一识别距离下标记的长度,该标记的长度即为距离长度值。每一识别距离下标记的长度是在松开手掌的前提下采集标记的图像,并从这一图像中识别得到的。将得到的距离长度值与识别距离相关联,建立距离长度值与识别距离之间的映射关系。
在识别出标记的位置和长度之后还需距离处理单元151获取标记的识别距离,将从距离长度值与识别距离之间的映射关系中提取出获取的识别距离所对应的距离长度值。
长度判断单元153,用于判断标记的长度是否小于距离长度值的缩小值,若是,则产生显示屏幕的按住指令,若否,则产生显示屏幕中的松开指令。
本实施例中,距离长度值的缩小值是在某一标记的识别距离下手掌处于握下状态时得到的标记的长度,在手掌从松开状态变换为握下状态时标记的长度将大致由距离长度值变换为距离长度的缩小值。在优选的实施例中,缩小值为距离长度值的二分之一。将缩小值设定为距离长度值的二分之一将有效地避免用户手掌发生偏移而未正对图像采集装置时标记的长度稍微变小而被误认为用户手掌处于握下状态,提高了判断的精确度。
处于松开状态下标记的长度是接近于识别距离所对应的距离长度值的,并且必定不会小于距离长度值的缩小值。因此,长度判断单元153对识别得到的标记的长度进行判断,若判断到标记的长度小于距离长度值的缩小值,则说明用户的手掌处于松开状态,进而产生显示屏幕的松开指令;若判断到标记的长度大于或等于距离长度值的缩小值,则说明用户的手掌处于握住状态,进而产生显示屏幕的按住指令。
如图19所示,在一个实施例中,上述响应模块170包括坐标获取单元171以及显示单元173。
坐标获取单元171,用于根据映射关系得到标记在显示屏幕中的像素值。
本实施例中,坐标获取单元171根据虚拟屏中标记的位置和显示屏幕中像素值之间的映射关系得到标记在显示屏幕中的像素值,实现标记位置到像素值的转换。
显示单元173,用于按照标记在显示屏幕中的像素值显示控制指令对应的图标。
本实施例中,根据控制指令的不同,显示屏幕中展示的图标也各不相同。显示屏幕中的图标是与虚拟屏上的标记对应的,例如,在虚拟屏的中心位置握下手掌所识别到的标记将与显示屏幕的中心位置手形图案中手形处于握下状态的图标对应。在其它实施例中,图标还可以是光标、指针等形式
如图20所示,在一个实施例中,上述响应模块还包括变化获取单元175、变化判断单元176以及调整单元177。
变化获取单元175,用于根据标记的长度得到长度变化值。
本实施例中,变化获取单元175分别从相邻的两帧采集得到的图像中获取标记的长度,并通过标记的长度之间的差值得到长度变化值。
变化判断单元176,用于判断长度变化值是否小于阈值,若否,则根据标记的位置得到位置变化值。
本实施例中,变化判断单元176若判断到长度变化值达到了阈值,则说明用户当前正在握下手掌的可能性非常高,在用户握下手掌的过程中标记极可能从手心向手掌外侧偏移,进而造成标记的位置发生偏移,此时,将判断长度变化值是否超出了阈值,若是,则说明标记已经从手心向手掌外侧偏移,标记的位置发生了偏移,此时,需屏蔽标记的位置发生的偏移对显示屏幕中图标所对应的像素值产生影响,此时,将重新调整虚拟屏的中心位置。在优选的实施例中,阈值为标记的识别距离所对应的距离长度值的四分之一。
进一步的,在用户从握下手掌的状态松开手掌时,在相邻两帧标记的图像中得到的长度变化值也极可能产生较为剧烈的变化,此时也将通知调整单元177进行标记的位置调整。
在当前帧标记的图像中标记的位置为(x1,y1,z1),而前一帧标记的图标中标记的位置为(x0,y0,z0),在X坐标轴上的位置变化值为x1-x0,在Y坐标轴上的位置变化值为y1-y0。
调整单元177,用于按照位置变化值调整虚拟屏中标记的位置。
本实施例中,调整单元177重新设置虚拟屏的中心位置,以使标记虽然从手心向手掌外侧偏移时与标记对应的图标在显示屏幕中的位置没有发生变化,忽略标记发生的偏移所造成的影响。按照位置变化值进行调整所得到的标记的位置中,X坐标轴上的坐标值为x+x1-x0,Y坐标轴上的坐标值为y+y1-y0,其中,(x,y)为调整前标记在X坐标轴和Y坐标轴上的坐标。
在另一个实施例中,上述人机交互***,识别模块130还用于识别出标记的面积。
处理模块150还用于判断标记的面积是否大于面积限值,若是,则通知响应模块170,若否,则结束。
响应模块170还用于进行操控界面的回退。
本实施例中,标记中与手背对应的反光材料的长度和面积均大于与手掌心对应的反光材料,用户的手掌心由面向图像采集装置的位置进行翻转,变为手背面向图像采集装置,反光材料的面积也由小变大,因此,在发生了翻转动作之后,将会使得标记的面积大于面积限值,此时,将退出当前操控界面,返回上一层操控界面或退出操控界面。
上述人机交互方法和***中,用户通过标记在显示屏幕前方进行操控,通过识别得到的标记的位置和长度产生相应的控制指令,进而对控制指令进行响应,并在响应模块显示,以对用户的操控进行反馈,用户使用的标记不需要借助于电源,这将使得用户能够使用标记进行随意地操作,提高了使用的灵活性。上述人机交互方法和***中,用户使用标记在模拟出的虚拟屏上进行操控,产生相应的控制指令,不需要借助有源的交互设备就能实现人机交互,提高了一种新型的人机交互方式,操作简单,大大地提高了用户的体验效果。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (12)

1.一种人机交互方法,包括如下步骤:
采集标记的图像;
识别出标记的位置和长度;
根据所述标记的位置和长度产生控制指令;
响应所述控制指令;
其中,还包括:
确定虚拟屏的中心位置;
按照所述中心位置进行初始化形成三维立体屏幕,所述虚拟屏为三维立体屏幕中的平面;
建立所述虚拟屏中标记的位置和显示屏幕中像素值之间的映射关系;
所述确定虚拟屏的中心位置的步骤包括:
检测标记的图像,从所述图像中识别出晃动动作;
获取所述晃动动作的停留位置,将所述停留位置设置为虚拟屏的中心位置;
其特征在于,所述检测标记的图像,从所述图像中识别出晃动动作的步骤包括:
以当前帧为起始提取预设帧数的图像序列;
检测所述图像序列中的标记之间的位移是否大于位移极值,且所述位移之间的方向相反,若是,则获取相应标记的位置产生时间;
判断所述检测得到的位移数量是否达到预设数量,若是,则从所述位置产生时间中提取起始时间和终止时间;
进一步判断所述起始时间和终止时间的时间间隔是否小于时间距离,若是,则判定发生晃动动作。
2.根据权利要求1所述的人机交互方法,其特征在于,所述根据所述标记的位置和长度产生控制指令的步骤包括:
判断所述标记的长度是否小于长度限值,若是,则产生显示屏幕中的按住指令,若否,则
产生显示屏幕中的松开指令。
3.根据权利要求2所述的人机交互方法,其特征在于,所述根据所述标记的位置和长度产生控制指令的步骤包括:
获取所述标记的识别距离,并提取所述识别距离对应的距离长度值;
判断所述标记的长度是否小于距离长度值的缩小值,若是,则产生显示屏幕的按住指令,
若否,则产生显示屏幕中的松开指令。
4.根据权利要求1所述的人机交互方法,其特征在于,所述响应所述控制指令的步骤包括:
根据所述映射关系得到所述标记在显示屏幕中的像素值;
按照所述标记在显示屏幕中的像素值显示所述控制指令对应的图标。
5.根据权利要求4所述的人机交互方法,其特征在于,所述根据所述映射关系得到所述标记在显示屏幕中的像素值的步骤之前还包括:
根据所述标记的长度得到长度变化值;
判断所述长度变化值是否小于阈值,若否,则根据所述标记的位置得到位置变化值;
按照所述位置变化值调整所述虚拟屏中标记的位置。
6.根据权利要求1所述的人机交互方法,其特征在于,还包括:
识别出标记的面积;
判断所述标记的面积是否大于面积限值,若是,则进行操控界面的回退。
7.一种人机交互***,包括:
图像采集模块,用于采集标记的图像;
识别模块,用于识别出标记的位置和长度;
处理模块,用于根据所述标记的位置和长度产生控制指令;
响应模块,用于响应所述控制指令;其中,还包括:
识别模块还用于确定虚拟屏的中心位置;
初始模块,用于按照所述中心位置进行初始化形成三维立体屏幕,所述虚拟屏为三维立体屏幕中远离显示屏幕的平面;
映射模块,用于建立所述虚拟屏中标记的位置和显示屏幕中像素值之间的映射关系;
所述识别模块包括:
动作检测单元,用于检测标记的图像,从所述图像中识别出晃动动作;
位置获取单元,用于获取所述晃动动作的停留位置,将所述停留位置设置为虚拟屏的中心位置;
其特征在于,所述动作检测单元包括:
图像序列提取单元,用于以当前帧为起始提取预设帧数的图像序列;
标记判断单元,用于检测所述图像序列中标记之间的位移是否大于位移极值,且所述位移之间的方向相反,若是,则获取相应标记的位置产生时间;
位移处理单元,用于判断所述检测得到的位移数量是否达到预设数量,若是,则从所述位置产生时间中提取起始时间和终止时间;
动作判定单元,用于判断所述起始时间和终止时间的时间间隔是否小于时间距离,若是,则判定发生晃动动作。
8.根据权利要求7所述的人机交互***,其特征在于,所述处理模块还用于判断所述标记的长度是否小于长度限值,若是,则产生显示屏幕中的按住指令,若否,则产生显示屏幕中的松开指令。
9.根据权利要求8所述的人机交互***,其特征在于,所述处理模块包括:
距离处理单元,用于获取所述标记的识别距离,并提取所述识别距离对应的距离长度值;
长度判断单元,用于判断所述标记的长度是否小于距离长度值的缩小值,若是,则产生显示屏幕的按住指令,若否,则产生显示屏幕中的松开指令。
10.根据权利要求7所述的人机交互***,其特征在于,所述响应模块包括:
坐标获取单元,用于根据所述映射关系得到所述标记在显示屏幕中的像素值;
显示单元,用于按照所述标记在显示屏幕中的像素值显示所述控制指令对应的图标。
11.根据权利要求10所述的人机交互***,其特征在于,所述响应模块还包括:
变化获取单元,用于根据所述标记的长度得到长度变化值;
变化判断单元,用于判断所述长度变化值是否小于阈值,若否,则根据所述标记的位置得到位置变化值;
调整单元,用于按照所述位置变化值调整所述虚拟屏中标记的位置。
12.根据权利要求7所述的人机交互***,其特征在于,所述识别模块还用于识别出标记的面积;
所述处理模块还用于判断所述标记的面积是否大于面积限值,若是,则通知所述响应模块;
所述响应模块还用于进行操控界面的回退。
CN201210138372.1A 2012-05-07 2012-05-07 人机交互方法和*** Active CN103389793B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210138372.1A CN103389793B (zh) 2012-05-07 2012-05-07 人机交互方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210138372.1A CN103389793B (zh) 2012-05-07 2012-05-07 人机交互方法和***

Publications (2)

Publication Number Publication Date
CN103389793A CN103389793A (zh) 2013-11-13
CN103389793B true CN103389793B (zh) 2016-09-21

Family

ID=49534088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210138372.1A Active CN103389793B (zh) 2012-05-07 2012-05-07 人机交互方法和***

Country Status (1)

Country Link
CN (1) CN103389793B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103744507B (zh) * 2013-12-31 2018-12-14 深圳泰山体育科技股份有限公司 人机交互的手势操控方法及***
CN105740029B (zh) 2016-03-03 2019-07-05 腾讯科技(深圳)有限公司 一种内容呈现的方法、用户设备及***
CN111176520B (zh) * 2019-11-13 2021-07-16 联想(北京)有限公司 一种调整方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799717A (zh) * 2010-03-05 2010-08-11 天津大学 基于手部行为捕捉的人机交互方法
CN101989150A (zh) * 2009-07-29 2011-03-23 原相科技股份有限公司 手势辨识方法以及使用该方法的触控***

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101231755B (zh) * 2007-01-25 2013-03-06 上海遥薇(集团)有限公司 运动目标跟踪及数量统计方法
CN101673161B (zh) * 2009-10-15 2011-12-07 复旦大学 一种可视可操作无实体的触摸屏***
CN102306053B (zh) * 2011-08-29 2014-09-10 Tcl集团股份有限公司 一种基于虚拟触摸屏的人机交互方法、装置及电子设备
CN102426480A (zh) * 2011-11-03 2012-04-25 康佳集团股份有限公司 一种人机交互***及其实时手势跟踪处理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101989150A (zh) * 2009-07-29 2011-03-23 原相科技股份有限公司 手势辨识方法以及使用该方法的触控***
CN101799717A (zh) * 2010-03-05 2010-08-11 天津大学 基于手部行为捕捉的人机交互方法

Also Published As

Publication number Publication date
CN103389793A (zh) 2013-11-13

Similar Documents

Publication Publication Date Title
US20220382379A1 (en) Touch Free User Interface
CN104199550B (zh) 一种虚拟键盘操作装置、***及方法
CN106598227B (zh) 基于Leap Motion和Kinect的手势识别方法
CN103136986B (zh) 手语识别方法及***
CN101673161B (zh) 一种可视可操作无实体的触摸屏***
JP4965653B2 (ja) 視覚ディスプレイのためのバーチャルコントローラ
CN103472916A (zh) 一种基于人体手势识别的人机交互方法
CN104199547B (zh) 一种虚拟触屏操作装置、***及方法
CN102270037B (zh) 徒手人机界面操作***及其方法
CN110083202A (zh) 与近眼显示器的多模交互
CN102306053B (zh) 一种基于虚拟触摸屏的人机交互方法、装置及电子设备
CN104199548B (zh) 一种三维人机交互操作装置、***及方法
CN103092334A (zh) 虚拟鼠标驱动装置及虚拟鼠标仿真方法
JP2017534135A (ja) モバイル機器のバーチャルボールのシミュレーションおよびコントロールの方法
CN103389793B (zh) 人机交互方法和***
CN107797648A (zh) 虚拟触摸***和图像识别定位方法、计算机可读存储介质
CN106774846B (zh) 交互投影方法及装置
CN102033656B (zh) 手势辨识方法以及使用该方法的互动***
US11112961B2 (en) Information processing system, information processing method, and program for object transfer between devices
CN203386146U (zh) 基于红外视频定位的人机交互装置
CN102707802A (zh) 手势运动映射到界面的速度控制方法
CN102902421A (zh) 触摸屏笔画粗细识别方法及装置
CN112199015A (zh) 智能交互一体机及其书写方法、装置
CN104199549B (zh) 一种虚拟鼠标操作装置、***及方法
CN103176603A (zh) 计算机手势输入***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C56 Change in the name or address of the patentee
CP01 Change in the name or title of a patent holder

Address after: 518000 Shenzhen, Nanshan District Province, science and technology, South Road, the building of the big square, building 02, room 4,

Patentee after: SHENZHEN TAISHAN SPORTS TECHNOLOGY CORP., LTD.

Address before: 518000 Shenzhen, Nanshan District Province, science and technology, South Road, the building of the big square, building 02, room 4,

Patentee before: Shenzhen Taishan Online Technology Co., Ltd.

CP01 Change in the name or title of a patent holder

Address after: 518000 room 02, 4th floor, Fangda building, Keji South 12th Road, Nanshan District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen Taishan Sports Technology Co.,Ltd.

Address before: 518000 room 02, 4th floor, Fangda building, Keji South 12th Road, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: SHENZHEN TAISHAN SPORTS TECHNOLOGY Corp.,Ltd.

CP01 Change in the name or title of a patent holder