CN107450717A - 一种信息处理方法及穿戴式设备 - Google Patents

一种信息处理方法及穿戴式设备 Download PDF

Info

Publication number
CN107450717A
CN107450717A CN201610378110.0A CN201610378110A CN107450717A CN 107450717 A CN107450717 A CN 107450717A CN 201610378110 A CN201610378110 A CN 201610378110A CN 107450717 A CN107450717 A CN 107450717A
Authority
CN
China
Prior art keywords
gesture
wearable
control instruction
field pictures
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610378110.0A
Other languages
English (en)
Other versions
CN107450717B (zh
Inventor
白欲立
张培
胡浩
田亚录
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201610378110.0A priority Critical patent/CN107450717B/zh
Publication of CN107450717A publication Critical patent/CN107450717A/zh
Application granted granted Critical
Publication of CN107450717B publication Critical patent/CN107450717B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种信息处理方法及穿戴式设备,所述方法应用于穿戴式设备,包括:获取所述穿戴式设备的M帧环境图像,其中,M为正整数;从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。用于解决现有技术中的穿戴式电子设备存在控制方式单一的技术问题,实现穿戴式电子设备的控制方式多样化的技术效果。

Description

一种信息处理方法及穿戴式设备
技术领域
本发明涉及电子技术领域,特别涉及一种信息处理方法及穿戴式设备。
背景技术
随着科学技术的不断发展,电子技术也得到了飞速的发展,很多穿戴式电子设备,如智能手表、智能眼镜等,成为了人们日常生活的必需品。
在现有技术中,以智能眼镜为例,为了方便用户使用,智能眼镜除了可以通过语音进行控制之外,智能眼镜还为使用者提供了触控交互方式,这样,当使用者在出现语音控制失灵的情况时,如处于嘈杂环境中,便可以采用触控方式对智能眼镜进行控制。
可见,现有技术中的穿戴式电子设备只能通过触控和语音两种方式进行触控,所以,现有技术中的穿戴式电子设备存在控制方式单一的技术问题。
发明内容
本发明实施例提供一种信息处理方法及穿戴式设备,用于解决现有技术中的穿戴式电子设备存在控制方式单一的技术问题,实现穿戴式电子设备的控制方式多样化的技术效果。
本申请实施例第一方面提供了一种信息处理方法,应用于穿戴式设备,包括:
获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;
基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
可选的,所述第一操作手势为O型手势,其中,所述O型手势为所述用户的拇指尖与食指尖接触且食指、中指、无名指及小指的曲度在第一预设范围内;或
所述第一操作手势为握拳手势,其中,所述握拳手势为所述用户的拇指与食指部分贴合且食指、中指、无名指及小指的曲度在第二预设范围内;或
所述第一操作手势为V型手势,其中,所述V型手势为所述用户的食指与中指张开,且拇指与无名指部分贴合,且所述无名指与小指曲度在第三预设范围内;或
所述第一操作手势为展开手势,其中,所述展开手势为所述用户的五指张开;或
所述第一操作手势为向左摆动手势,其中,所述向左摆动手势为所述用户的五指贴合且向左弯曲运动;
所述第一操作手势为向右摆动手势,其中,所述向右摆动手势为所述用户的五指贴合且向右弯曲运动;
相应地,所述从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势,包括:
从所述M帧图像中识别出所述O型手势,其中,所述O型手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的封闭曲线,且所述每个手部区域的第一指尖对应的第一特征点与第二指尖对应的第二特征点处于接触状态;或
从所述M帧图像中识别出所述握拳手势,其中,所述握拳手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的曲线,且所述每个手部区域的第一手指对应的第一区域与第二手指对应的第二区域处于接触状态;
从所述M帧图像中识别出所述V型手势,其中,所述V型手势为所述M帧图像中的每个手部区域的特征点的连线的至少一部分呈V型的手势;或
从所述M帧图像中识别出所述展开手势,其中,所述展开手势为所述M帧图像中的每个手部区域的特征点的连线呈掌状曲线的手势;或
从所述M帧图像中识别出所述向左摆动手势,其中,所述向左摆动手势为所述M帧图像中的M个手部区域的变化方向为由右向左的手势;或
从所述M帧图像中识别出所述向右摆动手势,其中,所述向右摆动手势为所述M帧图像中的M个手部区域的变化方向为由左向右的手势。
可选的,所述基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令,包括:
基于所述对应关系,确定并执行与所述O型手势对应的Home键控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为桌面内容;或
基于所述对应关系,确定并执行与所述握拳手势对应的缩小控制指令,控制所述穿戴式设备的显示内容由第一尺寸调整为第二尺寸,所述第二尺寸小于所述第一尺寸;或
基于所述对应关系,确定并执行与所述V型手势对应的确认控制指令,控制所述穿戴式设备执行与所述确认控制指令对应的操作;或
基于所述对应关系,确定并执行与所述展开手势对应的放大控制指令,控制所述穿戴式设备的显示内容由第三尺寸调整为第四尺寸,所述第四尺寸大于所述第三尺寸;或
基于所述对应关系,确定并执行与所述向左摆动手势对应的向前翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第一显示内容,所述第一显示内容为所述当前显示内容的上一页内容;
基于所述对应关系,确定并执行与所述向右摆动手势对应的向后翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第二显示内容,所述第二显示内容为所述当前显示内容的下一页内容。
可选的,所述从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势,包括:
依次取i为1至M,识别出所述M帧环境图像中的第i帧环境图像中所述用户的第i个手部区域,在i为M时,获取M个手部区域;
依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点,在j为M时,获得M组至少三个边缘特征点,其中,每组至少三个边缘特征点为位于所述手部区域的边缘部分的特征点;
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量小于预设变化值;
基于所述M组至少三个边缘特征点的连线形状确定所述第一操作手势。
可选的,在所述依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点之后,所述方法还包括:
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量大于预设变化值;
基于所述M组至少三个边缘特征点的运动方向确定所述第一操作手势。
本申请实施例第二方面提供了一种穿戴式设备,包括:
壳体;
传感器,设置在所述壳体内,用于获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
处理器,设置在所述壳体内,用于从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
可选的,所述处理器具体用于:
从所述M帧图像中识别出O型手势,其中,所述O型手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的封闭曲线,且所述每个手部区域的第一指尖对应的第一特征点与第二指尖对应的第二特征点处于接触状态;或
从所述M帧图像中识别出握拳手势,其中,所述握拳手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的曲线,且所述每个手部区域的第一手指对应的第一区域与第二手指对应的第二区域处于接触状态;
从所述M帧图像中识别出V型手势,其中,所述V型手势为所述M帧图像中的每个手部区域的特征点的连线的至少一部分呈V型的手势;或
从所述M帧图像中识别出展开手势,其中,所述展开手势为所述M帧图像中的每个手部区域的特征点的连线呈掌状曲线的手势;或
从所述M帧图像中识别出向左摆动手势,其中,所述向左摆动手势为所述M帧图像中的M个手部区域的变化方向为由右向左的手势;或
从所述M帧图像中识别出向右摆动手势,其中,所述向右摆动手势为所述M帧图像中的M个手部区域的变化方向为由左向右的手势。
可选的,所述处理器具体用于:
基于所述对应关系,确定并执行与所述O型手势对应的Home键控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为桌面内容;或
基于所述对应关系,确定并执行与所述握拳手势对应的缩小控制指令,控制所述穿戴式设备的显示内容由第一尺寸调整为第二尺寸,所述第二尺寸小于所述第一尺寸;或
基于所述对应关系,确定并执行与所述V型手势对应的确认控制指令,控制所述穿戴式设备执行与所述确认控制指令对应的操作;或
基于所述对应关系,确定并执行与所述展开手势对应的放大控制指令,控制所述穿戴式设备的显示内容由第三尺寸调整为第四尺寸,所述第四尺寸大于所述第三尺寸;或
基于所述对应关系,确定并执行与所述向左摆动手势对应的向前翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第一显示内容,所述第一显示内容为所述当前显示内容的上一页内容;
基于所述对应关系,确定并执行与所述向右摆动手势对应的向后翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第二显示内容,所述第二显示内容为所述当前显示内容的下一页内容。
可选的,所述处理器具体用于:
依次取i为1至M,识别出所述M帧环境图像中的第i帧环境图像中所述用户的第i个手部区域,在i为M时,获取M个手部区域;
依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点,在j为M时,获得M组至少三个边缘特征点,其中,每组至少三个边缘特征点为位于所述手部区域的边缘部分的特征点;
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量小于预设变化值;
基于所述M组至少三个边缘特征点的连线形状确定所述第一操作手势。
可选的,所述处理器还用于:
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量大于预设变化值;
基于所述M组至少三个边缘特征点的运动方向确定所述第一操作手势。
本申请实施例第三方面提供了一种穿戴式设备,包括:
第一获取单元,用于获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
第一识别单元,用于从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;
第一执行单元,用于基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
由于本申请实施例中的技术方案,采用获取穿戴式设备的M帧环境图像,其中,M为正整数;从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令的技术手段,这样,穿戴式设备可以通过识别环境图像中的用户手势,对穿戴式设备进行控制,从而给使用者提供了除触控和语音控制方式之外的新的控制方式,用户可以根据实际使用需求选择合适的控制方式,解决了现有技术中的穿戴式电子设备存在控制方式单一的技术问题,实现穿戴式电子设备的控制方式多样化的技术效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例。
图1为本申请实施例一中提供的一种信息处理方法的流程图;
图2A为本申请实施例一中O型手势的示意图;
图2B为本申请实施例一中握拳手势的示意图;
图2C为本申请实施例一中V型手势的示意图;
图2D为本申请实施例一中展开手势的示意图;
图2E为本申请实施例一中向左摆动手势的示意图;
图2F为本申请实施例一中向右摆动手势的示意图;
图3A为本申请实施例一中第一种其他操作手势的示意图;
图3B为本申请实施例一中第二种其他操作手势的示意图;
图4为本申请实施例一中步骤S102的具体实现方式的流程图;
图5为本申请实施例二提供一种穿戴式设备的结构示意图;
图6为本申请实施例三提供一种穿戴式设备的结构框图。
具体实施方式
本发明实施例提供一种信息处理方法及穿戴式设备,用于解决现有技术中的穿戴式电子设备存在控制方式单一的技术问题,实现穿戴式电子设备的控制方式多样化的技术效果。
本申请实施例中的技术方案为解决上述的技术问题,总体思路如下:
一种信息处理方法,应用于穿戴式设备,包括:
获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;
基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
在上述技术方案中,采用获取穿戴式设备的M帧环境图像,其中,M为正整数;从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令的技术手段,这样,穿戴式设备可以通过识别环境图像中的用户手势,对穿戴式设备进行控制,从而给使用者提供了除触控和语音控制方式之外的新的控制方式,用户可以根据实际使用需求选择合适的控制方式,解决了现有技术中的穿戴式电子设备存在控制方式单一的技术问题,实现穿戴式电子设备的控制方式多样化的技术效果。
为了更好的理解上述技术方案,下面通过附图以及具体实施例对本发明技术方案做详细的说明,应当理解本申请实施例以及实施例中的具体特征是对本发明技术方案的详细的说明,而不是对本发明技术方案的限定,在不冲突的情况下,本申请实施例以及实施例中的技术特征可以相互结合。
实施例一
请参考图1,为本申请实施例一中提供的一种信息处理方法的流程图,所述方法应用于穿戴式设备中,包括:
S101:获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
S102:从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;
S103:基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
在具体实施过程中,所述穿戴式设备可以为智能眼镜、智能手环等,当然,也可以是其他能够获取图像并进行图像处理的穿戴式设备,在此,就不一一举例了。在本申请实施例中,将以所述穿戴式设备为智能眼镜为例,来对本申请实施例中的方法进行详细描述。
在采用本申请实施例中的方法进行信息处理时,首先执行步骤S101,即:获取所述穿戴式设备的M帧环境图像,其中,M为正整数。
在具体实施过程中,以所述穿戴式设备为智能眼镜为例,在智能眼镜上可以配备有图像采集单元,如红外摄像头、普通摄像头或者深度摄像头等。在智能眼镜上还可以设置控制模式切换键,方便用户从多种控制模式中选择自己需要使用的控制模式,如在嘈杂环境中选择使用手势识别,在安静环境中使用触控方式或者语音方式等。当智能眼镜检测到用户当前的控制模式为手势识别时,则开启智能眼镜的摄像头,此时,摄像头可以采集一预设时长内的环境图像,如采集5s内的环境图像,假设摄像头的采集频率为每1s采集一张图像,则智能眼镜将获取5帧环境图像。
在执行完成步骤S101之后,本申请实施例中的方法便执行步骤S102,即:从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势。
在本申请实施例一中,所述第一操作手势为O型手势,其中,所述O型手势为所述用户的拇指尖与食指尖接触且食指、中指、无名指及小指的曲度在第一预设范围内;或
所述第一操作手势为握拳手势,其中,所述握拳手势为所述用户的拇指与食指部分贴合且食指、中指、无名指及小指的曲度在第二预设范围内;或
所述第一操作手势为V型手势,其中,所述V型手势为所述用户的食指与中指张开,且拇指与无名指部分贴合,且所述无名指与小指曲度在第三预设范围内;或
所述第一操作手势为展开手势,其中,所述展开手势为所述用户的五指张开;或
所述第一操作手势为向左摆动手势,其中,所述向左摆动手势为所述用户的五指贴合且向左弯曲运动;
所述第一操作手势为向右摆动手势,其中,所述向右摆动手势为所述用户的五指贴合且向右弯曲运动。
在具体实施过程中,沿用上述例子,智能眼镜的存储器中预先存储好各种操作手势的定义:O型手势,如图2A所示;握拳手势,如图2B所示;V型手势,如图2C所示;展开手势,如图2D所示;向左摆动手势,如图2E所示;向右摆动手势,如图2F所示。当然也可以是如图3A和图3B所示的向左指向手势及向右指向手势。当智能眼镜获取了5帧环境图像后,便对所述5帧环境图像进行图像处理,如,对获取图像的场景深度图,基于深度图进行识别、特征点提取,通过连续跟踪数据获取用户手势。
在本申请实施例中,请参考图4,步骤S102的具体实现方式为:
S401:依次取i为1至M,识别出所述M帧环境图像中的第i帧环境图像中所述用户的第i个手部区域,在i为M时,获取M个手部区域;
S402:依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点,在j为M时,获得M组至少三个边缘特征点,其中,每组至少三个边缘特征点为位于所述手部区域的边缘部分的特征点;
S403:确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量小于预设变化值;
S404:基于所述M组至少三个边缘特征点的连线形状确定所述第一操作手势;
S405:确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量大于预设变化值;
S406:基于所述M组至少三个边缘特征点的运动方向确定所述第一操作手势。
在具体实施过程中,沿用上述例子,首先对获取的5帧环境图像中的每帧图像进行手势定位与分割,获取每帧图像中的手部区域,如,对用户的肤色进行建模,进而通过判断图像中的每个像素点的颜色是否属于肤色来确定用户的手部区域,当然,本领域技术人员也可以采用其他方式;在确定每帧图像中的手部区域后,便提取每帧图像中的手部区域的特征点,如,得到手部区域的二值图像后,把手部图像投影到它的外包矩形的四条边,得到手部轮廓特征点,确定手部区域的掌心位置,以该位置为原点建立极坐标系,把手掌轮廓特征点转换到该极坐标系,利用指尖对应于极半径的某个局部极大值的规律提取手指位置,将手掌轮廓特征点及各个手指的位置特征点作为每帧图像中的手部区域的特征点。比较每两帧图像中的手部区域特征点,判断获取的5帧图像中的手部区域特征点的变化量是否大于预设变化值,如判断手部区域特征点的位置的变化值是否大于预设变化值0.5cm,当位置的变化值小于0.5cm,则确定当前用户的手势为静态手势,然后通过静态手势识别的方式获取用户的手势,如,获取某一帧图像的手部区域特征点,获取各个手指的位置关系,通过位置关系确定当前手势;当位置的变化值大于0.5cm,则确定当前用户的手势为动态手势,则通过动态手势识别的方式获取用户手势,如,获取第一帧图像的第一组手部区域特征点及第三帧图像的第三组手部区域特征点,计算出从第一帧图像到第三帧图像,手部区域的变化趋势,通过变化趋势确定当前手势。
在具体实施过程中,沿用上述例子,智能眼镜的存储器中会预存与各个手势对应的特征点的位置关系。如O型手势的特征点位置关系为:所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的封闭曲线,且所述每个手部区域的第一指尖对应的第一特征点与第二指尖对应的第二特征点处于接触状态;握拳手势的特征点位置关系为:所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的曲线,且所述每个手部区域的第一手指对应的第一区域与第二手指对应的第二区域处于接触状态;V型手势的特征点位置关系为:所述M帧图像中的每个手部区域的特征点的连线的至少一部分呈V型的手势;展开手势的特征点位置关系为:所述M帧图像中的每个手部区域的特征点的连线呈掌状曲线的手势;向左摆动手势的特征点位置关系为:所述M帧图像中的M个手部区域的变化方向为由右向左的手势;向右摆动手势的特征点位置关系为:所述M帧图像中的M个手部区域的变化方向为由左向右的手势。
从而在本申请实施例中,步骤S102的具体实现方式为:
从所述M帧图像中识别出所述O型手势;或
从所述M帧图像中识别出所述握拳手势;或
从所述M帧图像中识别出所述V型手势;或
从所述M帧图像中识别出所述展开手势;或
从所述M帧图像中识别出所述向左摆动手势;或
从所述M帧图像中识别出所述向右摆动手势。
在执行完成步骤S102之后,本申请实施例中的方法便执行步骤S103,即:基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
在本申请实施例中,步骤S103的具体实现方式为:
基于所述对应关系,确定并执行与所述O型手势对应的Home键控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为桌面内容;或
基于所述对应关系,确定并执行与所述握拳手势对应的缩小控制指令,控制所述穿戴式设备的显示内容由第一尺寸调整为第二尺寸,所述第二尺寸小于所述第一尺寸;或
基于所述对应关系,确定并执行与所述V型手势对应的确认控制指令,控制所述穿戴式设备执行与所述确认控制指令对应的操作;或
基于所述对应关系,确定并执行与所述展开手势对应的放大控制指令,控制所述穿戴式设备的显示内容由第三尺寸调整为第四尺寸,所述第四尺寸大于所述第三尺寸;或
基于所述对应关系,确定并执行与所述向左摆动手势对应的向前翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第一显示内容,所述第一显示内容为所述当前显示内容的上一页内容;
基于所述对应关系,确定并执行与所述向右摆动手势对应的向后翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第二显示内容,所述第二显示内容为所述当前显示内容的下一页内容。
在具体实施过程中,沿用上述例子,当智能眼镜识别出用户的手势之后,智能眼镜便根据存储器中预存的手势与控制指令的对应关系,确定并执行与当前手势对应的控制指令。在存储器中存储的对应关系为:O型手势对应的Home键控制指令;握拳手势对应的缩小控制指令;V型手势对应的确认控制指令;展开手势对应的放大控制指令;向左摆动手势对应的向前翻页控制指令;向右摆动手势对应的向后翻页控制指令。以当前用户的手势为握拳手势为例,此时,智能眼镜根据预存的对应关系确定出当前控制指令为缩小控制指令,则智能眼镜便获取当前的显示界面,确定出当前显示界面的字号为4号,智能眼镜中预存的缩小规则为将当前显示字号缩小一个字号,从而确定出需要将当前显示界面的字号调整为5号,从而智能眼镜将当前显示界面的字号调整为5号再对页面重新排版之后重新显示出来,实现了对页面缩小的功能。
当用户手势为其他手势时,则执行其他的控制指令,在本申请实施例中不再赘述。
实施例二
基于与本申请实施例一相同的发明构思,请参考图5,本申请实施例二提供一种穿戴式设备,包括:
壳体10;
传感器20,设置在壳体10内,用于获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
处理器30,设置在壳体10内,用于从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
在本申请实施例二,处理器30具体用于:
从所述M帧图像中识别出O型手势,其中,所述O型手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的封闭曲线,且所述每个手部区域的第一指尖对应的第一特征点与第二指尖对应的第二特征点处于接触状态;或
从所述M帧图像中识别出握拳手势,其中,所述握拳手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的曲线,且所述每个手部区域的第一手指对应的第一区域与第二手指对应的第二区域处于接触状态;
从所述M帧图像中识别出V型手势,其中,所述V型手势为所述M帧图像中的每个手部区域的特征点的连线的至少一部分呈V型的手势;或
从所述M帧图像中识别出展开手势,其中,所述展开手势为所述M帧图像中的每个手部区域的特征点的连线呈掌状曲线的手势;或
从所述M帧图像中识别出向左摆动手势,其中,所述向左摆动手势为所述M帧图像中的M个手部区域的变化方向为由右向左的手势;或
从所述M帧图像中识别出向右摆动手势,其中,所述向右摆动手势为所述M帧图像中的M个手部区域的变化方向为由左向右的手势。
在本申请实施例二,处理器30具体用于:
基于所述对应关系,确定并执行与所述O型手势对应的Home键控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为桌面内容;或
基于所述对应关系,确定并执行与所述握拳手势对应的缩小控制指令,控制所述穿戴式设备的显示内容由第一尺寸调整为第二尺寸,所述第二尺寸小于所述第一尺寸;或
基于所述对应关系,确定并执行与所述V型手势对应的确认控制指令,控制所述穿戴式设备执行与所述确认控制指令对应的操作;或
基于所述对应关系,确定并执行与所述展开手势对应的放大控制指令,控制所述穿戴式设备的显示内容由第三尺寸调整为第四尺寸,所述第四尺寸大于所述第三尺寸;或
基于所述对应关系,确定并执行与所述向左摆动手势对应的向前翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第一显示内容,所述第一显示内容为所述当前显示内容的上一页内容;
基于所述对应关系,确定并执行与所述向右摆动手势对应的向后翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第二显示内容,所述第二显示内容为所述当前显示内容的下一页内容。
在本申请实施例二,处理器30具体用于:
依次取i为1至M,识别出所述M帧环境图像中的第i帧环境图像中所述用户的第i个手部区域,在i为M时,获取M个手部区域;
依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点,在j为M时,获得M组至少三个边缘特征点,其中,每组至少三个边缘特征点为位于所述手部区域的边缘部分的特征点;
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量小于预设变化值;
基于所述M组至少三个边缘特征点的连线形状确定所述第一操作手势。
在本申请实施例二,处理器30还用于:
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量大于预设变化值;
基于所述M组至少三个边缘特征点的运动方向确定所述第一操作手势。
实施例三
基于与本申请实施例一相同的发明构思,请参考图6,本申请实施例三提供一种穿戴式设备,包括:
第一获取单元101,用于获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
第一识别单元102,用于从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;
第一执行单元103,用于基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
在本申请实施例三中,第一识别单元102具体用于:
从所述M帧图像中识别出O型手势,其中,所述O型手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的封闭曲线,且所述每个手部区域的第一指尖对应的第一特征点与第二指尖对应的第二特征点处于接触状态;或
从所述M帧图像中识别出握拳手势,其中,所述握拳手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的曲线,且所述每个手部区域的第一手指对应的第一区域与第二手指对应的第二区域处于接触状态;
从所述M帧图像中识别出V型手势,其中,所述V型手势为所述M帧图像中的每个手部区域的特征点的连线的至少一部分呈V型的手势;或
从所述M帧图像中识别出展开手势,其中,所述展开手势为所述M帧图像中的每个手部区域的特征点的连线呈掌状曲线的手势;或
从所述M帧图像中识别出向左摆动手势,其中,所述向左摆动手势为所述M帧图像中的M个手部区域的变化方向为由右向左的手势;或
从所述M帧图像中识别出向右摆动手势,其中,所述向右摆动手势为所述M帧图像中的M个手部区域的变化方向为由左向右的手势。
在本申请实施例三中,第一执行单元103具体用于:
基于所述对应关系,确定并执行与所述O型手势对应的Home键控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为桌面内容;或
基于所述对应关系,确定并执行与所述握拳手势对应的缩小控制指令,控制所述穿戴式设备的显示内容由第一尺寸调整为第二尺寸,所述第二尺寸小于所述第一尺寸;或
基于所述对应关系,确定并执行与所述V型手势对应的确认控制指令,控制所述穿戴式设备执行与所述确认控制指令对应的操作;或
基于所述对应关系,确定并执行与所述展开手势对应的放大控制指令,控制所述穿戴式设备的显示内容由第三尺寸调整为第四尺寸,所述第四尺寸大于所述第三尺寸;或
基于所述对应关系,确定并执行与所述向左摆动手势对应的向前翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第一显示内容,所述第一显示内容为所述当前显示内容的上一页内容;
基于所述对应关系,确定并执行与所述向右摆动手势对应的向后翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第二显示内容,所述第二显示内容为所述当前显示内容的下一页内容。
在本申请实施例三中,第一识别单元102具体用于:
依次取i为1至M,识别出所述M帧环境图像中的第i帧环境图像中所述用户的第i个手部区域,在i为M时,获取M个手部区域;
依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点,在j为M时,获得M组至少三个边缘特征点,其中,每组至少三个边缘特征点为位于所述手部区域的边缘部分的特征点;
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量小于预设变化值;
基于所述M组至少三个边缘特征点的连线形状确定所述第一操作手势。
在本申请实施例三中,第一识别单元102还用于:
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量大于预设变化值;
基于所述M组至少三个边缘特征点的运动方向确定所述第一操作手势。
通过本申请实施例中的一个或多个技术方案,可以实现如下一个或多个技术效果:
由于本申请实施例中的技术方案,采用获取穿戴式设备的M帧环境图像,其中,M为正整数;从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令的技术手段,这样,穿戴式设备可以通过识别环境图像中的用户手势,对穿戴式设备进行控制,从而给使用者提供了除触控和语音控制方式之外的新的控制方式,用户可以根据实际使用需求选择合适的控制方式,解决了现有技术中的穿戴式电子设备存在控制方式单一的技术问题,实现穿戴式电子设备的控制方式多样化的技术效果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
具体来讲,本申请实施例中的信息处理方法对应的计算机程序指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中的与信息处理方法对应的计算机程序指令被一电子设备读取或被执行时,包括如下步骤:
获取穿戴式设备的M帧环境图像,其中,M为正整数;
从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;
基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
可选的,所述存储介质中存储的与步骤:从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势,对应的计算机程序指令在被执行时,包括:
从所述M帧图像中识别出O型手势,其中,所述O型手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的封闭曲线,且所述每个手部区域的第一指尖对应的第一特征点与第二指尖对应的第二特征点处于接触状态;或
从所述M帧图像中识别出握拳手势,其中,所述握拳手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的曲线,且所述每个手部区域的第一手指对应的第一区域与第二手指对应的第二区域处于接触状态;
从所述M帧图像中识别出V型手势,其中,所述V型手势为所述M帧图像中的每个手部区域的特征点的连线的至少一部分呈V型的手势;或
从所述M帧图像中识别出展开手势,其中,所述展开手势为所述M帧图像中的每个手部区域的特征点的连线呈掌状曲线的手势;或
从所述M帧图像中识别出向左摆动手势,其中,所述向左摆动手势为所述M帧图像中的M个手部区域的变化方向为由右向左的手势;或
从所述M帧图像中识别出向右摆动手势,其中,所述向右摆动手势为所述M帧图像中的M个手部区域的变化方向为由左向右的手势。
可选的,所述存储介质中存储的与步骤:基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令,对应的计算机程序指令在被执行时,包括:
基于所述对应关系,确定并执行与所述O型手势对应的Home键控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为桌面内容;或
基于所述对应关系,确定并执行与所述握拳手势对应的缩小控制指令,控制所述穿戴式设备的显示内容由第一尺寸调整为第二尺寸,所述第二尺寸小于所述第一尺寸;或
基于所述对应关系,确定并执行与所述V型手势对应的确认控制指令,控制所述穿戴式设备执行与所述确认控制指令对应的操作;或
基于所述对应关系,确定并执行与所述展开手势对应的放大控制指令,控制所述穿戴式设备的显示内容由第三尺寸调整为第四尺寸,所述第四尺寸大于所述第三尺寸;或
基于所述对应关系,确定并执行与所述向左摆动手势对应的向前翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第一显示内容,所述第一显示内容为所述当前显示内容的上一页内容;
基于所述对应关系,确定并执行与所述向右摆动手势对应的向后翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第二显示内容,所述第二显示内容为所述当前显示内容的下一页内容。
可选的,所述存储介质中存储的与步骤:从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势,对应的计算机程序指令在被执行时,包括:
依次取i为1至M,识别出所述M帧环境图像中的第i帧环境图像中所述用户的第i个手部区域,在i为M时,获取M个手部区域;
依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点,在j为M时,获得M组至少三个边缘特征点,其中,每组至少三个边缘特征点为位于所述手部区域的边缘部分的特征点;
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量小于预设变化值;
基于所述M组至少三个边缘特征点的连线形状确定所述第一操作手势。
可选的,所述存储介质中还存储有另外一些计算机程序指令,所述另外一些计算机程序指令在与步骤:依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点对应的计算机程序指令执行之后被执行,包括:
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量大于预设变化值;
基于所述M组至少三个边缘特征点的运动方向确定所述第一操作手势。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (11)

1.一种信息处理方法,应用于穿戴式设备,包括:
获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;
基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
2.如权利要求1所述的方法,其特征在于,所述第一操作手势为O型手势,其中,所述O型手势为所述用户的拇指尖与食指尖接触且食指、中指、无名指及小指的曲度在第一预设范围内;或
所述第一操作手势为握拳手势,其中,所述握拳手势为所述用户的拇指与食指部分贴合且食指、中指、无名指及小指的曲度在第二预设范围内;或
所述第一操作手势为V型手势,其中,所述V型手势为所述用户的食指与中指张开,且拇指与无名指部分贴合,且所述无名指与小指曲度在第三预设范围内;或
所述第一操作手势为展开手势,其中,所述展开手势为所述用户的五指张开;或
所述第一操作手势为向左摆动手势,其中,所述向左摆动手势为所述用户的五指贴合且向左弯曲运动;
所述第一操作手势为向右摆动手势,其中,所述向右摆动手势为所述用户的五指贴合且向右弯曲运动;
相应地,所述从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势,包括:
从所述M帧图像中识别出所述O型手势,其中,所述O型手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的封闭曲线,且所述每个手部区域的第一指尖对应的第一特征点与第二指尖对应的第二特征点处于接触状态;或
从所述M帧图像中识别出所述握拳手势,其中,所述握拳手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的曲线,且所述每个手部区域的第一手指对应的第一区域与第二手指对应的第二区域处于接触状态;
从所述M帧图像中识别出所述V型手势,其中,所述V型手势为所述M帧图像中的每个手部区域的特征点的连线的至少一部分呈V型的手势;或
从所述M帧图像中识别出所述展开手势,其中,所述展开手势为所述M帧图像中的每个手部区域的特征点的连线呈掌状曲线的手势;或
从所述M帧图像中识别出所述向左摆动手势,其中,所述向左摆动手势为所述M帧图像中的M个手部区域的变化方向为由右向左的手势;或
从所述M帧图像中识别出所述向右摆动手势,其中,所述向右摆动手势为所述M帧图像中的M个手部区域的变化方向为由左向右的手势。
3.如权利要求2所述的方法,其特征在于,所述基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令,包括:
基于所述对应关系,确定并执行与所述O型手势对应的Home键控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为桌面内容;或
基于所述对应关系,确定并执行与所述握拳手势对应的缩小控制指令,控制所述穿戴式设备的显示内容由第一尺寸调整为第二尺寸,所述第二尺寸小于所述第一尺寸;或
基于所述对应关系,确定并执行与所述V型手势对应的确认控制指令,控制所述穿戴式设备执行与所述确认控制指令对应的操作;或
基于所述对应关系,确定并执行与所述展开手势对应的放大控制指令,控制所述穿戴式设备的显示内容由第三尺寸调整为第四尺寸,所述第四尺寸大于所述第三尺寸;或
基于所述对应关系,确定并执行与所述向左摆动手势对应的向前翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第一显示内容,所述第一显示内容为所述当前显示内容的上一页内容;
基于所述对应关系,确定并执行与所述向右摆动手势对应的向后翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第二显示内容,所述第二显示内容为所述当前显示内容的下一页内容。
4.如权利要求1所述的方法,其特征在于,所述从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势,包括:
依次取i为1至M,识别出所述M帧环境图像中的第i帧环境图像中所述用户的第i个手部区域,在i为M时,获取M个手部区域;
依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点,在j为M时,获得M组至少三个边缘特征点,其中,每组至少三个边缘特征点为位于所述手部区域的边缘部分的特征点;
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量小于预设变化值;
基于所述M组至少三个边缘特征点的连线形状确定所述第一操作手势。
5.如权利要求4所述的方法,其特征在于,在所述依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点之后,所述方法还包括:
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量大于预设变化值;
基于所述M组至少三个边缘特征点的运动方向确定所述第一操作手势。
6.一种穿戴式设备,包括:
壳体;
传感器,设置在所述壳体内,用于获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
处理器,设置在所述壳体内,用于从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
7.如权利要求6所述的穿戴式设备,其特征在于,所述处理器具体用于:
从所述M帧图像中识别出O型手势,其中,所述O型手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的封闭曲线,且所述每个手部区域的第一指尖对应的第一特征点与第二指尖对应的第二特征点处于接触状态;或
从所述M帧图像中识别出握拳手势,其中,所述握拳手势为所述M帧图像中的每个手部区域的特征点的连线形成包含封闭区域的曲线,且所述每个手部区域的第一手指对应的第一区域与第二手指对应的第二区域处于接触状态;
从所述M帧图像中识别出V型手势,其中,所述V型手势为所述M帧图像中的每个手部区域的特征点的连线的至少一部分呈V型的手势;或
从所述M帧图像中识别出展开手势,其中,所述展开手势为所述M帧图像中的每个手部区域的特征点的连线呈掌状曲线的手势;或
从所述M帧图像中识别出向左摆动手势,其中,所述向左摆动手势为所述M帧图像中的M个手部区域的变化方向为由右向左的手势;或
从所述M帧图像中识别出向右摆动手势,其中,所述向右摆动手势为所述M帧图像中的M个手部区域的变化方向为由左向右的手势。
8.如权利要求7所述的穿戴式设备,其特征在于,所述处理器具体用于:
基于所述对应关系,确定并执行与所述O型手势对应的Home键控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为桌面内容;或
基于所述对应关系,确定并执行与所述握拳手势对应的缩小控制指令,控制所述穿戴式设备的显示内容由第一尺寸调整为第二尺寸,所述第二尺寸小于所述第一尺寸;或
基于所述对应关系,确定并执行与所述V型手势对应的确认控制指令,控制所述穿戴式设备执行与所述确认控制指令对应的操作;或
基于所述对应关系,确定并执行与所述展开手势对应的放大控制指令,控制所述穿戴式设备的显示内容由第三尺寸调整为第四尺寸,所述第四尺寸大于所述第三尺寸;或
基于所述对应关系,确定并执行与所述向左摆动手势对应的向前翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第一显示内容,所述第一显示内容为所述当前显示内容的上一页内容;
基于所述对应关系,确定并执行与所述向右摆动手势对应的向后翻页控制指令,控制所述穿戴式设备的显示内容由当前显示内容调整为第二显示内容,所述第二显示内容为所述当前显示内容的下一页内容。
9.如权利要求6所述的穿戴式设备,其特征在于,所述处理器具体用于:
依次取i为1至M,识别出所述M帧环境图像中的第i帧环境图像中所述用户的第i个手部区域,在i为M时,获取M个手部区域;
依次取j为1至M,提取所述M个手部区域中的第j个手部区域的第j组至少三个边缘特征点,在j为M时,获得M组至少三个边缘特征点,其中,每组至少三个边缘特征点为位于所述手部区域的边缘部分的特征点;
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量小于预设变化值;
基于所述M组至少三个边缘特征点的连线形状确定所述第一操作手势。
10.如权利要求9所述的穿戴式设备,其特征在于,所述处理器还用于:
确定所述M组至少三个边缘特征点间的任意两组至少三个边缘特征点的变化量大于预设变化值;
基于所述M组至少三个边缘特征点的运动方向确定所述第一操作手势。
11.一种穿戴式设备,包括:
第一获取单元,用于获取所述穿戴式设备的M帧环境图像,其中,M为正整数;
第一识别单元,用于从所述M帧环境图像中识别出所述穿戴式设备的用户的第一操作手势;
第一执行单元,用于基于预设的操作手势与控制指令的对应关系,确定并执行与所述第一操作手势对应的第一控制指令。
CN201610378110.0A 2016-05-31 2016-05-31 一种信息处理方法及穿戴式设备 Active CN107450717B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610378110.0A CN107450717B (zh) 2016-05-31 2016-05-31 一种信息处理方法及穿戴式设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610378110.0A CN107450717B (zh) 2016-05-31 2016-05-31 一种信息处理方法及穿戴式设备

Publications (2)

Publication Number Publication Date
CN107450717A true CN107450717A (zh) 2017-12-08
CN107450717B CN107450717B (zh) 2021-05-18

Family

ID=60485911

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610378110.0A Active CN107450717B (zh) 2016-05-31 2016-05-31 一种信息处理方法及穿戴式设备

Country Status (1)

Country Link
CN (1) CN107450717B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107976183A (zh) * 2017-12-18 2018-05-01 北京师范大学珠海分校 一种空间数据测量方法及装置
CN108668010A (zh) * 2018-03-30 2018-10-16 努比亚技术有限公司 移动终端控制方法、手环及计算机可读存储介质
CN109814717A (zh) * 2019-01-29 2019-05-28 珠海格力电器股份有限公司 一种家居设备控制方法、装置、控制设备及可读存储介质
CN109917922A (zh) * 2019-03-28 2019-06-21 更藏多杰 一种交互方法及可穿戴交互设备
CN112947825A (zh) * 2021-01-28 2021-06-11 维沃移动通信有限公司 显示控制方法、装置、电子设备及介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609093A (zh) * 2012-02-16 2012-07-25 中国农业大学 用手势控制视频播放的方法及装置
CN102880865A (zh) * 2012-09-28 2013-01-16 东南大学 基于肤色与形态特征的动态手势识别方法
CN103324274A (zh) * 2012-03-22 2013-09-25 联想(北京)有限公司 一种人机交互方法和装置
CN103576840A (zh) * 2012-07-24 2014-02-12 上海辰戌信息科技有限公司 基于立体视觉的手势体感控制***
US8744645B1 (en) * 2013-02-26 2014-06-03 Honda Motor Co., Ltd. System and method for incorporating gesture and voice recognition into a single system
CN103869954A (zh) * 2012-12-17 2014-06-18 联想(北京)有限公司 一种处理方法、装置及电子设备
CN103902202A (zh) * 2012-12-24 2014-07-02 联想(北京)有限公司 一种处理方法及电子设备
CN103955274A (zh) * 2014-04-21 2014-07-30 小米科技有限责任公司 应用控制方法和装置
CN104407694A (zh) * 2014-10-29 2015-03-11 山东大学 一种结合人脸和手势控制的人机交互方法及装置
CN104881122A (zh) * 2015-05-29 2015-09-02 深圳奥比中光科技有限公司 一种体感交互***激活方法、体感交互方法及***
CN105302294A (zh) * 2015-09-07 2016-02-03 哈尔滨市一舍科技有限公司 一种交互式虚拟现实演示装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609093A (zh) * 2012-02-16 2012-07-25 中国农业大学 用手势控制视频播放的方法及装置
CN103324274A (zh) * 2012-03-22 2013-09-25 联想(北京)有限公司 一种人机交互方法和装置
CN103576840A (zh) * 2012-07-24 2014-02-12 上海辰戌信息科技有限公司 基于立体视觉的手势体感控制***
CN102880865A (zh) * 2012-09-28 2013-01-16 东南大学 基于肤色与形态特征的动态手势识别方法
CN103869954A (zh) * 2012-12-17 2014-06-18 联想(北京)有限公司 一种处理方法、装置及电子设备
CN103902202A (zh) * 2012-12-24 2014-07-02 联想(北京)有限公司 一种处理方法及电子设备
US8744645B1 (en) * 2013-02-26 2014-06-03 Honda Motor Co., Ltd. System and method for incorporating gesture and voice recognition into a single system
CN103955274A (zh) * 2014-04-21 2014-07-30 小米科技有限责任公司 应用控制方法和装置
CN104407694A (zh) * 2014-10-29 2015-03-11 山东大学 一种结合人脸和手势控制的人机交互方法及装置
CN104881122A (zh) * 2015-05-29 2015-09-02 深圳奥比中光科技有限公司 一种体感交互***激活方法、体感交互方法及***
CN105302294A (zh) * 2015-09-07 2016-02-03 哈尔滨市一舍科技有限公司 一种交互式虚拟现实演示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
谈家谱 等: "基于Kinect 的指尖检测与手势识别方法", 《计算机应用》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107976183A (zh) * 2017-12-18 2018-05-01 北京师范大学珠海分校 一种空间数据测量方法及装置
CN108668010A (zh) * 2018-03-30 2018-10-16 努比亚技术有限公司 移动终端控制方法、手环及计算机可读存储介质
CN109814717A (zh) * 2019-01-29 2019-05-28 珠海格力电器股份有限公司 一种家居设备控制方法、装置、控制设备及可读存储介质
CN109814717B (zh) * 2019-01-29 2020-12-25 珠海格力电器股份有限公司 一种家居设备控制方法、装置、控制设备及可读存储介质
CN109917922A (zh) * 2019-03-28 2019-06-21 更藏多杰 一种交互方法及可穿戴交互设备
CN112947825A (zh) * 2021-01-28 2021-06-11 维沃移动通信有限公司 显示控制方法、装置、电子设备及介质

Also Published As

Publication number Publication date
CN107450717B (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
US11861070B2 (en) Hand gestures for animating and controlling virtual and graphical elements
US10394334B2 (en) Gesture-based control system
CN104331168B (zh) 显示调整方法和电子设备
CN117120962A (zh) 用于控制虚拟和图形元素的映射手部区域之间的双手交互
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
Lv et al. Touch-less interactive augmented reality game on vision-based wearable device
EP2577426B1 (en) Information processing apparatus and method and program
CN116724285A (zh) 用于控制虚拟和图形元素的微手势
CN107450717A (zh) 一种信息处理方法及穿戴式设备
CN107992188B (zh) 虚拟现实交互方法、装置与***
JP2019008351A (ja) 情報処理装置、情報処理方法及び記録媒体
CN109634415B (zh) 一种用于控制模拟量的手势识别控制方法
CN104407694A (zh) 一种结合人脸和手势控制的人机交互方法及装置
US11009949B1 (en) Segmented force sensors for wearable devices
CN110288715B (zh) 虚拟项链试戴方法、装置、电子设备及存储介质
CN108027655A (zh) 信息处理***、信息处理设备、控制方法和程序
CN108829239A (zh) 终端的控制方法、装置及终端
US11500453B2 (en) Information processing apparatus
Hartanto et al. Real time hand gesture movements tracking and recognizing system
Halarnkar et al. Gesture recognition technology: A review
US11841920B1 (en) Machine learning based gesture recognition
Varma et al. Gestural interaction with three-dimensional interfaces; current research and recommendations
Cruz Bautista et al. Hand features extractor using hand contour–a case study
CN104951177B (zh) 一种信息处理方法及电子设备
US20240168565A1 (en) Single-handed gestures for reviewing virtual content

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant