CN102067067A - 参考姿势数据的注册方法、移动终端的驱动方法及其移动终端 - Google Patents

参考姿势数据的注册方法、移动终端的驱动方法及其移动终端 Download PDF

Info

Publication number
CN102067067A
CN102067067A CN2009801239619A CN200980123961A CN102067067A CN 102067067 A CN102067067 A CN 102067067A CN 2009801239619 A CN2009801239619 A CN 2009801239619A CN 200980123961 A CN200980123961 A CN 200980123961A CN 102067067 A CN102067067 A CN 102067067A
Authority
CN
China
Prior art keywords
portable terminal
data
gesture data
identification
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2009801239619A
Other languages
English (en)
Inventor
田钟弘
李承润
李康赞
金成汉
李沅锡
印敏教
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of CN102067067A publication Critical patent/CN102067067A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

本发明涉及一种参考姿势注册方法、移动终端(100)驱动方法及其移动终端(100)。在本发明中,当用户使用键区或触摸屏来请求识别用户的姿势或注册用户的姿势时,移动终端(100)分析通过附于移动终端(100)的摄像头(120)输入的用户姿势图像以提取姿势数据,并且执行映射到提取的姿势数据的应用功能或将提取的姿势数据注册为参考姿势数据,所述参考姿势数据用作姿势识别参考。

Description

参考姿势数据的注册方法、移动终端的驱动方法及其移动终端
技术领域
本发明涉及一种参考姿势数据的注册方法、移动终端的驱动方法及其移动终端。
本发明由知识经济部(MKE)和信息技术进步研究所(IITA)(2008-P1-22-08J30,下一代web标准的发展)支持。
背景技术
目前,用户使用各种类型的移动终端。移动终端的示例包括:便携式电话、个人数字助理(PDA)、便携式多媒体播放器(PMP)、运动图像专家组音频层-3播放器(MP3P)、数码相机等。
通常,移动终端通过指定方向键功能的按钮或键区来提供用户接口。近年来,由于在移动终端中通常使用触摸屏,所以移动终端提供可以以各种形式改变的用户接口。
同时,由于这种类型的移动终端应该提供有用于信息传输的显示装置和用于在小空间中输入信息的输入单元,所以与个人计算机不同,所述移动终端难以使用用户接口(如鼠标)。因此,当用户通过移动终端来使用需要复杂的屏幕运动(如移动浏览)的移动应用时,对于用户是不方便的。例如,当用户通过使用键区来使用移动浏览时,用户需要按下多个按钮以移动屏幕,这对用户是不方便的。当用户通过使用触摸板来使用移动应用时,用户应该使用两只手来操作移动终端。因此,这不可能符合用户期望只使用一只手来操作移动终端的要求。
因此,一种在移动终端中向用户提供有效接口的方法对促进包括移动浏览的移动应用的使用变得非常重要。因此,需要开发新的接口技术。
在本背景部分中披露的以上信息只是为了提高对本发明的背景的理解,因此,它可包含不构成在这个国家中对于本领域的普通技术人员已知的现有技术的信息。
发明内容
技术问题
本发明已在努力提供一种具有对用户更便利的优点的参考姿势数据注册方法、移动终端驱动方法及其移动终端。
技术方案
本发明的示例性实施例提供了一种驱动移动终端的移动终端驱动方法,所述移动终端附有摄像头并识别用户的姿势。所述移动终端驱动方法包括:通过摄像头收集姿势图像;产生包括运动信息的姿势数据,所述运动信息记录收集的姿势图像中的标识符的位置的变化;当姿势数据可被识别时,搜索映射到姿势数据的应用功能并且执行搜索的应用功能。
本发明的另一实施例提供了一种附有摄像头的移动终端注册参考姿势数据的参考姿势注册方法,所述参考姿势数据被用作当识别用户的姿势时的参考。所述参考姿势注册方法包括:在识别间隔期间通过摄像头收集姿势图像;分析收集的姿势图像以提取至少一个特征点;记录基于至少一个特征点识别的标识符的位置的变化并且产生运动信息;产生包括运动信息的姿势数据;将由用户选择的应用功能映射到姿势数据并且存储映射信息。
本发明的另一实施例提供了一种移动终端。所述移动终端包括:图像处理器,使用在通过附于移动终端的摄像头输入的用户的姿势图像中的标识符的位置的变化来提取姿势数据;姿势分析器,当在先前存储在移动终端中的至少一个参考姿势数据中存在与姿势数据匹配的参考姿势数据时,输出控制指令以驱动映射到与姿势数据匹配的参考姿势数据的应用功能;驱动器,基于控制指令来执行应用功能。
有益效果
根据本发明的示例性实施例,移动终端识别通过内置的摄像头输入的用户的姿势,根据识别的姿势来驱动各种功能(如移动浏览器和屏幕放大/缩小的屏幕运动),以及多种其它应用功能。结果,当用户使用移动终端时,给用户带来更多的便利。
附图说明
图1是示出根据本发明的示例性实施例的移动终端的配置图;
图2是示出根据本发明的示例性实施例的姿势处理单元的配置图;
图3是示出根据本发明的示例性实施例的图像处理器的配置图;
图4是示出根据本发明的示例性实施例的标识符的示例的示图;
图5是示出根据本发明的示例性实施例的基于标识符的位置的变化而产生的运动信息的示例的示图;
图6是示出根据本发明的示例性实施例的姿势数据的示例的示图;
图7是示出根据本发明的示例性实施例的姿势分析器的配置图;
图8到图11是示出根据本发明的示例性实施例的移动终端的示例的示图;
图12是示出当根据本发明的示例性实施例的移动终端识别用户的姿势时的示例的示图;
图13是示出根据本发明的示例性实施例的在姿势识别模式中驱动移动终端的方法的流程图;
图14是示出根据本发明的示例性实施例的移动终端在姿势注册模式中注册用户的姿势的方法的流程图;
图15是示出根据本发明的示例性实施例的移动终端产生姿势数据的方法的流程图。
具体实施方式
在以下的详细说明中,仅以说明的方式简单示出并且描述了本发明的特定示例性实施例。如本领域技术人员所应该理解的,在不脱离本发明的精神或范围的情况下,可以以各种不同的方式对描述的实施例进行修改。因此,附图和说明应该被视为示例性的并非限制性的。在整个说明书中,相同的标号表示相同的部件。
另外,除非明确有相反的描述,否则词语“包括”应该被理解为表示包括一定的部件但并不排除任何其它部件。另外,在说明书中描述的术语“...器”和“...者”表示用于处理至少一个功能或操作的单元并且可由硬件组件、软件组件或其结合来实现。
以下,将参照附图详细地描述根据本发明的示例性实施例的参考姿势数据注册方法、移动终端驱动方法及其移动终端。
图1是示出根据本发明的示例性实施例的移动终端100的配置图。
参照图1,移动终端100包括:输入单元110、摄像头单元120、显示单元130和姿势处理单元140。
输入单元110包括键区或触摸屏,并且识别来自用户的按钮输入。
摄像头单元120包括至少一个摄像头,并且通过摄像头接收用户的姿势图像。这里,摄像头以这样的方式附于移动终端100,所述方式是将摄像头内置于移动终端中或可容易地***移动终端并与从移动终端容易地分离。这时,摄像头被附在移动终端的能够识别用户的姿势的位置上。
通过使用触摸屏、液晶显示器(LCD)或有机发光二极管(OLED)来实现显示单元130,并且当在移动终端100中执行应用(如移动浏览)时,显示单元130将应用执行内容输出到屏幕。
姿势处理单元140识别用户的姿势并且执行与所述姿势相应的应用功能。也就是说,基于由输入单元110识别的按钮输入,姿势处理单元140从用户姿势图像中提取姿势数据,所述用户姿势图像从摄像头单元120输入,并且当提取的姿势数据可被识别时,姿势处理单元140执行与提取的姿势数据相应的应用功能。在这种情况下,用户的姿势可包括:用户的手部运动、面部运动和手掌运动。
同时,姿势处理单元140识别用户的姿势的方法可包括一次识别方法和连续识别方法。一次识别方法是在识别间隔期间识别并且处理一个姿势,连续识别方法是在识别间隔期间识别并且处理一个或多个连续姿势。识别间隔表示移动终端100收集通过摄像头单元120输入的用户姿势图像并且处理姿势数据的间隔。另外,各种方法可被用作移动终端100识别所述识别间隔的方法。
首先,姿势处理单元140可将识别间隔识别为用户在输入单元110的键区或触摸屏上连续按下或触摸特定按钮并且连续输入特定按钮输入操作的间隔。
例如,在包括键区的移动终端100的情况下,当用户按下与识别间隔的开始相应的特定按钮时,姿势处理单元140识别出识别间隔开始。当用户停止按下相应的按钮时,姿势处理单元140识别出识别间隔结束。在包括触摸屏的移动终端100的情况下,当用户触摸与触摸屏上的特定按钮相应的特定区域时(所述特定按钮与识别间隔的开始相应),姿势处理单元140识别出识别间隔开始。当用户停止触摸相应的区域时,姿势处理单元140识别出识别间隔结束。
其次,当用户按下或触摸输入单元110的键区或触摸屏上的与识别间隔的开始相应的特定按钮并且特定按钮输入操作被识别时,姿势处理单元140识别出识别间隔开始。随后,当在识别间隔开始之后经过预定时间或在识别间隔开始之后用户再次按下或触摸相应的按钮时,姿势处理单元140识别出识别间隔结束。
在包括键区的移动终端100的情况下,当用户按下与识别间隔的开始相应的特定按钮时,姿势处理单元140识别出识别间隔开始。当在识别间隔开始之后用户再次按下相应的按键时,姿势处理单元140识别出识别间隔结束。在包括触摸屏的移动终端100的情况下,当用户触摸与触摸屏上的特定按钮相应的特定区域时(所述特定按钮与识别间隔的开始相应),姿势处理单元140识别出识别间隔开始。当在识别间隔开始之后用户再次触摸相应的区域时,姿势处理单元140识别出识别间隔结束。同时,在本发明的上述示例性实施例中,指示识别间隔的开始和结束的按钮输入是相同的。然而,本发明并不局限于此,指示识别间隔的开始和结束的按钮输入可以是互相不同的。
为了处理连续输入姿势中的每个,姿势处理单元140需要基于在识别间隔期间输入的用户姿势图像来识别每个姿势的开始时间点和结束时间点。可使用检测用于识别姿势图像中的姿势的标识符的运动的方法和使用特定姿势的方法作为识别姿势中的每个的开始时间点和结束时间点的方法。通过检测标识符的运动来识别每个姿势的开始时间点和结束时间点的方法可将当标识符开始显示运动时的时间点识别为每个姿势的开始时间点,并且可将当标识符在预定时间里不显示运动或从姿势图像上消失时的时间点识别为每个姿势的结束时间点。使用特定姿势来识别每个姿势的开始时间点和结束时间点的方法将当用户执行通知姿势的开始的特定姿势时的时间点识别为每个姿势的开始时间点,并且将当用户执行通知姿势的结束的特定姿势时的时间点识别为每个姿势的结束时间点。
同时,为了确定提取的姿势数据是否可被识别,姿势处理单元140将提取的姿势数据与存储在移动终端100中的至少一个参考姿势数据进行比较。随后,当存在与提取的姿势数据匹配的参考姿势数据时,姿势处理单元140确定提取的姿势数据可被识别并且执行与所述参考姿势数据相应的应用功能。
在这种情况下,参考姿势数据指的是标准姿势数据或用户姿势数据。标准姿势数据指的是在移动终端100中的预定的参考姿势数据,用户姿势数据指的是由用户注册的参考姿势数据。
同时,为了注册用户姿势数据,姿势处理单元140使用上述一次识别方法从用户姿势图像中提取姿势数据并且注册用户姿势数据。也就是说,姿势处理单元140在识别间隔期间收集用户姿势图像,并且将从收集的用户姿势图像中提取的姿势数据存储为用户姿势数据。姿势处理单元140将特定应用功能映射到相应的用户姿势数据并且注册该用户姿势数据。同样,预定用户姿势数据被用作参考姿势数据以确定以后用户姿势是否可被识别。将由用户设置的用户姿势数据作为参考姿势数据来使用的方法可使用每个用户可容易地使用的姿势来执行移动终端的应用功能,这对用户变得便利。
以下,移动终端100识别用户姿势的姿势并且执行与识别的姿势相应的应用功能的模式被称为“姿势识别模式”,用户姿势数据被设置的模式被称为“姿势注册模式”。同时,为了区别姿势识别模式和姿势注册模式,需要将在姿势识别模式中指示从用户输入的姿势的按钮输入设置得与在姿势注册模式中指示从用户输入的姿势的按钮输入不同。
图2是示出根据本发明的示例性实施例的姿势处理单元140的配置图。
参照图2,姿势处理单元140包括:图像处理器141、姿势分析器142和驱动器143。
图像处理器141在识别间隔期间收集通过摄像头单元120输入的用户姿势图像,执行图像处理(如对收集的姿势图像进行噪声消除和预处理),从图像处理的姿势图像中提取姿势数据,并且输出所述姿势数据。
在姿势识别模式中,姿势分析器142将提取的姿势数据与至少一个参考姿势数据进行比较,并且输出控制指令以执行与在至少一个参考姿势数据中的与提取的姿势数据匹配的参考姿势数据相应的应用功能。在姿势注册模式中,姿势分析器142将提取的姿势数据注册为用户姿势数据,将特定应用功能映射到相应的用户姿势数据,并且存储映射信息。
驱动器143根据从姿势分析器142输出的控制指令来执行相应的应用功能。在这种情况下,所述应用功能指的是作为在移动终端100中合并的功能的移动浏览器功能和移动应用功能。
图3是示出根据本发明的示例性实施例的图像处理器141的配置图,图4是示出根据本发明的示例性实施例的标识符的示例的示图,图5是示出根据本发明的示例性实施例的基于标识符的位置的变化而产生的运动信息的示例的示图。图6是示出根据本发明的示例性实施例的姿势数据的示例的示图。
参考图3,图像处理器141包括:预处理器1411、标识符识别器1412、姿势标识符1413和后处理器1414。
预处理器1411将通过摄像头单元120输入的姿势图像规格化,从姿势图像中消除噪声,并且输出姿势图像。
标识符识别器1412从由预处理器1411预处理的姿势图像中提取与用于姿势的特定身体部分(如手指、手腕、手掌和脸)相应的特定点,并且基于提取的特征点识别姿势图像中的标识符。标识符识别器1412连续记录姿势图像中的相应的标识符的位置的变化并且产生运动信息。例如,如图4中所示,如果用户在识别间隔期间使用一个或两个手指的运动制造轨迹来做出姿势,则标识符识别器1412从通过摄像头单元120输入的姿势图像中提取特征点,并且将用户的指尖201和202识别为标识符。如图5所示,标识符识别器1412记录标识符的位置的变化(即,连续记录与指尖的运动不同的轨迹),从而产生运动信息。
姿势标识符1413产生包括由标识符识别器1412产生的标识符的运动信息的姿势数据。图6示出由用户输入的姿势的示例,所述示例示出根据由用户执行的姿势的标识符的位置的变化。参照图6,使用从每个姿势的开始点到其结束点的三维方向、各种弯曲和旋转方向来执行各种姿势是可能的。除了在图6中示出的姿势,用户还可将他或她的各种姿势注册在移动终端100中并且使用注册的姿势。
后处理器1414对由姿势标识符1413产生的姿势数据执行校正处理以消除不必要的信息和错误并且输出最终识别的姿势数据。
图7是示出根据本发明的示例性实施例的姿势分析器142的配置图。
参照图7,姿势分析器142包括:第一姿势数据库(DB)1421、第二姿势数据库DB 1422、映射信息DB 1423、姿势识别器1424、应用功能链接器1425、姿势学习器1426和姿势注册单元1427。
第一姿势DB 1421将预定标准姿势数据存储在移动终端100中。
第二姿势DB 1422存储由用户设置的用户姿势数据。
映射信息DB 1423存储用于应用功能的映射信息,所述应用功能被映射到分别存储在第一姿势DB 1421和第二姿势DB 1422中的标准姿势数据和用户姿势数据中的每个。
在姿势识别模式中,姿势识别器1424在存储在第一姿势DB 1421和第二姿势DB 1422中的参考姿势数据中搜索与从图像处理器141输出的姿势数据匹配的参考姿势数据。
在姿势识别模式中,当在参考姿势数据中存在与从图像处理器141输出的姿势数据匹配的参考姿势数据时,应用功能链接器1425从映射信息DB1423中读取关于映射到相应的参考姿势数据的应用功能的信息。应用功能链接器1425将执行相应的应用功能的控制指令输出到驱动器143。
在姿势注册模式中,姿势学习器1426学习从图像处理器141输出的姿势数据并且将相应的姿势数据作为用户姿势数据存储在第二姿势DB 1422中。也就是说,在姿势注册模式中,姿势学习器1426确认在存储在第一姿势DB1421和第二姿势DB 1422中的参考姿势数据中是否存在与从图像处理器141输出的姿势数据匹配的参考姿势数据。当不存在与姿势数据匹配的参考姿势数据时,姿势学习器1426将相应的姿势数据识别为用户姿势数据并且将相应的姿势数据存储在第二姿势DB 1422中。
在姿势注册模式中,姿势注册单元1427将特定应用功能映射到由姿势学习器1426存储在第二姿势DB 1422中的用户姿势数据,并且将映射信息存储在映射信息DB 1423中。
接下来,参照图8到图12,将描述根据本发明的示例性实施例的移动终端100的示例。
图8示出根据本发明的示例性实施例的移动终端100的第一示例,所述示例示出包括键区并具有内置摄像头301的直板型(bar-type)移动终端300。
参照图8,在姿势识别模式中,移动终端300在识别间隔期间识别通过摄像头301输入的用户的姿势。同时,在姿势注册模式中,移动终端300在识别间隔期间识别通过摄像头301输入的用户的姿势并且注册用户姿势数据。这时,移动终端300设置用于识别姿势识别模式的识别间隔和姿势注册模式的识别间隔的不同的按钮以区别姿势识别模式和姿势注册模式。
例如,在姿势识别模式中,移动终端300根据第一按钮302是否被按下来识别所述识别间隔。在姿势注册模式中,移动终端300根据第二按钮303是否被按下来识别所述识别间隔。
图9示出根据本发明的示例性实施例的移动终端100的第二示例,所述示例示出包括触摸屏和具有内置摄像头401的直板型移动终端400。
与图8中示出的移动终端300相似,图9中示出的移动终端400识别用户姿势,设置用户姿势数据,并且接收通过触摸屏而不是通过键区输入的按钮。在这种情况下,移动终端400将触摸屏的特定区域识别为虚拟按钮并且基于通过触摸相应的特定区域而产生的按钮输入来识别所述识别间隔。
例如,移动终端400可基于通过触摸第一区域402而产生的按钮输入通过一次识别方法或连续识别方法来识别用户的姿势,并且可基于通过触摸第二区域403而产生的按钮输入来设置用户姿势数据。
图10示出根据本发明的示例性实施例的移动终端100的第三示例,所述示例示出包括键区和具有内置摄像头501的折叠型移动终端500。
在与图8中示出的移动终端300相同的方法中,图10中示出的移动终端500可识别用户的姿势并且设置用户姿势数据。
图11示出根据本发明的示例性实施例的移动终端100的第四示例,所述示例示出包括触摸屏和具有自由***移动终端或与移动终端分离的摄像头601的直板型移动终端600。
在与图9中示出的移动终端400相同的方法中,图11中示出的移动终端600可识别用户的姿势并且设置用户姿势数据。
图12示出当根据本发明的示例性实施例的移动终端100识别用户的姿势时的示例。
参照图12,如果用户按下键区上的特定按钮或触摸触摸屏上的特定区域时,移动终端100将模式切换到姿势识别模式或姿势注册模式。因此,如图12中所示,用户可移动他/她的手指并且输入姿势。
图8到图11中示出的移动终端300、400、500和600仅是根据本发明的示例性实施例的移动终端的示例,并且本发明并不局限于此。本发明除了以根据上述示例性实施例的类型还可以以各种类型来实现移动终端。在上述的图8到图11中,摄像头301、401、501和601分别附于移动终端300、400、500和600的下端。然而,本发明并不局限于此,并且摄像头301、401、501和601可被附于移动终端的不同位置以有效地识别用户的姿势。在图8到图11中,摄像头301、401、501和601分别被附于移动终端300、400、500和600以识别用户姿势。然而,本发明并不局限于此,并且多个摄像头可被附于移动终端300、400、500和600中的每个以有效地识别用户的姿势。在图8到图11中,移动终端包括键区或触摸屏。然而,本发明并不局限于此,并且本发明可被应用于包括键区和触摸屏两者的移动终端。
图13是示出根据本发明的示例性实施例的在姿势识别模式中驱动移动终端100的方法的流程图。
参照图13,如果用户请求识别姿势(即,识别姿势的识别间隔开始)(S101),则移动终端100使用摄像头单元120收集用户姿势图像并且对收集的姿势图像执行图像处理(S102)。在这种情况下,用户按下移动终端100中的键区上的特定按钮或触摸移动终端100中的触摸屏上的特定区域以将移动终端100的模式切换到姿势识别模式。当所述模式被切换到姿势识别模式时,移动终端100识别出识别姿势的识别间隔开始。
随后,移动终端100基于已执行图像处理的姿势图像来产生记录标识符的位置的变化的运动信息,并且使用所述运动信息来产生姿势数据(S103)。随后,移动终端确认在存储在第一姿势DB 1421和第二姿势DB 1422中的参考姿势数据中是否存在与产生的姿势数据匹配的参考姿势数据,并且确定相应的姿势数据是否可被识别(S104)。
当确定不可能搜索到与产生的姿势数据匹配的参考姿势数据并且相应的姿势数据不可被识别时,移动终端100确认用户是否期望结束姿势识别(S105)。当用户请求结束姿势识别时,移动终端100结束识别间隔并且释放姿势识别模式。同时,当用户请求继续执行姿势识别时,移动终端100再次收集姿势图像并且对收集的姿势图像执行图像处理(S102)以产生姿势数据(S103)。
同时,当确定可能搜索到与产生的姿势数据匹配的参考姿势数据并且相应的姿势数据可被识别时,移动终端100从映射信息DB 1423中搜索用于与产生的姿势匹配的参考姿势数据的应用映射信息(S106)。当不存在映射到相应的参考姿势数据的应用功能(作为搜索结果)时,移动终端100确认用户期望将新的应用功能映射到相应的参考姿势数据并且注册新的应用功能(S107)。当用户请求注册新的应用功能时,移动终端100将由用户选择的应用功能映射到相应的参考姿势数据并且将映射信息存储在映射信息DB 1423(S108)中。同时,当存在映射到与产生的姿势数据匹配的参考姿势数据的应用功能时,移动终端100执行相应的应用功能(S109)。随后,移动终端100确认识别间隔是否结束(S110)。当识别间隔没有结束时,移动终端100重复上述姿势识别处理(S102到S109)。
图14是示出根据本发明的示例性实施例的在姿势注册模式中移动终端100注册用户的姿势的方法的流程图。
参照图14,当用户请求注册姿势(即,注册姿势的识别间隔开始)(S201)时,移动终端100使用摄像头单元120收集用户姿势图像并且对收集的姿势图像执行图像处理(S202)。连续执行姿势图像收集处理和图像处理,直到识别间隔结束(S203)。在这种情况下,用户按下移动终端100中的键区上的特定按钮或触摸移动终端100中的触摸屏上的特定区域以将移动终端100的模式切换到姿势注册模式。当所述模式被切换到姿势注册模式时,移动终端100识别出注册姿势的识别间隔开始。
随后,移动终端100分析在识别间隔期间收集并执行了图像处理的姿势图像以产生记录了标识符的位置的变化的运动信息,并且使用所述运动信息来产生姿势数据(S204)。移动终端100确认在存储在第一姿势DB 1421和第二姿势BD 1422中的参考姿势数据中是否存在与产生的姿势数据匹配的参考姿势数据(S205)。
作为确认的结果,当不可能搜索到与产生的姿势数据匹配的参考姿势数据时,移动终端100确认用户是否期望注册相应的姿势(S206)。随后,当用户期望注册相应的姿势数据时,移动终端100将相应的姿势数据作为用户姿势数据存储在第二姿势DB 1422中(S207)。当用户姿势数据被注册时,移动终端100确认用户是否期望将新的应用功能映射到相应的用户姿势数据(S209)。当用户期望映射新的应用功能时,移动终端100将由用户选择的应用功能映射到相应的用户姿势数据并且将映射信息存储在映射信息DB 1423中(S210)。
同时,当可能搜索到与产生的姿势数据匹配的参考姿势数据时,移动终端100确认用户是否期望将映射到相应的参考姿势数据的应用功能改变为新的应用功能(S209)。随后,当用户期望映射新的应用功能时,移动终端100将由用户选择的应用功能映射到相应的参考姿势数据并将映射信息存储在映射信息DB 1423中(S210)。
同时,在本发明的示例性实施例中,当与先前存储的参考姿势数据不同的新的姿势数据被输入时,移动终端100确认用户是否期望注册新的姿势数据(S206)。当用户期望注册新的姿势数据时,移动终端100注册用户数据(S207)。然而,本发明并不局限于此。在本发明中,当与先前存储的参考姿势数据不同的新的姿势数据被输入时,移动终端确认用户是否期望将应用功能映射到相应的姿势数据。当用户期望映射应用功能时,移动终端可存储相应的姿势数据并且将由用户选择的应用功能映射到相应的姿势数据。
图15是示出根据本发明的示例性实施例的移动终端100产生姿势数据的方法的流程图。
参照图15,当移动终端100在模式被切换到姿势识别模式或姿势注册模式之后在识别间隔期间通过摄像头单元120接收用户姿势图像(S301)时,移动终端100将输入姿势图像规格化并且对姿势图像执行预处理以消除不必要的噪声(S302)。
随后,移动终端100分析预处理的姿势图像以提取识别标识符所需要的特征点(S303)。移动终端100基于提取的特征点识别标识符(S304),基于绝对坐标计算姿势图像中的标识符的位置的变化,并且基于所述位置的变化产生运动信息(S305)。移动终端100使用产生的运动信息以产生姿势数据(S306)并且执行后处理以从产生的姿势数据中消除不必要的信息(S307),从而产生最终识别的姿势数据。
不但可通过能够实现与根据本发明的示例性实施例的结构相应的功能的设备和方法而且可通过能够实现与根据本发明的示例性实施例的结构相应的功能的程序和其中记录有所述程序的记录介质来实现上述的本发明的示例性实施例。本领域技术人员应该理解,可容易地实现本发明的上述示例性实施例。
虽然已经针对目前被认为是实用的示例性实施例描述了本发明,但是应该理解本发明并不局限于所披露的实施例,但是,相反,本发明被意图覆盖包括在权利要求的精神和范围内的各种修改和等同排列。

Claims (20)

1.一种驱动移动终端的移动终端驱动方法,所述移动终端附有摄像头并且识别用户的姿势,所述移动终端驱动方法包括:
通过摄像头收集姿势图像;
产生包括运动信息的姿势数据,所述运动信息记录收集的姿势图像中的标识符的位置的变化;
当姿势数据可被识别时,搜索映射到姿势数据的应用功能并且执行搜索到的应用功能。
2.如权利要求1所述的移动终端驱动方法,还包括:基于按钮输入确定识别间隔何时开始,
其中,收集姿势图像的步骤为当识别间隔开始时收集姿势图像。
3.如权利要求2所述的移动终端驱动方法,还包括:基于按钮输入确定识别间隔何时结束,
其中,重复进行姿势数据的产生、对映射到姿势数据的应用功能的搜索和对搜索到的应用功能的执行,直到识别间隔结束。
4.如权利要求3所述的移动终端驱动方法,其中,当第一按钮输入开始时的时间点被识别为当识别间隔开始时的时间点,当第一按钮输入结束时的时间点被识别为当识别间隔结束时的时间点。
5.如权利要求3所述的移动终端驱动方法,其中,当第一按钮输入操作被输入时识别出识别间隔开始,当在识别间隔开始之后经过预定时间时识别出识别间隔结束。
6.如权利要求3所述的移动终端驱动方法,其中,当第一按钮输入操作被输入时识别出识别间隔开始,当识别间隔开始并且第二按钮输入操作被输入时识别出识别间隔结束。
7.如权利要求1所述的移动终端驱动方法,其中,产生姿势数据的步骤包括:
基于收集的姿势图像中的至少一个特征点识别标识符;
记录标识符的位置的变化以产生运动信息;
产生包括运动信息的姿势数据。
8.如权利要求7所述的移动终端驱动方法,其中,识别标识符的步骤包括:
对收集的姿势图像执行噪声消除处理和调节处理;
分析已经执行噪声消除处理和调节处理的姿势图像并且提取与身体的特定部分相应的至少一个特征点。
9.如权利要求1所述的移动终端驱动方法,还包括:
在预先存储的至少一个参考姿势数据中搜索与姿势数据匹配的数据并且确定姿势数据是否可被识别。
10.如权利要求1所述的移动终端驱动方法,还包括:
当映射到姿势数据的应用功能没被搜索到时,确认用户是否期望将应用功能映射到姿势数据;
当用户请求映射应用功能时,将由用户选择的应用功能映射到姿势数据并且存储映射信息。
11.一种附有摄像头的移动终端注册参考姿势数据的参考姿势注册方法,所述参考姿势数据被用作当识别用户的姿势时的参考,所述参考姿势注册方法包括:
在识别间隔期间通过摄像头收集姿势图像;
分析收集的姿势图像以提取至少一个特征点;
记录基于所述至少一个特征点识别的标识符的位置的变化并且产生运动信息;
产生包括运动信息的姿势数据;
将由用户选择的应用功能映射到姿势数据并且存储映射信息。
12.如权利要求11所述的参考姿势注册方法,还包括:
在预先存储的至少一个参考姿势数据中搜索与姿势数据匹配的参考姿势数据;
当搜索到与姿势数据匹配的参考姿势数据时,确认用户是否期望改变映射到姿势数据的应用功能;
当用户请求改变映射的应用功能时,将由用户选择的应用功能映射到姿势数据并且存储映射信息。
13.如权利要求11所述的参考姿势注册方法,其中,基于移动终端上的按钮输入来确定识别间隔。
14.一种移动终端,包括:
图像处理器,使用通过附于移动终端的摄像头输入的用户的姿势图像中的标识符的位置的变化来提取姿势数据;
姿势分析器,当在选择预先存储在移动终端中的至少一个参考姿势数据中存在与姿势数据匹配的参考姿势数据时,输出控制指令以驱动映射到与姿势数据匹配的参考姿势数据的应用功能;
驱动器,基于所述控制指令来执行应用功能。
15.如权利要求14所述的移动终端,还包括:
输入单元,识别来自用户的按钮输入;
其中,图像处理器基于由输入单元识别的按钮输入来识别所述识别间隔并且在识别间隔期间从姿势图像中提取姿势数据。
16.如权利要求15所述的移动终端,其中,图像处理器包括:
标识符识别器,在识别间隔期间基于从姿势图像中提取的至少一个特征点来识别标识符,并且记录标识符的位置的变化以产生运动信息;
姿势识别器,产生包括运动信息的姿势数据。
17.如权利要求16所述的移动终端,其中,图像处理器还包括:
预处理器,执行与噪声消除和将姿势图像规格化相应的预处理并且将结果输出到标识符识别器,标识符识别器使用预处理的姿势图像来产生运动信息。
18.如权利要求14所述的移动终端,其中,姿势分析器包括:
姿势数据库,存储至少一个参考姿势数据;
映射信息数据库,存储映射到所述至少一个参考姿势数据的应用功能的映射信息;
姿势识别器,在存储在姿势数据库中的至少一个参考姿势数据中搜索与姿势数据匹配的参考姿势数据;
应用功能链接器,基于映射到与姿势数据匹配的参考姿势数据的应用功能的映射信息来产生控制指令,所述映射信息从映射信息数据库中读取。
19.如权利要求18所述的移动终端,其中,姿势数据库包括:
第一姿势数据库,存储移动终端中的预定标准姿势数据;
第二姿势数据库,存储由用户设置的用户姿势数据,并且所述至少一个参考姿势数据是标准姿势数据或用户姿势数据。
20.如权利要求19所述的移动终端,其中,姿势分析器还包括:
姿势学习器,当在存储在姿势数据库中的至少一个参考姿势数据中不存在与姿势数据匹配的参考姿势数据时,将姿势数据存储在第二姿势数据库中;
姿势注册单元,将应用功能映射到姿势数据,并且将映射到姿势数据的应用功能的映射信息注册在映射信息数据库中。
CN2009801239619A 2008-06-24 2009-01-23 参考姿势数据的注册方法、移动终端的驱动方法及其移动终端 Pending CN102067067A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020080059573A KR100978929B1 (ko) 2008-06-24 2008-06-24 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말
KR10-2008-0059573 2008-06-24
PCT/KR2009/000369 WO2009157633A1 (en) 2008-06-24 2009-01-23 Registration method of reference gesture data, driving method of mobile terminal, and mobile terminal thereof

Publications (1)

Publication Number Publication Date
CN102067067A true CN102067067A (zh) 2011-05-18

Family

ID=41444687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009801239619A Pending CN102067067A (zh) 2008-06-24 2009-01-23 参考姿势数据的注册方法、移动终端的驱动方法及其移动终端

Country Status (4)

Country Link
US (1) US20110111798A1 (zh)
KR (1) KR100978929B1 (zh)
CN (1) CN102067067A (zh)
WO (1) WO2009157633A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103135758A (zh) * 2011-12-02 2013-06-05 深圳泰山在线科技有限公司 实现快捷功能的方法及***
CN105302014A (zh) * 2014-07-15 2016-02-03 罗伯特·博世有限公司 用于分析和诊断驱动***的控制器的方法和装置
CN105960346A (zh) * 2014-02-12 2016-09-21 大众汽车有限公司 用于信号化地表示成功进行手势输入的设备和方法
CN106020456A (zh) * 2016-05-11 2016-10-12 北京暴风魔镜科技有限公司 获取用户头部姿态的方法、装置和***
CN106030610A (zh) * 2014-01-05 2016-10-12 马诺手势股份公司 移动设备的实时3d姿势识别和跟踪***
CN110770693A (zh) * 2017-06-21 2020-02-07 三菱电机株式会社 手势操作装置及手势操作方法

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
KR20120022973A (ko) * 2009-05-18 2012-03-12 닛본 덴끼 가부시끼가이샤 휴대 단말 장치, 휴대 단말 장치의 제어 방법 및 기억 매체
KR101038323B1 (ko) * 2009-09-24 2011-06-01 주식회사 팬택 영상인식기법을 이용한 화면 프레임 제어장치
US9218119B2 (en) 2010-03-25 2015-12-22 Blackberry Limited System and method for gesture detection and feedback
KR101667425B1 (ko) * 2010-06-07 2016-10-18 엘지이노텍 주식회사 터치윈도우 확대축소 기능을 갖는 모바일장치 및 터치윈도우의 확대축소 방법
CN102375666A (zh) * 2010-08-20 2012-03-14 东莞万士达液晶显示器有限公司 触控装置及其人机介面处理方法
KR101257303B1 (ko) 2010-09-08 2013-05-02 인테니움 인코퍼레이션 언터치 방식의 제스쳐 인식 방법 및 장치
KR101774997B1 (ko) * 2010-10-14 2017-09-04 엘지전자 주식회사 전자 장치 및 데이터 전송 방법
US8253684B1 (en) * 2010-11-02 2012-08-28 Google Inc. Position and orientation determination for a mobile computing device
JP2012098988A (ja) * 2010-11-04 2012-05-24 Sony Corp 画像処理装置および方法、並びにプログラム
US9575561B2 (en) 2010-12-23 2017-02-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
WO2012157792A1 (en) * 2011-05-16 2012-11-22 Lg Electronics Inc. Electronic device
CN103635868A (zh) * 2011-07-01 2014-03-12 英派尔科技开发有限公司 自适应用户接口
WO2013027091A1 (en) * 2011-07-28 2013-02-28 Arb Labs Inc. Systems and methods of detecting body movements using globally generated multi-dimensional gesture data
US10423515B2 (en) 2011-11-29 2019-09-24 Microsoft Technology Licensing, Llc Recording touch information
US9858173B2 (en) 2011-12-01 2018-01-02 Microsoft Technology Licensing, Llc Recording user-driven events within a computing system including vicinity searching
DE102012025564A1 (de) * 2012-05-23 2013-11-28 Elmos Semiconductor Ag Vorrichtung und Verfahren zur Kalibration einer kalibrierbaren Gestenerkennungsvorrichtung zur Übermittlung von Kommandos und Informationen an eine Mensch-Maschineschnittstelle
US9128528B2 (en) * 2012-06-22 2015-09-08 Cisco Technology, Inc. Image-based real-time gesture recognition
US20140118270A1 (en) * 2012-10-26 2014-05-01 Qualcomm Incorporated System and method for providing infrared gesture interaction on a display
CN103002160A (zh) * 2012-12-28 2013-03-27 广东欧珀移动通信有限公司 一种手势接听来电的方法
KR20140109020A (ko) * 2013-03-05 2014-09-15 한국전자통신연구원 스마트 가전기기의 제어를 위한 디바이스 정보 구축 장치 및 그 방법
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9927840B2 (en) 2013-06-21 2018-03-27 Semiconductor Energy Laboratory Co., Ltd. Information processor for processing and displaying image data on a bendable display unit
CN105339887B (zh) 2013-07-02 2019-02-19 株式会社半导体能源研究所 数据处理装置
DE112014003233T5 (de) 2013-07-12 2016-04-21 Semiconductor Energy Laboratory Co., Ltd. Licht emittierende Vorrichtung
CN103520923A (zh) * 2013-10-17 2014-01-22 智尊应用程序开发有限公司 游戏控制方法及设备
KR101579855B1 (ko) * 2013-12-17 2015-12-23 주식회사 씨제이헬로비전 사용자 입력 제스처에 따른 콘텐츠 서비스 시스템 및 방법
IN2013MU04097A (zh) * 2013-12-27 2015-08-07 Tata Consultancy Services Ltd
KR102265143B1 (ko) * 2014-05-16 2021-06-15 삼성전자주식회사 입력 처리 장치 및 방법
TWI598809B (zh) * 2016-05-27 2017-09-11 鴻海精密工業股份有限公司 手勢控制系統及方法
CN109697394B (zh) * 2017-10-24 2021-12-28 京东方科技集团股份有限公司 手势检测方法和手势检测设备
KR102461024B1 (ko) * 2017-10-31 2022-10-31 에스케이텔레콤 주식회사 헤드 마운티드 디스플레이 및 이를 이용하여 가상 공간에서 동작이 수행되도록 하는 방법
KR102259740B1 (ko) * 2017-12-04 2021-06-03 동국대학교 산학협력단 제스처 분석에 기반을 둔 차량의 이미지 처리 장치 및 방법
KR20230015785A (ko) * 2021-07-23 2023-01-31 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1499344A (zh) * 2002-10-25 2004-05-26 �����ɣ���ͳ���˾ 手势开关装置
US20060029277A1 (en) * 2003-04-09 2006-02-09 Toyota Jidosha Kabushiki Kaishi Change information recognition apparatus and change information recognition method
CN1941847A (zh) * 2005-09-29 2007-04-04 Lg电子株式会社 用于手持终端的图形信号显示装置和方法
US20080089587A1 (en) * 2006-10-11 2008-04-17 Samsung Electronics Co.; Ltd Hand gesture recognition input system and method for a mobile phone
US20080117168A1 (en) * 2006-11-17 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus for controlling application using motion of image pickup unit

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
KR20060070280A (ko) * 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
US7808478B2 (en) * 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Autonomous handheld device having a drawing tool
US7809214B2 (en) * 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Device and a method for identifying movement patterns
KR100777107B1 (ko) * 2005-12-09 2007-11-19 한국전자통신연구원 가속도 센서를 이용한 문자인식 장치 및 방법
US7721207B2 (en) * 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
US9317124B2 (en) * 2006-09-28 2016-04-19 Nokia Technologies Oy Command input by hand gestures captured from camera
US8599132B2 (en) * 2008-06-10 2013-12-03 Mediatek Inc. Methods and systems for controlling electronic devices according to signals from digital camera and sensor modules

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1499344A (zh) * 2002-10-25 2004-05-26 �����ɣ���ͳ���˾ 手势开关装置
US20060029277A1 (en) * 2003-04-09 2006-02-09 Toyota Jidosha Kabushiki Kaishi Change information recognition apparatus and change information recognition method
CN1941847A (zh) * 2005-09-29 2007-04-04 Lg电子株式会社 用于手持终端的图形信号显示装置和方法
US20080089587A1 (en) * 2006-10-11 2008-04-17 Samsung Electronics Co.; Ltd Hand gesture recognition input system and method for a mobile phone
US20080117168A1 (en) * 2006-11-17 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus for controlling application using motion of image pickup unit

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103135758A (zh) * 2011-12-02 2013-06-05 深圳泰山在线科技有限公司 实现快捷功能的方法及***
CN103139508A (zh) * 2011-12-02 2013-06-05 深圳泰山在线科技有限公司 控制电视画面显示的方法和***
CN103135758B (zh) * 2011-12-02 2016-09-21 深圳泰山体育科技股份有限公司 实现快捷功能的方法及***
CN106030610A (zh) * 2014-01-05 2016-10-12 马诺手势股份公司 移动设备的实时3d姿势识别和跟踪***
CN106030610B (zh) * 2014-01-05 2019-09-20 马诺手势股份公司 移动设备的实时3d姿势识别和跟踪***
CN105960346A (zh) * 2014-02-12 2016-09-21 大众汽车有限公司 用于信号化地表示成功进行手势输入的设备和方法
CN105960346B (zh) * 2014-02-12 2019-09-13 大众汽车有限公司 用于信号化地表示成功进行手势输入的设备和方法
CN105302014A (zh) * 2014-07-15 2016-02-03 罗伯特·博世有限公司 用于分析和诊断驱动***的控制器的方法和装置
CN105302014B (zh) * 2014-07-15 2019-05-10 罗伯特·博世有限公司 用于分析和诊断驱动***的控制器的方法和装置
CN106020456A (zh) * 2016-05-11 2016-10-12 北京暴风魔镜科技有限公司 获取用户头部姿态的方法、装置和***
CN110770693A (zh) * 2017-06-21 2020-02-07 三菱电机株式会社 手势操作装置及手势操作方法

Also Published As

Publication number Publication date
KR100978929B1 (ko) 2010-08-30
KR20100000174A (ko) 2010-01-06
US20110111798A1 (en) 2011-05-12
WO2009157633A1 (en) 2009-12-30

Similar Documents

Publication Publication Date Title
CN102067067A (zh) 参考姿势数据的注册方法、移动终端的驱动方法及其移动终端
US9557852B2 (en) Method of identifying palm area of a touch panel and a updating method thereof
CN104335226B (zh) 使用部分指纹的指纹注册
CN103502915B (zh) 电子设备上基于屏幕软件键盘实现滑动输入文本的***及方法
CN102402369B (zh) 电子设备及其操作提示标识移动方法
WO2012130156A1 (zh) 触摸设备的手写输入方法及装置和电子设备
KR20080052438A (ko) 텍스트 입력을 위한 연속적인 탭의 사용
CN101901106A (zh) 用于数据输入的方法及装置
CN104346067B (zh) 连续滑动输入单词的方法和***
TW201432520A (zh) 操作方法以及電子裝置
CN102214040A (zh) 用于多状态触摸屏设备的多模式触摸屏用户界面
CN102520790A (zh) 一种基于图像传感模块的字符输入方法、装置及终端
CN105867821A (zh) 一种图标排列方法、图标排列装置以及终端
CN106485112A (zh) 一种开启应用程序的方法及移动终端
Shi et al. Ready, steady, touch! sensing physical contact with a finger-mounted IMU
Tse et al. Behavioral biometrics scheme with keystroke and swipe dynamics for user authentication on mobile platform
CN107256126A (zh) 指纹感应方法、装置、移动终端及存储介质
CN102214039A (zh) 辅助实现多状态触摸屏检测的多模式义肢设备
CN105893809A (zh) 使用svm分类器识别智能终端用户身份的方法
CN107589902A (zh) 一种显示页面控制方法、装置、电子设备及存储介质
CN100432901C (zh) 一种具有键盘和手写协同输入功能的移动终端
CN104951234A (zh) 一种基于触屏终端的数据处理方法及***
CN109032334B (zh) 一种基于指纹和手势识别的交互方法及交互***
CN101739118A (zh) 视讯手写文字输入装置及其方法
Herath et al. Expanding Touch Interaction Capabilities for Smart-rings: An Exploration of Continual Slide and Microroll Gestures

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20110518