CN107643828B - 车辆、控制车辆的方法 - Google Patents
车辆、控制车辆的方法 Download PDFInfo
- Publication number
- CN107643828B CN107643828B CN201710873215.8A CN201710873215A CN107643828B CN 107643828 B CN107643828 B CN 107643828B CN 201710873215 A CN201710873215 A CN 201710873215A CN 107643828 B CN107643828 B CN 107643828B
- Authority
- CN
- China
- Prior art keywords
- mode
- body part
- gesture
- vehicle
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000008859 change Effects 0.000 claims abstract description 48
- 238000001514 detection method Methods 0.000 claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 29
- 230000006399 behavior Effects 0.000 claims abstract description 14
- 230000000977 initiatory effect Effects 0.000 claims description 4
- 210000003811 finger Anatomy 0.000 description 61
- 230000008569 process Effects 0.000 description 29
- 239000013598 vector Substances 0.000 description 22
- 238000004422 calculation algorithm Methods 0.000 description 20
- 230000000007 visual effect Effects 0.000 description 17
- 239000012634 fragment Substances 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 12
- 210000003813 thumb Anatomy 0.000 description 12
- 210000003484 anatomy Anatomy 0.000 description 11
- 238000004590 computer program Methods 0.000 description 10
- 238000005070 sampling Methods 0.000 description 10
- 210000004247 hand Anatomy 0.000 description 9
- 230000003993 interaction Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000000926 separation method Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 6
- 230000003213 activating effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供车辆、控制车辆的方法。用于基于用户行为来控制车辆操作的装置包括:至少一个处理器;存储器,该存储器存储指令,其中,所述至少一个处理器被配置成执行所存储的指令以:从与设备关联的一个或更多个图像传感器接收图像数据;启动以至少第一模式和第二模式处理来自所述一个或更多个图像传感器的所述图像数据,其中,至少所述第二模式与涉及用户行为的用户信息关联;识别身体部位的姿态、身体部位的形状、身体部位的位置或身体部位的取向;基于识别操作将所述设备的识别模式从第一识别模式改变为第二识别模式;生成与向所述第二识别模式的所述改变关联的消息,以指示检测到涉及用户行为的第二组用户信息。
Description
本申请是原案申请号为201280050071.1(国际申请号为PCT/IL2012/050297,申请日为2012年8月8日、发明名称为“基于手势的接口***和方法”)的分案申请。
技术领域
本发明涉及图像分析和对象跟踪。
背景技术
以下公报被认为与本发明的背景的理解有关:
美国专利No.6,252,598;
马加尔(Magal)等人的美国专利8,166421;
WO 2005/091125;
WO 2010/086866;
Viola,P等人,“Robust Real-time Object Detection”,第二届视觉建模、学习、计算和采样的统计和计算理论国际研讨会(Second International Workshop onStatistical and Computational theories of Vision-Modeling,learning,Computing,and Sampling),加拿大温哥华,2001年7月13日。
存在各种类型的计算机控制和接口装置来向计算机输入命令。例如,这些装置可采取计算机鼠标、摇杆或轨迹球的形式,其中,用户操纵接口装置以执行特定操作,例如从选项菜单选择特定条目、执行“点击”或“指点”功能等。这些接口装置需要表面积以放置装置,并且在鼠标的情况下,适应装置移动和操纵。另外,这些接口装置通常通过线缆连接到计算机,所述线缆通常随意搭在用户的桌子上,导致妨碍用户的工作区域。操纵这些接口装置以执行操作与常见交流手势不一致,例如,与操纵鼠标直至光标停驻在期望的菜单条目上相对,使用手指指点手势来选择菜单条目。
已尝试利用光学传感器实现手势识别以用于向装置输入命令。手势识别需要在视频流中的多个图像中的每一个中标识身体部位(通常为手)。
例如,已知在视频流中标识手势。定义帧中的多个区域并对其进行筛选以通过定位与预定义的手位置和手势对应的曲率极值(例如,峰和谷)来在多个区域中的一个中定位手。然后,使用峰和谷的数量来标识预定义的手势并将其与实现特定计算机操作或功能的手图像相关。
还已知有使用三维位置信息来标识由身体部位生成的手势的***。在一个或更多个间隔实例,基于身体部位的形状及其位置和取向来识别身体部位的姿态。在一个或更多个间隔实例中的每一个期间身体部位的姿态被识别为组合手势。对手势进行分类以确定对相关电子装置的输入。
还已知有用户接口方法,其中随着时间过去捕获受试者(human subject)的至少一个身体部位的一系列深度图。处理深度图以便检测在身体部位穿过交互表面时身体部位的移动方向和速度。响应于所检测到的方向和速度来控制计算机应用。
发明内容
本发明提供了一种用户接口设备,其用于控制诸如个人计算机(PC)、便携式计算机、PDA、膝上型计算机、移动电话、收音机、数码相机、车辆、医疗装置、智能家用电器(例如,电视或家庭娱乐***)、移动游戏机或家用电器的装置。
本发明的用户接口设备包括图像传感器。图像传感器在与装置相邻的区域所获得的图像被输入至手势识别***,手势识别***分析图像传感器所获得的图像,以从由预定义对象(例如,手或手指)执行的待标识的一个或更多个手势当中标识一个或更多个手势。手势的检测被输入至消息决策器,消息决策器基于所标识的手势和手势识别***的当前识别模式来生成消息。例如,可将所述消息发送给装置、第一装置的操作***、在第一装置的处理器上运行的一个或更多个应用、在后台运行的软件程序以及在第一装置上运行的一个或更多个服务或者在装置中、在外部网络上运行的进程。
手势识别***运行手势识别模块,该手势识别模块按照两个或更多个识别模式中的每一个操作。识别模式由手势模式决策器来确定,手势模式决策器被配置为在一个或更多个不同条件下将识别模式从初始识别模式改变为第二识别模式,如下所述。
基于手势识别的初始识别模式、由手势识别***标识的手势和态势感知(situational awareness)信息中的任一个或更多个来确定第二识别模式。本文使用术语“态势感知信息”来表示与以下各项中的任一个或更多个有关的信息:第一装置的状态、由与接口***关联的一个或更多个传感器获得的信息、由与第一装置关联的一个或更多个第一装置传感器获得的信息、与装置上运行的一个或更多个进程有关的信息、与装置上运行的应用有关的信息、与装置的电力状态有关的信息、与装置的通知有关的信息、与装置的移动有关的信息、与装置的空间取向有关的信息、关于与一个或更多个用户的交互的信息、关于用户行为的信息以及关于一个或更多个触发的信息。
因此,本发明提供了一种用于控制第一装置的接口***,该接口***是包含指令的计算机程序产品,所述指令使得处理器执行一种包括以下步骤的方法:
(a)接收来自一个或更多个图像传感器的输入;
(b)在所述接口***的手势识别模块中,所述手势识别模块具有两个或更多个识别模式:
(i)分析由所述图像传感器获得的图像,以检测由预定义对象执行的待检测的一个或更多个手势,所述预定义对象选自一只或更多只手、手的一部分、一根或更多根手指、手指的一个或更多个部分以及一个或更多个指尖;以及
(ii)在任一个或更多个预定义条件下将所述手势识别模块的识别模式从初始识别模式改变为第二识别模式,其中,所述第二识别模式是基于所述手势识别模块的初始识别模式、检测的手势和所述装置的态势感知信息中的任一个或更多个确定的,其中,所述态势感知信息是与所述装置的状态有关的信息、由与所述装置关联的传感器接收到的信息、与所述装置上运行的一个或更多个进程有关的信息、与所述装置上运行的应用有关的信息、与所述装置的电力状态有关的信息、与所述装置的通知有关的信息、与所述装置的移动有关的信息、与所述装置的空间取向有关的信息、关于与一个或更多个用户的交互的信息、关于用户行为的信息以及关于一个或更多个触发的信息中的一个或更多个。
(iii)生成第一消息,其中,所生成的第一消息是基于所述手势识别模块的初始识别模式和检测的手势确定的。
在本发明的接口***中,所述手势识别模块还可被配置为分析由一个或更多个传感器生成的信号,并且所述手势将根据对传感器信号的分析来检测。所述手势识别模块的多个识别模式中的一个或更多个可由以下项来定义:
(a)待检测的一个或更多个预定义手势、用于待检测的一个或更多个预定义手势中的每一个的消息以及在所述手势识别模块上有效的一个或更多个算法;以及
(b)用于待检测的一个或更多个预定义手势中的每一个的第二识别模式、由所述图像传感器捕获的图像的分辨率以及由所述图像传感器捕获的图像的捕获率中的任一个或更多个。
在本发明的接口中,所述接口***可具有两个或更多个接口模式,并且各个接口模式取决于所述手势识别模块的识别模式以及来自向所述手势识别模块提供信息感知信息的预定义传感器集合的一个或更多个有效的传感器。各个接口模式可确定来自一个或更多个传感器的将由所述手势识别模块分析的一个或更多个信号。所述接口模式可取决于态势感知信息和第一消息中的一者或二者。所述接口模式的改变可生成针对所述第一装置、在所述第一装置上运行的应用、在所述第一装置上运行的服务以及在所述第一装置上运行的操作***中的一个或更多个的第三消息。所述第三消息可包括针对所述第一装置、在所述第一装置上运行的应用、在所述第一装置上运行的服务以及在所述第一装置上运行的操作***中的任一个或更多个的命令,以提供关于接口模式、所述手势识别模块的模式和待检测的手势中的任一个或更多个的指示。
在本发明的接口***中,所述第一消息可包括针对所述第一装置、在所述第一装置上运行的应用、在所述第一装置上运行的服务以及在所述第一装置上运行的操作***中的任一个或更多个的命令,以提供手势被识别和/或哪一个手势被识别的指示。所述指示可以是视觉指示、听觉指示、触感指示、超声波指示、触觉指示。所述指示可以是按照选自显示在显示屏幕上的图标、显示屏幕上的图标的改变、显示屏幕上的图标的颜色的改变、指示灯、在显示屏幕上移动的指示符、定向振动指示、空气触感指示的形式的视觉指示。所述指示可通过在显示屏幕上移动的指示符来提供,所述指示符出现在显示屏幕上出现的所有其它图像或视频的上面。所述指示可取决于态势感知信息。
在本发明的接口***中,所述态势感知信息可以是与一个或更多个触发相关的信息,所述触发选自应用的用户接口的改变、应用的视觉外观的改变、应用的模式的改变、应用的状态的改变、在第一装置上运行的软件中发生的事件、应用的行为的改变、经由网络接收到的通知、在线服务通知、由装置或应用或者由服务从触摸屏上的触摸生成的通知、按下虚拟或真实按钮、通过连接到装置的麦克风接收到的声音、持握第一装置的用户的检测、来自接近传感器的信号、经由蜂窝网络、无线网络、TCPIP或有线网络的来电语音或视频呼叫、来电3D视频呼叫、文本消息通知、会议通知、基于社区网络的通信、Skype通知、脸书(facebook)通知、推特(twitter)通知、在线服务通知、未接来电通知、电子邮件通知、语音邮件通知、装置通知、播放器上的歌曲的开始或结束、视频的开始或结束。
在本发明的接口***中,所述态势感知信息可以是与一个或更多个触发有关的信息,所述触发选自手势、使对象在小于预定义距离的距离处越过第一装置、注视第一装置的用户的检测、由图像传感器获得的图像中的脸部的检测、由图像传感器获得的图像中的一只或更多只眼睛的检测、由图像传感器获得的图像中的一只或更多只手或者手的部分的检测以及注视第一装置的预定义的人的检测。
在本发明的接口***中,待检测的手势中的一个或更多个可选自挥击运动、两根手指的挤捏运动、指点、左至右手势、右至左手势、向上手势、向下手势、推手势、张开握紧的拳头、张开握紧的拳头并朝着图像传感器移动、轻点(tapping)手势、挥手手势、拍手手势、逆拍手手势、将手握成拳、挤捏手势、逆挤捏手势、张开手上的手指的手势、张开手上的手指的逆手势、指着可激活对象、将激活用对象保持预定义的时间量、点击可激活对象、双击可激活对象、从右侧点击可激活对象、从左侧点击可激活对象、从底侧点击可激活对象、从顶侧点击可激活对象、抓握可激活对象、从右侧朝着可激活对象做手势、从左侧朝着可激活对象做手势、从左侧穿过可激活对象、推对象、拍手、在可激活对象上方挥手、执行冲击手势、执行轻点手势、在可激活对象上方执行顺时针或逆时针手势、用两根手指抓住可激活对象、执行点击-拖曳-释放运动、滑动图标。
在本发明的接口***中,所述第一消息可被发送至第一装置、第一装置的操作***、在装置的处理器上运行的一个或更多个应用以及在装置或外部网络上运行的一个或更多个服务中的任一个或更多个。所述第一消息可被发送给第一装置,并且响应于所述第一消息,第一装置生成针对远程装置、在远程装置上运行的操作***、一个或更多个远程应用以及一个或更多个远程服务中的任一个或更多个的第二消息。
在本发明的接口***中,所述态势感知信息可与第一装置的状态有关,并且所述第一消息被发送给第一装置,在第一装置处接收所述第一消息导致第一装置的状态的改变。
在本发明的接口***中,所述第一消息可以是命令。
在本发明的接口***中,所述第二消息可以是命令。所述第一消息可以是命令,所述命令选自在第一装置上运行应用的命令、停止在第一装置上运行的应用的命令、激活在第一装置上运行的服务的命令、停止在第一装置上运行的服务的命令。所述第一消息可以是针对所述第一装置的命令,该命令选自按下显示在第一装置的显示屏幕上的虚拟键;旋转选择转盘;在桌面之间切换;在第一装置上运行预定义的软件应用;关闭第一装置上的应用;打开或关闭扬声器;增大或减小音量;锁定第一装置、解锁第一装置、在媒体播放器中或在IPTV频道之间跳到另一轨道;控制导航应用;发起呼叫、结束呼叫、呈现通知、显示通知;在照片或音乐专辑库中进行导航、滚动网页、呈现电子邮件、呈现一个或更多个文档或地图、控制游戏中的动作、控制交互视频或动画内容、编辑视频或图像、指着地图、放大或缩小地图或图像、在图像上绘画、朝着第一装置上的显示器推图标、抓握图标并将该图标拉离显示装置、使图标旋转、模仿第一装置上的触摸命令、执行一个或更多个多触摸命令、触摸手势命令、打字、点击显示的视频以暂停或播放、编辑视频或音乐命令、对帧加标签或从视频捕获帧、从视频剪切视频子集、呈现来电消息;接听来电呼叫、静音或拒绝来电呼叫、打开来电提醒;呈现从网络社区服务接收的通知;呈现由第一装置生成的通知、打开预定义应用、将第一装置从锁定模式改变并打开最近呼叫应用、将第一装置从锁定模式改变并打开在线服务应用或浏览器、将第一装置从锁定模式改变并打开电子邮件应用、将第一装置从锁定模式改变并打开在线服务应用或浏览器、将第一装置从锁定模式改变并打开日历应用、将第一装置从锁定模式改变并打开提醒应用、将第一装置从锁定模式改变并打开由用户设置、由第一装置的制造商设置或者由服务运营商设置的预定义应用、激活图标、选择菜单项、在显示器上移动指针、操纵无触摸鼠标、显示器上的图标、改变显示器上的信息。
在本发明的接口***中,本发明的接口***中的所述手势识别模块还被配置为当所述手势识别模块的模式从初始模式改变为第二模式时生成第四消息。所述第四消息可包括针对第一装置、在第一装置上运行的应用、在第一装置上运行的服务以及在第一装置上运行的操作***中的任一个或更多个的命令,以提供所述接口***准备好识别手势、所述接口***准备好识别一个或更多个预定义手势、所述接口***未准备好识别手势、环境光条件不允许手势识别、***未准备好识别手势中的任一个或更多个的指示。所述指示可以是视觉指示、听觉指示、触感指示、触觉指示。所述指示可以是视觉指示,所述视觉指示是选自显示在显示屏幕上的图标、显示屏幕上的图标的改变、显示屏幕上的图标的颜色的改变、指示灯的形式。
在本发明的接口***中,所述初始模式和所述第二模式可至少通过所述图像传感器所捕获的图像的捕获率来定义,并且所述第二模式的捕获率大于所述初始模式的捕获率。
在本发明的接口***中,所述初始模式和所述第二模式可至少通过所述图像传感器所捕获的图像的捕获率来定义,并且所述第二模式的捕获率小于所述初始模式的捕获率。
在本发明的接口***中,所述初始模式和所述第二模式可至少通过所述图像传感器所捕获的图像的分辨率来定义,并且所述第二模式的图像的分辨率大于所述初始模式的图像的分辨率。
在本发明的接口***中,所述初始模式和所述第二模式可至少通过所述图像传感器所捕获的图像的分辨率来定义,并且所述第二模式的图像的分辨率小于所述初始模式的图像的分辨率。
在本发明的接口***中,在所述初始模式下,所述手势识别模块可检测手,在所述第二模式下,所述手势识别模块可检测手指,并且预定义条件是在图像中检测到手。
在本发明的接口***中,所述手势识别模块还可被配置为在预定义时间量过去之后或者在自检测到手势起经过预定义时间量之后,将模式从所述第二模式改变回所述初始模式。
在本发明的接口***中,所述态势感知信息可以是与所述第一装置的状态有关的信息,所述第一装置的状态是通过传感器的状态、软件应用的操作状态、在装置中运行的进程、在装置中运行的服务、在前台运行的软件程序、在后台运行的一个或更多个软件程序、装置的网络连接状态、装置的功率状态、装置的屏幕的光强度中的任一个或更多个来确定的。
在本发明的接口***中,所述第二模式和所述第一消息还可取决于来自一个或更多个传感器的输入。
在本发明的接口***中,所述接口***可首先作为程序在所述装置的一个或更多个处理器上运行。
在本发明的接口***中,所述第一装置的一个或更多个处理器可选自专用处理器、通用处理器、DSP(数字信号处理器)处理器、GPU(图形处理单元)处理器、专用硬件或者可在外部装置上运行的处理器。所述传感器中的任一个或更多个可与所述装置集成。所述传感器中的任一个或更多个可选自相机、CMOS图像传感器、光传感器、超声波传感器、接近传感器、压力传感器、电导传感器、运动传感器、温度传感器、加速度计、陀螺仪、取向传感器、磁性传感器、重力传感器和反射传感器、电导传感器和电容传感器以及图像传感器。
在本发明的接口***中,所述图像传感器选自相机、光传感器、IR传感器、超声波传感器、接近传感器和反射传感器。
在本发明的接口***中,由手势接口***生成的所述第一消息可被发送给在第一装置上运行的应用或者远程应用,并且所述第一消息由所述装置上的第一运行应用按照第一方式解释,并且第一消息由所述装置上的第二运行应用按照第二方式解释。
在本发明的接口***中,触发可以是在由所述图像传感器获得的图像中检测到第一对象,并且在第二识别模式下,所述手势识别模块标识由所述图像传感器获得并包括所述第一对象的图像中的第二对象,所述第二对象与所述第一对象具有预定义空间关系,预定义条件是在图像中检测到所述第一对象。所述接口***还可包括检测由所述第二对象执行的手势。所述第一对象可以是第一身体部位,所述第二对象可以是第二身体部位。所述第一身体部位和所述第二身体部位中的一者或二者可选自脸部、一只或两只眼睛、第一只手或第一只手的一部分、处于第一姿势的第一只手。所述第二身体部位可以是第二只手或第二只手的一部分或者处于第二姿势的第二只手。所述第一对象与第二对象之间的预定义空间布置可通过从所述第一对象的重心到所述第二对象的重心的矢量来指定,所述矢量具有预定义范围内的大小和预定义范围内的方向中的一者或两者。
在本发明的接口***中,所述第一对象可以是第一身体部位,所述第二对象是第二身体部位,并且在图像中检测所述第二身体部位的步骤可包括以下步骤:
(a)围绕所述第一身体部位构建第一矩形,所述第一矩形具有中心、高度和宽度;
(b)在所述图像中构建关注区域(ROI),所述ROI是在所述图像中通过所述第一矩形的预定义变换而获得的第二矩形;
(c)构建所述第一矩形中的像素的属性V的直方图f(v),其中f(v)是所述第一矩形中的属性V的值为v的像素的频率;
(d)构建所述ROI中的像素的属性V的直方图g(v);
(e)在涉及像素x处的属性V的值v(x)以及所述直方图f(v)和g(v)的计算中计算概率P(x);以及
(f)在涉及所述概率P(x)的计算中在所述图像中检测所述第二身体部位。
所述第一身体部位可以是脸部,围绕脸部构建脸部矩形的步骤可通过维奥拉-琼斯(VJ)方法来执行。所述ROI可以是带有中心的矩形,其中,所述ROI矩形的中心相对于所述第一矩形的中心偏移了预定义矢量。所述ROI矩形的高度可以是所述第一矩形的高度乘以第一预定义因子,宽度是所述第一矩形的宽度乘以第二预定义因子。P(x)可与f(v(x))/g(v(x))成比例。概率P(x)高于预定义阈值的那些像素x可被确定为是属于所述第二身体部位的像素。
在本发明的接口***中,所述手势识别模块还可被配置为按照以下方法执行图像的放大和缩小,所述方法包括以下步骤:
(a)作为进入缩放模式的命令的指示,检测包括食指与拇指的间距改变的手势、预定义第一手势以及在图像或视频上指点图像或视频中的将用作缩放的中心的点中的一个;
(b)检测手的食指与手的拇指分开第一距离;
(c)检测食指与拇指的间距改变为第二距离,该第二距离小于所述第一距离时指示进入第一缩放模式并根据该第一缩放模式执行缩放的命令,所述第一缩放模式是放大模式或缩小模式,所述第二距离大于所述第一距离时指示进入第二缩放模式并根据该第二缩放模式执行缩放的命令,所述第二缩放模式是放大模式或缩小模式,并且所述第二缩放模式不同于所述第一缩放模式;
(d)检测食指与拇指的间距改变的一个或更多个实例,
(e)在食指与拇指的间距改变的各个实例期间根据缩放模式执行缩放。
所述手势识别模块可被配置为按照以下方法执行放大和缩小,所述方法包括以下步骤:
(a)作为进入缩放模式的命令的指示,检测包括食指与拇指的间距改变的手势、预定义第一手势以及在图像或视频上指点图像或视频中的将用作缩放的中心的点中的一个;
(b)在初始取向下检测伸出的手指;
(c)检测从初始取向到第二取向的在第一方向或第二方向上的食指取向的改变,所述第一方向指示进入第一缩放模式并根据该第一缩放模式执行缩放的命令,所述第一缩放模式是放大模式或缩小模式,并且所述第二方向指示进入第二缩放模式并根据该第二缩放模式执行缩放的命令,所述第二缩放模式是放大模式或缩小模式,所述第二缩放模式不同于所述第一缩放模式;
(d)检测伸出的食指从第一取向改变为第二取向的一个或更多个实例;
(e)在伸出的食指的取向从初始取向改变为第二取向的各个实例期间根据缩放模式执行缩放,或者只要伸出的食指保持为第二取向就根据缩放模式执行缩放,所述缩放具有随着处于初始取向的手指的指尖与处于第二取向的手指的指尖之间的距离增大而增大的缩放比。
所述手势识别模块可被配置为按照以下方法执行放大和缩小,所述方法包括以下步骤:
(a)检测第一手势或第二手势,其中,所述第一手势包括在张开手指的状态下将手朝着成像装置移动,然后在闭合手指的同时将手远离成像装置移动,并且其中,所述第二手势包括在闭合手指的状态下将手朝着成像装置移动,然后在张开手指的同时将手远离成像装置移动;
(b)当检测到第一手势时进入第一缩放模式,当检测到第二手势时进入第二缩放模式,并且根据缩放模式执行缩放,所述第一缩放模式是放大模式或缩小模式,所述第二缩放模式是放大模式或缩小模式,并且所述第二缩放模式不同于所述第一缩放模式;
(c)只要继续检测到第一手势或第二手势,就根据缩放模式执行缩放。
指着屏幕上的点可指示进入缩放模式的命令,并且屏幕上的所述点是缩放模式中的缩放中心。
在本发明的接口***中,检测由预定义对象执行的手势可包括按照以下方法在由所述图像传感器获得的图像的视频流I1、...、Ik、...Ιn中跟踪预定义对象,所述方法包括以下步骤:
(a)计算输入视频流的平均图像A和视频流的标准差图像STD;
(b)计算视频流中的最后图像In的归一化图像In';
(c)在涉及归一化图像的处理中计算变换的图像T(x);
(d)构建图像T(x)的值的加权直方图;
(e)将索引j的值设置为1;
(f)从图像T(x)计算二值化图像B,其中图像T(x)中的值高于第j阈值的像素在二值化图像B中被指派有值1,图像T(x)中的值低于该阈值的像素在二值化图像B中被指派有值0;
(g)计算二值化图像B的两个特征值;
(h)构建第一半轴长度和第二半轴长度分别等于第一特征值和第二特征值的椭圆;
(i)确定构建的椭圆的形状是否与被跟踪的对象的图像相似;
(j)如果构建的椭圆的形状与被跟踪的对象的图像相似,则断定在图像I(x)n中检测到所述对象并且检测到视频流中的所述对象的运动,并且终止所述方法;
(k)如果构建的椭圆的形状不与所述对象的形状相似,则将索引j的值增加1;
(1)如果j超过预定义的jmax,则断定在图像In中未检测到所述对象并且在视频流中未检测到所述对象的运动,并且终止所述方法;以及
(m)如果j未超过jmax,则返回到步骤(e)。
在本发明的接口***中,可按照以下方法在由所述图像传感器获得的图像中检测预定义对象,所述方法包括以下步骤:
(a)将所述图像分割成整数N个初始片段,各个片段具有关联的特征矢量;
(b)生成最终片段列表以及所述最终片段列表中的各个片段的特征矢量,所述最终片段列表包括存在于初始片段列表中的片段以及通过将一个或更多个邻近片段组合成公共片段而形成的附加片段;以及
(c)将所述最终片段列表中的片段聚类成m个片段聚类。
生成最终片段列表的步骤可包括以下步骤:
(a)形成当前片段列表,该当前片段列表包括所述图像中的初始片段S1、...、Sk、...、SN;
(b)将索引i设置为N,N为所述图像中的片段数;
(c)对于所述图像中的各对邻近片段Sk1和Sk2,利用预定义的度量来计算这两个片段的特征矢量Vk1和Vk2之间的距离;
(d)在多对邻近片段当中找到距离||Vk1-Vk2||最小的一对邻近片段Sk1和Sk2;
(e)通过将两个片段Sk1和Sk2组合成单个片段来重新分割所述图像,以使片段数量减少1;
(f)将组合的片段Sk1和Sk2添加到当前片段列表,以更新当前片段列表;
(g)计算组合的片段的特征矢量;
(h)将索引i减1,
(i)如果i大于1,则返回到步骤(d),以及
(j)如果i=l,则终止所述生成最终片段列表的步骤。
将所述最终片段列表中的片段聚类成m个片段聚类的步骤可包括以下步骤:
(a)形成包括所述最终片段列表S'1、...、S'k、...、S'N'的当前片段列表;
(b)将索引i设置为N',N'为当前片段列表中的片段数量;
(c)对于当前片段列表上的各对片段Sk1和Sk2,利用预定义的度量来计算这两个片段的特征矢量Vk1和Vk2之间的距离;
(d)在当前列表上的多对片段当中找到当前片段列表上的距离||Vk1-Vk2||最小的一对片段Sk1和Sk2;
(e)将组合的片段Sk1和Sk2添加到片段列表,以更新片段列表;
(f)计算组合的片段的特征矢量;
(g)将索引i减1;
(h)如果i大于m,则返回到步骤(c);以及
(i)如果i=m,则终止所述将最终片段列表中的片段聚类的步骤。
所述手势识别模块还可被配置为对通过对象检测算法检测出预定义对象的视频序列Ι1、I2、...Ik、Ik+1、In执行对象验证处理,该处理包括以下步骤:
(a)生成对象O1、O2、...Ok、Ok+1、...On的两个或更多个序列S,其中序列S中的对象Ok被对象检测算法检测为预定义对象;
(b)对于生成的各个图像序列,
(i)对于序列中的各对连续对象Ok、Ok+1,利用第一度量d1计算对象Ok与Ok+1之间的距离d1(Ok,Ok+1);
(ii)对于序列中的各个对象Ok,利用第二度量d2计算对象Ok与所述预定义对象的标准图像O之间的距离d2(Ok,O);
(iii)计算序列S的长度L,序列的长度L(S)由下式给出
(c)检测满足预定义标准的序列;以及
(d)检测不满足所述预定义标准的序列作为包含被对象识别算法错误地检测为所述预定义对象的一个或更多个对象的序列。
根据所述预定义标准,长度小于预定义长度的序列可被检测为由所述预定义对象构成,长度大于预定义阈值的序列被检测为是包含被对象识别算法错误地检测为所述预定义对象的一个或更多个对象的序列。另选地,根据所述预定义标准,总序列数当中的预定义部分的最短序列被检测为由所述预定义对象构成。
在本发明的接口***中,所述手势识别模块还可被配置为:
(a)检测由所述预定义对象执行的一个或更多个第一手势,各个第一手势具有关联的方向;以及
(b)当检测到第一手势时,基于所检测到的第一手势生成第一消息;
(c)检测第二手势,该第二手势的关联方向不同于与检测到的第一手势关联的方向;
(d)生成第二消息,其中,在所述第一手势终止之后的预定义时间间隔之后检测到第二消息时基于所检测到的第二消息确定所述第二消息;并且
(e)在所述第一手势终止之后的所述预定义时间间隔之前检测到第二手势时不生成第二消息。
本发明还提供了一种用于控制第一装置的用户接口设备,该用户接口设备包括:
(a)图像传感器;
(b)手势识别***,其具有两个或更多个识别模式,并且被配置为:
(i)分析由所述图像传感器获得的图像,以标识由预定义对象执行的待标识的一个或更多个手势,所述预定义对象选自一只或更多只手、手的一部分、一根或更多根手指、手指的一个或更多个部分以及一个或更多个指尖;
(ii)将所述手势识别***的识别模式从初始识别模式改变为第二识别模式,其中,所述第二识别模式是基于所述手势识别***的初始识别模式、标识的手势和所述装置的态势感知信息中的任一个或更多个确定的,其中,所述态势感知信息是与所述装置的状态有关的信息、通过与所述装置关联的传感器接收的信息、与所述装置上运行的一个或更多个进程有关的信息、与所述装置上运行的应用有关的信息、与所述装置的电力状态有关的信息、与所述装置的通知有关的信息、与所述装置的移动有关的信息、与所述装置的空间取向有关的信息、关于与一个或更多个用户的交互的信息、关于用户行为的信息以及关于一个或更多个触发的信息中的一个或更多个;并且
(iii)生成第一消息,其中,所生成的第一消息是基于所述手势识别***的初始识别模式和识别的手势确定的。
在本发明的接口***中,所述接口***可与第一装置集成。
给定手势可根据上下文(例如,在处理器上运行的软件、检测到的触发或者基于音频或相机输入的态势感知)用作多个功能。因此,当应用改变时,相同的手势可用作不同的功能。
因此,本发明提供了一种包含指令的计算机程序产品,该指令用于使得处理器执行一种方法,该方法包括以下步骤:
接收来自与装置关联的图像传感器的输入,该输入指示人的手势;
处理反映装置的条件的态势感知信息,该态势感知信息的处理包括由处理器接收态势感知信息、将态势感知信息存储在与处理器有关的存储器中,处理态势感知信息,并且生成与装置的条件有关的指令;
使装置的状态与接收的输入相关,使得当装置处于第一条件时,所接收到的输入导致以第一方式控制装置,当装置处于第二条件时,所接收到的输入导致以不同于第一方式的第二方式控制装置;
包括由处理器接收态势感知信息,将态势感知信息存储在与处理器有关的存储器中,将态势感知算法应用于态势感知信息以生成经变换的态势感知信息,并将经变换的态势感知提供给处理器,该处理器将装置的条件与所接收到的输入相关。
与装置关联的传感器可包括相机、光传感器、超声波传感器、接近传感器、压力传感器、电导传感器、运动传感器、温度传感器和反射传感器中的一种。
图像传感器可包括相机、光传感器、超声波传感器、接近传感器和反射传感器中的一种。
装置的条件可包括在装置上运行的多个软件程序中的一个的指示;并且其中,在相关期间,当第一软件程序当前在装置上运行时使用输入控制第一软件应用;并且其中,使用输入控制第二软件程序。
所述处理还可包括激活与在装置的前台运行的应用、在装置的后台运行的应用或者当前未在装置上运行的装置的应用中的至少一个相关的装置的状态。
装置的条件可以是经由至少一个传感器确定的环境条件。
环境条件可包括声音、相机输入和温度中的至少一个。
装置的条件可以是软件应用的操作状态。
所述处理还可包括确定第一软件程序和第二软件程序中的哪一个当前在处理器上运行,并且基于所述确定来传送关联的命令。
第一命令和第二命令可以是相同的,并且第一软件程序可被配置为解释命令以便以第一方式控制第一软件程序,第二软件程序可被配置为解释命令以便以第二方式控制第二软件程序。
态势感知信息可以是与装置的状态有关的信息、由与装置关联的传感器接收的信息、与在装置上运行的进程有关的信息、与在装置上运行的应用有关的信息、与装置的电力状态有关的信息以及与装置的通知有关的信息中的一个或更多个。
一些算法在检测靠近相机的手势时效果更好,其它算法在手势更远离相机发生时效果更好。通过基于距相机的距离切换手势识别机制,可优化手势检测的有效性。
因此,本发明提供了一种包含指令的计算机程序产品,该指令用于使得处理器执行一种方法,该方法包括以下步骤:
从图像传感器接收图像信息,该图像信息指示手势;
基于手势发生于手势与相机之间的预定义距离内的概率,来将手势分类为短距离手势和长距离手势中的一个;
如果手势被分类为短距离手势,则将第一手势识别处理应用于图像信息;以及
如果手势被分类为长距离手势,则将第二手势识别处理应用于图像信息。
本发明还提供了一种包含指令的计算机程序产品,该指令用于使得处理器执行一种方法,该方法包括以下步骤:
从图像传感器接收图像信息,该图像信息指示手势;
确定用户与图像传感器之间的近似距离;以及
当近似距离在第一范围内时以第一方式处理图像信息,当近似距离在不同于第一范围的第二范围内时以第二方式处理图像信息。
手势识别算法中的至少一个可标识与解剖结构关联的图案。
参数可基于近似距离的预定义范围。
改变手势识别算法的参数可包括以下步骤:识别在短距离处具有较大运动矢量的手势识别和在长距离处具有较小运动矢量的手势识别。
当预期身体部位不是图像的部分时不考虑疑似为手势的运动往往会使手势识别更加鲁棒。例如,包含手势的图像通常也包含尺寸与手的尺寸成比例的脸部图像。因此,如果图像不包含与手成恰当比例的疑似脸部的图像,则算法不考虑该运动因为不可能是手势。
因此,本发明提供了一种包含指令的计算机程序产品,该指令用于使得处理器执行一种方法,该方法包括以下步骤:
从与用户可操作的装置关联的相机接收至少一个图像;
在图像中检测与除了用户的手之外的解剖结构对应的数据;
在至少一个图像中标识与装置的用户的疑似手势对应的信息;以及
如果在至少一个图像中未标识出与除了用户的手之外的解剖结构对应的数据,则不考虑与疑似手势对应的信息。
预定义的疑似身体部位可以是脸部。
预定义的疑似身体部位可包括用户的眼睛。
如果疑似手势的尺寸相对于疑似身体部位的比例在预定义的范围之外,则也可不考虑该疑似手势。
所述处理还可包括在从至少一个2维相机接收到的一系列图像内确定用户的至少两个身体部位的位置。
所述处理还可包括在一系列图像内比较至少两个身体部位的相对尺寸和空间关系。
所述处理还可包括基于至少两个身体部位的相对尺寸和空间关系的比较来调节手势识别算法。
所述调节可包括如果得自所述比较步骤的参数不满足预定义的阈值,则不考虑潜在的手势运动。
所述处理还可包括将手的皮肤颜色与疑似身体部位的皮肤颜色进行比较,并且当确定皮肤颜色匹配不足时不考虑疑似手势。
所述处理还可包括限定解剖结构内的关注区域。
如果在图像中未检测到解剖结构(例如,手),则截断图像的处理往往会提高处理效率并节省电池电力。
因此,本发明提供了一种包含指令的计算机程序产品,该指令用于使得处理器执行一种方法,所述方法包括以下步骤:
尝试在至少一个图像中标识与解剖结构对应的信息;
当标识出解剖结构时,处理来自多个图像的图像数据以便标识疑似手势;以及
当在至少一个图像中未标识出解剖结构时,终止与至少一个图像关联的手势识别算法。
尝试标识可包括在图像中标识疑似包含解剖结构的区域,将该区域分割成连接的聚类,并且将连接的聚类与预定义的形状特性进行比较。
所述解剖结构可以是手。
所述解剖结构可以是手指。
疑似图像可在相机的预定义的附近范围内,预定义的形状可以是手指。
利用上下文触发打手势会话(gesturing session)往往会增加电池寿命并增强用户便利。当触发打手势会话时,装置的采样率增加。通过在没有检测到触发的时间段降低采样率,装置的电池寿命和效率可增加。例如,智能电话装置的手势识别模式可通过来电电话呼叫的触发激活,从而使得用户能够利用手势来接听电话。或者,装置的手势识别模式可在激活闹钟功能并且闹钟响起时触发,从而使得用户能够利用手势关闭闹钟。其它触发可包括特定手势。另外,装置能够触摸控制,并且可通过基于触摸的触发来触发手势识别模式。
因此,本发明提供了一种包含指令的计算机程序产品,该指令用于使得处理器执行一种方法,该方法包括以下步骤:
从与用户可操作的装置关联的图像传感器接收图像数据;
使得能够按照至少第一模式和第二模式处理来自图像传感器的图像数据,所述第一模式包括处理比第二模式少的图像数据;
在第一模式下操作处理;
检测基于上下文的触发,该基于上下文的触发指示预期的用户手势的可能性增加;以及
当检测到基于上下文的触发时,将处理从第一模式切换为第二模式。
所述处理还可包括在切换之后,在未检测到疑似手势的情况下经过预定义的时间之后将处理返回到第一模式。
所述图像数据可包括手。
所述图像数据可包括手指。
所述图像数据可包括手的多个图像。
所述触发可以是触摸屏上检测到的触摸。
所述触发可以是按压物理按钮和虚拟按钮中的至少一个。
所述触发可包括手在附近越过相机。
所述触发包括从连接到装置的麦克风接收到的声音。
所述触发可包括在指示注视装置的用户的图案中检测到用户的眼睛和脸部中的至少一个。
所述触发可使得相机增加帧频。
所述触发可包括来自接近传感器的信号。
所述触发可包括在处理器上运行的软件中发生的事件。
所述触发可包括由相机检测到的运动。
所述处理还可包括识别与基于上下文的触发有关的基于上下文的手势。
基于上下文的触发可以是闹钟,基于上下文的手势可选自关闭闹钟、在预定义的时间过去之后将闹钟重置为再次响铃、调节闹钟的音量、进入使得用户能够选择播放的音乐的模式以及改变闹钟的闹铃音。
基于上下文的触发可以是来电电话呼叫,基于上下文的手势可选自接听来电呼叫、将来电呼叫转接为语音邮件以及激活移动电话的视频会议模式。
手势识别模式可在基于上下文的触发之后有效达预定义的时间段。
基于上下文的触发可以是歌曲的开始和结束,所述装置可以是音频播放器。
基于上下文的触发可以是视频节目的开始和结束,所述装置是视频播放器。
在检测到基于上下文的触发之后,第二模式可保持有效达与已知用户行为模式对应的时间段。
在第一模式下接收到的信息的量可大于在第二模式下接收到的信息的量。
在第一模式下,采样率可低于8帧/秒。
在第一模式下,采样率可低于5帧/秒。
在第一模式下,采样率可低于2帧/秒。
在第一模式下,所述装置可被配置为按照通过手势识别之外的方式控制。
在第一模式下,所述装置可被配置为通过触摸屏上检测到的触摸来控制。
帧采样率可变化,照明条件、当前使用的应用以及图像运动程度中的至少一个可确定帧采样率。
对于还允许无触摸控制的触摸屏移动装置,不需要每一个控制均为无触摸的。在这些情况下,用户可受益于当前级别的控制可以按照无触摸方式发生的特定形式的指示。否则,用户可能由于在无触摸控制不可用时尝试无触摸控制而变得沮丧。
因此,本发明提供了一种包含指令的计算机程序产品,该指令用于使得处理器执行一种方法,该方法包括以下步骤:
接收来自与触摸屏装置关联的相机的信息,该信息反映手势;
在显示器上显示可经由触摸激活的信息;
在显示器上显示可经由相机检测的手势激活的信息;以及
向用户提供可经由非触摸运动激活第二信息的听觉和视觉提示中的至少一个。
所述信息可以是显示器上的视觉指示符,该视觉指示符向用户指示当前可通过相机识别特定手势命令。
所述处理还可包括在检测到的手势之后,提供检测到手势的反馈信息。
所述处理还可包括当检测到手势并且显示器上的信息不可经由无触摸手势激活时,提醒用户显示器上的信息不可经由无触摸手势激活。
提醒显示器上的信息不可激活可包括音和视觉指示符中的一个。
特别是当基于手势实现命令存在延迟时,有益的是向用户提供指示识别出手势的反馈。如果没有这种反馈,则用户可能不必要地重复手势并且变得沮丧,认为手势识别算法有缺陷。
因此,本发明提供了一种包含指令的计算机程序产品,该指令用于使得处理器执行一种方法,该方法包括以下步骤:
利用图像传感器检测指示装置命令的人手势;
在装置上实现装置命令;以及
在所述命令实现之前的时间段期间,向用户提供识别出所述命令的反馈。
所述反馈可包括装置的显示器上的视觉指示符。
所述视觉指示符可包括显示器上的移动指示符。
显示器上的视觉指示符可近似于手势的方向。
所述反馈可包括来自装置的听觉信号。
所述反馈可基于特定使用情况而变化。
所述反馈可包括触觉反馈、定向振动、空气触感反馈、超声波反馈和听觉反馈中的至少一个。
通常,手势之后跟随返回运动,其中手返回到该手势之前手所在的位置。例如,如果手势是手从右向左挥击,则通常该手势之后跟随从左向右的手移动。在这种情况下,手势检测软件可能混淆,将返回运动处理为手势本身,从而取消了期望的第一手势。
因此,本发明提供了一种包含指令的计算机程序产品,该指令用于使得处理器执行一种方法,该方法包括以下步骤:
检测包含第一手势信息的至少一个第一图像数据帧集合;
检测包含第二手势信息的至少一个第二图像数据帧集合,所述第二手势信息与所述手势之后的自反运动对应;以及
将所述自反运动不予考虑。
自反运动可以是放松运动。
确定第二信息包含自反运动可包括评估第二信息是否在第一手势信息之后的预定义时间帧内发生。
确定第二信息包含自反运动可包括评估第二手势是否在基本上与第一手势相反的方向上发生。
附图说明
为了理解本发明并且看出它在实践中可如何实现,现在将参照附图仅通过非限制示例描述实施方式,附图中:
图1示出根据本发明的一个示例性实施方式的用于控制第一装置的用户接口;
图2示出根据本发明的一个示例性实施方式的控制第一装置的方法;
图3示出包括根据本发明的一个实施方式的用户接口***的装置;
图4示出图3的装置被手持握;
图5示出在图3的装置前方执行手势;
图6示出图3的装置正被用户注视;
图7示出轻点手势;
图8示出点击手势;
图9示出显示在显示装置上的图像;
图10示出放大之后的图9的图像;
图11示出分割图像;
图12示出包括最小生成树模块和聚类模块以用于在分割图像中进行对象检测的方法的概况;
图13更详细地示出图12的最小生成树模块;
图14更详细地示出图12的聚类模块;
图15示出图像序列;
图16示出在图像序列中进行对象检测的方法;
图17更详细地示出图16的对象检测方法;
图18示出对象检测之后的图像序列;以及
图19示出在图像中检测身体部位的方法。
具体实施方式
图1示意性地示出根据本发明的一个实施方式的用于控制第一装置4的用户接口设备2。例如,第一装置可以是任何用户可操作装置,诸如个人计算机(PC)、便携式计算机、PDA、膝上型计算机、移动电话、收音机、数码相机、车辆、医疗装置、智能家用电器(例如,电视或家庭娱乐***)、移动游戏机或家用电器。
用户接口设备2包括图像传感器6,例如,图像传感器6可以是相机、光传感器、IR传感器、超声波传感器、接近传感器、CMOS图像传感器、短波红外(SWIR)图像传感器或反射传感器。与第一装置4相邻的区域中的图像传感器6所获得的图像被输入至手势识别***8,手势识别***8分析图像传感器所获得的图像,以从当由预定义的对象在图像传感器6前方执行时被识别的一个或更多个手势当中标识一个或更多个手势。例如,预定义的对象可以是一只或更多只手、手的一部分、一根或更多根手指、手指的一个或更多个部分以及一个或更多个指尖中的任一个或更多个。
待标识的手势的示例包括挥击运动、两根手指的挤捏运动、指点、左至右手势、右至左手势、向上手势、向下手势、推手势、张开握紧的拳头、张开握紧的拳头并朝着图像传感器移动、轻点手势、挥手手势、拍手手势、逆拍手手势、将手握成拳、挤捏手势、逆挤捏手势、张开手上的手指的手势、张开手上的手指的逆手势、指着可激活对象、将激活用对象保持预定义的时间量、点击可激活对象、双击可激活对象、从右侧点击可激活对象、从左侧点击可激活对象、从底侧点击可激活对象、从顶侧点击可激活对象、抓握可激活对象、从右侧朝着可激活对象做手势、从左侧朝着可激活对象做手势、从左侧穿过可激活对象、推对象、拍手、在可激活对象上方挥手、执行冲击手势、执行轻点手势、在可激活对象上方执行顺时针或逆时针手势、用两根手指抓住可激活对象、执行点击-拖曳-释放运动以及滑动图标。
手势识别***8包括手势检测器9,该手势检测器9在图像传感器6所获得的图像序列中跟踪预定义的对象,以检测待检测的任一手势的出现。手势检测器9对手势的检测被输入至消息决策器17,该消息决策器17基于所标识的手势和手势识别***的当前识别模式来生成第一消息11。第一消息还可取决于来自一个或更多个设备传感器12的输入。传感器信号分析器15分析来自设备传感器12的信号。来自传感器的信号分析器15的输出可被输入至手势检测器9和消息决策器17中的一者或二者。要由手势识别***8标识的手势可取决于手势识别***的模式以及来自传感器12的信号的任何分析。例如,可将第一消息发送给第一装置、第一装置的操作***、在第一装置的处理器上运行的一个或更多个应用、在后台运行的软件程序以及在第一装置上运行的一个或更多个服务或者在装置中、在外部网络上运行的进程。
用户接口设备2执行图2的流程图所示的方法。在步骤20中,由图像传感器6从图像序列生成的数据被输入至手势识别***8。然后,手势检测器9运行手势识别模块。在步骤22中,手势识别模块分析由图像传感器6从图像序列生成的图像数据,以检测待标识的一个或更多个预定义的手势。在步骤24中,确定是否检测到待检测的手势中的一个。如果否,则处理返回至步骤20,使得由图像传感器6从图像序列生成的图像数据被输入至手势识别***8。如果是,则在步骤26中,根据所检测到的手势和手势识别***8的识别模式来生成第一消息。
手势识别模块在由手势模式决策器21确定的两个或更多个识别模式中的每一个模式下操作,手势模式决策器21被配置为如下所述在一个或更多个不同条件下将识别模式从初始识别模式改变为第二识别模式。在步骤28中,确定是否存在改变手势识别***的模式的预定义的条件。如果是,则在步骤30中,改变手势识别***的模式。然后处理返回至步骤20,使得由图像传感器6从图像序列生成的图像数据被输入至手势识别***。
基于手势识别的初始识别模式、通过手势识别***8标识的手势和态势感知信息13中的任一个或更多个来确定第二识别模式。本文使用术语“态势感知信息”来表示与第一装置的状态、通过与接口***2关联的一个或更多个***传感器12获得的信息、通过与第一装置关联的一个或更多个第一装置传感器10获得的信息、与装置上运行的一个或更多个进程有关的信息、与装置上运行的应用有关的信息、与装置的电力状态有关的信息、与装置的通知有关的信息、与装置的移动有关的信息、与装置的空间取向有关的信息、关于与一个或更多个用户的交互的信息、关于用户行为的信息以及关于一个或更多个触发的信息中的任一个或更多个有关的信息。
态势感知信息13可以是与第一装置的状态有关的信息,通过传感器的状态、软件应用的操作状态、在装置中运行的进程、在装置中运行的服务、在前台运行的软件程序、在后台运行的一个或更多个软件程序、装置的网络连接状态、装置的功率状态、装置的屏幕的光强度中的任一个或更多个来确定第一装置的状态。
态势感知信息13被输入给手势模式决策器21并被输入给消息决策器17。
改变手势识别***8的模式的预定义的条件可取决于提供给手势识别***2的态势感知信息。例如,这种态势感知信息可包括在第一装置4上运行的特定应用、改变为不需要检测手势的模式的应用、第一装置处于低功率模式、第一装置进入待机模式、自标识手势或呈现通知起已过去了预定义的时间量、发生模式的改变或应用的行为、第一装置从一个位置移动到另一位置、第一装置被解锁、第一装置停止移动、虚拟或真实按钮被按下、第一装置被置于托架上、接收到通知(例如,经由网络接收的通知)、接收到在线服务通知、接收到通过装置或应用或者通过服务生成的通知、接收到经由蜂窝网络、无线网络、TCPIP或有线网络的来电语音或视频呼叫、来电3D视频呼叫、文本消息通知、会议通知、基于社区网络的通信、Skype通知、脸书通知、推特通知、在线服务通知、未接来电通知、电子邮件通知、语音邮件通知、装置通知、播放器上的歌曲的开始或结束、视频的开始或结束、注视第一装置的用户的检测、通过图像传感器获得的图像中的脸部的检测、通过图像传感器获得的图像中的一只或更多只眼睛的检测、通过图像传感器获得的图像中的一只或更多只手或手的部分的检测、注视第一装置的预定义的人的检测、检测预定义的手势。
改变手势识别***8的模式的预定义的条件的其它示例包括从来自***传感器12或第一装置传感器10的信号的分析确定的条件、触摸屏上的触摸、通过连接到第一装置的麦克风接收到的声音、光传感器信号或加速度计信号的分析,以判定是否将第一装置从口袋或包中取出、第一装置的取向是否改变。
改变手势识别***8的模式的预定义的条件的其它示例包括手势识别模块的模式之间的改变,例如,分析低帧频至高帧频的模式之间的改变和/或分析低分辨率图像至分析高分辨率图像的模式之间的改变。
作为具体示例,手势识别模块的初始模式可以是分析以低捕获帧频从图像传感器输入的视频,第二模式可以是分析以高捕获帧频从图像传感器输入的视频。在这种情况下,例如,将识别模式从初始模式改变为第二模式的先决条件可以是触摸屏上的触摸、通过连接到第一装置的麦克风接收到的声音、光传感器信号或加速度计信号的分析,以判定是否将第一装置从口袋或包中取出、第一装置的取向是否改变。
例如,第一装置传感器10可以是相机、光传感器、超声波传感器、接近传感器、压力传感器、电导传感器、运动传感器、温度传感器、加速度计、陀螺仪、取向传感器、磁性传感器、重力传感器和反射传感器、电导传感器和电容传感器以及图像传感器。第一装置4可与接口***设备2集成,第一装置传感器10可与第一装置4集成。
手势模式决策器26可被配置为在预定义的时间量过去之后或者在自标识手势起经过预定义的时间量之后或者在自呈现通知起经过预定义的时间量之后,将识别模式从第二模式改变回初始模式。
手势识别模块的识别模式可通过一个或更多个特征来定义或指定,例如待标识的手势、用于一个或更多个预定义的待标识手势中的每一个的第一消息、手势识别***上有效的算法以及各种待标识手势的第二识别模式、由图像传感器捕获的图像的分辨率或者由图像传感器捕获的图像的捕获率(capture rate)。
用户接口设备2还可在两个或更多个接口模式下操作,其中当前接口模式通过手势识别模块的识别模式以及来自一个或更多个设备传感器12的将由手势识别***8分析的一个或更多个信号来定义。接口模式可取决于态势感知信息13和第一消息中的一者或二者。
例如,接口模式的改变可生成针对第一装置4、在第一装置上运行的应用、在第一装置上运行的服务、在第一装置上运行的进程或在第一装置上运行的操作***的第三消息。
第一消息或第三消息可包括命令以提供接口模式、手势识别***的模式和待标识的手势的指示。例如,所述指示可以是视觉指示、听觉指示、触感(tactile)指示、超声波指示、触觉(haptic)指示。例如,视觉指示可以是诸如显示在显示屏幕上的图标、显示屏幕上的图标的改变、显示屏幕上的图标的颜色的改变、指示灯、在显示屏幕上移动的指示符、定向振动指示、空气触感指示的形式。可通过在显示屏幕上移动的指示符来提供所述指示。所述指示符可出现在显示屏幕上出现的所有其它图像或视频的上面。所述指示可取决于当前态势感知信息。
态势感知信息可以是与一个或更多个触发有关的信息。例如,触发可以是应用的用户接口的改变、应用的视觉外观的改变、应用的模式的改变、应用的状态的改变、在第一装置上运行的软件中发生的事件、应用的行为的改变、经由网络接收到的通知、在线服务通知、由装置或应用或者由服务从触摸屏上的触摸生成的通知、按下虚拟或真实按钮、通过连接到装置的麦克风接收到的声音。触发的其它示例包括手势、使对象在小于预定义距离的距离处越过第一装置、注视第一装置4的用户的检测、通过图像传感器6获得的图像中的脸部的检测、通过图像传感器6获得的图像中的一只或更多只眼睛的检测、通过图像传感器获得的图像中的一只或更多只手或手的部分的检测、以及注视第一装置的预定义的人的检测、持握第一装置的用户的检测、来自接近传感器的信号、闹钟上发出的报警、经由蜂窝网络、无线网络、TCPIP或有线网络的来电语音或视频呼叫、来电3D呼叫、文本消息通知、会议通知、基于社区网络的通信、Skype通知、脸书通知、推特通知、在线服务通知、未接来电通知、电子邮件通知、语音邮件通知、装置通知、播放器上的歌曲的开始或结束、视频的开始或结束。
态势感知信息可与第一装置4的状态有关,在这种情况下,第一消息可被发送给第一装置,在第一装置处接收到第一消息可导致第一装置的状态的改变。第一装置的状态的改变可包括第一装置上的显示器的光强度的增大或减小、第一装置的状态从锁定模式改变为解锁模式或者反之、打开或关闭一个或更多个传感器、一个或更多个传感器的配置和/或参数的改变、启用/禁用缩放模式、改变为无声模式、启用/禁用通知的呈现、装置改变为静音模式、或者打开或关闭扬声器模式。
第一消息可提供手势被识别、哪一特定手势被识别、被识别的手势的特征中的任一个或更多个指示,例如运动矢量、速度、手势被识别的位置、识别的可靠性。
第一消息可包括命令,例如,针对第一装置4、在第一装置4上运行的应用、在第一装置4上运行的服务以及在第一装置4上运行的操作***、在第一装置上运行的进程的命令。例如,所述命令可以是在第一装置4上运行应用的命令、停止在第一装置4上运行的应用的命令、激活在第一装置4上运行的服务的命令、停止在第一装置4上运行的服务的命令。
所述命令可以是针对第一装置的命令,例如,按下显示在第一装置的显示屏幕上的虚拟键;旋转选择转盘;在桌面之间切换;在第一装置上运行预定义的软件应用;关闭第一装置上的应用;打开或关闭扬声器;增大或减小音量;锁定第一装置、解锁第一装置、在媒体播放器中或在IPTV频道之间跳到另一轨道;控制导航应用;发起呼叫、结束呼叫、呈现通知、显示通知;在照片或音乐专辑库中进行导航、滚动网页、呈现电子邮件、呈现一个或更多个文档或地图、控制游戏中的动作、控制交互视频或动画内容、编辑视频或图像、指着地图、放大或缩小地图或图像、在图像上绘画、朝着第一装置上的显示器推图标、抓握图标并将该图标拉离显示装置、使图标旋转、模仿第一装置上的触摸命令、执行一个或更多个多触摸命令、触摸手势命令、打字、点击显示的视频以暂停或播放、编辑视频或音乐命令、对帧加标签或从视频捕获帧、从视频剪切视频子集、呈现来电消息;接听来电呼叫、静音或拒绝来电呼叫、打开来电提醒;呈现从网络社区服务接收的通知;呈现由第一装置生成的通知、打开预定义的应用、将第一装置从锁定模式改变并打开最近呼叫应用、将第一装置从锁定模式改变并打开在线服务应用或浏览器、将第一装置从锁定模式改变并打开电子邮件应用、将第一装置从锁定模式改变并打开在线服务应用或浏览器、将第一装置从锁定模式改变并打开日历应用、将第一装置从锁定模式改变并打开提醒应用、将第一装置从锁定模式改变并打开由用户设置、由第一装置的制造商设置或者由服务运营商设置的预定义的应用、激活图标、选择菜单项、在显示器上移动指针、操纵无触摸鼠标、显示器上的图标以及改变显示器上的信息。
当第一消息被发送给第一装置4时,第一装置4可响应于第一消息生成(例如)针对远程装置16、在远程装置上运行的操作***、一个或更多个远程应用或者一个或更多个远程服务的第二消息。第二消息可以是命令。
由手势识别***8生成的第一消息可被发送给在第一装置4上运行的应用或者远程应用,在这种情况下,第一消息可由第一装置4上的第一运行应用按照第一方式解释,并且同一消息可由第一装置4上的第二运行应用按照第二方式解释。
手势识别***8可被配置为在手势识别***的模式从初始模式改变为第二模式时生成第四消息。第四消息可包括命令,例如,针对第一装置4、在第一装置4上运行的应用、在第一装置4上运行的服务以及在第一装置4上运行的操作***的命令。所述命令可以是提供指示的命令,例如,指示手势识别***2准备好识别手势、手势识别***2准备好识别一个或更多个预定义的手势、手势识别***2未准备好识别手势、环境光条件不允许手势识别或者手势识别***2未准备好识别手势。例如,所述指示可以是视觉指示、听觉指示、触感指示、触觉指示。例如,视觉指示可以是显示在显示屏幕上的图标、显示屏幕上的图标的改变、显示屏幕上的图标的颜色的改变、指示灯。
初始模式和第二接口模式可通过图像传感器6所捕获的图像的捕获率来定义。第二模式下的捕获率可小于或大于初始模式的捕获率。初始模式和第二模式可通过图像传感器所捕获的图像的分辨率来定义,第二模式的图像的分辨率可大于或小于初始模式的图像的分辨率。
第一装置10可包括诸如专用处理器、通用处理器、DSP(数字信号处理器)处理器、GPU(图形处理单元)处理器、专用硬件或者可在外部装置上运行的处理器之类的处理器。第一装置4可将接口设备2作为程序在第一装置4的一个或更多个处理器上运行。
在本发明的一个实施方式中,在由图像传感器6获得的图像中检测到第一对象用作触发,并且在第二识别模式下,手势识别模块标识通过图像传感器获得并且包括第一对象的图像中的第二对象,其中第二对象与第一对象具有预定义的空间关系。在这种情况下,手势识别***可被配置为检测由第二对象执行的手势。例如,第一对象和第二对象可分别是第一身体部位和第二身体部位。例如,第一身体部位可以是脸部、一只眼或双眼、第一只手或第一只手的一部分、或者处于第一姿势的第一只手。而第二身体部位可以是第二只手或第二只手的一部分、或者处于第二姿势的第二只手。第一对象和第二对象之间的预定义的空间布置可通过从第一对象的重心到第二对象的重心的矢量来指定。该矢量可具有预定义范围内的大小和预定义范围内的方向中的一者或两者。
图3示出第一装置32,其可以是图1所示的第一装置4。第一装置32包括根据本发明的一个实施方式的用户接口***2。第一装置32是手持装置,例如,可以是移动电话、平板计算机或便携式媒体/音乐播放器,并且包括显示屏幕36,显示屏幕36可以是触摸屏和/或键区34。第一装置32包括图像传感器46,并且还可包括麦克风38和扬声器40。
第一装置32包括位于第一装置32的表面上的一个或更多个第一装置传感器42,所述第一装置传感器42监测装置的环境中的一个或更多个参数的值。在此示例中,第一装置传感器32可被设置在装置32的表面上的位置处,使得当装置32被持握于手中时,手与一个或更多个传感器接触,如图4所示。当手34(如图4中的虚线所示)接触一个或更多个传感器42时,所监测的参数的值改变。例如,一个或更多个传感器可检测环境温度,在这种情况下,由传感器42检测到的温度的升高指示手与传感器之间的接触。另选地或另外地,一个或更多个传感器可检测环境电导率或电容的改变,其中的任一个指示用户的手44与第一装置传感器42之间的接触,其作为态势感知信息(如上所述)被输入至决策器x。
图像传感器46被设置在第一装置42的表面上,以获得第一装置42前方的三维空间的一部分的视频图像,所述视频图像被输入至手势识别***,使得当利用用户的手48(图5)在装置42上方做出手势时,该手势被图像传感器记录并被手势识别***检测。来自传感器42的信号被输入至传感器信号分析器15(图l),来自传感器信号分析器的输出被输出给手势检测决策器17(如上所述)。
本发明的实施方式被配置为执行显示在第一装置4的显示器上的图像的放大或缩小。用户可首先执行预定义的手势以进入缩放模式。例如,如图7所示,进入缩放模式的预定义的手势可以是“轻点”运动,该“轻点”运动包括手的食指与手的拇指的间距的改变。作为另一示例,如图8所示,指示进入缩放模式的命令的预定义手势包括“点击”运动。点击运动包括将手指40的指尖朝着图像传感器6移动,然后将指尖远离图像传感器6移动。当处理器检测到用户的手执行了指示进入缩放模式的命令的预定义手势时,用户接口2使第一装置4进入缩放模式。
一旦第一装置4进入了缩放模式,用户可在不触摸显示器的情况下指着显示器上的图像43中的点。然后,用户接口2可从图像传感器6所获得的图像中的用户的手指42的外观来确定显示屏幕46上的用户所指着的点。处理器可通过在该位置处向图像43中引入小圆点54或任何类型的反馈来向用户指示处理器确定用户指着哪里。
一旦装置4进入缩放模式,处理器分析由图像传感器6获得的视频流,以从显示在显示屏幕46上的图像确定用户的手指是执行了指示放大命令还是缩小命令的手势。
例如,在一个实施方式中,标识手的食指与手的拇指分开第一距离。然后标识食指与拇指的间距改变为第二距离,其中第二距离小于第一距离,从而指示进入第一缩放模式并根据第一缩放模式执行缩放的命令。第一缩放模式不是放大模式就是缩小模式。当第二距离大于第一距离时,这指示进入第二缩放模式并根据第二缩放模式执行缩放的命令。第二缩放模式也不是放大模式就是缩小模式,但是第二缩放模式不同于第一缩放模式。标识食指与拇指的间距改变的一个或更多个实例,并且在食指与拇指的间距改变的各个实例期间根据缩放模式执行缩放。另一示例,只要食指和拇指继续彼此分开直至它们到达最大距离,然后彼此靠近直至它们到达最小距离,改变的实例就可被定义为一个实例。
在另一实施方式中,在初始取向下标识伸出的手指,然后标识在第一方向或第二方向上的手指。取向从初始取向改变为第一方向上的第二取向指示进入第一缩放模式并根据第一缩放模式执行缩放的命令,其中第一缩放模式不是放大模式就是缩小模式。取向从初始取向改变为第二方向上的第二取向指示进入第二缩放模式并根据第二缩放模式执行缩放的命令,其中第二缩放模式也不是放大模式就是缩小模式,其中第二缩放模式不同于第一缩放模式。然后标识伸出的食指从第一取向改变为第二取向的一个或更多个实例。然后在伸出的食指的取向从初始取向改变为第二取向的各个实例期间根据缩放模式执行缩放。另选地,只要伸出的食指保持为第二取向,就可根据缩放模式执行缩放。所述缩放可具有随着处于初始取向的手指的指尖与处于第二取向的手指的指尖之间的距离增大而增大的缩放比。
作为另一实施方式,标识第一手势或第二手势,其中第一手势包括在张开手指的状态下将手朝着成像装置移动,然后在闭合手指的同时将手远离成像装置移动,第二手势包括在闭合手指的状态下将手朝着成像装置移动,然后在张开手指的同时将手远离成像装置移动。当标识出第一手势时,进入第一缩放模式,当标识出第二手势时,进入第二缩放模式。根据缩放模式执行缩放。第一缩放模式不是放大模式就是缩小模式,第二缩放模式也不是放大模式就是缩小模式,但是第二缩放模式不同于第一缩放模式。只要继续标识出第一手势或第二手势,就根据缩放模式执行缩放。
作为另一实施方式,标识第一手势或第二手势,其中第一手势包括在张开手指的状态下将手朝着成像装置移动,然后在闭合手指的同时将手远离成像装置移动,第二手势包括在闭合手指的状态下将手朝着成像装置移动,然后在张开手指的同时将手远离成像装置移动。当标识出第一手势时,进入第一缩放模式,当标识出第二手势时,进入第二缩放模式。根据缩放模式执行缩放。第一缩放模式不是放大模式就是缩小模式,第二缩放模式也不是放大模式就是缩小模式,但是第二缩放模式不同于第一缩放模式。只要继续标识出第一手势或第二手势,就根据缩放模式执行缩放。
当接口***2确定用户执行了用于放大或缩小的预定义的手势时,处理器将在以用户先前指示的点(由小圆点54指示)为中心缩放的同时放大或缩小图像43。图10示出在处理器对图像43执行放大之后显示图像56的显示屏幕46。只要接口***2处于缩放模式,用户就可执行一系列的放大和缩小手势。
手势检测器可使用任何方法来在图像传感器6所获得的图像中检测预定义的对象。例如,手势检测器可如WO2005/091125或WO 2010/086866中公开的那样检测预定义的对象。
另选地,手势检测器可如下检测预定义的对象。图11示意性地示出分割图像62。分割图像62被分割成片段S1、...、Sk、...、SN,其中各个片段是邻接像素集,图像中的各个像素精确地属于一个片段。
对于从1至N的各个k,各个片段Sk具有关联的特征矢量Vk=(Vk1,Vk2,Vk3,...Vkn)。对于n个特征中的每一个,Vkj是片段Sk中的第j特征的数值。这些特征的示例包括该片段的平均颜色强度、该片段的平均灰度、片段Sk的尺寸、形状或质心坐标。
图12示出根据本发明的一个实施方式的用于检测图像2中的预定义的对象的***64。***64包括最小生成树模块68和聚类模块72。最小生成树模块68接收图像62的片段S1、...、Sk、...、SN的初始列表和对应的特征矢量V1、...、Vk、...、VN作为其输入66。最小生成树模块68的输出70是最终片段列表以及最终片段列表中的各个片段的特征矢量。如下所述,最终片段列表包括存在于初始片段列表中的片段以及通过将一个或更多个邻近片段组合成公共片段而形成的附加片段。
最小生成树模块68的输出70被输入给聚类模块72。聚类模块的输出74是最终片段列表中的片段聚类成预定义数量的片段聚类。例如,聚类模块可使用K-Means方法。
图13示出根据本发明的一个实施方式的最小生成树模块8所执行的处理的流程图。在步骤88中,形成当前片段列表,该当前片段列表包括图像2中的初始片段S1、...、Sk、...、SN。在步骤89,将索引i设置为N,N为图像62中的片段数。然后,在步骤90中,对于图像62中的各对邻近片段Sk1和Sk2,利用预定义的度量来计算两个片段的特征矢量Vk1和Vk2之间的距离。例如,所述度量是n维欧几里得度量。在步骤92中,在多对邻近片段当中找到距离||Vk1-Vk2||最小的一对邻近片段Sk1和Sk2。然后,通过将两个片段Sk1和Sk2组合成单个片段来重新分割图像62(步骤94),从而使片段数量减少1,使得当前片段数量为i-1。将组合的片段Sk1和Sk2添加到片段列表,以更新片段列表。在步骤96中,计算组合的片段的特征矢量。在步骤100中,将索引i减1,并且在步骤102中确定是否i=l。如果i大于1,则处理返回至步骤90,在该步骤针对图像的当前分割计算距离。如果i=l,则处理终止。
图14示出根据本发明的一个实施方式的聚类模块72所执行的处理的流程图。在步骤10中,形成当前片段列表,该当前片段列表包括由最小生成树模块68输出的最终片段列表S'1、...、S'k、...、S'N'。在步骤106中,将索引i设置为N',N'为当前片段列表中的片段数量。然后,在步骤108中,对于当前片段列表上的各对片段Sk1和Sk2,利用预定义的度量来计算两个片段的特征矢量Vk1和Vk2之间的距离。例如,所述度量是n维欧几里得度量。在步骤110中,在当前列表上的多对片段当中找到当前片段列表上距离||Vk1-Vk2||最小的一对片段Sk1和Sk2。在步骤112中,将片段Sk1和Sk2从片段列表中删除,并且在步骤114中,将组合的片段Sk1和Sk2添加到片段列表,以更新片段列表。在步骤42中,计算组合的片段的特征矢量。在步骤44中,将索引i减1,并且在步骤46中确定是否i=m,m为图像中的将被检测的对象的预定义数量。如果i大于m,则处理返回至步骤38,在该步骤针对图像的当前分割计算距离。如果i=m,则处理终止。因此,聚类模块的输出14是图像2分割成预定义数量m个片段。
图15至图17示出根据本发明的另一实施方式的用于对象检测的另选方法。图15示意性地示出视频流122。视频流122包括图像序列I1、...、Ik、...Ιn。图16示出根据一个实施方式的在视频流122中检测预定义的对象的运动的***126。***126包括接收图像的视频流(例如,视频流122)作为输入的自回归模块128。自回归模块128的输出被输入给归一化模块130。来自归一化模块130的输出被输入给变换模块131。来自变换模块的输出被输入给全局阈值模块132,然后该全局阈值模块132的输出被输入给决策模块16,在该决策模块16处确定在输入视频流中是否检测到预定义的对象的运动。
图17示出根据实施方式的在视频流中检测预定义的对象的运动的方法。在步骤140中,将视频流122输入给自回归模块128。在步骤142中,自回归模块128计算输入视频流的平均图像A,并且在步骤144中,计算视频流的标准差图像STD。例如,可使用自回归算法来计算图像A和STD。然后,将平均图像A和标准差图像STD随输入视频流的最近图像In一起输入给归一化模块130。在步骤146中,归一化模块130针对图像中的各个像素x,利用代数式I(x)n'=(I(x)n-A(x))/STD(x)计算视频流中的最后图像In的归一化图像In'。
将原始图像I(x)n和归一化图像I(x)n'输入给变换模块136,在步骤147中,从I(x)n和I(x)n'生成修改的图像T(x),然后将该修改的图像输入给全局阈值模块130。
全局阈值模块130在迭代处理中从图像T(x)生成直方图,以确定是否在视频流中检测到预定义的对象的运动。在步骤150中,将索引j的值设置为1,并且在步骤151中,确定第j阈值。然后在步骤152中,全局阈值模块从修改的图像T(x)计算二值化图像B,其中图像T(x)中的值高于第j阈值的像素在二值化图像B中被指派有值1,图像T(x)中的值低于该阈值的像素在二值化图像B中被指派有值0。现在,全局阈值模块12基于二值化图像B来计算一个或更多个椭圆参数(步骤154),然后构建具有计算出的椭圆参数的值的椭圆(步骤156)。例如,全局阈值模块136可计算二值化图像B的两个特征值,并构建第一半轴长度和第二半轴长度分别等于第一特征值和第二特征值的椭圆。
现在将构建的椭圆输入给决策模块136。决策模块136将构建的椭圆与正被跟踪的对象的图像进行比较,并在步骤158中确定构建的椭圆是否与对象的图像相似。如果是,则在步骤160中确定在图像I(x)n中检测到对象并且检测到视频流中的对象的运动。然后处理终止。
如果在步骤158中确定构建的椭圆的形状不与对象的形状相似,则在步骤162中,索引j的值增加1,然后在步骤164中确定j是否超过最大值jmax。如果j超过jmax,则在步骤166中断定在图像In中未检测到对象并且在视频流中未检测到对象的运动。
如果在步骤166中确定j没有超过jmax,则处理返回到步骤151,在该步骤确定第j阈值。所述阈值被选择为使得随着索引j增加,阈值的值减小。
例如,可利用以下处理从I(x)n和I(x)n'计算变换的图像T(x)。
在一个实施方式中,T(x)=I(x)n'。
在另一实施方式中,首先构建图像Ic(x),其中Ic如下计算:构建图像I(x)n的加权直方图,其中为图像I(x)n中的各个像素x指派等于I(x)n'的权重。然后,通过利用来自加权直方图的像素值的概率取代图像I(x)n中的各个像素值来构建Ic(x)。然后,T(x)是Ic(x)I(x)n'的函数,例如,Ic(x)与I(x)n'之和或乘积。
在另一实施方式中,计算图像Isp(x),其中Isp(x)中的各个像素的值是像素x处发生运动的概率。在此实施方式中,T(x)是Ic(x)、Isp(x)和I(x)n'中的任两个或更多个的函数。例如,T(x)可以是Ic(x)、Isp(x)和I(x)n'的乘积。
当在图像序列中检测到预定义的对象时,该图像序列可经受处理。
图18示出视频序列中的图像序列I1、I2、...Ik、Ik+1、In。各个图像Ι1至In经受了对象检测算法,该算法分析各个图像中是否存在预定义的对象列表当中的一个或更多个对象。预定义的对象列表包括列表上的各个对象的标准图像。在图18中,图像中的圆圈200表示对象识别算法标识出预定义的对象列表当中的对象的位置。一些标识出的对象200可能实际上是预定义的对象列表当中的对象。然而,一些标识出的对象可能被对象检测算法错误地标识为来自预定义的对象列表。
使用对象验证来验证被对象识别算法标识为预定义的对象列表当中的对象的图像的对象200。根据本发明,生成标识出的对象O1、O2、...Ok、Ok+1、...On的两个或更多个序列S,其中序列S中的对象Ok是在图像Ik中标识出的对象2。这种序列的示例将是图1中的对象序列200a、200c、...200f、200g、...200j。对于各个序列中的各对连续对象Ok、Ok+1,利用第一度量d1计算对象Ok与Ok+1之间的距离d1(Ok,Ok+1)。另外,对于序列中的各个对象Ok,利用第二度量d2计算对象Ok与被标识为Ok的对象的标准图像O(参见图1)之间的距离d2(Ok,O)。
第一度量d1和第二度量d2可以是相同的度量或者可以是不同的度量。例如,第一度量和第二度量中的一者或二者可以是欧几里得度量或马哈拉诺比斯度量。
然后,计算各个序列S的长度L,序列的长度L(S)由下式给出
在一个实施方式中,长度小于预定义长度的序列被标识为由真对象构成,因此这些序列中的对象被验证。长度大于预定义阈值的序列被标识为是包含被对象识别算法错误地标识为预定义对象的一个或更多个对象的序列。
在另一实施方式中,总序列数当中的预定义部分的最短序列被验证。例如,最少10%的序列可被验证。
在一个实施方式中,手势识别***还被配置为执行预定义的人的脸部图像检测,以在图像中定位用户的脸部,然后在图像中定位用户的其它身体部位,例如用户的手。
图19示出可由手势识别模块执行的在图像中检测身体部位(例如,手)的处理172。在步骤174中,检测图像中的脸部。例如,这可利用维奥拉-琼斯(VJ)方法来进行,例如,如Viola,P等人在“Robust Real-time Object Detection”(第二届视觉建模、学***行并且具有最小尺寸的脸部矩形来指定脸部(步骤76)。然后,构建搜寻待检测的身体部位的图像中的关注区域(ROI)(步骤178)。例如,ROI可以是通过脸部矩形的预定义变换而确定中心和尺寸的矩形。例如,脸部矩形的中心可相对于脸部矩形的中心偏移预定义的矢量。例如,ROI的高度和宽度可分别被计算为脸部矩形的高度乘以第一因子以及脸部矩形的宽度乘以第二因子。
现在,在步骤180中,构建脸部矩形中的像素的属性V的直方图f(v),其中f(v)是脸部矩形中的属性V的值为v的像素的频率。然后,在步骤182中,构建ROI中的像素的属性V的直方图g(v)。在步骤184中,针对ROI中的各个像素x,计算像素x属于待检测的身体部位的概率P(x),其中,概率P(x)的计算涉及像素x处的属性V的值v(x)以及直方图f(v)和g(v)。例如,P(x)可与f(v(x))/g(v(x))成比例。
现在处理进行至步骤186,在该步骤使用概率P(x)来在ROI中定位手。例如,这可通过将概率P(x)高于预定义的阈值的那些像素x标识为属于手来完成。
然后,处理终止。
Claims (24)
1.一种车辆,该车辆包括:
至少一个处理器;
两个或更多个接口模式,其中,所述接口模式中的至少一个接口模式与态势感知信息关联;以及
存储器,该存储器存储指令,其中,所述至少一个处理器被配置成执行所存储的指令以进行包括以下各项的操作:
从与所述车辆关联的一个或更多个图像传感器接收数据;
启动处理来自所述一个或更多个图像传感器的所述数据;
在经处理的数据中检测身体部位的姿态、身体部位的形状、身体部位的位置或身体部位的取向;
基于所述检测和与用户行为关联的态势感知信息将所述车辆的接口模式从第一模式改变为第二模式;以及
生成与向所述第二模式的所述改变关联的消息。
2.根据权利要求1所述的车辆,其中,
所述至少一个处理器还被配置为检测组合姿态,其中,该组合姿态包括间隔内的一个或更多个实例上所述身体部位的姿态;以及
所述至少一个处理器基于检测出所述组合姿态来改变所述车辆的所述接口模式。
3.根据权利要求1所述的车辆,其中,
所述至少一个处理器还被配置为获得涉及所述身体部位的所述姿态的信息和涉及所述车辆的运动的信息;以及
至少部分基于涉及所述身体部位的所述姿态的所述信息和涉及所述车辆的所述运动的所述信息,将所述车辆的所述接口模式从所述第一模式改变为所述第二模式。
4.根据权利要求1所述的车辆,其中,所述至少一个处理器还被配置为:
获得涉及所述身体部位的所述姿态的信息和涉及一个或更多个触发的信息;以及
至少部分基于涉及所述身体部位的所述姿态的所述信息和涉及一个或更多个触发的所述信息,将所述车辆的所述接口模式从所述第一模式改变为所述第二模式。
5.根据权利要求1所述的车辆,其中,基于所述身体部位的所述形状、所述身体部位的位置和所述身体部位的取向中的两项或更多项来检测所述身体部位的所述姿态。
6.根据权利要求1所述的车辆,其中,至少一个身体部位从脸部、一只或两只眼睛、手、手的一部分或手的姿势来选择。
7.根据权利要求1所述的车辆,其中,在所述检测之后,所述第二模式保持有效达预定时间段。
8.根据权利要求1所述的车辆,其中,在所述第一模式下接收到的信息的量大于在所述第二模式下接收到的信息的量。
9.根据权利要求8所述的车辆,其中,所述信息的量与所接收到的图像数据的帧速率或图像分辨率关联。
10.根据权利要求1所述的车辆,其中,所述处理器还被配置为:
接收所述身体部位的在预定时间段上的一系列深度图;以及
基于所接收到的一系列深度图,检测至少一个身体部位的运动的方向或速度。
11.根据权利要求1所述的车辆,其中,所生成的消息被寻址到所述车辆、所述车辆的操作***、或所述车辆的处理器上运行的一个或更多个应用。
12.根据权利要求1所述的车辆,其中,所述处理器还被配置为:
检测第一身体部位和第二身体部位;
比较所述第一身体部位和所述第二身体部位之间的相对大小或空间关系;以及
基于所述第一身体部位和所述第二身体部位的比较结果,改变所述车辆的所述接口模式。
13.一种控制包括两个或更多个接口模式的车辆的由计算机实现的方法,该方法由至少一个处理器执行并且包括以下步骤:
从与所述车辆关联的一个或更多个图像传感器接收数据;
启动处理来自所述一个或更多个图像传感器的所述数据;
在经处理的数据中检测身体部位的姿态、身体部位的形状、身体部位的位置或身体部位的取向;
至少基于所述检测和与用户行为关联的态势感知信息将所述车辆的接口模式从第一模式改变为第二模式,其中,至少一个接口模式与态势感知信息关联;以及
生成与向所述第二模式的所述改变关联的消息。
14.根据权利要求13所述的由计算机实现的方法,其中,所述处理器还被配置为:
获得涉及所述身体部位的所述姿态的信息和涉及所述车辆的运动的信息;以及
至少部分基于涉及所述身体部位的所述姿态的所述信息和涉及所述车辆的所述运动的所述信息,将所述车辆的所述接口模式从所述第一模式改变为所述第二模式。
15.根据权利要求13所述的由计算机实现的方法,其中,所述处理器还被配置为:
获得涉及所述身体部位的所述姿态的信息和涉及一个或更多个触发的信息;以及
至少部分基于涉及所述身体部位的所述姿态的所述信息和涉及一个或更多个触发的所述信息,将所述车辆的所述接口模式从所述第一模式改变为所述第二模式。
16.根据权利要求13所述的由计算机实现的方法,其中,所述处理器还被配置为检测组合姿态,其中,该组合姿态包括间隔内的一个或更多个实例上至少一个身体部位的姿态。
17.根据权利要求16所述的由计算机实现的方法,其中,所述处理器还被配置为基于检测出所述组合姿态来改变所述车辆的所述接口模式。
18.根据权利要求13所述的由计算机实现的方法,其中,至少一个身体部位从脸部、一只或两只眼睛、手、手的一部分或手的姿势来选择。
19.根据权利要求13所述的由计算机实现的方法,其中,在对所述姿态的检测之后,所述第二模式保持有效达与用户行为模式对应的预定时间段。
20.根据权利要求13所述的由计算机实现的方法,其中,在所述第一模式下接收到的信息的量大于在所述第二模式下接收到的信息的量。
21.根据权利要求20所述的由计算机实现的方法,其中,所述图像传感器的帧速率在所述第一模式下小于8帧每秒。
22.根据权利要求13所述的由计算机实现的方法,其中,所述处理器还被配置为:
捕捉至少一个身体部位的在预定时间段上的一系列深度图;以及
检测所述至少一个身体部位的运动的方向或速度。
23.根据权利要求13所述的由计算机实现的方法,其中,所生成的消息被寻址到所述车辆、所述车辆的操作***、或所述车辆的处理器上运行的一个或更多个应用。
24.根据权利要求13所述的由计算机实现的方法,其中,所述处理器还被配置为:
检测第一身体部位和第二身体部位;
比较所述第一身体部位和所述第二身体部位之间的相对大小或空间关系;以及
基于所述第一身体部位和所述第二身体部位的比较结果,调整所述车辆的所述接口模式。
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161522285P | 2011-08-11 | 2011-08-11 | |
US201161522283P | 2011-08-11 | 2011-08-11 | |
US201161522288P | 2011-08-11 | 2011-08-11 | |
US61/522,285 | 2011-08-11 | ||
US61/522,288 | 2011-08-11 | ||
US61/522,283 | 2011-08-11 | ||
US201161536701P | 2011-09-20 | 2011-09-20 | |
US61/536,701 | 2011-09-20 | ||
US201161537818P | 2011-09-22 | 2011-09-22 | |
US61/537,818 | 2011-09-22 | ||
US201161539729P | 2011-09-27 | 2011-09-27 | |
US61/539,729 | 2011-09-27 | ||
CN201280050071.1A CN103890695B (zh) | 2011-08-11 | 2012-08-08 | 基于手势的接口***和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280050071.1A Division CN103890695B (zh) | 2011-08-11 | 2012-08-08 | 基于手势的接口***和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107643828A CN107643828A (zh) | 2018-01-30 |
CN107643828B true CN107643828B (zh) | 2021-05-25 |
Family
ID=47172850
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280050071.1A Active CN103890695B (zh) | 2011-08-11 | 2012-08-08 | 基于手势的接口***和方法 |
CN201710873215.8A Active CN107643828B (zh) | 2011-08-11 | 2012-08-08 | 车辆、控制车辆的方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280050071.1A Active CN103890695B (zh) | 2011-08-11 | 2012-08-08 | 基于手势的接口***和方法 |
Country Status (3)
Country | Link |
---|---|
US (4) | US9377867B2 (zh) |
CN (2) | CN103890695B (zh) |
WO (1) | WO2013021385A2 (zh) |
Families Citing this family (172)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8788977B2 (en) | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
GB2490108B (en) * | 2011-04-13 | 2018-01-17 | Nokia Technologies Oy | A method, apparatus and computer program for user control of a state of an apparatus |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
US9202297B1 (en) * | 2011-07-12 | 2015-12-01 | Domo, Inc. | Dynamic expansion of data visualizations |
US9792017B1 (en) | 2011-07-12 | 2017-10-17 | Domo, Inc. | Automatic creation of drill paths |
US8869073B2 (en) * | 2011-07-28 | 2014-10-21 | Hewlett-Packard Development Company, L.P. | Hand pose interaction |
CN102238287B (zh) * | 2011-08-05 | 2014-04-09 | 宇龙计算机通信科技(深圳)有限公司 | 移动终端和根据环境数据进行显示的方法 |
CN103890695B (zh) * | 2011-08-11 | 2017-10-13 | 视力移动技术有限公司 | 基于手势的接口***和方法 |
US9805094B2 (en) * | 2011-11-04 | 2017-10-31 | Ipc Systems, Inc. | User interface displaying filtered information |
US9367146B2 (en) * | 2011-11-14 | 2016-06-14 | Logiteh Europe S.A. | Input device with multiple touch-sensitive zones |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US8548778B1 (en) * | 2012-05-14 | 2013-10-01 | Heartflow, Inc. | Method and system for providing information from a patient-specific model of blood flow |
US20140082520A1 (en) * | 2012-05-24 | 2014-03-20 | Monir Mamoun | Method and System for Gesture- and Animation-Enhanced Instant Messaging |
US9798457B2 (en) * | 2012-06-01 | 2017-10-24 | Microsoft Technology Licensing, Llc | Synchronization of media interactions using context |
US20130335587A1 (en) * | 2012-06-14 | 2013-12-19 | Sony Mobile Communications, Inc. | Terminal device and image capturing method |
US8934675B2 (en) | 2012-06-25 | 2015-01-13 | Aquifi, Inc. | Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
WO2014009561A2 (en) | 2012-07-13 | 2014-01-16 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
KR101978967B1 (ko) * | 2012-08-01 | 2019-05-17 | 삼성전자주식회사 | 제스처의 방향에 기초하여 상기 제스처를 인식하는 제스처 인식 장치와 제스처 인식 방법 |
TWI515636B (zh) * | 2012-08-24 | 2016-01-01 | 緯創資通股份有限公司 | 可攜式電子裝置及其自動解鎖方法 |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
JP5964190B2 (ja) * | 2012-09-27 | 2016-08-03 | 京セラ株式会社 | 端末装置 |
US9671874B2 (en) * | 2012-11-08 | 2017-06-06 | Cuesta Technology Holdings, Llc | Systems and methods for extensions to alternative control of touch-based devices |
US9021020B1 (en) * | 2012-12-06 | 2015-04-28 | Amazon Technologies, Inc. | Application recognition based on media analysis |
TW201423484A (zh) | 2012-12-14 | 2014-06-16 | Pixart Imaging Inc | 動態偵測系統 |
US11287897B2 (en) * | 2012-12-14 | 2022-03-29 | Pixart Imaging Inc. | Motion detecting system having multiple sensors |
US20140204013A1 (en) * | 2013-01-18 | 2014-07-24 | Microsoft Corporation | Part and state detection for gesture recognition |
US9759420B1 (en) | 2013-01-25 | 2017-09-12 | Steelcase Inc. | Curved display and curved display support |
US11327626B1 (en) | 2013-01-25 | 2022-05-10 | Steelcase Inc. | Emissive surfaces and workspaces method and apparatus |
US9261262B1 (en) | 2013-01-25 | 2016-02-16 | Steelcase Inc. | Emissive shapes and control systems |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
JP6179412B2 (ja) * | 2013-01-31 | 2017-08-16 | 株式会社Jvcケンウッド | 入力表示装置 |
US9035874B1 (en) | 2013-03-08 | 2015-05-19 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
CN105229582B (zh) * | 2013-03-14 | 2020-04-28 | 视力移动科技公司 | 基于近距离传感器和图像传感器的手势检测 |
US20140282272A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Interactive Inputs for a Background Task |
CA2907143A1 (en) * | 2013-03-15 | 2014-09-18 | Springs Window Fashions, Llc | Window covering motorized lift and control operating system |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
CN103197889B (zh) * | 2013-04-03 | 2017-02-08 | 锤子科技(北京)有限公司 | 一种亮度调整方法、装置及一种电子设备 |
CN105144768B (zh) | 2013-04-26 | 2019-05-21 | 英特尔Ip公司 | 频谱共享情境中的共享频谱重新分配 |
TWI547626B (zh) | 2013-05-31 | 2016-09-01 | 原相科技股份有限公司 | 具有手勢感測器的裝置 |
CN109240506A (zh) * | 2013-06-13 | 2019-01-18 | 原相科技股份有限公司 | 具有手势感测器的装置 |
US20140380251A1 (en) * | 2013-06-19 | 2014-12-25 | Motorola Mobility Llc | Method and device for augmented handling of multiple calls with gestures |
US8988345B2 (en) * | 2013-06-25 | 2015-03-24 | Microsoft Technology Licensing, Llc | Adaptive event recognition |
WO2015008164A2 (en) | 2013-06-27 | 2015-01-22 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
US9489051B2 (en) | 2013-07-01 | 2016-11-08 | Blackberry Limited | Display navigation using touch-less gestures |
US9342671B2 (en) | 2013-07-01 | 2016-05-17 | Blackberry Limited | Password by touch-less gesture |
US9367137B2 (en) * | 2013-07-01 | 2016-06-14 | Blackberry Limited | Alarm operation by touch-less gesture |
US9256290B2 (en) | 2013-07-01 | 2016-02-09 | Blackberry Limited | Gesture detection using ambient light sensors |
US9423913B2 (en) | 2013-07-01 | 2016-08-23 | Blackberry Limited | Performance control of ambient light sensors |
US9398221B2 (en) | 2013-07-01 | 2016-07-19 | Blackberry Limited | Camera control using ambient light sensors |
US9323336B2 (en) | 2013-07-01 | 2016-04-26 | Blackberry Limited | Gesture detection using ambient light sensors |
US9280276B2 (en) * | 2013-07-09 | 2016-03-08 | Htc Corporation | Method for controlling electronic device with touch screen and electronic device thereof |
US9405461B2 (en) | 2013-07-09 | 2016-08-02 | Blackberry Limited | Operating a device using touchless and touchscreen gestures |
US9465448B2 (en) | 2013-07-24 | 2016-10-11 | Blackberry Limited | Backlight for touchless gesture detection |
US9304596B2 (en) | 2013-07-24 | 2016-04-05 | Blackberry Limited | Backlight for touchless gesture detection |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
US9832452B1 (en) | 2013-08-12 | 2017-11-28 | Amazon Technologies, Inc. | Robust user detection and tracking |
US11199906B1 (en) * | 2013-09-04 | 2021-12-14 | Amazon Technologies, Inc. | Global user input management |
US9194741B2 (en) | 2013-09-06 | 2015-11-24 | Blackberry Limited | Device having light intensity measurement in presence of shadows |
JP5989251B2 (ja) * | 2013-09-12 | 2016-09-07 | 三菱電機株式会社 | 操作入力装置及び方法、並びにプログラム及び記録媒体 |
US20160239002A1 (en) * | 2013-09-25 | 2016-08-18 | Schneider Electric Buildings Llc | Method and device for adjusting a set point |
US9176668B2 (en) | 2013-10-24 | 2015-11-03 | Fleksy, Inc. | User interface for text input and virtual keyboard manipulation |
KR102173123B1 (ko) | 2013-11-22 | 2020-11-02 | 삼성전자주식회사 | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 |
US9622322B2 (en) | 2013-12-23 | 2017-04-11 | Sharp Laboratories Of America, Inc. | Task light based system and gesture control |
EP2891950B1 (en) * | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US20150199022A1 (en) * | 2014-01-13 | 2015-07-16 | Fisoc, Inc. | Gesture recognition for drilling down into metadata in augmented reality devices |
TWI554852B (zh) * | 2014-01-22 | 2016-10-21 | 巨擘科技股份有限公司 | 腕錶的調時方法和系統 |
DE102014201578A1 (de) | 2014-01-29 | 2015-07-30 | Volkswagen Ag | Vorrichtung und Verfahren zur Signalisierung eines Eingabebereiches zur Gestenerkennung einer Mensch-Maschine-Schnittstelle |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
EP2916209B1 (en) * | 2014-03-03 | 2019-11-20 | Nokia Technologies Oy | Input axis between an apparatus and a separate apparatus |
US10394330B2 (en) * | 2014-03-10 | 2019-08-27 | Qualcomm Incorporated | Devices and methods for facilitating wireless communications based on implicit user cues |
KR20150110032A (ko) * | 2014-03-24 | 2015-10-02 | 삼성전자주식회사 | 영상데이터 처리 전자장치 및 방법 |
US9607139B1 (en) * | 2014-03-27 | 2017-03-28 | EMC IP Holding Company LLC | Map-based authentication |
USD738882S1 (en) * | 2014-03-31 | 2015-09-15 | Essex Electronics, Inc. | Touchless microwave switch |
US9224027B2 (en) | 2014-04-01 | 2015-12-29 | Hand Held Products, Inc. | Hand-mounted indicia-reading device with finger motion triggering |
US9185062B1 (en) * | 2014-05-31 | 2015-11-10 | Apple Inc. | Message user interfaces for capture and transmittal of media and location content |
US10146318B2 (en) * | 2014-06-13 | 2018-12-04 | Thomas Malzbender | Techniques for using gesture recognition to effectuate character selection |
CN104065883B (zh) * | 2014-06-24 | 2016-02-24 | 小米科技有限责任公司 | 拍摄方法及装置 |
US9582482B1 (en) | 2014-07-11 | 2017-02-28 | Google Inc. | Providing an annotation linking related entities in onscreen content |
US9965559B2 (en) | 2014-08-21 | 2018-05-08 | Google Llc | Providing automatic actions for mobile onscreen content |
DE202015005999U1 (de) | 2014-08-26 | 2015-11-26 | Apple Inc. | Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen |
US9633497B2 (en) * | 2014-09-05 | 2017-04-25 | Shenzhen Mindray Bio-Medical Electronics Co., Ltd. | Systems and methods for medical monitoring device gesture control lockout |
US10015402B2 (en) | 2014-09-08 | 2018-07-03 | Nintendo Co., Ltd. | Electronic apparatus |
JP6684042B2 (ja) * | 2014-09-08 | 2020-04-22 | 任天堂株式会社 | 電子機器 |
US20160077578A1 (en) * | 2014-09-12 | 2016-03-17 | Mediatek Inc. | Method for controlling an electronic device with aid of thermal detection, and associated apparatus and associated computer program product |
CN105487648A (zh) * | 2014-09-16 | 2016-04-13 | 深圳富泰宏精密工业有限公司 | 增加镜头功能的软件控制***及方法 |
KR101628482B1 (ko) * | 2014-09-18 | 2016-06-21 | 현대자동차주식회사 | 무선신호 분석을 통한 동작 인식 시스템 및 그 방법 |
KR101636460B1 (ko) * | 2014-11-05 | 2016-07-05 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
DE102014017585B4 (de) * | 2014-11-27 | 2017-08-24 | Pyreos Ltd. | Schalterbetätigungseinrichtung, mobiles Gerät und Verfahren zum Betätigen eines Schalters durch eine nicht-taktile Geste |
US10500600B2 (en) * | 2014-12-09 | 2019-12-10 | Rai Strategic Holdings, Inc. | Gesture recognition user interface for an aerosol delivery device |
US9575566B2 (en) * | 2014-12-15 | 2017-02-21 | Intel Corporation | Technologies for robust two-dimensional gesture recognition |
DE102014226553A1 (de) * | 2014-12-19 | 2016-06-23 | Robert Bosch Gmbh | Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug |
CN104615005B (zh) * | 2015-01-04 | 2017-03-08 | 苏州触达信息技术有限公司 | 交互式多媒体设备群的内部管理控制方法 |
CN104503699B (zh) * | 2015-01-08 | 2017-12-05 | 中国计量学院 | 一种非接触式空间手势智能锁***及其操作方法 |
US9788277B2 (en) * | 2015-01-15 | 2017-10-10 | Mediatek Inc. | Power saving mechanism for in-pocket detection |
KR102040287B1 (ko) * | 2015-01-29 | 2019-11-27 | 삼성전자주식회사 | 음향 출력 장치 및 그 제어 방법 |
US10156908B2 (en) * | 2015-04-15 | 2018-12-18 | Sony Interactive Entertainment Inc. | Pinch and hold gesture navigation on a head-mounted display |
KR102344045B1 (ko) * | 2015-04-21 | 2021-12-28 | 삼성전자주식회사 | 화면을 표시하는 전자 장치 및 그 제어 방법 |
CN107896508A (zh) * | 2015-04-25 | 2018-04-10 | 肖泉 | 可以作为多个目标/端点(设备)和的整合点的以人为中心的“设备的超ui”体系结构的方法和设备,以及面向“模块化”通用控制器平台以及输入设备虚拟化的具有动态上下文意识的手势输入的相关方法/*** |
US20160321810A1 (en) * | 2015-04-28 | 2016-11-03 | Pixart Imaging (Penang) Sdn. Bhd. | Optical navigation sensor, electronic device with optical navigation function and operation method thereof |
US9703541B2 (en) | 2015-04-28 | 2017-07-11 | Google Inc. | Entity action suggestion on a mobile device |
CN104835229B (zh) * | 2015-05-25 | 2018-02-27 | 安恒世通(北京)网络科技有限公司 | 一种手势控制锁具的方法 |
CN108369630A (zh) * | 2015-05-28 | 2018-08-03 | 视觉移动科技有限公司 | 用于智能家居的手势控制***和方法 |
EP3304948B1 (en) | 2015-05-28 | 2019-02-27 | Motorola Solutions, Inc. | Virtual push-to-talk button |
US10503264B1 (en) * | 2015-06-16 | 2019-12-10 | Snap Inc. | Radial gesture navigation |
CN105302434B (zh) | 2015-06-16 | 2019-03-26 | 深圳市腾讯计算机***有限公司 | 游戏场景中锁定目标的方法和装置 |
CN104992679B (zh) * | 2015-06-25 | 2019-07-02 | 惠州Tcl移动通信有限公司 | 一种移动终端及其实现关闭背光的方法 |
WO2017020214A1 (zh) * | 2015-08-02 | 2017-02-09 | ***生 | 根据手势匹配家用电器遥控器的方法以及遥控器 |
US9946355B2 (en) * | 2015-09-01 | 2018-04-17 | Samsung Electronics Co., Ltd. | System and method for operating a mobile device using motion gestures |
CN106491071A (zh) * | 2015-09-06 | 2017-03-15 | 中兴通讯股份有限公司 | 一种检测视力的方法和终端 |
US10970646B2 (en) | 2015-10-01 | 2021-04-06 | Google Llc | Action suggestions for user-selected content |
CN105183173B (zh) * | 2015-10-12 | 2018-08-28 | 重庆中电大宇卫星应用技术研究所 | 一种将战术和摩尔斯码手势输入并转换为语音的装置 |
JP2017076208A (ja) * | 2015-10-14 | 2017-04-20 | オムロンオートモーティブエレクトロニクス株式会社 | 携帯型電子機器 |
CN105245712B (zh) * | 2015-10-15 | 2019-02-19 | Oppo广东移动通信有限公司 | 一种移动终端的来电处理方法、装置以及移动终端 |
CN105335635B (zh) * | 2015-10-15 | 2018-03-16 | 广东欧珀移动通信有限公司 | 一种解锁方法和装置 |
CN105302301B (zh) * | 2015-10-15 | 2018-02-13 | 广东欧珀移动通信有限公司 | 一种移动终端的唤醒方法、装置及移动终端 |
US10178527B2 (en) | 2015-10-22 | 2019-01-08 | Google Llc | Personalized entity repository |
US10055390B2 (en) | 2015-11-18 | 2018-08-21 | Google Llc | Simulated hyperlinks on a mobile device based on user intent and a centered selection of text |
US10204156B2 (en) * | 2015-11-19 | 2019-02-12 | Microsoft Technology Licensing, Llc | Displaying graphical representations of query suggestions |
CN105511625B (zh) | 2015-12-15 | 2019-02-12 | 小米科技有限责任公司 | 屏幕的唤醒方法及装置 |
US11304716B2 (en) | 2015-12-16 | 2022-04-19 | Covidien Lp | Surgical instruments including touch-sensing actuation |
CN105912974A (zh) * | 2015-12-18 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种手势识别方法及装置 |
US10313657B2 (en) * | 2015-12-25 | 2019-06-04 | Boe Technology Group Co., Ltd. | Depth map generation apparatus, method and non-transitory computer-readable medium therefor |
TW201730813A (zh) * | 2016-02-26 | 2017-09-01 | 國立交通大學 | 具有深度資訊之影像處理方法及其電腦程式產品 |
US10530731B1 (en) | 2016-03-28 | 2020-01-07 | Snap Inc. | Systems and methods for chat with audio and video elements |
CN107850832B (zh) * | 2016-05-06 | 2020-11-10 | 深圳迈瑞生物医疗电子股份有限公司 | 一种医疗检测***及其控制方法 |
GB2565246B (en) * | 2016-05-13 | 2021-06-30 | Numenta Inc | Inferencing and learning based on sensorimotor input data |
US9832368B1 (en) * | 2016-05-31 | 2017-11-28 | Motorola Mobility Llc | Managing unintended camera clicks |
US10209832B2 (en) | 2016-07-25 | 2019-02-19 | Google Llc | Detecting user interactions with a computing system of a vehicle |
DE102016214523A1 (de) * | 2016-08-05 | 2018-02-08 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung zur gestenbasierten Steuerung eines Systems |
EP3499852B1 (en) * | 2016-09-09 | 2021-03-24 | Huawei Technologies Co., Ltd. | Method and device for controlling screen of mobile terminal |
US9940498B2 (en) * | 2016-09-09 | 2018-04-10 | Motorola Mobility Llc | Low power application access using fingerprint sensor authentication |
CN106303075A (zh) * | 2016-09-14 | 2017-01-04 | 惠州Tcl移动通信有限公司 | 一种基于移动终端的关闭闹铃的方法及移动终端 |
CN106254596A (zh) * | 2016-09-29 | 2016-12-21 | 努比亚技术有限公司 | 一种基于接近传感器的捏合识别***及移动终端 |
US10535005B1 (en) | 2016-10-26 | 2020-01-14 | Google Llc | Providing contextual actions for mobile onscreen content |
CN106598218B (zh) * | 2016-11-09 | 2019-07-02 | 广州酷狗计算机科技有限公司 | 一种音频播放的控制方法和装置 |
JP2018082275A (ja) * | 2016-11-15 | 2018-05-24 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
US10264213B1 (en) | 2016-12-15 | 2019-04-16 | Steelcase Inc. | Content amplification system and method |
US11237696B2 (en) | 2016-12-19 | 2022-02-01 | Google Llc | Smart assist for repeated actions |
DE102017200717A1 (de) * | 2016-12-23 | 2018-06-28 | Audi Ag | Berührungslos bedienbare Bedienvorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug und Betriebsverfahren für die Bedienvorrichtung |
CN107330462B (zh) * | 2017-06-30 | 2020-08-14 | 大连理工大学 | 基于时频分析的手势识别方法及其装置 |
US10453451B2 (en) | 2017-07-05 | 2019-10-22 | Comcast Cable Communications, Llc | Methods and systems for using voice to control multiple devices |
US10838505B2 (en) * | 2017-08-25 | 2020-11-17 | Qualcomm Incorporated | System and method for gesture recognition |
WO2019056236A1 (zh) * | 2017-09-21 | 2019-03-28 | 深圳传音通讯有限公司 | 基于手势动作的控制方法、多媒体播放终端、及存储介质 |
CN107870674B (zh) * | 2017-11-30 | 2021-04-13 | 维沃移动通信有限公司 | 一种程序启动方法和移动终端 |
EP3735652A1 (en) * | 2018-01-03 | 2020-11-11 | Sony Semiconductor Solutions Corporation | Gesture recognition using a mobile device |
CN108717324A (zh) * | 2018-04-11 | 2018-10-30 | 努比亚技术有限公司 | 智能可穿戴设备及其控制方法、计算机可读存储介质 |
CN109032345B (zh) * | 2018-07-04 | 2022-11-29 | 百度在线网络技术(北京)有限公司 | 设备控制方法、装置、设备、服务端和存储介质 |
CN108960177B (zh) * | 2018-07-13 | 2020-12-22 | 浪潮金融信息技术有限公司 | 一种将手势进行数字化处理的方法及装置 |
CN109246306B (zh) * | 2018-10-09 | 2021-03-26 | Oppo广东移动通信有限公司 | 来电处理方法、来电处理装置、移动终端及计算机可读存储介质 |
US10942637B2 (en) * | 2018-10-09 | 2021-03-09 | Midea Group Co., Ltd. | Method and system for providing control user interfaces for home appliances |
CN109856952A (zh) * | 2019-01-29 | 2019-06-07 | 上海华章信息科技有限公司 | 基于姿态识别的闹钟应用程序 |
FR3094191B1 (fr) * | 2019-03-29 | 2021-04-09 | Seb Sa | Appareil electromenager |
US11067687B2 (en) | 2019-04-25 | 2021-07-20 | Elwha, Llc | Multipath acoustic holography and virtual haptics |
US11221683B2 (en) * | 2019-05-09 | 2022-01-11 | Dell Products, L.P. | Graphical user interface (GUI) manipulation using hand gestures over a hovering keyboard |
CN110297545B (zh) | 2019-07-01 | 2021-02-05 | 京东方科技集团股份有限公司 | 手势控制方法、手势控制装置和***、以及存储介质 |
US10867492B1 (en) * | 2019-07-25 | 2020-12-15 | Nec Corporation Of America | Systems and methods for discreet imaging of a scene |
US10916107B1 (en) * | 2019-07-29 | 2021-02-09 | Elwha Llc | Time-domain and frequency-domain enhancements for acoustic haptography |
CN112487844A (zh) * | 2019-09-11 | 2021-03-12 | 华为技术有限公司 | 手势识别方法、电子设备、计算机可读存储介质和芯片 |
CN110896495A (zh) * | 2019-11-19 | 2020-03-20 | 北京字节跳动网络技术有限公司 | 用于目标设备的视图调整方法、装置、电子设备和介质 |
US11574200B2 (en) * | 2019-12-18 | 2023-02-07 | W.S.C. Sports Technologies Ltd. | System and method of determining a region of interest in media |
CN111209050A (zh) * | 2020-01-10 | 2020-05-29 | 北京百度网讯科技有限公司 | 用于切换电子设备的工作模式的方法和装置 |
CN111429519B (zh) * | 2020-03-27 | 2021-07-16 | 贝壳找房(北京)科技有限公司 | 三维场景显示方法、装置、可读存储介质及电子设备 |
TWI775128B (zh) * | 2020-08-13 | 2022-08-21 | 蔡明勳 | 手勢控制裝置及其控制方法 |
US11620966B2 (en) * | 2020-08-26 | 2023-04-04 | Htc Corporation | Multimedia system, driving method thereof, and non-transitory computer-readable storage medium |
DE102020129164A1 (de) * | 2020-11-05 | 2022-05-05 | Gestigon Gmbh | Verfahren und vorrichtung zur unterscheidung von verschiedenen konfigurationszuständen eines objekts auf der grundlage einer bildlichen darstellung des objekts |
CN112328076B (zh) * | 2020-11-06 | 2021-10-29 | 北京中科深智科技有限公司 | 一种语音驱动人物手势的方法和*** |
CN112328086A (zh) * | 2020-11-14 | 2021-02-05 | 上海卓腾展览展示有限公司 | 基于视频识别的智能显示方法、***、装置及存储介质 |
CN114639158A (zh) * | 2020-11-30 | 2022-06-17 | 伊姆西Ip控股有限责任公司 | 计算机交互方法、设备和程序产品 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011066343A2 (en) * | 2009-11-24 | 2011-06-03 | Next Holdings Limited | Methods and apparatus for gesture recognition mode control |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6252598B1 (en) * | 1997-07-03 | 2001-06-26 | Lucent Technologies Inc. | Video hand image computer interface |
WO2003071410A2 (en) * | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7659915B2 (en) * | 2004-04-02 | 2010-02-09 | K-Nfb Reading Technology, Inc. | Portable reading device with mode processing |
US20060087510A1 (en) * | 2004-09-01 | 2006-04-27 | Nicoletta Adamo-Villani | Device and method of keyboard input and uses thereof |
US8411034B2 (en) * | 2009-03-12 | 2013-04-02 | Marc Boillot | Sterile networked interface for medical systems |
CN101558367A (zh) * | 2006-12-05 | 2009-10-14 | 索尼爱立信移动通讯有限公司 | 用于检测物体移动的方法和*** |
US20080134102A1 (en) * | 2006-12-05 | 2008-06-05 | Sony Ericsson Mobile Communications Ab | Method and system for detecting movement of an object |
US8054296B2 (en) * | 2007-01-03 | 2011-11-08 | Apple Inc. | Storing baseline information in EEPROM |
EP3139257A1 (en) * | 2007-01-19 | 2017-03-08 | LG Electronics Inc. | Inputting information through touch input device |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
EP2507683A1 (en) * | 2009-12-04 | 2012-10-10 | Next Holdings Limited | Methods and systems for position detection using an interactive volume |
US20110148786A1 (en) * | 2009-12-18 | 2011-06-23 | Synaptics Incorporated | Method and apparatus for changing operating modes |
US9268404B2 (en) * | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US8982063B2 (en) * | 2010-02-25 | 2015-03-17 | Blackberry Limited | Optical naviagation module having a metallic illumination ring |
US8860805B2 (en) * | 2011-04-12 | 2014-10-14 | Lg Electronics Inc. | Electronic device and method of controlling the same |
WO2012160566A1 (en) * | 2011-05-23 | 2012-11-29 | Hewlett-Packard Development Company, L.P. | Multimodal interactions based on body postures |
US9176608B1 (en) * | 2011-06-27 | 2015-11-03 | Amazon Technologies, Inc. | Camera based sensor for motion detection |
US8558759B1 (en) * | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
CN103890695B (zh) * | 2011-08-11 | 2017-10-13 | 视力移动技术有限公司 | 基于手势的接口***和方法 |
US9747306B2 (en) * | 2012-05-25 | 2017-08-29 | Atheer, Inc. | Method and apparatus for identifying input features for later recognition |
-
2012
- 2012-08-08 CN CN201280050071.1A patent/CN103890695B/zh active Active
- 2012-08-08 CN CN201710873215.8A patent/CN107643828B/zh active Active
- 2012-08-08 US US14/237,834 patent/US9377867B2/en active Active
- 2012-08-08 WO PCT/IL2012/050297 patent/WO2013021385A2/en active Application Filing
-
2014
- 2014-02-08 US US14/176,054 patent/US8842919B2/en active Active
-
2016
- 2016-06-27 US US15/194,137 patent/US10126826B2/en active Active
-
2017
- 2017-09-29 US US15/721,713 patent/US20180024643A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011066343A2 (en) * | 2009-11-24 | 2011-06-03 | Next Holdings Limited | Methods and apparatus for gesture recognition mode control |
Also Published As
Publication number | Publication date |
---|---|
CN103890695B (zh) | 2017-10-13 |
US20180024643A1 (en) | 2018-01-25 |
US20140157210A1 (en) | 2014-06-05 |
US8842919B2 (en) | 2014-09-23 |
US20160306435A1 (en) | 2016-10-20 |
US10126826B2 (en) | 2018-11-13 |
CN107643828A (zh) | 2018-01-30 |
WO2013021385A3 (en) | 2013-10-31 |
US9377867B2 (en) | 2016-06-28 |
US20140306877A1 (en) | 2014-10-16 |
CN103890695A (zh) | 2014-06-25 |
WO2013021385A2 (en) | 2013-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107643828B (zh) | 车辆、控制车辆的方法 | |
US11093045B2 (en) | Systems and methods to augment user interaction with the environment outside of a vehicle | |
US8737693B2 (en) | Enhanced detection of gesture | |
CN104956292B (zh) | 多个感知感测输入的交互 | |
KR101761050B1 (ko) | 인간-컴퓨터 자연스러운 3차원 손 제스처 기반 내비게이션 방법 | |
JP6360050B2 (ja) | 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム | |
Lian et al. | Automatic user state recognition for hand gesture based low-cost television control system | |
Baldauf et al. | Markerless visual fingertip detection for natural mobile device interaction | |
CN106778141B (zh) | 基于手势识别的解锁方法、装置及移动终端 | |
US20140157209A1 (en) | System and method for detecting gestures | |
US20080042981A1 (en) | System and Method for Inputing User Commands to a Processor | |
US20160357301A1 (en) | Method and system for performing an action based on number of hover events | |
CN109753154B (zh) | 有屏设备的手势控制方法和装置 | |
US20230393649A1 (en) | Method and device for inputting information | |
CN109725722B (zh) | 有屏设备的手势控制方法和装置 | |
Yeh et al. | Virtual piano design via single-view video based on multifinger actions recognition | |
NL2031789B1 (en) | Aggregated likelihood of unintentional touch input | |
US20240094825A1 (en) | Gesture recognition with hand-object interaction | |
Baldauf et al. | Towards Markerless Visual Finger Detection for Gestural Interaction with Mobile Devices | |
Purkayastha | Integrating gesture recognition and speech recognition in a touch-less human computer interaction system | |
Padliya | Gesture Recognition and Recommendations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |