CN106162277A - 一种识别操作对象的方法和装置、智能终端 - Google Patents

一种识别操作对象的方法和装置、智能终端 Download PDF

Info

Publication number
CN106162277A
CN106162277A CN201510149384.8A CN201510149384A CN106162277A CN 106162277 A CN106162277 A CN 106162277A CN 201510149384 A CN201510149384 A CN 201510149384A CN 106162277 A CN106162277 A CN 106162277A
Authority
CN
China
Prior art keywords
point
sampled point
positional information
action events
rectification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510149384.8A
Other languages
English (en)
Inventor
胡雪莲
周路璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leshi Zhixin Electronic Technology Tianjin Co Ltd
Original Assignee
Leshi Zhixin Electronic Technology Tianjin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leshi Zhixin Electronic Technology Tianjin Co Ltd filed Critical Leshi Zhixin Electronic Technology Tianjin Co Ltd
Priority to CN201510149384.8A priority Critical patent/CN106162277A/zh
Priority to US15/084,913 priority patent/US20160292496A1/en
Priority to EP16163256.7A priority patent/EP3076271A1/en
Publication of CN106162277A publication Critical patent/CN106162277A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种识别操作事件的方法和装置、智能终端,其中,所述方法包括:获取目标对象在空间中运动的起始采样点和结束采样点的位置信息,根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息;根据所述起始采样点的位置信息与结束采样点的矫正位置信息,识别所述目标对象的操作事件。本发明通过上述手段,将目标对象在空间中运动的结束采样点调整到与起始采样点与体感摄像头形成的同一夹角平面上,使目标对象无论位于摄像头前任何角度的位置上,其移动前后的各分量都会具有相同的比例,进而实现准确操控。

Description

一种识别操作对象的方法和装置、智能终端
技术领域
本发明涉及体感操控技术领域,特别地,涉及一种身体动作识别方法和装置,以及,一种包括有上述身体动作识别装置的智能电视。
背景技术
体感操控是一种可以直接使用肢体动作与周边的装置或环境互动的技术,用户无需对任何控制设备实施操作,便可身历其境地与内容做互动。例如,当你站在一台电视前方,假使有体感设备可以侦测你手部的动作,便可通过手掌向上、向下、向左及向右的挥动动作控制电视节目的快转、倒转、暂停以及终止等功能;如果将上述动作直接对应于游戏角色的反应,便可让用户得到身临其境的游戏体验。
现有的体感操控一般采用激光反射的方式获得摄像头前方的深度图像,从中识别用户的手掌,再读取手掌在图像中移动多少像素来判定手势。现有技术方案的缺点在于:当用户没有位于摄像头正前方时(即用户所在的位置与摄像头形成的垂直平面与电视平面的夹角为锐角),对于手掌垂直于摄像头(或电视平面)的移动,会被误识别出平行于摄像头(或电视平面)的移动分量,从而出现不能准确识别操作事件、造成误操作的问题。
发明内容
本发明提供一种识别操作事件的方法,用于解决现有体感操控设备不能准确判断身体运动情况的问题。
本发明还提供了一种识别操作事件的装置以及一种智能终端,以保证上述方法在实际中的应用。
为了解决上述问题,本发明公开了一种识别操作事件的方法,包括:获取目标对象在空间中运动的起始采样点和结束采样点的位置信息,根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息;根据所述起始采样点的位置信息与结束采样点的矫正位置信息,识别所述目标对象的操作事件。
优选的,所述位置信息为所述目标对象在坐标系中的点坐标信息。
优选的,所述根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息为:以坐标中心为球心、以结束采样点与坐标中心的距离为半径创建一球面;所述球面和所述初始采样点与坐标中心的连线的交点作为所述结束采样点在所述初始采样点与坐标中心的连线上的投影点;根据所述起始采样点位置信息、结束采样点的位置信息及球面坐标,获取所述结束采样点的矫正位置信息。
优选的,还包括:根据目标对象的起始采样点位置信息、结束采样点的矫正位置信息计算起始采样点与矫正位置之间的向量,根据所述向量识别所述目标对象的操作事件。
优选的,还包括:将当前的结束采样点作为新的起始采样点,将再次移动后的结束位置作为新的结束采样点,重复执行上述结束采样点获取及其矫正位置确定过程。
依据本发明的另一优选实施例,还公开了一种识别操作事件的装置,包括:位置信息获取单元,用于获取目标对象在空间中运动的起始采样点和结束采样点的位置信息;矫正位置确定单元,用于根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息;操作事件识别单元,用于根据所述起始采样点的位置信息与结束采样点的矫正位置信息,识别所述目标对象的操作事件。
优选的,所述位置信息为所述目标对象在坐标系中的点坐标值。
优选的,所述矫正位置确定单元采用以下方式确定所述结束采样点的矫正位置信息:以坐标中心为球心、以结束采样点与坐标中心的距离为半径创建一球面;所述球面和所述初始采样点与坐标中心的连线的交点作为所述结束采样点在所述初始采样点与坐标中心的连线上的投影点;根据所述起始采样点位置信息、结束采样点的位置信息及球面坐标,获取所述结束采样点的矫正位置信息。
优选的,还包括:计算单元,用于根据目标对象的起始采样点位置信息、结束采样点的矫正位置信息计算起始采样点与矫正位置之间的向量,根据所述向量识别所述目标对象的操作事件;和/或,循环调度单元,用于将当前的结束采样点作为新的起始采样点,将再次移动后的结束位置作为新的结束采样点,调度所述位置获取单元、矫正位置确定单元和操作事件识别单元重复执行结束采样点获取、矫正位置确定、操作事件识别的过程。
另外,本发明还公开了一种智能终端,包括上述识别操作事件的装置以及设置在智能终端上的监视器。
与现有技术相比,本发明具有以下优点:
本发明优选实施例将目标对象的结束采样点在初始采样点与坐标中心的连线上的投影点作为所述结束采样点的矫正位置,使得结束采样点的矫正位置与初始位置在同一夹角平面上,因此,无论目标对象位于坐标中心(在本申请优选实施例中可以是体感摄像头)前任何角度的位置上,目标对象移动前后的各分量都会具有相同的比例,能够基于调整后的矫正位置实现准确操控,解决了现有技术当目标对象位于体感摄像头侧前方时对于目标对象垂直于体感摄像头的移动、会被误识别出平行于体感摄像头的移动分量的问题。
附图说明
图1为本发明一种识别操作事件的方法第一实施例的流程图;
图2为本发明一种识别操作事件的方法第二实施例的流程图;
图3为本发明一种识别操作事件的装置一实施例的结构示意图;
图4为图1所示的方法实施例中起始采样点A和结束采样点B在球面坐标系下的位置关系示意图;
图5为图1所示的方法实施例中起始采样点A和结束采样点B在三维坐标系下的位置关系示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明提供一种识别操作事件的方法,应用于智能终端,如智能电视等。该智能终端连接一监视器,用于获取识别对象的采样点位置信息,该监视器可以为现有技术中任何能在三维空间识别出三维数据的仪器,如体感摄像头,也可以为空间定位传感器,如红外摄像头,以获取识别对象的位置信息。该监视器和该智能终端可以通过USB连接,也可以安装在智能终端上。该监视器捕获到识别对象后,可通过采集识别对象的图像数据进行识别,分析识别对象的位置信息,并将所述位置信息发送给智能终端;也可将采集的图像数据直接发送给智能终端,由智能终端对图像数据进行识别,获取识别对象的位置信息;还可通过空间定位传感器的红外探测器和激光测距器获取识别对象的位置信息。
为了更好的反映识别对象所在的位置,本发明在监视器所在位置建立一坐标系。
本发明获取位置信息亦可采用已有的图像识别算法来对图像中的识别对象进行识别获取,比如采用kinect、PrimeSense以及tof方法,获取目标对象在坐标系中的点信息,故在此不再赘述。具体地,该识别对象可以为手部、头部或者其他肢体,甚至某特定操作装置,如游戏杆、感应手套等。
参照图1,示出了本发明一种识别操作事件的方法第一实施例的流程,本优选方法实施例包括以下步骤:
步骤S101:获取目标对象在空间中运动的起始采样点的位置信息;
步骤S102:获取目标对象在空间中运动的结束采样点的位置信息;
为方便理解和说明,下面以智能电视的体感操控为例进行说明。体感操控设备可以包括设置在智能电视外壳上,并与智能电视连接的体感摄像头,具体的操作事件可以是根据身体某个部位(即上文所述的目标对象,如手掌)的移动建立与电视操作的关联关系,例如:可通过手掌向上、向下、向左及向右的挥动动作控制游戏角色的前、后、左、右运动,让用户得到身临其境的游戏体验。
关于目标对象在空间中运动的起始采样点A与结束采样点B,可以参照图4建立球面坐标系来获取其位置信息。其中,以体感摄像头作为球面坐标系的球心O,起始采样点A的位置信息可以包括体感摄像头获取的A与O的水平距离HA(过A点的水平平面与以O为球心的球体的截面上,以所述截面的中心Q为圆心的同心圆中,圆周过A点的圆的半径,即线段AQ的长度)和垂直距离VA(O点到上述截面的距离,即线段OQ的长度);结束采样点B的位置信息可以包括体感摄像头获取的B与O的水平距离HB(即线段BP的长度)和垂直距离VB(即线段OP的长度)。但本优选实施例对于各采样点的空间位置信息确定方式予以限定,还可以采用其他方式,例如:还可以参照图5以体感摄像头O为原点、以过O点的水平平面为XOZ平面、以过起始采样点A与O的垂直平面为YOZ平面(即A在XOZ平面上的垂直投影点与O的连线为Z轴)、以过O点且与XOZ和YOZ平面都垂直的垂直平面为XOY平面的三维坐标系下,根据体感摄像头获取的起始采样点A和结束采样点B与体感摄像头O之间的水平距离和垂直距离,确定A和B的三维点坐标。
步骤S103:根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息;
在本优选实施例中,结束采样点在所述起始采样点与体感摄像头的连线上的投影点为:起始采样点与坐标中心(如体感摄像头所在的空间位置)的连线(或该连线的延长线)与以坐标中心为球心以球心与结束采样点的直线距离为半径的球面的交点。但本发明对此不予限制,也可以采用其他方式获得该投影点。
以图5所示的三维坐标系为例,可以根据A和B的三维点坐标信息计算出C的三维点坐标信息。在图5所示的实施例中,为简化计算,假设B点处于AQ的连线上。由于A、B、C都在YOZ平面上,所以三点的X坐标值均为0;
对于起始采样点A,可以根据体感摄像头读出OQ(即A点的Y坐标值)及QA(即A点的Z坐标值),O、Q、A点构成一个直角三角形,可算出OA以及OA与OQ间夹角α;
其中:OA=(OQ2+QA2)1/2;sinα=QA/OA;
对于结束采样点B,同理可根据体感摄像头读出OQ(即B点的Y坐标值)及QB(即B点的Z坐标值),并计算出OB;
其中:OB=(OQ2+QB2)1/2
B的矫正位置C为B点在OA上的投影,OB与OC等长(OBC组成等腰三角形),可以算出OC(OC=OB);再根据已求得的OA与OQ间夹角α,可以求得C点的Y坐标值YC和Z坐标值ZC
其中:YC=OC*cosα;ZC=OC*sinα。
以图4所示的球面坐标系为例,结束采样点B的矫正位置C(即B在OA上的投影点)的位置信息包括:C与O的水平距离HC和垂直距离VC
其中,HC和VC可以通过下述公式计算:
VC=DC*cosα;HC=DC*sinα;
DC=DB=(HB 2+VB 2)1/2
tanα=HA/VA
上述公式中,DB表示B与O的直线距离,DC表示C与O的直线距离,α表示上述球面坐标系中A与O的连接线与过O点垂直于水平面的垂直线的夹角。
步骤S104:根据所述起始采样点的位置信息与结束采样点的矫正位置信息,识别所述目标对象的操作事件。
本优选实施例将目标对象的结束采样点在初始采样点与坐标中心的连线上的投影点作为所述结束采样点的矫正位置,使得结束采样点的矫正位置与初始位置在同一夹角平面上,因此,无论目标对象位于坐标中心(如可以以体感摄像头作为坐标中心)前任何角度的位置上,目标对象移动前后的各分量都会具有相同的比例,因此能够基于调整后的矫正位置实现准确操控,解决了现有技术当目标对象位于摄像头侧前方时对于目标对象垂直于体感摄像头的移动、会被误识别出平行于摄像头的移动分量的问题。
参照图2,示出了本发明一种识别操作事件的方法第二实施例的流程,与上述第一方法实施例的区别在于,在确定结束位置的矫正位置后,还包括进一步判断目标对象的运动趋势的步骤,以人的手掌部位的移动为例,可以依据起始采样点和结束采样点的矫正位置判断手势;另外,对于后续的手掌动作,依据相同的矫正方法循环作相应的处理。具体的,本方法实施例包括以下步骤:
步骤S101:获取目标对象在空间中运动的起始采样点的位置信息;
步骤S102:获取目标对象在空间中运动的结束采样点的位置信息;
步骤S103:根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息;
步骤S104:根据所述起始采样点的位置信息与结束采样点的矫正位置信息,识别所述目标对象的操作事件;
步骤S105:根据目标对象的初始采样点的位置信息、结束采样点的矫正位置信息,计算起始采样点与矫正位置之间的向量,根据所述向量识别该目标对象的操作事件;
步骤S106:将当前的结束位置作为新的起始采样点,将再次移动后的结束位置作为新的结束采样点;然后转步骤S102重复上述结束采样点的位置信息获取、结束采样点的矫正位置信息确定以及目标对象的运动趋势判断等过程。
对于前述的各方法实施例,为了描述简单,故将其都表述为一系列的动作组合,但是本领域的技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为根据本发明,某些步骤可以采用其他顺序或同时执行;其次,本领域技术人员也应该知悉,上述方法实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
参照图3,示出了本发明一种识别操作事件的装置一实施例的结构框图,包括:
位置信息获取单元31,用于获取目标对象在空间中运动的起始采样点和结束采样点的位置信息;
矫正位置确定单元32,用于根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息;
操作事件识别单元33,用于根据所述起始采样点的位置信息与结束采样点的矫正位置信息,识别所述目标对象的操作事件。
在上述装置实施例的一个进一步的优选实施例中,还包括:
计算单元34,用于根据目标对象的起始采样点位置信息、结束采样点的矫正位置信息,计算起始采样点与矫正位置之间的向量,根据所述向量识别所述目标对象的操作事件;
循环调度单元30,用于将当前的结束采样点作为新的起始采样点,将再次移动后的结束位置作为新的结束采样点,调度所述位置信息获取单元31、矫正位置确定单元32和操作事件识别单元33重复执行结束采样点获取、矫正位置确定、操作事件识别的过程;还可以进一步调用运动趋势判断单元34判断目标对象的连续运动趋势。
在另一进一步的优选实施例中,所述位置信息为所述目标对象在球面坐标系中的点坐标值。矫正位置确定单元32具体以如下方式确定结束采样点在起始采样点与体感摄像头的连线上的投影点:以起始采样点与体感摄像头的连线(或该连线的延长线)与以体感摄像头为球心以球心与结束采样点的直线距离为半径的球面的交点,作为结束采样点在起始采样点与体感摄像头的连线上的投影点。
以图4所示的以体感摄像头O为球心的球面坐标系下的起始采样点A、结束采样点B、结束采样点的矫正位置C的位置信息为例:
起始采样点A的位置信息可以通过体感摄像头获得的A与体感摄像头O的水平距离HA(即线段AQ的长度)和垂直距离VA(即线段OQ的长度)确定;
结束采样点B的位置信息可以通过体感摄像头获得的B与O的水平距离HB(即线段BP的长度)和垂直距离VB(即线段OP的长度)确定;
结束采样点B的矫正位置C的位置信息包括C与O的水平距离HC和垂直距离VC;由矫正位置确定单元32具体通过下述公式计算获得:
VC=DC*cosα;HC=DC*sinα;
DC=DB=(HB 2+VB 2)1/2
tanα=HA/VA
上述公式中,DB表示B与O的直线距离,DC表示C与O的直线距离,α表示上述球面坐标系中A与O的连接线与过O点垂直于水平面的垂直线的夹角。
另外,本发明还公开了一种智能终端,包括有设置在智能终端上、能够获取目标对象位置信息的监视器,以及能够对监视器获得的目标对象位置信息进行校正的上述识别操作事件的装置。
需要说明的是,上述装置或***实施例属于优选实施例,所涉及的单元和模块并不一定是本发明所必须的。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于本发明的装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上对本发明所提供的一种识别操作事件的方法和装置、智能终端,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种识别操作事件的方法,其特征在于,包括:
获取目标对象在空间中运动的起始采样点和结束采样点的位置信息,
根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息;
根据所述起始采样点的位置信息与结束采样点的矫正位置信息,识别所述目标对象的操作事件。
2.如权利要求1所述的一种识别操作事件的方法,其特征在于,所述位置信息为所述目标对象在坐标系中的点坐标信息。
3.如权利要求2所述的一种识别操作事件的方法,其特征在于,所述根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息为:
以坐标中心为球心、以结束采样点与坐标中心的距离为半径创建一球面;
所述球面和所述初始采样点与坐标中心的连线的交点作为所述结束采样点在所述初始采样点与坐标中心的连线上的投影点;根据所述起始采样点位置信息、结束采样点的位置信息及球面坐标,获取所述结束采样点的矫正位置信息。
4.如权利要求1所述的一种识别操作事件的方法,其特征在于,还包括:
根据目标对象的起始采样点位置信息、结束采样点的矫正位置信息计算起始采样点与矫正位置之间的向量,根据所述向量识别所述目标对象的操作事件。
5.如权利要求1所述的一种识别操作事件的方法,其特征在于,还包括:
将当前的结束采样点作为新的起始采样点,将再次移动后的结束位置作为新的结束采样点,重复执行上述结束采样点获取及其矫正位置确定过程。
6.一种识别操作事件的装置,其特征在于,包括:
位置信息获取单元,用于获取目标对象在空间中运动的起始采样点和结束采样点的位置信息;
矫正位置确定单元,用于根据所述结束采样点在所述初始采样点与坐标中心的连线上的投影点获取所述结束采样点的矫正位置信息;
操作事件识别单元,用于根据所述起始采样点的位置信息与结束采样点的矫正位置信息,识别所述目标对象的操作事件。
7.如权利要求6所述的一种识别操作事件的装置,其特征在于,所述位置信息为所述目标对象在坐标系中的点坐标值。
8.如权利要求7所述的一种识别操作事件的装置,其特征在于,所述矫正位置确定单元采用以下方式确定所述结束采样点的矫正位置信息:
以坐标中心为球心、以结束采样点与坐标中心的距离为半径创建一球面;
所述球面和所述初始采样点与坐标中心的连线的交点作为所述结束采样点在所述初始采样点与坐标中心的连线上的投影点;根据所述起始采样点位置信息、结束采样点的位置信息及球面坐标,获取所述结束采样点的矫正位置信息。
9.如权利要求6所述的一种识别操作事件的装置,其特征在于,还包括:
计算单元,用于根据目标对象的起始采样点位置信息、结束采样点的矫正位置信息计算起始采样点与矫正位置之间的向量,根据所述向量识别所述目标对象的操作事件;
和/或,
循环调度单元,用于将当前的结束采样点作为新的起始采样点,将再次移动后的结束位置作为新的结束采样点,调度所述位置获取单元、矫正位置确定单元和操作事件识别单元重复执行结束采样点获取、矫正位置确定、操作事件识别的过程。
10.一种智能终端,包括有设置在智能终端上的监视器,其特征在于,还包括权利要求6~9任一所述的一种识别操作事件的装置。
CN201510149384.8A 2015-03-31 2015-03-31 一种识别操作对象的方法和装置、智能终端 Pending CN106162277A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201510149384.8A CN106162277A (zh) 2015-03-31 2015-03-31 一种识别操作对象的方法和装置、智能终端
US15/084,913 US20160292496A1 (en) 2015-03-31 2016-03-30 Operation Event Identification Method and Device and Smart Terminal
EP16163256.7A EP3076271A1 (en) 2015-03-31 2016-03-31 Operation event identification method and device and smart terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510149384.8A CN106162277A (zh) 2015-03-31 2015-03-31 一种识别操作对象的方法和装置、智能终端

Publications (1)

Publication Number Publication Date
CN106162277A true CN106162277A (zh) 2016-11-23

Family

ID=55699427

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510149384.8A Pending CN106162277A (zh) 2015-03-31 2015-03-31 一种识别操作对象的方法和装置、智能终端

Country Status (3)

Country Link
US (1) US20160292496A1 (zh)
EP (1) EP3076271A1 (zh)
CN (1) CN106162277A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113886682A (zh) * 2021-09-10 2022-01-04 平安科技(深圳)有限公司 肩颈运动场景下的信息推送方法、***和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63129409A (ja) * 1986-11-20 1988-06-01 Canon Inc 情報入出力装置
CN101729808A (zh) * 2008-10-14 2010-06-09 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的***
CN102184536A (zh) * 2011-04-19 2011-09-14 清华大学 一种提取图像中直线和/或线段端点的方法及***
CN102257456A (zh) * 2008-12-17 2011-11-23 索尼电脑娱乐公司 校正跟踪***中的角度误差
US8280151B2 (en) * 2009-03-11 2012-10-02 Omron Corporation Method for displaying recognition result obtained by three-dimensional visual sensor and three-dimensional visual sensor
US20130016126A1 (en) * 2011-07-12 2013-01-17 Autodesk, Inc. Drawing aid system for multi-touch devices
CN103914152A (zh) * 2014-04-11 2014-07-09 周光磊 三维空间中多点触控与捕捉手势运动的识别方法与***

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030097310A (ko) * 2002-06-20 2003-12-31 삼성전자주식회사 디스플레이장치의 화상크기조절방법 및 그화상크기조절시스템과 화상크기조절방법을 수행하는프로그램이 저장된 기록매체
US9104307B2 (en) * 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20120327099A1 (en) * 2011-06-24 2012-12-27 William John Vojak Dynamically adjusted display attributes based on audience proximity to display device
US8890812B2 (en) * 2012-10-25 2014-11-18 Jds Uniphase Corporation Graphical user interface adjusting to a change of user's disposition
US20140368434A1 (en) * 2013-06-13 2014-12-18 Microsoft Corporation Generation of text by way of a touchless interface

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63129409A (ja) * 1986-11-20 1988-06-01 Canon Inc 情報入出力装置
CN101729808A (zh) * 2008-10-14 2010-06-09 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的***
CN102257456A (zh) * 2008-12-17 2011-11-23 索尼电脑娱乐公司 校正跟踪***中的角度误差
US8280151B2 (en) * 2009-03-11 2012-10-02 Omron Corporation Method for displaying recognition result obtained by three-dimensional visual sensor and three-dimensional visual sensor
CN102184536A (zh) * 2011-04-19 2011-09-14 清华大学 一种提取图像中直线和/或线段端点的方法及***
US20130016126A1 (en) * 2011-07-12 2013-01-17 Autodesk, Inc. Drawing aid system for multi-touch devices
CN103914152A (zh) * 2014-04-11 2014-07-09 周光磊 三维空间中多点触控与捕捉手势运动的识别方法与***

Also Published As

Publication number Publication date
US20160292496A1 (en) 2016-10-06
EP3076271A1 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
JP4278979B2 (ja) ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム
CN104848858B (zh) 二维码以及用于机器人的视觉-惯性组合导航***及方法
CN109960401B (zh) 一种基于人脸追踪的动向投影方法、装置及其***
US9256986B2 (en) Automated guidance when taking a photograph, using virtual objects overlaid on an image
CN104364733B (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
CN104914988A (zh) 手势识别装置以及手势识别装置的控制方法
US20110118877A1 (en) Robot system and method and computer-readable medium controlling the same
CN108022264A (zh) 相机位姿确定方法及设备
CN105867433A (zh) 一种移动控制方法、移动电子设备及移动控制***
US9008442B2 (en) Information processing apparatus, information processing method, and computer program
CN102221887A (zh) 互动投影***及方法
JP2016045874A (ja) 情報処理装置、情報処理方法、及びプログラム
KR101256046B1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
JP6141108B2 (ja) 情報処理装置およびその方法
US11729367B2 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
KR102642264B1 (ko) 싱글 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법
JP2015118442A (ja) 情報処理装置、情報処理方法およびプログラム
JP2009258884A (ja) ユーザインタフェイス
CN115480511A (zh) 一种机器人交互方法、装置、存储介质及设备
CN106162277A (zh) 一种识别操作对象的方法和装置、智能终端
KR102097033B1 (ko) 보디 포인트 인터액션 센싱을 통한 모션 추정 시스템
KR101358064B1 (ko) 사용자 이미지를 이용한 원격 제어 방법 및 시스템
CN111158489B (zh) 一种基于摄像头的手势交互方法及手势交互***
CN107340889B (zh) 一种定位初始化方法及装置
US20150063631A1 (en) Dynamic image analyzing system and operating method thereof

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 301-1, Room 301-3, Area B2, Animation Building, No. 126 Animation Road, Zhongxin Eco-city, Tianjin Binhai New Area, Tianjin

Applicant after: LE SHI ZHI XIN ELECTRONIC TECHNOLOGY (TIANJIN) Ltd.

Address before: 300453 Tianjin Binhai New Area, Tianjin Eco-city, No. 126 Animation and Animation Center Road, Area B1, Second Floor 201-427

Applicant before: Xinle Visual Intelligent Electronic Technology (Tianjin) Co.,Ltd.

Address after: 300453 Tianjin Binhai New Area, Tianjin Eco-city, No. 126 Animation and Animation Center Road, Area B1, Second Floor 201-427

Applicant after: Xinle Visual Intelligent Electronic Technology (Tianjin) Co.,Ltd.

Address before: 300467 Tianjin Binhai New Area, ecological city, animation Middle Road, building, No. two, B1 District, 201-427

Applicant before: LE SHI ZHI XIN ELECTRONIC TECHNOLOGY (TIANJIN) Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20161123