CN109164915A - 一种手势识别方法、装置、***和设备 - Google Patents

一种手势识别方法、装置、***和设备 Download PDF

Info

Publication number
CN109164915A
CN109164915A CN201810941071.XA CN201810941071A CN109164915A CN 109164915 A CN109164915 A CN 109164915A CN 201810941071 A CN201810941071 A CN 201810941071A CN 109164915 A CN109164915 A CN 109164915A
Authority
CN
China
Prior art keywords
information
entered
gesture
moment
scattering center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810941071.XA
Other languages
English (en)
Other versions
CN109164915B (zh
Inventor
徐强
方有纲
刘耀中
刘耿烨
李跃星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Time Change Communication Technology Co Ltd
Original Assignee
Hunan Time Change Communication Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Time Change Communication Technology Co Ltd filed Critical Hunan Time Change Communication Technology Co Ltd
Priority to CN201810941071.XA priority Critical patent/CN109164915B/zh
Publication of CN109164915A publication Critical patent/CN109164915A/zh
Application granted granted Critical
Publication of CN109164915B publication Critical patent/CN109164915B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种手势识别方法、装置、***和设备,其中方法包括:101、根据实时接收到的手势雷达发送的人体手部多个散射中心各自对应的坐标信息,构建当前时刻的人体手部对应的手部虚拟模型;102、循环执行步骤101,直到预设时间间隔内未接收到所述手势雷达发送的所述人体手部多个散射中心各自对应的坐标信息;103、确定不同时刻的所述手部虚拟模型上预置散射中心的坐标信息,并按照时间顺序连接不同时刻的所述预置散射中心的坐标信息,得到所述预置散射中心的坐标变化轨迹,所述预置散射中心为所述多个散射中心中的一个;104、根据所述坐标变化轨迹得到待输入信息,并根据所述待输入信息显示所述待输入信息对应的内容。

Description

一种手势识别方法、装置、***和设备
技术领域
本申请涉及手势识别技术领域,一种手势识别方法、装置、***和设备。
背景技术
随着、移动终端设备的不断发展,以及虚拟现实设备的出现,人机交互变得越来越重要。手势识别作为其中一个重要的分支,具有与人的生活习惯相适应、自由度高等优点。
传统的手势识别技术多是通过基于摄像头实现,然而这些手势识别技术均存在各种缺点:基于光学摄像头的交互方式由于需要获取不同景深的大量的图像数据,需要强大的数据处理能力才能提取出所需信息,这将极大占用硬件资源,同时,光学摄像头不能被遮挡,用户的隐私也存在泄漏的风险;红外摄像头的缺点类似光学摄像头,同时精度不如光学摄像头,且容易受到热源和强光源的干扰。因此,基于雷达的人机交互开始涌现,但目前基于雷达的技术的人机交互只支持简单手势的交互控制,且稳定性差、手势识别成功率低,不能进行复杂的交互,使得用户体验较差。
发明内容
本申请实施例提供了一种手势识别方法、装置、***和设备,用于手势识别,解决了目前基于雷达技术的人机交互设备支持简单手势的交互控制,且稳定性差、手势识别成功率低,不能进行复杂的交互,使得用户体验较差的技术问题。
有鉴于此,本申请第一方面提供了一种手势识别方法,包括:
101、根据实时接收到的手势雷达发送的人体手部多个散射中心各自对应的坐标信息,构建当前时刻的人体手部对应的手部虚拟模型;
106、循环执行步骤101,直到预设时间间隔内未接收到所述手势雷达发送的所述人体手部多个散射中心各自对应的坐标信息;
103、确定不同时刻的所述手部虚拟模型上预置散射中心的坐标信息,并按照时间顺序连接不同时刻的所述预置散射中心的坐标信息,得到所述预置散射中心的坐标变化轨迹,所述预置散射中心为所述多个散射中心中的一个;
104、根据所述坐标变化轨迹得到待输入信息,并根据所述待输入信息显示所述待输入信息对应的内容。
优选地,所述方法还包括:
105、在接收所述手势雷达发送的所述多个散射中心各自对应的坐标信息的同时,接收所述手势雷达发送的所述多个散射中心各自对应的运动信息,所述运动信息包括:速度信息、加速度信息和方向信息;
所述步骤102具体为:
102、循环执行步骤101和105,直到预设时间间隔内未接收到所述手势雷达发送的所述人体手部多个散射中心各自对应的坐标信息;
若第一时刻的所述手部虚拟模型未构建,则所述确定所述第一时刻的所述手部虚拟模型上预置散射中心的坐标信息具体包括:
确定第二时刻的所述手部虚拟模型上所述预置散射中心的运动信息,并根据所述第二时刻的运动信息,确定所述第一时刻的所述手部虚拟模型上预置散射中心的坐标信息,所述第二时刻为所述第一时刻的前一时刻,所述第一时刻为第一次执行步骤101的时刻至最后一次执行步骤101的时刻所组成的时间段内的一个时刻。
优选地,所述待输入信息为待输入图像;
所述步骤104具体包括:
104、根据所述坐标变化轨迹得到所述待输入图像,并显示所述待输入图像。
优选地,所述待输入信息为待输入文字;
所述步骤104具体包括:
104、根据所述坐标变化轨迹得到所述待输入文字,将所述待输入文字和预置文字库进行对比,得到所述待输入文字对应的文字,并显示所述文字。
本申请第二方面提供一种手势识别装置,包括:
模型构建单元,用于根据实时接收到的手势雷达发送的人体手部多个散射中心各自对应的坐标信息,构建当前时刻的人体手部对应的手部虚拟模型;
第一循环单元,用于反复触发所述模型构建单元,直到预设时间间隔内未接收到所述手势雷达发送的所述人体手部多个散射中心各自对应的坐标信息;
轨迹确定单元,用于确定不同时刻的所述手部虚拟模型上预置散射中心的坐标信息,并按照时间顺序连接不同时刻的所述预置散射中心的坐标信息,得到所述预置散射中心的坐标变化轨迹,所述预置散射中心为所述多个散射中心中的一个;
显示单元,用于根据所述坐标变化轨迹得到待输入信息,并根据所述待输入信息显示所述待输入信息对应的内容。
优选地,所述装置还包括:
运动信息获取单元,用于在接收所述手势雷达发送的所述多个散射中心各自对应的坐标信息的同时,接收所述手势雷达发送的所述多个散射中心各自对应的运动信息,所述运动信息包括:速度信息、加速度信息和方向信息;
第一循环单元,具体用于反复触发所述运动信息获取单元和所述模型构建单元,直到预设时间间隔内未接收到所述手势雷达发送的所述人体手部多个散射中心各自对应的坐标信息;
若第一时刻的所述手部虚拟模型未构建,则所述确定所述第一时刻的所述手部虚拟模型上预置散射中心的坐标信息具体包括:
确定第二时刻的所述手部虚拟模型上所述预置散射中心的运动信息,并根据所述第二时刻的运动信息,确定所述第一时刻的所述手部虚拟模型上预置散射中心的坐标信息,所述第二时刻为所述第一时刻的前一时刻,所述第一时刻为第一次触发所述模型构建单元的时刻至最后一次触发所述模型构建单元的时刻所组成的时间段内的一个时刻。
优选地,所述待输入信息为待输入图像;
所述显示单元具体用于,根据所述坐标变化轨迹得到所述待输入图像,并显示所述待输入图像。
优选地,所述待输入信息为待输入文字;
所述显示单元具体用于,根据所述坐标变化轨迹得到所述待输入文字,将所述待输入文字和预置文字库进行对比,得到所述待输入文字对应的文字,并显示所述文字。
本申请第三方面提供一种手势识别***,包括:手势雷达和上述的手势识别装置;
所述手势雷达和所述手势识别装置通信连接;
所述手势雷达,用于实时发射雷达信号至所述人体手部;
所述手势雷达,还用于接收所述人体手部的多个散射中心对应反射的回波信号,根据各个所述回波信号解算出各个散射中心对应的坐标信息,并发送所述多个散射中心各自对应的坐标信息至所述手势识别装置。
本申请第四方面提供一种手势识别设备,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行上述的手势识别方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请实施例中,提供了一种手势识别方法,包括:因为手势雷达是实时发送人体手部多个散射中心各自对应的坐标信息,可以根据接收到的多个散射中心各自对应的坐标信息构建手部虚拟模型,直到预设时间间隔内未接收到手势雷达发送的人体手部多个散射中心各自对应的坐标信息,即用户的手势控制操作结束,在用户操作的整个过程中一个时刻对应有一个手部虚拟模型,然后根据不同时刻的手部虚拟模型上预置散射中心的坐标信息,确定预置散射中心的坐标变化轨迹,可以根据该坐标变化轨迹确定待输入信息,最后根据待输入信息显示袋鼠如信息对应的内容,整个识别过程中不管用户手部输入了什么内容,都可以准确地根据手部虚拟模型预置散射中心的坐标变化轨迹得到用户的输入内容,解决了目前基于雷达的技术的人机交互只支持简单手势的交互控制,且稳定性差、手势识别成功率低,不能进行复杂的交互,使得用户体验较差的技术问题。
附图说明
图1为本申请实施例中一种手势识别方法的第一实施例的流程示意图;
图2为本申请实施例中一种手势识别方法的第二实施例的流程示意图;
图3为本申请实施例中一种手势识别装置的实施例的结构示意图;
图4为本申请实施例中一种手势识别***的实施例的结构示意图。
具体实施方式
本申请实施例提供了一种手势识别方法、装置、***和设备,用于手势识别,解决了目前基于雷达技术的人机交互设备只支持简单手势的交互控制,且稳定性差、手势识别成功率低,不能进行复杂的交互,使得用户体验较差的技术问题。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参阅图1,本申请实施例中一种手势识别方法的第一实施例的流程示意图,包括:
步骤101、根据实时接收到的手势雷达发送的人体手部多个散射中心各自对应的坐标信息,构建当前时刻的人体手部对应的手部虚拟模型。
需要说明的是,人体手部上不同的部位(如手指、手背等)对手势雷达的回波信号不同,即一个回波信号对应一个手部部位,根据实时接收到的手势雷达发送的人体手部多个散射中心各自对应的坐标信息,构建当前时刻的人体手部对应的手部虚拟模型。
步骤102、循环执行步骤101,直到预设时间间隔内未接收到手势雷达发送的人体手部多个散射中心各自对应的坐标信息。
需要说明的是,预设时间间隔内未接收到手势雷达发送的人体手部多个散射中心的坐标信息,即代表用户的手势控制操作结束。
可以理解的是,预设时间间隔可以根据需要进行设置,此处不做具体限定。
步骤103、确定不同时刻的手部虚拟模型上预置散射中心的坐标信息,并按照时间顺序连接不同时刻的预置散射中心的坐标信息,得到预置散射中心的坐标变化轨迹,预置散射中心为多个散射中心中的一个。
需要说明的是,因为实时建立的手部虚拟模型,因此确定不同时刻的手部虚拟模型上预置散射中心的坐标信息后,按照时间顺序连接不同时刻的预置散射中心的坐标信息,可以得到预置散射中心的坐标变化轨迹,即手部虚拟模型的运动变化轨迹,也即用户通过手势输入的坐标变化轨迹。可以理解的是,预置散射中心可以为手指对应的点,还可以理解的是,也可以设置别的部位对应的点为预置散射中心,具体地根据用户的输入习惯等确定。
步骤104、根据坐标变化轨迹得到待输入信息,并根据待输入信息显示待输入信息对应的内容。
本实施例中,因为手势雷达是实时发送人体手部多个散射中心各自对应的坐标信息,可以根据接收到的多个散射中心各自对应的坐标信息构建手部虚拟模型,直到预设时间间隔内未接收到手势雷达发送的人体手部多个散射中心各自对应的坐标信息,即用户的手势控制操作结束,在用户操作的整个过程中一个时刻对应有一个手部虚拟模型,然后根据不同时刻的手部虚拟模型上预置散射中心的坐标信息,确定预置散射中心的坐标变化轨迹,可以根据该坐标变化轨迹确定待输入信息,最后根据待输入信息显示袋鼠如信息对应的内容,整个识别过程中不管用户手部输入了什么内容,都可以准确地根据手部虚拟模型预置散射中心的坐标变化轨迹得到用户的输入内容,解决了目前基于雷达的技术的人机交互只支持简单手势的交互控制,且稳定性差、手势识别成功率低,不能进行复杂的交互,使得用户体验较差的技术问题。
以上为本申请实施例提供的一种手势识别方法的第一实施例,以下为本申请实施例提供的一种手势识别方法的第二实施例。
请参阅图2,本申请实施例中一种手势识别方法的第二实施例的流程示意图,包括:
步骤201、根据实时接收到的手势雷达发送的人体手部多个散射中心各自对应的坐标信息,构建当前时刻的人体手部对应的手部虚拟模型。
需要说明的是,步骤201与本申请第一实施例中步骤101的内容相同,具体描述可以参见第一实施例步骤101的内容,在此不再赘述。
步骤202、在接收手势雷达发送的多个散射中心各自对应的坐标信息的同时,接收手势雷达发送的多个散射中心各自对应的运动信息,运动信息包括:速度信息、加速度信息和方向信息。
需要说明的是,因手部各部位的反射都较弱,且由于人类是生物体的原因,各部位的反射强度很不稳定,容易丢失目标,从而导致手部模型未构建成功,从而当某一时刻丢失目标即未构建第一时刻的手部虚拟模型时,可以由前一时刻的运动信息,确定预置散射中心该时刻的坐标信息。
步骤203、循环执行步骤201和步骤202,直到预设时间间隔内未接收到手势雷达发送的人体手部多个散射中心各自对应的坐标信息。
步骤204、若第一时刻的手部虚拟模型未构建,确定第二时刻的手部虚拟模型上预置散射中心的运动信息,并根据第二时刻的运动信息,确定第一时刻的手部虚拟模型上预置散射中心的坐标信息,第二时刻为第一时刻的前一时刻,第一时刻为第一次执行步骤201的时刻至最后一次执行步骤201的时刻所组成的时间段内的一个时刻。
需要说明的是,若第一时刻的手部虚拟模型未构建,因为预置散射中心的位置不会突然变化,会在上一时刻的位置附近,运动方向有较大概率沿之前的运动方向继续运动,运动速度也是逐渐变化的或不变,此时若知道相对第一时刻的前一时刻的速度信息、加速度信息和方向信息,确定预置散射中心第一时刻的坐标信息。预置散射中心为多个散射中心中的一个。
可以理解的是,本实施例中仅仅描述根据第一时刻的前一时刻的运动信息确定第一时刻的坐标信息,此处也可以为根据第一时刻的后一时刻的运动信息确定第一时刻的坐标信息。具体地实施过程可以参见前述过程,在此并不赘述。
步骤205、确定不同时刻的手部虚拟模型上预置散射中心的坐标信息,按照时间顺序连接不同时刻的预置散射中心的坐标信息,得到预置散射中心的坐标变化轨迹。
需要说明的是,时间顺序为从前往后的时间顺序,但是可以理解的是,时间顺序也可以为从后往前的时间顺序。
步骤206、根据坐标变化轨迹得到待输入信息,并根据待输入信息显示待输入信息对应的内容。
需要说明的是,当待输入信息为待输入图像时,为了图像的多样化,可以直接根据坐标变化轨迹得到待输入图像,并显示待输入图像。可以理解的是,因为手部虚拟模型是3D的,此时对应的待输入图像可以是2D或者3D,具体的根据实际坐标变化轨迹确定。当待输入信息为待输入文字时,根据坐标变化轨迹得到待输入文字,将待输入文字和预置文字库进行对比,得到待输入文字对应的文字,并显示文字。可以理解的是,预置文字库中包括但不限于中文字符,英文字符和数字字符等。
可以理解的是,在确定各个时刻的速度信息后,比如输入文字或图形时,速度快时对应较细的线条,速度较慢时对应较粗的线条,可以最大程度的还原输入内容。具体实现可以为,设定预置速度下对应的坐标变化轨迹的预置直径,然后根据不同速度与预置速度的比例设定该速度下的坐标变化轨迹。
本实施例中,因为手势雷达是实时发送人体手部多个散射中心各自对应的坐标信息,可以根据接收到的多个散射中心各自对应的坐标信息构建手部虚拟模型,直到预设时间间隔内未接收到手势雷达发送的人体手部多个散射中心各自对应的坐标信息,即用户的手势控制操作结束,在用户操作的整个过程中一个时刻对应有一个手部虚拟模型,然后根据不同时刻的手部虚拟模型上预置散射中心的坐标信息,确定预置散射中心的坐标变化轨迹,可以根据该坐标变化轨迹确定待输入信息,最后根据待输入信息显示袋鼠如信息对应的内容,整个识别过程中不管用户手部输入了什么内容,都可以准确地根据手部虚拟模型预置散射中心的坐标变化轨迹得到用户的输入内容,解决了目前基于雷达的技术的人机交互只支持简单手势的交互控制,且稳定性差、手势识别成功率低,不能进行复杂的交互,使得用户体验较差的技术问题。
以上为本申请实施例提供的一种手势识别方法的第二实施例,以下为本申请实施例提供的一种手势识别装置的实施例。
请参阅图3,本申请实施例中一种手势识别装置的实施例的结构示意图,包括:
模型构建单元301,用于根据实时接收到的手势雷达发送的人体手部多个散射中心各自对应的坐标信息,构建当前时刻的人体手部对应的手部虚拟模型;
第一循环单元302,用于反复触发模型构建单元301,直到预设时间间隔内未接收到手势雷达发送的人体手部多个散射中心各自对应的坐标信息;
轨迹确定单元303,用于确定不同时刻的手部虚拟模型上预置散射中心的坐标信息,并按照时间顺序连接不同时刻的预置散射中心的坐标信息,得到预置散射中心的坐标变化轨迹,预置散射中心为多个散射中心中的一个;
显示单元304,用于根据坐标变化轨迹得到待输入信息,并根据待输入信息显示待输入信息对应的内容。
进一步地,该装置还包括:
运动信息获取单元305,用于在接收手势雷达发送的多个散射中心各自对应的坐标信息的同时,接收手势雷达发送的多个散射中心各自对应的运动信息,运动信息包括:速度信息、加速度信息和方向信息;
第一循环单元302,具体用于反复触发运动信息获取单元305和模型构建单元301,直到预设时间间隔内未接收到手势雷达发送的人体手部多个散射中心各自对应的坐标信息;
若第一时刻的手部虚拟模型未构建,则确定第一时刻的手部虚拟模型上预置散射中心的坐标信息具体包括:
确定第二时刻的手部虚拟模型上预置散射中心的运动信息,并根据第二时刻的运动信息,确定第一时刻的手部虚拟模型上预置散射中心的坐标信息,第二时刻为第一时刻的前一时刻,第一时刻为第一次触发模型构建单元的时刻至最后一次触发模型构建单元的时刻所组成的时间段内的一个时刻。
进一步地,待输入信息为待输入图像;
显示单元304具体用于,根据坐标变化轨迹得到待输入图像,并显示待输入图像。
进一步地,待输入信息为待输入文字;
显示单元304具体用于,根据坐标变化轨迹得到待输入文字,将待输入文字和预置文字库进行对比,得到待输入文字对应的文字,并显示文字。可以理解的是,预置文字库中包括但不限于中文字符,英文字符和数字字符等。
以上为本申请实施例提供的一种手势识别装置的实施例,以下为本申请实施例提供的一种手势识别***的实施例。
请参阅图4,本申请实施例中一种手势识别***的结构示意图,包括:手势雷达401和上述实施例三的手势识别装置402;
手势雷达401和手势识别装置402通信连接;
手势雷达401,用于实时发射雷达信号至人体手部;
手势雷达401,还用于接收人体手部的多个散射中心对应反射的回波信号,根据各个回波信号解算出各个散射中心对应的坐标信息,并发送多个散射中心各自对应的坐标信息至手势识别装置402。
需要说明的是,手势雷达401采用线性调频连续波雷达信号,工作在V波段(55GHz-65GHz)。线性调频连续波雷达的基本原理是将发送信号和回波信号进行混频获得差频信号,该差频信号进行处理分析即可得到相对距离、相对角度和相对速度,根据相对距离和相对角度可以获得坐标信息。可以理解的是,手势雷达401是一个模块,可以直接安装在手势识别装置里,比如电视机、手机里;也可以制作成一个外接模块,通过USB与手势识别装置连接。同时,可以理解的是,人员操作时不需要佩戴任何物品,裸手操作即可,只需要在手势雷达401的可检测范围内即可。可以理解的是,为了获得目标的角度信息,可以设置手势雷达有多个接收通道。
本申请实施例还提供了一种手势识别设备,该设备包括处理器以及存储器:存储器用于存储程序代码,并将程序代码传输给处理器,处理器用于根据程序代码中的指令执行前述各个实施例的手势识别方法,从而执行的各种功能应用以及数据处理。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一台设备(可以是个人,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-Only Memory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种手势识别方法,其特征在于,包括:
101、根据实时接收到的手势雷达发送的人体手部多个散射中心各自对应的坐标信息,构建当前时刻的人体手部对应的手部虚拟模型;
102、循环执行步骤101,直到预设时间间隔内未接收到所述手势雷达发送的所述人体手部多个散射中心各自对应的坐标信息;
103、确定不同时刻的所述手部虚拟模型上预置散射中心的坐标信息,并按照时间顺序连接不同时刻的所述预置散射中心的坐标信息,得到所述预置散射中心的坐标变化轨迹,所述预置散射中心为所述多个散射中心中的一个;
104、根据所述坐标变化轨迹得到待输入信息,并根据所述待输入信息显示所述待输入信息对应的内容。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:105;
105、在接收所述手势雷达发送的所述多个散射中心各自对应的坐标信息的同时,接收所述手势雷达发送的所述多个散射中心各自对应的运动信息,所述运动信息包括:速度信息、加速度信息和方向信息;
所述步骤102具体为:
102、循环执行步骤101和105,直到预设时间间隔内未接收到所述手势雷达发送的所述人体手部多个散射中心各自对应的坐标信息;
若第一时刻的所述手部虚拟模型未构建,则所述确定所述第一时刻的所述手部虚拟模型上预置散射中心的坐标信息具体包括:
确定第二时刻的所述手部虚拟模型上所述预置散射中心的运动信息,并根据所述第二时刻的运动信息,确定所述第一时刻的所述手部虚拟模型上预置散射中心的坐标信息,所述第二时刻为所述第一时刻的前一时刻,所述第一时刻为第一次执行步骤101的时刻至最后一次执行步骤101的时刻所组成的时间段内的一个时刻。
3.根据权利要求1所述的方法,其特征在于,所述待输入信息为待输入图像;
所述步骤104具体包括:
104、根据所述坐标变化轨迹得到所述待输入图像,并显示所述待输入图像。
4.根据权利要求1所述的方法,其特征在于,所述待输入信息为待输入文字;
所述步骤104具体包括:
104、根据所述坐标变化轨迹得到所述待输入文字,将所述待输入文字和预置文字库进行对比,得到所述待输入文字对应的文字,并显示所述文字。
5.一种手势识别装置,其特征在于,包括:
模型构建单元,用于根据实时接收到的手势雷达发送的人体手部多个散射中心各自对应的坐标信息,构建当前时刻的人体手部对应的手部虚拟模型;
第一循环单元,用于反复触发所述模型构建单元,直到预设时间间隔内未接收到所述手势雷达发送的所述人体手部多个散射中心各自对应的坐标信息;
轨迹确定单元,用于确定不同时刻的所述手部虚拟模型上预置散射中心的坐标信息,并按照时间顺序连接不同时刻的所述预置散射中心的坐标信息,得到所述预置散射中心的坐标变化轨迹,所述预置散射中心为所述多个散射中心中的一个;
显示单元,用于根据所述坐标变化轨迹得到待输入信息,并根据所述待输入信息显示所述待输入信息对应的内容。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
运动信息获取单元,用于在接收所述手势雷达发送的所述多个散射中心各自对应的坐标信息的同时,接收所述手势雷达发送的所述多个散射中心各自对应的运动信息,所述运动信息包括:速度信息、加速度信息和方向信息;
第一循环单元,具体用于反复触发所述运动信息获取单元和所述模型构建单元,直到预设时间间隔内未接收到所述手势雷达发送的所述人体手部多个散射中心各自对应的坐标信息;
若第一时刻的所述手部虚拟模型未构建,则所述确定所述第一时刻的所述手部虚拟模型上预置散射中心的坐标信息具体包括:
确定第二时刻的所述手部虚拟模型上所述预置散射中心的运动信息,并根据所述第二时刻的运动信息,确定所述第一时刻的所述手部虚拟模型上预置散射中心的坐标信息,所述第二时刻为所述第一时刻的前一时刻,所述第一时刻为第一次触发所述模型构建单元的时刻至最后一次触发所述模型构建单元的时刻所组成的时间段内的一个时刻。
7.根据权利要求5所述的装置,其特征在于,所述待输入信息为待输入图像;
所述显示单元具体用于,根据所述坐标变化轨迹得到所述待输入图像,并显示所述待输入图像。
8.根据权利要求5所述的装置,其特征在于,所述待输入信息为待输入文字;
所述显示单元具体用于,根据所述坐标变化轨迹得到所述待输入文字,将所述待输入文字和预置文字库进行对比,得到所述待输入文字对应的文字,并显示所述文字。
9.一种手势识别***,其特征在于,包括:手势雷达和上述权利要求4至8中任一项所述的手势识别装置;
所述手势雷达和所述手势识别装置通信连接;
所述手势雷达,用于实时发射雷达信号至所述人体手部;
所述手势雷达,还用于接收所述人体手部的多个散射中心对应反射的回波信号,根据各个所述回波信号解算出各个散射中心对应的坐标信息,并发送所述多个散射中心各自对应的坐标信息至所述手势识别装置。
10.一种手势识别设备,其特征在于,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1至4中任一项所述的手势识别方法。
CN201810941071.XA 2018-08-17 2018-08-17 一种手势识别方法、装置、***和设备 Active CN109164915B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810941071.XA CN109164915B (zh) 2018-08-17 2018-08-17 一种手势识别方法、装置、***和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810941071.XA CN109164915B (zh) 2018-08-17 2018-08-17 一种手势识别方法、装置、***和设备

Publications (2)

Publication Number Publication Date
CN109164915A true CN109164915A (zh) 2019-01-08
CN109164915B CN109164915B (zh) 2020-03-17

Family

ID=64895863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810941071.XA Active CN109164915B (zh) 2018-08-17 2018-08-17 一种手势识别方法、装置、***和设备

Country Status (1)

Country Link
CN (1) CN109164915B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111562843A (zh) * 2020-04-29 2020-08-21 广州美术学院 一种手势捕捉的定位方法、装置、设备和存储介质
CN112885431A (zh) * 2021-01-13 2021-06-01 佛山市顺德区美的洗涤电器制造有限公司 饮食推荐方法、装置、油烟机、处理器及存储介质
CN113253832A (zh) * 2020-02-13 2021-08-13 Oppo广东移动通信有限公司 手势识别方法、装置、终端和计算机可读存储介质
WO2021238710A1 (zh) * 2020-05-26 2021-12-02 京东方科技集团股份有限公司 人体手部与手势识别的方法及装置、显示设备
CN113918004A (zh) * 2020-07-10 2022-01-11 华为技术有限公司 手势识别方法及其装置、介质和***
CN114245542A (zh) * 2021-12-17 2022-03-25 深圳市恒佳盛电子有限公司 一种雷达感应灯及其控制方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140046922A1 (en) * 2012-08-08 2014-02-13 Microsoft Corporation Search user interface using outward physical expressions
CN104094194A (zh) * 2011-12-09 2014-10-08 诺基亚公司 用于基于多个传感器信号的融合识别手势的方法和设备
CN105677019A (zh) * 2015-12-29 2016-06-15 大连楼兰科技股份有限公司 一种手势识别传感器及其工作方法
CN105786185A (zh) * 2016-03-12 2016-07-20 浙江大学 基于连续波微多普勒雷达的非接触式手势识别***与方法
CN106527670A (zh) * 2015-09-09 2017-03-22 广州杰赛科技股份有限公司 一种手势动作互动装置
CN106980362A (zh) * 2016-10-09 2017-07-25 阿里巴巴集团控股有限公司 基于虚拟现实场景的输入方法及装置
CN107024685A (zh) * 2017-04-10 2017-08-08 北京航空航天大学 一种基于距离‑速度特征的手势识别方法
CN108344995A (zh) * 2018-01-25 2018-07-31 宁波隔空智能科技有限公司 一种基于微波雷达技术的手势识别装置及手势识别方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104094194A (zh) * 2011-12-09 2014-10-08 诺基亚公司 用于基于多个传感器信号的融合识别手势的方法和设备
US20140324888A1 (en) * 2011-12-09 2014-10-30 Nokia Corporation Method and Apparatus for Identifying a Gesture Based Upon Fusion of Multiple Sensor Signals
US20140046922A1 (en) * 2012-08-08 2014-02-13 Microsoft Corporation Search user interface using outward physical expressions
CN106527670A (zh) * 2015-09-09 2017-03-22 广州杰赛科技股份有限公司 一种手势动作互动装置
CN105677019A (zh) * 2015-12-29 2016-06-15 大连楼兰科技股份有限公司 一种手势识别传感器及其工作方法
CN105786185A (zh) * 2016-03-12 2016-07-20 浙江大学 基于连续波微多普勒雷达的非接触式手势识别***与方法
CN106980362A (zh) * 2016-10-09 2017-07-25 阿里巴巴集团控股有限公司 基于虚拟现实场景的输入方法及装置
CN107024685A (zh) * 2017-04-10 2017-08-08 北京航空航天大学 一种基于距离‑速度特征的手势识别方法
CN108344995A (zh) * 2018-01-25 2018-07-31 宁波隔空智能科技有限公司 一种基于微波雷达技术的手势识别装置及手势识别方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113253832A (zh) * 2020-02-13 2021-08-13 Oppo广东移动通信有限公司 手势识别方法、装置、终端和计算机可读存储介质
CN113253832B (zh) * 2020-02-13 2023-10-13 Oppo广东移动通信有限公司 手势识别方法、装置、终端和计算机可读存储介质
CN111562843A (zh) * 2020-04-29 2020-08-21 广州美术学院 一种手势捕捉的定位方法、装置、设备和存储介质
WO2021238710A1 (zh) * 2020-05-26 2021-12-02 京东方科技集团股份有限公司 人体手部与手势识别的方法及装置、显示设备
US11797098B2 (en) 2020-05-26 2023-10-24 Boe Technology Group Co., Ltd. Methods for recognizing human hand and hand gesture from human, and display apparatus
CN113918004A (zh) * 2020-07-10 2022-01-11 华为技术有限公司 手势识别方法及其装置、介质和***
CN112885431A (zh) * 2021-01-13 2021-06-01 佛山市顺德区美的洗涤电器制造有限公司 饮食推荐方法、装置、油烟机、处理器及存储介质
CN112885431B (zh) * 2021-01-13 2023-09-05 佛山市顺德区美的洗涤电器制造有限公司 饮食推荐方法、装置、油烟机、处理器及存储介质
CN114245542A (zh) * 2021-12-17 2022-03-25 深圳市恒佳盛电子有限公司 一种雷达感应灯及其控制方法
CN114245542B (zh) * 2021-12-17 2024-03-22 深圳市恒佳盛电子有限公司 一种雷达感应灯及其控制方法

Also Published As

Publication number Publication date
CN109164915B (zh) 2020-03-17

Similar Documents

Publication Publication Date Title
CN109164915A (zh) 一种手势识别方法、装置、***和设备
US11875012B2 (en) Throwable interface for augmented reality and virtual reality environments
US20220301269A1 (en) Utilizing topological maps for augmented or virtual reality
IL266888B2 (en) Virtual user input controls in a mixed reality environment
US20110151955A1 (en) Multi-player augmented reality combat
CN109740283A (zh) 自主多智能体对抗仿真方法及***
CN106774872A (zh) 虚拟现实***、虚拟现实交互方法及装置
CN109634300A (zh) 基于隔空手势和超声波触觉反馈的多无人机操控***及方法
CN105324736A (zh) 触摸式和非触摸式用户交互输入的技术
Ghandeharizadeh Holodeck: Immersive 3D Displays Using Swarms of Flying Light Specks
Chen et al. A command and control system for air defense forces with augmented reality and multimodal interaction
Braun et al. Context-based bounding volume morphing in pointing gesture application
von Tenspolde et al. Painting with the Watching Window: Design and Implementation of

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Xu Qiang

Inventor after: Fang Yougang

Inventor after: Liu Yaozhong

Inventor after: Liu Gengye

Inventor after: Li Yuexing

Inventor after: Wang Anqi

Inventor before: Xu Qiang

Inventor before: Fang Yougang

Inventor before: Liu Yaozhong

Inventor before: Liu Gengye

Inventor before: Li Yuexing

PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A gesture recognition method, device, system and equipment

Effective date of registration: 20210908

Granted publication date: 20200317

Pledgee: China Everbright Bank Co.,Ltd. Xiangtan sub branch

Pledgor: TIME VARYING TRANSMISSION Co.,Ltd.

Registration number: Y2021430000044