CN110865704B - 一种用于360°悬浮光场三维显示***的手势交互装置和方法 - Google Patents

一种用于360°悬浮光场三维显示***的手势交互装置和方法 Download PDF

Info

Publication number
CN110865704B
CN110865704B CN201911000554.0A CN201911000554A CN110865704B CN 110865704 B CN110865704 B CN 110865704B CN 201911000554 A CN201911000554 A CN 201911000554A CN 110865704 B CN110865704 B CN 110865704B
Authority
CN
China
Prior art keywords
gesture
infrared
hand
finger
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911000554.0A
Other languages
English (en)
Other versions
CN110865704A (zh
Inventor
***
西瞳
李炜
刘旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201911000554.0A priority Critical patent/CN110865704B/zh
Publication of CN110865704A publication Critical patent/CN110865704A/zh
Application granted granted Critical
Publication of CN110865704B publication Critical patent/CN110865704B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Neurology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明公开了一种用于360°悬浮式光场三维显示***的手势交互装置和方法,手势交互装置包括用户佩戴的可穿戴设备、用于采集手部位置信息的光学定位装置和用于处理并传递信号的处理器;可穿戴设备中的IMU传感器可以探测各个手指的加速度、弯曲角度和手掌的旋转角等姿态信息,通过蓝牙模块与处理器之间进行通讯;光学定位装置由近红外相机阵列和红外标志点组成。通过红外相机阵列判定手部的位置信息,计算手指和三维图像的位置关系,通过可穿戴设备检测手部姿态,与处理器通讯数据,判断手势从而控制显示***的图像变化,达到手势交互的目的。本发明结构简单,识别准确,扩展性强,可用于多种光场三维显示***的人机交互。

Description

一种用于360°悬浮光场三维显示***的手势交互装置和方法
技术领域
本发明涉及计算机视觉和手势识别技术领域,尤其涉及一种用于360°悬浮光场三维显示***的手势交互装置和方法,该装置和方法基于光学定位***和可穿戴设备实现用户和三维显示***的手势交互。
背景技术
视觉是人类获取信息的重要途径,人每天所获得信息当中,80%是通过视觉得到的。日常生活中使用较多的二维显示设备缺乏物理世界中的深度信息,显示图像缺乏真实感,三维显示技术的出现很好的解决了这个问题。
三维显示技术能够提供遮挡,透视等真实的三维感知效果,给观测者沉浸式的使用体验。三维显示技术多种多样,其中以不需要佩戴眼镜等视觉辅助工具的裸眼三维显示最为热门,光场三维显示技术就是其中一种实现方法。光场三维显示是一种新兴的三维显示技术,这种技术通过模拟三维物体表面的发光特性来重建三维场景各个视场的信息,能够正确表现不同物体之间的相互遮挡关系。如同电视,手机等传统二维显示设备一样,用户与三维显示设备之间也需要进行良好的交互操作。因此,我们提出了使用光学定位装置和可穿戴设备相结合的方法来实现三维显示设备的手势识别交互操作,观察者可以将手探入显示空间去接触虚拟场景进行一系列操作,增加用户的临场感。
目前手势识别主要分为基于视觉和基于可穿戴设备两个研究方向。基于视觉的手势识别方法可以为使用者提供更加自然、直接的人机交互方式,但是具有空间限制,当遇到遮挡等不可抗因素时,便无法准确识别,并且视觉方法本身具有不稳定性,受背景环境的制约较大,识别精确程度有限。使用可穿戴设备则具有精确度高,稳定性好的优点,配光光学定位可以实现对手部位置的确定,从而可以在目标区域中进行准确的识别,避免识别区域外的误操作。
因此,在现有的360°悬浮光场三维显示设备上应用光学定位追踪手部空间位置,使用可穿戴设备进行精准手势识别,可以很好的提升显示设备的交互体验,增加三维显示设备的实际使用价值和前景。
发明内容
本发明的目的是提供一种用于360°悬浮光场三维显示***的手势交互装置,装置可以实现对使用者手部的定位跟踪,并进行手势识别使所显示的三维图像产生对应的旋转等变化,实现人机交互,提升用户的沉浸式体验。
本发明的目的是通过以下技术方案来实现的:一种用于360°悬浮光场三维显示***的手势交互装置,包括用户佩戴的可穿戴设备、光学定位装置和处理器;
所述可穿戴设备中包含有安装在手指以及手掌处的IMU传感器,用于探测各个手指的加速度、弯曲角度和手掌的加速度、旋转角度等姿态信息,所述可穿戴设备中安装有蓝牙模块,用于与处理器之间进行通讯,发送传感器数据和接收控制信息。
所述光学定位装置安装于显示***定向散射屏上方,用于采集手部位置信息,光学定位装置包括多个近红外相机组成的相机阵列和若干个红外标志点,近红外相机通过USB数据线向处理器传输数据信息,所述红外标志点安装在可穿戴设备上,至少有一个在手背中心处。
进一步地,所述可穿戴设备中每只包含至少7个IMU传感器,其中至少5个位于各手指远端指间关节处,至少1个位于大拇指基部关节处,至少1个位于手背中心处,所述蓝牙模块安装在可穿戴设备的手背处。
进一步地,光学定位装置中的近红外相机阵列关于散射屏中心左右对称放置,镜头方向朝向定向散射屏方向,以确定手部的空间位置。
进一步地,所述红外标志点为主动发射式标志点,或者为被动反射式标志点,用于相机对手部关键点三维坐标的确定。
进一步地,近红外相机CCD前置有可见光滤光片,使CCD仅能探测到与定位相关的近红外光,过滤与定位无关的背景可见光。
一种用于360°悬浮光场三维显示***的手势交互方法,包括以下步骤:
1)建立世界坐标系和手掌坐标系,并进行可穿戴设备传感器的校准;所述手掌坐标系以手背中心处的红外标志点为原点,由原点指向中指指尖方向为x轴正方向,手掌平面内垂直于x轴指向大拇指一侧的方向为y轴正方向,按右手准则得到z轴正方向。
2)使用者佩戴可穿戴设备将手探入光学定位装置的可探测区域,近红外相机阵列探测到红外标志点在相机成像面的图像信息,提取红外标志点图像的中心点,确定红外标志点在对应相机成像面的位置。
3)对于同一时刻采集到的相机成像面的图像信息,将红外标志点在不同相机中的图像位置一一对应,建立立体匹配。
4)对立体匹配后的红外标志点在不同相机成像面上的世界坐标信息通过三角定位法确定手背中心处的红外标志点在世界坐标系下的位置坐标P(x,y,z);
5)根据手背中心处的红外标志点和手指各基部关节的距离关系,计算得到手指各基部关节在手掌坐标系下的位置坐标P″i(xi,yi,zi),其中i=1,2,3,4,5;
6)通过蓝牙模块读取手指处IMU传感器数据,得到手指每个关节处的弯曲角度θim,其中,i=1,2,3,4,5,m=1,2,3,分别对应每个手指的基部关节,中间关节,末端关节,根据手指各关节长度lim和弯曲角度θim可得到各指节在手掌坐标系各坐标轴上的投影长度Δxim,Δyim,Δzim,以各手指基部关节为计算基准得到各手指指尖在手掌坐标系下的坐标P′i(xi,yi,zi);
7)读取可穿戴设备上手背处的IMU传感器数据,得到手掌坐标系相对于世界坐标系的旋转矩阵R;根据步骤(4)中确定的手背中心处的红外标志点在世界坐标系下的坐标,得到手掌坐标系相对于世界坐标系的平移向量
Figure BDA0002241178200000032
以此计算出各指尖在世界坐标系下的坐标Pi(xi,yi,zi);
P′i(xi,yi,zi)和Pi(xi,yi,zi)满足关系
Figure BDA0002241178200000031
其中i=1,2,3,4,5;
8)当所得指尖坐标Pi(xi,yi,zi)与三维显示***显示的三维场景世界坐标重合时,处理器对接收到的IMU传感器数据信息进行特征提取,通过基于神经网络的识别算法确定使用者的手势,进而控制三维显示的图像进行对应的变换。
进一步地,相机的标定使用由近红外LED组成的发光点阵标板进行标定。
进一步地,使用基于连通域标记的快速中心点提取算法确定红外标志点在对应相机成像面的位置。
进一步地,步骤8)中,进行手势识别的过程如下:
8-1)对IMU传感器采集的各手指加速度值积分得各手指指尖的速率vi,其中i=1,2,3,4,5,设定速率阈值vr作为有效手势起始点的判定阈值,当满足:
v=max{vi|i=1,2,3,4,5}>vr
且满足上式的第一帧和最后一帧之间的数据帧数超过50帧,判定为有效手势;
8-2)对于有效手势,将从可穿戴设备中IMU传感器采集到的弯曲角度和旋转角度数据进行归一化处理,以此作为神经网络的输入数据;
8-3)对于所有采集数据的N个IMU传感器,每个弯曲角度和旋转角度数据可作为神经网络的一个输入节点,输入节点数据共构成一个N维向量X[N],X[i]为每个传感器归一化之后的数据,其中i=1,2,3...N;
8-4)依据下面三个最佳隐单元数参考公式之一确定隐含层单元数:
Figure BDA0002241178200000041
式中,k为样本数,n1为隐单元个数,n为输入神经元数;
Figure BDA0002241178200000042
式中,m为输出神经元数,a为[1,10]之间的常数;
n1=log2n
8-5)将X[N]输入到神经网络中进行训练,得到训练好的神经网络,神经网络的输入为归一化处理后的IMU传感器数据,输出为对应的手势标号的概率;记识别手势数为r,对要识别的手势从1至r进行标号,则输出层节点数据结构为r维的向量Y[r],向量中的元素Y[i]为该节点的输入节点值与相应权值的乘积。对于输入神经网络的X[N],输出层中数值最接近于1的节点的i值即为识别出的手势对应标号。处理器根据对应手势控制相应的图像变换,实现手势交互过程。
与现有技术相比,本发明的有益效果为:
1)使用近红光学定位***可以有效排除可见光对定位***的干扰,提升手部空间定位的准确性;
2)可穿戴设备比基于视觉的识别方法能更精确的获取手掌以及手指的姿态信息,精度更高,速度更快;
3)基于IMU传感器的可穿戴比基于柔性传感器的可穿戴设备使用寿命更长,***维护成本更低;
4)光学定位和可穿戴设备相结合的方案可以在手指姿态被部分遮挡情况下进行手势识别,较基于视觉的手势识别有更广的适用范围。
附图说明
图1为本发明实施例的用于360°悬浮式光场三维显示***的手势交互装置的示意图;
图2为本发明实施例的用于360°悬浮式光场三维显示***的手势交互装置的内部结构示意图;
图3为本发明实施例的用于360°悬浮式光场三维显示***的手势交互装置工作流程示意图;
图4为本发明实施例中人体手部关节角度关系示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合实施例及其附图对本发明进一步说明。
本发明提供的一种用于360°悬浮光场三维显示***的手势交互装置,包括用户佩戴的可穿戴设备、光学定位装置和处理器;
所述可穿戴设备中包含有放置于手指以及手掌处的至少7个IMU传感器,其中至少5个位于各手指远端指间关节处,至少1个位于大拇指基部关节处、至少1个位于手背中心处,用于探测各个手指的加速度、弯曲角度和手掌的加速度、旋转角度等姿态信息,所述可穿戴设备中安装有蓝牙模块,用于与处理器之间进行通讯,发送传感器数据和接收控制信息。所述蓝牙模块安装在可穿戴设备的手背处。
所述光学定位装置安装于显示***定向散射屏上方,用于采集手部位置信息,光学定位装置包括多个近红外相机组成的相机阵列和若干个红外标志点,光学定位装置中的近红外相机阵列关于散射屏中心左右对称放置,镜头方向朝向定向散射屏方向,近红外相机通过USB数据线向处理器传输数据信息,近红外相机CCD前置有可见光滤光片,使CCD仅能探测到与定位相关的近红外光,过滤与定位无关的背景可见光。所述红外标志点至少一个安装在可穿戴设备的手背中心处,红外标志点是主动发射式标志点,或者是被动反射式标志点,用于相机对手部关键点三维坐标的确定。
一种用于360°悬浮光场三维显示***的手势交互方法,包括以下步骤:
1)建立世界坐标系和手掌坐标系,手掌坐标系以手背中心处的红外标志点为原点,由此指向中指指尖方向为x轴正方向,手掌平面内垂直于x轴指向大拇指一侧的方向为y轴正方向,按右手准则得到z轴正方向,并进行可穿戴设备传感器的校准;
2)使用者佩戴可穿戴设备将手探入光学定位装置的可探测区域,近红外相机的标定使用由近红外LED组成的发光点阵标板进行标定,近红外相机阵列探测到红外标志点在相机成像面的图像信息,使用基于连通域标记的快速中心点提取算法提取红外标志点图像的中心点,确定红外标志点在对应相机成像面的位置;
3)对于同一时刻采集到的相机成像面的图像信息,将红外标志点在不同相机中的图像位置一一对应,建立立体匹配;
4)对立体匹配后的红外标志点在不同相机成像面上的世界坐标信息通过三角定位法确定手背处的红外标志点在世界坐标系下的位置坐标P(x,y,z);
5)根据手背处的红外标志点和手指各基部关节的距离关系,计算得到各手指基部关节在手掌坐标系下的位置坐标P″i(xi,yi,zi),其中i=1,2,3,4,5;
6)通过蓝牙模块读取手指处IMU传感器数据,当每根手指上仅安装有一个IMU传感器时,通过反向动力学还原出每根手指的各关节的角度;当每根手指上有至少两个IMU传感器时,由远端指间关节处的角度为近端指间关节处角度的三分之二,亦可以得到每根手指各个关节的角度。记手指每个关节处的弯曲角度θim,其中,i=1,2,3,4,5,m=1,2,3,分别对应每个手指的基部关节,中间关节,末端关节,根据手指各关节长度lim和弯曲角度θim可得到各指节在手掌坐标系各坐标轴上的投影长度Δxim,Δyim,Δzim,以各手指基部关节为计算基准得到各手指指尖在手掌坐标系下的坐标P′i(xi,yi,zi);
7)读取可穿戴设备上手背处的IMU传感器数据,得到手掌坐标系相对于世界坐标系的旋转矩阵R;根据步骤(4)中确定的手背处的红外标志点在世界坐标系下的坐标,得到手掌坐标系相对于世界坐标系的平移向量
Figure BDA0002241178200000064
以此计算出各指尖在世界坐标系下的坐标Pi(xi,yi,zi),
P′i(xi,yi,zi)和Pi(xi,yi,zi)满足关系
Figure BDA0002241178200000061
其中i=1,2,3,4,5;
8)当所得指尖坐标Pi(xi,yi,zi)与***显示的三维场景世界坐标重合时,处理器对收到的IMU传感器数据信息进行特征提取,通过基于神经网络的识别算法确定使用者的手势,进而控制三维显示的图像进行对应的变换;
进行手势识别的具体过程如下:
8-1)对IMU传感器加速度值积分得手指指尖的速率vi,其中i=1,2,3,4,5,设定速率阈值vr作为有效手势起始点的判定阈值,当满足:
v=max{vi|i=1,2,3,4,5}>vr
且第一次和最后一次满足该式之间的总数据帧数超过50帧时,判定为有效手势,进行手势数据分析;
8-2)对于有效手势,将从可穿戴设备中采集到的传感器数据进行归一化处理,以此作为神经网络的输入数据;
8-3)对于所有采集信息的N个IMU传感器,每个弯曲角度和旋转角度数据可作为神经网络的一个输入节点,输入节点数据共构成一个N维向量X[N],X[i]为每个传感器归一化之后的数据,其中i=1,2,3...N;
8-4)依据下面三个最佳隐单元数参考公式之一确定隐含层单元数:
Figure BDA0002241178200000062
式中,k为样本数,n1为隐单元个数,n为输入神经元数;
Figure BDA0002241178200000063
式中,m为输出神经元数,a为[1,10]之间的常数;
n1=log2n
8-5)将X[N]输入到神经网络中进行训练,得到训练好的神经网络,神经网络的输入为IMU传感器数据,输出为对应的手势;记识别手势数为r,对要识别的手势从1至r进行标号,则输出层节点数据结构为r维的向量Y[r],向量中的元素Y[i]为该节点的输入节点值与相应权值的乘积。对于输入神经网络的X[N],输出层中数值最接近于1的节点的i值即为识别出的手势对应标号。处理器根据对应手势控制相应的图像变换,实现手势交互过程。
实施例
如图1所示,所述360°悬浮三维显示***通过高速投影机003将图像同步投影到高速旋转的定向散射屏005上,实现360°可探入式悬浮三维光场显示。其中高速投影机的帧频为18000fps,定向散射屏005的转速为30r/s,定向散射屏005旋转一周接收投影600幅图像。定向散射屏005下的伺服电机006驱动屏幕在水平面内高速旋转,高速投影机003位于屏幕旋转中心正上方,投影机光轴与屏幕的旋转中心同轴以确保投影出来的图像没有畸变。***以此方式实现对显示点的光场重构,显示真三维场景。
本实施例中用于360°悬浮光场三维显示***的手势交互装置包括:
1安装在定向散射屏上方对称放置的两个工业相机,构成双目相机***,有效像素数为130万,分辨率为1280*720,帧率为34fps,相机001镜头朝向定向散射屏方向,双目相机001感光面前置有可见光滤光片,用于过滤掉可见光;
2设置在定向散射屏005上方的用于辅助照明的近红外LED灯002;
3用于采集手部姿态信息的可穿戴设备004,包括:10个放置于手指关节处的IMU传感器(每根手指上设有两个传感器,一个位于手指远端指间关节处,一个位于近端指间关节处),1个位于手背中心处的IMU传感器,1个位于大拇指基部关节处的IMU传感器;手背处设有一个模块,其中含有电源以及蓝牙发射与接收装置,用以同处理器进行通讯;
4可穿戴设备004手背处设有6个红外标志点,所述红外标志点选为反光标志点,6个标志点分别位于手指5个基部关节处和可穿戴设备004手背中心处,用于定位手指指尖的空间位置。
本实施例中,设备的参数以及个数可以根据***的实际需要改变。
本实施例中,由双目相机001,红外LED002以及红外标志点构成光学定位装置,当***开始工作时,光学定位装置通过双目相机001探测手掌的空间位置,然后计算手指指尖位置,当手指指尖位置与显示三维图形坐标重合时,开始进行手势识别,处理器根据可穿戴设备004传输的传感器信息判断手势信息,从而控制显示图形变换。
参见如图2和图3所示,手势交互***的具体实现过程如下:
(1)调整显示***周围的环境亮度至较暗状态;
(2)打开双目相机001,调整双目相机001的姿态和参数使清晰成像;
(3)使用近红外LED组成的发光点阵标板进行相机的内外参标定,其中标板上的近红外LED安装在标准棋盘格的角点处,采用张正友标定法进行标定;
(4)建立世界坐标系和手掌坐标系,手掌坐标系以手掌几何中心为原点,由此指向中指指尖方向为x轴正方向,手掌平面内垂直于x轴指向大拇指一侧的方向为y轴正方向,按右手准则得到z轴正方向,进行可穿戴设备的参数校准;
(5)打开近红外LED灯002,使用者佩戴可穿戴设备004将手探入光学定位装置的可探测区域内,近红外相机探测到反光标志点反射的红外光线,得到反光标志点在相机成像面图像信息;
(6)对获取到的图像进行特征点提取,提取反光标志点图像的中心点,确定特征点在对应相机像面的位置信息;
(7)对于同一时间采集到的图像信息,将6个反光标志点在不同相机中的图像位置一一对应,建立立体匹配;
(8)对立体匹配后的标志点在不同相机成像面上的坐标信息通过三角定位法确定其在空间的位置坐标P(x,y,z);
(9)根据手背处的反光标志点和手指各基部关节处的反光标志点的距离关系,计算得到各手指基部关节在手掌坐标系下的位置坐标P″i(xi,yi,zi),其中i=1,2,3,4,5;
(10)如图4所示,FPIP为近端指间关节,FDIP为远端指尖关节,通过蓝牙模块读取可穿戴设备004上手指处的IMU传感器数据,得到θ和θpIP,再根据
Figure BDA0002241178200000081
可以得到手指三个关节处的角度值。根据手指各关节长度l1,l2,l3和弯曲角度θ,θDIP,θpIP可得到各指节在手掌坐标系中各个坐标轴上的投影长度Δxim,Δyim,Δzim,以各手指基部关节为计算基准得到各手指指尖在手掌坐标系下的坐标P′i(xi,yi,zi);
(11)通过蓝牙模块读取可穿戴设备004上手背处的IMU传感器数据,得到手掌相对于世界坐标系在各个坐标轴方向上的旋转角度,进而得到手掌坐标系相对于世界坐标系的旋转矩阵R;根据手背处的反光标志点在世界坐标系下的坐标,得到手掌坐标系相对于世界坐标系的平移向量
Figure BDA0002241178200000082
以此计算出各指尖在世界坐标系下的坐标Pi(xi,yi,zi);
(12)P′i(xi,yi,zi)和Pi(xi,yi,zi)满足关系
Figure BDA0002241178200000091
其中i=1,2,3,4,5;
(13)当所得手指指尖位置坐标Pi(xi,yi,zi)与***显示的三维场景世界坐标重合时,对IMU传感器加速度值积分得手指指尖的速率vi,其中i=1,2,3,4,5,设定速率阈值vr作为有效手势起始点的判定阈值,当满足:v=max{vi|i=1,2,3,4,5}>vr,且满足该式的第一帧数据和最后一帧数据之间的总数据帧数超过50帧时,判定为有效手势,进行手势数据分析;
(14)将从可穿戴设备004中采集到的传感器数据进行归一化处理,以此作为神经网络的输入数据;
(15)对于所有采集信息的12个IMU传感器,每个弯曲角度和旋转角度数据可作为神经网络的一个输入节点,输入节点数据共构成一个12维向量X[n],其中n=12,X[i]为每个传感器归一化之后的数据,其中i=1,2,3,...,12;
(16)依据下面最佳隐单元参考公式确定隐含层单元数:
Figure BDA0002241178200000092
式中,m为输出神经元数,n1为隐单元个数,n为输入神经元数,n为12,a为[1,10]之间的常数。计算得出n1为10;
(17)选择BP神经网络,使用sigmoid函数作为激活函数,使用前述参数设置神经网络后,对神经网络进行训练,当神经网络输出误差小于0.001时,训练结束,存储当前神经网络各参数值;神经网络的输入为归一化处理后的IMU传感器数据,输出为对应的手势标号的概率;
(18)本实施例中待识别手势数为5,从1至5对应5种不同的手势,按次序对应标号,则输出层节点数据结构为5维的向量Y[5],向量中的元素Y[i]为该节点的输入节点值与相应权值的乘积。对于输入神经网络的X[12],输出层中数值最接近于1的节点的i值即为识别出的手势对应标号。处理器根据对应手势控制相应的图像变化,实现手势交互过程。
待完成以上所有步骤和处理完成之后,即可使得观测者完成与三维显示***之间的一次手势交互。重复步骤(5)~步骤(18)即可完成和显示***之间的连续交互。
本发明所述的基于光学定位和可穿戴设备的手势交互设备和方法,并不局限于上述实施例和显示***,也适用于其他大角度场景范围内的人机交互***和三维显示***的手势交互需求。
虽然这里是通过示意和举例的方式对本发明进行进一步描述的,但应该认识到,本发明并不局限于上述实施方式和实施例,前文的描述只被认为是说明性的,而非限制性的,本领域技术人员可以做出多种变换或修改,只要没有离开所附权利要求中所确立的范围和精神实质,均视为在本发明的保护范围之内。

Claims (7)

1.一种用于360°悬浮光场三维显示***的手势交互方法,其特征在于,该方法基于手势交互装置实现,包括用户佩戴的可穿戴设备、光学定位装置和处理器;
所述可穿戴设备中包含有安装在手指以及手掌处的IMU传感器,用于探测各个手指的加速度、弯曲角度和手掌的加速度、旋转角度等姿态信息,所述可穿戴设备中安装有蓝牙模块,用于与处理器之间进行通讯,发送传感器数据和接收控制信息;
所述光学定位装置安装于显示***定向散射屏上方,用于采集手部位置信息,光学定位装置包括多个近红外相机组成的相机阵列和若干个红外标志点,近红外相机通过USB数据线向处理器传输数据信息,所述红外标志点安装在可穿戴设备上,至少有一个在手背中心处;
手势交互包括以下步骤:
1)建立世界坐标系和手掌坐标系,并进行可穿戴设备传感器的校准;所述手掌坐标系以手背中心处的红外标志点为原点,由原点指向中指指尖方向为x轴正方向,手掌平面内垂直于x轴指向大拇指一侧的方向为y轴正方向,按右手准则得到z轴正方向;
2)使用者佩戴可穿戴设备将手探入光学定位装置的可探测区域,近红外相机阵列探测到红外标志点在相机成像面的图像信息,提取红外标志点图像的中心点,确定红外标志点在对应相机成像面的位置;
3)对于同一时刻采集到的相机成像面的图像信息,将红外标志点在不同相机中的图像位置一一对应,建立立体匹配;
4)对立体匹配后的红外标志点在不同相机成像面上的世界坐标信息通过三角定位法确定手背中心处的红外标志点在世界坐标系下的位置坐标P(x,y,z);
5)根据手背中心处的红外标志点和手指各基部关节的距离关系,计算得到手指各基部关节在手掌坐标系下的位置坐标P″i(xi,yi,zi),其中i=1,2,3,4,5;
6)通过蓝牙模块读取手指处IMU传感器数据,得到手指每个关节处的弯曲角度θim,其中,i=1,2,3,4,5,m=1,2,3,分别对应每个手指的基部关节,中间关节,末端关节,根据手指各关节长度limm和弯曲角度θim可得到各指节在手掌坐标系各坐标轴上的投影长度Δxim,Δyim,Δzim,以各手指基部关节为计算基准得到各手指指尖在手掌坐标系下的坐标P′i(xi,yi,zi);
7)读取可穿戴设备上手背处的IMU传感器数据,得到手掌坐标系相对于世界坐标系的旋转矩阵R;根据步骤(4)中确定的手背中心处的红外标志点在世界坐标系下的坐标,得到手掌坐标系相对于世界坐标系的平移向量
Figure FDA0002946200800000024
以此计算出各指尖在世界坐标系下的坐标Pi(xi,yi,zi);
P′i(xi,yi,zi)和Pi(xi,yi,zi)满足关系
Figure FDA0002946200800000021
其中i=1,2,3,4,5;
8)当所得指尖坐标Pi(xi,yi,zi)与三维显示***显示的三维场景世界坐标重合时,处理器对接收到的IMU传感器数据信息进行特征提取,通过基于神经网络的识别算法确定使用者的手势,进而控制三维显示的图像进行对应的变换;
进行手势识别的过程如下:
8-1)对IMU传感器采集的各手指加速度值积分得各手指指尖的速率vi,其中i=1,2,3,4,5,设定速率阈值vr作为有效手势起始点的判定阈值,当满足:
v=max{vi|i=1,2,3,4,5}>vr
且满足上式的第一帧和最后一帧之间的数据帧数超过50帧,判定为有效手势;
8-2)对于有效手势,将从可穿戴设备中IMU传感器采集到的弯曲角度和旋转角度数据进行归一化处理,以此作为神经网络的输入数据;
8-3)对于所有采集数据的N个IMU传感器,每个弯曲角度和旋转角度数据可作为神经网络的一个输入节点,输入节点数据共构成一个N维向量X[N],X[i]为每个传感器归一化之后的数据,其中i=1,2,3...N;
8-4)依据下面三个最佳隐单元数参考公式之一确定隐含层单元数:
Figure FDA0002946200800000022
式中,k为样本数,n1为隐单元个数,n为输入神经元数;
Figure FDA0002946200800000023
式中,m为输出神经元数,a为[1,10]之间的常数;
n1=log2n
8-5)将X[N]输入到神经网络中进行训练,得到训练好的神经网络,神经网络的输入为归一化处理后的IMU传感器数据,输出为对应的手势标号的概率;记识别手势数为r,对要识别的手势从1至r进行标号,则输出层节点数据结构为r维的向量Y[r],向量中的元素Y[i]为该节点的输入节点值与相应权值的乘积;对于输入神经网络的X[N],输出层中数值最接近于1的节点的i值即为识别出的手势对应标号;处理器根据对应手势控制相应的图像变换,实现手势交互过程。
2.根据权利要求1所述的手势交互方法,其特征在于:所述可穿戴设备中每只包含至少7个IMU传感器,其中至少5个位于各手指远端指间关节处,至少1个位于大拇指基部关节处,至少1个位于手背中心处,所述蓝牙模块安装在可穿戴设备的手背处。
3.根据权利要求1所述的手势交互方法,其特征在于:光学定位装置中的近红外相机阵列关于散射屏中心左右对称放置,镜头方向朝向定向散射屏方向,以确定手部的空间位置。
4.根据权利要求1所述的手势交互方法,其特征在于:所述红外标志点为主动发射式标志点,或者为被动反射式标志点,用于相机对手部关键点三维坐标的确定。
5.根据权利要求1所述的手势交互方法,其特征在于:近红外相机CCD前置有可见光滤光片,使CCD仅能探测到与定位相关的近红外光,过滤与定位无关的背景可见光。
6.根据权利要求1所述的手势交互方法,其特征在于:相机的标定使用由近红外LED组成的发光点阵标板进行标定。
7.根据权利要求1所述的手势交互方法,其特征在于:步骤2)中,使用基于连通域标记的快速中心点提取算法确定红外标志点在对应相机成像面的位置。
CN201911000554.0A 2019-10-21 2019-10-21 一种用于360°悬浮光场三维显示***的手势交互装置和方法 Active CN110865704B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911000554.0A CN110865704B (zh) 2019-10-21 2019-10-21 一种用于360°悬浮光场三维显示***的手势交互装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911000554.0A CN110865704B (zh) 2019-10-21 2019-10-21 一种用于360°悬浮光场三维显示***的手势交互装置和方法

Publications (2)

Publication Number Publication Date
CN110865704A CN110865704A (zh) 2020-03-06
CN110865704B true CN110865704B (zh) 2021-04-27

Family

ID=69652283

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911000554.0A Active CN110865704B (zh) 2019-10-21 2019-10-21 一种用于360°悬浮光场三维显示***的手势交互装置和方法

Country Status (1)

Country Link
CN (1) CN110865704B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111722713A (zh) * 2020-06-12 2020-09-29 天津大学 多模态融合的手势键盘输入方法、设备、***及存储介质
CN112306305B (zh) * 2020-10-28 2021-08-31 黄奎云 三维触摸装置
CN112927290A (zh) * 2021-02-18 2021-06-08 青岛小鸟看看科技有限公司 基于传感器的裸手数据标注方法及***
CN113093911B (zh) * 2021-04-09 2023-06-30 浙江大学 一种面向三维交互输入的智能指环及其交互方法
CN115812173A (zh) * 2021-05-20 2023-03-17 京东方科技集团股份有限公司 在立体显示设备中动态显示三维图像对象的方法、动态立体显示设备和计算机程序产品
CN113223344B (zh) * 2021-05-25 2022-08-23 湖南汽车工程职业学院 一种基于大数据的艺术设计用专业教学展示***
CN114245542B (zh) * 2021-12-17 2024-03-22 深圳市恒佳盛电子有限公司 一种雷达感应灯及其控制方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108256504A (zh) * 2018-02-11 2018-07-06 苏州笛卡测试技术有限公司 一种基于深度学习的三维动态手势识别方法
CN109635621A (zh) * 2017-10-07 2019-04-16 塔塔顾问服务有限公司 用于第一人称视角中基于深度学习识别手势的***和方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI471757B (zh) * 2013-01-31 2015-02-01 Pixart Imaging Inc 懸浮及點擊手勢偵測裝置
CN104298065B (zh) * 2014-05-07 2017-01-25 浙江大学 基于多台高速投影机拼接的360°三维显示装置和方法
CN106019592A (zh) * 2016-07-15 2016-10-12 中国人民解放军63908部队 一种增强现实光学透射式头盔显示前置电路及其控制方法
CN207268857U (zh) * 2017-07-28 2018-04-24 山东师范大学 一种动态三维手势识别装置
US10809796B2 (en) * 2017-09-29 2020-10-20 Apple Inc. Monitoring a user of a head-wearable electronic device
JP6745852B2 (ja) * 2018-01-24 2020-08-26 アップル インコーポレイテッドApple Inc. 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース
CN108932500B (zh) * 2018-07-09 2019-08-06 广州智能装备研究院有限公司 一种基于深度神经网络的动态手势识别方法及***
CN109753153B (zh) * 2018-12-26 2020-05-22 浙江大学 用于360°悬浮光场三维显示***的触觉交互装置及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635621A (zh) * 2017-10-07 2019-04-16 塔塔顾问服务有限公司 用于第一人称视角中基于深度学习识别手势的***和方法
CN108256504A (zh) * 2018-02-11 2018-07-06 苏州笛卡测试技术有限公司 一种基于深度学习的三维动态手势识别方法

Also Published As

Publication number Publication date
CN110865704A (zh) 2020-03-06

Similar Documents

Publication Publication Date Title
CN110865704B (zh) 一种用于360°悬浮光场三维显示***的手势交互装置和方法
US10818092B2 (en) Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
US10488659B2 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和***
US9986228B2 (en) Trackable glasses system that provides multiple views of a shared display
EP3035164B1 (en) Wearable sensor for tracking articulated body-parts
CN117120962A (zh) 用于控制虚拟和图形元素的映射手部区域之间的双手交互
CN116324677A (zh) 响应于检测到的手势的非接触式照片捕获
CN116724285A (zh) 用于控制虚拟和图形元素的微手势
US20170357332A1 (en) Six dof mixed reality input by fusing inertial handheld controller with hand tracking
US20160202844A1 (en) Interactive input system and method
TWI540461B (zh) 手勢輸入的方法及系統
US20150124086A1 (en) Hand and object tracking in three-dimensional space
CN107357428A (zh) 基于手势识别的人机交互方法及装置、***
US20140168261A1 (en) Direct interaction system mixed reality environments
EP1074934A2 (en) Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
KR20100017212A (ko) 볼륨 인식 방법 및 시스템
CN111857365B (zh) 用于头戴式设备的基于触笔的输入
CN109804220A (zh) 用于跟踪头部和眼睛的运动和姿势的***和方法
EP3413165B1 (en) Wearable system gesture control method and wearable system
CN109145802B (zh) 基于Kinect的多人手势人机交互方法及装置
US20180278921A1 (en) Quad view display system
CN109471533B (zh) 一种vr/ar教室内的学生端***及其使用方法
CN112657176A (zh) 一种结合人像行为信息的双目投影人机交互方法
CN106919928A (zh) 手势识别***、方法及显示设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant