CN112927290A - 基于传感器的裸手数据标注方法及*** - Google Patents

基于传感器的裸手数据标注方法及*** Download PDF

Info

Publication number
CN112927290A
CN112927290A CN202110190107.7A CN202110190107A CN112927290A CN 112927290 A CN112927290 A CN 112927290A CN 202110190107 A CN202110190107 A CN 202110190107A CN 112927290 A CN112927290 A CN 112927290A
Authority
CN
China
Prior art keywords
sensor
data
position information
dimensional position
bare hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110190107.7A
Other languages
English (en)
Inventor
吴涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Xiaoniao Kankan Technology Co Ltd
Original Assignee
Qingdao Xiaoniao Kankan Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Xiaoniao Kankan Technology Co Ltd filed Critical Qingdao Xiaoniao Kankan Technology Co Ltd
Priority to CN202110190107.7A priority Critical patent/CN112927290A/zh
Publication of CN112927290A publication Critical patent/CN112927290A/zh
Priority to PCT/CN2021/116299 priority patent/WO2022174574A1/zh
Priority to US17/816,412 priority patent/US20220366717A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Vascular Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于传感器的裸手数据标注方法及***,其中的方法包括:对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取传感器相对深度相机的坐标转换数据;通过深度相机采集裸手的深度图像,同时通过传感器采集与深度图像对应的裸手的传感器所在数骨骼点的6DoF数据;基于6DoF数据以及坐标转换数据,获取预设个数骨骼点相对深度相机的坐标下的三维位置信息;基于预设个数骨骼点的三维位置信息,确定预设个数骨骼点在深度图像上的二维位置信息;通过二维位置信息及三维位置信息对深度图像中的所有骨骼点进行关节信息标注。利用上述发明能够结合计算机视觉和传感器技术,快速、准确的对图像数据进行标注。

Description

基于传感器的裸手数据标注方法及***
技术领域
本发明涉及图像标注技术领域,更为具体地,涉及一种基于传感器的裸手数据标注方法及***。
背景技术
由于裸手追踪技术在VR/AR/MR场景体验中的轻交互占据着比较重要的位置,所以对裸手追踪的精度、延时以及对环境的兼容稳定性要求均比较高,为了更好的解决这一问题,目前裸手追踪的主流方案大都会采用基于AI的算法架构,需要采集大量的图像训练数据,通过对每一张图像数据进行标注,然后进行卷积神经网络的训练学习,通过多次训练和大数据集,最终希望获取一个高精度,高稳定性的裸手追踪的卷积神经网络模型。
目前,裸手追踪的AI网络模型的精度和稳定性与训练数据量的大小、训练数据对应的场景环境的丰富度,以及裸手姿态的丰富度息息相关。通常要求识别率95%以上的准确率和稳定性,训练数据量最少在200万张图像以上。目前比较常用的训练数据的采集获取方式主要有两种:一种是通过untity图形图像渲染合成获取,另外一种是直接通过深度相机采集深度图像数据,通过人工标注每一张图像上每一只手的关键位置坐标,然后通过半监督式进一步进行数据采集和数据标注精度的确认和纠正。
但是,以上两种数据采集方式,采集的数据标注效率、质量、采集环境场景背景的丰富程度都存在一定的局限性,浪费人力物力,不能快速获取大量的高质量训练数据,进而导致训练出的AI网络模型达不到训练精度的期望。
发明内容
鉴于上述问题,本发明的目的是提供一种基于传感器的裸手数据标注方法及***,以解决目前采用人工进行数据标注存在的局限性,影响后期模型训练精度等问题。
本发明提供的基于传感器的裸手数据标注方法,包括:对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取传感器相对深度相机的坐标转换数据;同时,通过深度相机采集裸手的深度图像,同时通过传感器采集与深度图像对应的裸手的传感器所在骨骼点的6DoF数据;基于6DoF数据以及坐标转换数据,获取裸手的预设个数骨骼点相对深度相机的坐标下的三维位置信息;基于预设个数骨骼点的三维位置信息,确定预设个数骨骼点在深度图像上的二维位置信息;通过二维位置信息及三维位置信息对深度图像中的所有骨骼点进行关节信息标注。
此外,优选的技术方案是,对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取传感器相对深度相机的坐标转换数据的过程包括:通过张正友标定方法获取深度相机的内参;控制安装有传感器的样本裸手按照预设方式在距离深度相机预设范围内进行运动;通过深度相机拍摄样本裸手的样本深度图像,并基于图像处理算法获取传感器所在位置的骨骼点在样本深度图像中的二维坐标;基于二维坐标和PNP算法获取深度相机和传感器之间的坐标转换数据;其中,坐标转换数据包括深度相机和传感器的坐标系之间的旋转参数和平移参数。
此外,优选的技术方案是,预设范围为50cm~70cm。
此外,优选的技术方案是,获取预设个数骨骼点相对深度相机的坐标下的三维位置信息的过程包括:采集裸手的各手指的各关节的骨长数据及各手指的厚度数据;根据骨长数据、厚度数据及坐标转换数据获取裸手的各手指的TIP骨骼点和DIP骨骼点的三维位置信息;基于TIP骨骼点和DIP骨骼点的三维位置信息及骨长数据获取裸手的对应手指的PIP骨骼点和MCP骨骼点的三维位置信息。
此外,优选的技术方案是,手指的TIP骨骼点的三维位置信息的获取公式为:
TIP=L(S)+d1v1+rv2
手指的DIP骨骼点的三维位置信息的获取公式为:
TIP=L(S)+d1v1+rv2
其中,d1+d2=b,b表示TIP骨骼点与DIP骨骼点之间的骨长数据,L(s)表示手指的指尖位置的传感器相对深度相机的坐标下的三维位置信息,r表示手指的厚度数据的一半,v1表示指尖位置的6DoF数据中在Y轴方向上的旋转分量,v2表示指尖位置的6DoF数据中在Z轴方向上的旋转分量。
此外,优选的技术方案是,基于三维位置信息及骨长数据获取裸手的对应手指的PIP骨骼点和MCP骨骼点的三维位置信息的过程包括:基于骨长数据获取PIP骨骼点与DIP骨骼点之间的差值的第一范数||PIP-DIP||;基于第一范数以及DIP骨骼点的三维位置信息确定PIP骨骼点的三维位置信息;同时,基于骨长数据获取PIP骨骼点与MCP骨骼点之间的差值的第二范数||PIP-MCP||;基于第二范数以及PIP骨骼点的三维位置信息确定MCP骨骼点的三维位置信息。
此外,优选的技术方案是,预设个数骨骼点包括21个骨骼点;其中,21个骨骼点包括裸手的5个手指的各3个关节点和1个指尖位置点,以及裸手的1个腕关节点。
此外,优选的技术方案是,腕关节点的关节信息包括:腕关节点处的传感器在深度图像上的二维位置信息,以及腕关节点处的传感器的6DoF数据相对深度相机坐标下的三维位置信息。
此外,优选的技术方案是,预设在裸手指定位置的传感器包括:设置在裸手的5个手指的指尖位置的传感器以及设置在裸手的手掌中心背面位置的传感器;并且,传感器包括电磁传感器或者光纤传感器。
根据本发明的另一方面,提供一种基于传感器的裸手数据标注***,包括:坐标转换数据获取单元,用于对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取传感器相对深度相机的坐标转换数据;深度图像及6DoF数据采集单元,用于通过深度相机采集裸手的深度图像,同时通过传感器采集与深度图像对应的裸手的传感器所在骨骼点的6DoF数据;三维位置信息获取单元,用于基于6DoF数据以及坐标转换数据,获取裸手的预设个数骨骼点相对深度相机的坐标下的三维位置信息;二维位置信息获取单元,用于基于预设个数骨骼点的三维位置信息,确定预设个数骨骼点在深度图像上的二维位置信息;关节信息标注单元,用于通过二维位置信息及三维位置信息对深度图像中的所有骨骼点进行关节信息标注。
利用上述基于传感器的裸手数据标注方法及***,通过深度相机采集裸手的深度图像,同时通过传感器采集传感器所在骨骼点的6DoF数据,进而基于6DoF数据以及坐标转换数据,获取预设个数骨骼点相对深度相机的坐标下的三维位置信息和二维位置信息,并通过二维位置信息及三维位置信息对深度图像中的所有骨骼点进行关节信息标注,数据标注效率、质量、采集环境场景背景的丰富程度都能得到保证,有利于提高利用标注信息进行AI网络模型训练的精度。
为了实现上述以及相关目的,本发明的一个或多个方面包括后面将详细说明的特征。下面的说明以及附图详细说明了本发明的某些示例性方面。然而,这些方面指示的仅仅是可使用本发明的原理的各种方式中的一些方式。此外,本发明旨在包括所有这些方面以及它们的等同物。
附图说明
通过参考以下结合附图的说明,并且随着对本发明的更全面理解,本发明的其它目的及结果将更加明白及易于理解。在附图中:
图1为根据本发明实施例的基于传感器的裸手数据标注方法的流程图;
图2示出了根据本发明实施例的骨长数据测量示意图;
图3示出了根据本发明实施例的裸手的骨骼点模型示意图;
图4为根据本发明实施例的基于传感器的裸手数据标注***的原理图;
图5为根据本发明实施例的电子装置的示意图。
在所有附图中相同的标号指示相似或相应的特征或功能。
具体实施方式
在下面的描述中,出于说明的目的,为了提供对一个或多个实施例的全面理解,阐述了许多具体细节。然而,很明显,也可以在没有这些具体细节的情况下实现这些实施例。在其它例子中,为了便于描述一个或多个实施例,公知的结构和设备以方框图的形式示出。
为详细描述本发明的基于传感器的裸手数据标注方法及***,以下将结合附图对本发明的具体实施例进行详细描述。
图1示出了根据本发明实施例的基于传感器的裸手数据标注方法的流程。
如图1所示,本发明实施例的基于传感器的裸手数据标注方法,包括:
S110:对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取传感器相对深度相机的坐标转换数据。
其中,在本发明的基于传感器的裸手数据标注方法中,涉及的传感器可采用追踪数据质量稳定的电磁传感器或者光纤传感器等多种类型的传感器,具体可设置6个6DoF的电磁传感器(模组)、一个信号转送器和两个硬件同步电磁跟踪单元,6个电磁传感器可通过两个硬件同步电磁跟踪单元进行物理同步,即确保6个电磁传感器输出的6DoF数据是同一物理时刻发生的运动数据;在应用过程中,传感器的外径尺寸小于3mm,该尺寸越小越好,能够让佩戴传感器的手指,不被深度相机捕捉到它的图像信息,确保数据采集的精度和准确性。
此外,深度相机可采用常规普通的相机,深度图像的参数可根据相机进行选取或者自行设定等,例如深度图像数据的采集帧率可设置为60Hz,分辨率可设置为640*480等。
具体地,对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取传感器相对深度相机的坐标转换数据的过程包括:
1、通过张正友标定方法获取深度相机的内参。
2、控制安装有传感器的样本裸手按照预设方式在距离深度相机预设范围内进行运动;其中,预设范围可设置为50cm~70cm。
具体地,样本裸手运动的预设方式主要是指:样本裸手的运动保证在每一帧的深度相机拍摄的图像上,使其6个传感器对应的样本裸手的位置都能清晰成像,尽量不要存在样本裸手相对深度相机遮挡的现象。
3、通过深度相机拍摄样本裸手的样本深度图像,并基于图像处理算法获取传感器所在位置的骨骼点在样本深度图像中的二维坐标。
4、基于二维坐标和PNP算法获取深度相机和传感器之间的坐标转换数据;其中,坐标转换数据包括深度相机和传感器的坐标系之间的旋转参数和平移参数。
具体地,将5个6DoF传感器分别按照一定固定方式佩戴在样本裸手的5根手指的指尖位置,另外1个6DoF传感器佩戴在样本裸手的手掌中心的背面位置,然后通过深度相机拍摄佩戴有传感器的样本裸手的样本深度图像,并获取传感器所在位置点(骨骼点)的二维坐标,最终根据该二维坐标确定深度相机和传感器之间的坐标转换数据。
S120:通过深度相机采集裸手的深度图像,同时通过传感器采集与深度图像对应的裸手的传感器所在骨骼点的6DoF数据。
其中,深度相机采集的裸手的深度图像可以实时同步获取6个传感器的6DoF数据相对深度相机坐标下的6个三维位置信息和在深度图像上的二维位置信息。需要说明的是,该步骤S120可以与S110步骤同时进行,也可先进行设备标定处理再采集的深度图像和6DoF数据。
S130:基于6DoF数据以及坐标转换数据,获取裸手的预设个数骨骼点相对深度相机的坐标下的三维位置信息。
具体地,获取预设个数骨骼点相对深度相机的坐标下的三维位置信息的过程包括:
1、采集裸手的各手指的各关节的骨长数据及各手指的厚度数据;
2、根据骨长数据、厚度数据及坐标转换数据获取裸手的各手指的TIP骨骼点和DIP骨骼点的三维位置信息;
3、基于TIP骨骼点和DIP骨骼点的三维位置信息及骨长数据获取裸手的对应手指的PIP骨骼点和MCP骨骼点的三维位置信息。
其中,图2示出了根据本发明实施例的骨长数据测量示意结构,图3示出了根据本发明实施例的裸手的骨骼点模型示意结构。
如图2和图3共同所示,本发明实施例的预设个数骨骼点包括21个骨骼点;其中,21个骨骼点包括裸手的5个手指的各3个关节点和1个指尖位置点,以及裸手的1个腕关节点。并且,在每一根手指中,由上至下依次的骨骼点表示为TIP骨骼点、DIP骨骼点、PIP骨骼点和MCP骨骼点,根据仿生规则,假定每一个手指上的4个骨骼点均位于同一个平面上,图3中仅示出了一根手指的骨骼点结构。
在本发明的一个具体实施方式中,手指的TIP骨骼点的三维位置信息的获取公式为:
TIP=L(S)+d1v1+rv2
另外,手指的DIP骨骼点的三维位置信息的获取公式为:
TIP=L(S)+d1v1+rv2
其中,d1+d2=b,b表示TIP骨骼点与DIP骨骼点之间的骨长数据,L(s)表示手指的指尖位置的传感器相对深度相机的坐标下的三维位置信息,r表示手指的厚度数据的一半,v1表示指尖位置的6DoF数据中在Y轴方向上的旋转分量,v2表示指尖位置的6DoF数据中在Z轴方向上的旋转分量。
可知,当获取TIP骨骼点和DIP骨骼点的三维位置信息后,可据此及骨长数据进一步获取当前手指的其他骨骼点的三维位置信息。
具体地,基于三维位置信息及骨长数据获取裸手的对应手指的PIP骨骼点和MCP骨骼点的三维位置信息的过程包括:
1、基于骨长数据获取PIP骨骼点与DIP骨骼点之间的差值的第一范数||PIP-DIP‖;进而基于第一范数以及DIP骨骼点的三维位置信息确定PIP骨骼点的三维位置信息。同时,
2、基于骨长数据获取PIP骨骼点与MCP骨骼点之间的差值的第二范数||PIP-MCP‖;进而基于第二范数以及PIP骨骼点的三维位置信息确定MCP骨骼点的三维位置信息。
根据上述各步骤的处理,可获取裸手的所有手指的骨骼点的三维位置信息,即获取裸手的21个骨骼点的三维位置信息。
需要说明的是,由于腕关节点的位置比较特殊,该骨骼点的关节信息包括:腕关节点处的传感器在深度图像上的二维位置信息,以及基于坐标转换数据获取的腕关节点处的传感器的6DoF数据相对深度相机坐标下的三维位置信息。换言之,裸手手掌的腕关节的传感器的三维位置信息对应的深度图像的二维位置坐标和相对深度相机坐标系下的三维位置信息即为深度相机坐标系下的腕关节信息。
S140:基于预设个数骨骼点的三维位置信息,确定预设个数骨骼点在深度图像上的二维位置信息。
在获取所有骨骼点的三维位置信息后,可通过在对应深度图像上进行投影,获取与三维位置信息对应的二维位置信息;当前,深度图像上也可直接获取传感器所在骨骼点的二维位置信息,本发明中并不对该信息的各种获取方式进行特殊限定。
S150:通过二维位置信息及三维位置信息对深度图像中的所有骨骼点进行关节信息标注。
可知,本发明的基于传感器的裸手数据标注方法,能够直接获取每一张图像数据的各个关键点的二维坐标和三维坐标信息,可提高深度数据的数据标注精度和标注效率,且标注精度的一致性也能得到保证。
为提供标注数据的准确性,在本发明的基于传感器的裸手数据标注方法中,6个传感器稳定按照800Hz采集裸手的运动6DoF数据,在采集过程中不能出现传感器6DoF数据的漂移和抖动现象。此外,还需要一个高性能的PC电脑与深度相机和传感器连接,用于分别采集深度相机的深度图像数据和电磁追踪单元的6个传感器的运动数据。
其中,高性能的PC电脑同时采集6个传感器的6DoF数据和深度相机的深度图像数据,同时分别赋予6DoF数据和深度图像数据一个***时间戳,6个6DoF数据的时间戳是同一个***时间戳,由于深度相机和传感器没有物理同步,两个数据的同步是通过根据每一个深度图像数据对应的时间戳,查找和该时间戳对应最近的6DoF数据,两个时间戳的差值最大在0.7ms,即可认为该两组数据是裸手在空间运动同一时刻发生的手部姿态运动数据。
与上述基于传感器的裸手数据标注方法相对应,本发明还提供一种基于传感器的裸手数据标注***。
具体地,图4示出了根据本发明实施例的基于传感器的裸手数据标注***的示意逻辑。如图4所示,基于传感器的裸手数据标注***200包括:
坐标转换数据获取单元210,用于对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取传感器相对深度相机的坐标转换数据。
深度图像及6DoF数据采集单元220,用于通过深度相机采集裸手的深度图像,同时通过传感器采集与深度图像对应的裸手的传感器所在骨骼点的6DoF数据。
三维位置信息获取单元230,用于基于6DoF数据以及坐标转换数据,获取裸手的预设个数骨骼点相对深度相机的坐标下的三维位置信息。
二维位置信息获取单元240,用于基于预设个数骨骼点的三维位置信息,确定预设个数骨骼点在深度图像上的二维位置信息。
关节信息标注单元250,用于通过二维位置信息及三维位置信息对深度图像中的所有骨骼点进行关节信息标注。
对应地,本发明还提供一种电子装置,图5示出了根据本发明实施例的电子装置的示意结构。
如图5所示,本发明的电子装置1可以是VR/AR/MR头戴式一体机设备、服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有运算功能的终端设备。其中,该电子装置1包括:处理器12、存储器11、网络接口14及通信总线15。
其中,存储器11包括至少一种类型的可读存储介质。所述至少一种类型的可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器11等的非易失性存储介质。在一些实施例中,所述可读存储介质可以是所述电子装置1的内部存储单元,例如该电子装置1的硬盘。在另一些实施例中,所述可读存储介质也可以是所述电子装置1的外部存储器11,例如所述电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。
在本实施例中,所述存储器11的可读存储介质通常用于存储安装于所述电子装置1的基于传感器的裸手数据标注程序10等。所述存储器11还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行基于传感器的裸手数据标注程序10等。
网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该电子装置1与其他电子设备之间建立通信连接。
通信总线15用于实现这些组件之间的连接通信。
图5仅示出了具有组件11-15的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,该电子装置1还可以包括用户接口,用户接口可以包括输入单元比如键盘(Keyboard)、语音输入装置比如麦克风(microphone)等具有语音识别功能的设备、语音输出装置比如音响、耳机等,可选地用户接口还可以包括标准的有线接口、无线接口。
可选地,该电子装置1还可以包括显示器,显示器也可以称为显示屏或显示单元。在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。显示器用于显示在电子装置1中处理的信息以及用于显示可视化的用户界面。
可选地,该电子装置1还包括触摸传感器。所述触摸传感器所提供的供用户进行触摸操作的区域称为触控区域。此外,这里所述的触摸传感器可以为电阻式触摸传感器、电容式触摸传感器等。而且,所述触摸传感器不仅包括接触式的触摸传感器,也可包括接近式的触摸传感器等。此外,所述触摸传感器可以为单个传感器,也可以为例如阵列布置的多个传感器。
在图1所示的装置实施例中,作为一种计算机存储介质的存储器11中可以包括操作***以及基于传感器的裸手数据标注程序10;处理器12执行存储器11中存储的基于传感器的裸手数据标注程序10时实现如基于传感器的裸手数据标注方法及***方法所示的步骤。
本发明还提供的计算机可读存储介质的具体实施方式与上述基于传感器的裸手数据标注方法、***及电子装置的具体实施方式大致相同,在此不再赘述,各方法、***及电子装置之间也可相互参考。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
如上参照附图以示例的方式描述根据本发明的基于传感器的裸手数据标注方法及***。但是,本领域技术人员应当理解,对于上述本发明所提出的基于传感器的裸手数据标注方法及***,还可以在不脱离本发明内容的基础上做出各种改进。因此,本发明的保护范围应当由所附的权利要求书的内容确定。

Claims (10)

1.一种基于传感器的裸手数据标注方法,其特征在于,包括:
对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取所述传感器相对所述深度相机的坐标转换数据;同时,
通过所述深度相机采集所述裸手的深度图像,同时通过所述传感器采集与所述深度图像对应的所述裸手的传感器所在骨骼点的6DoF数据;
基于所述6DoF数据以及所述坐标转换数据,获取所述裸手的预设个数骨骼点相对所述深度相机的坐标下的三维位置信息;
基于所述预设个数骨骼点的三维位置信息,确定所述预设个数骨骼点在所述深度图像上的二维位置信息;
通过所述二维位置信息及所述三维位置信息对所述深度图像中的所有骨骼点进行关节信息标注。
2.如权利要求1所述的基于传感器的裸手数据标注方法,其特征在于,所述对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取所述传感器相对所述深度相机的坐标转换数据的过程包括:
通过张正友标定方法获取所述深度相机的内参;
控制安装有所述传感器的样本裸手按照预设方式在距离所述深度相机预设范围内进行运动;
通过所述深度相机拍摄所述样本裸手的样本深度图像,并基于图像处理算法获取所述传感器所在位置的骨骼点在所述样本深度图像中的二维坐标;
基于所述二维坐标和PNP算法获取所述深度相机和所述传感器之间的坐标转换数据;其中,所述坐标转换数据包括所述深度相机和所述传感器的坐标系之间的旋转参数和平移参数。
3.如权利要求2所述的基于传感器的裸手数据标注方法,其特征在于,所述预设范围为50cm~70cm。
4.如权利要求1所述的基于传感器的裸手数据标注方法,其特征在于,所述获取所述预设个数骨骼点相对所述深度相机的坐标下的三维位置信息的过程包括:
采集所述裸手的各手指的各关节的骨长数据及所述各手指的厚度数据;
根据所述骨长数据、所述厚度数据及所述坐标转换数据获取所述裸手的各手指的TIP骨骼点和DIP骨骼点的三维位置信息;
基于所述TIP骨骼点和DIP骨骼点的三维位置信息及所述骨长数据获取所述裸手的对应手指的PIP骨骼点和MCP骨骼点的三维位置信息。
5.如权利要求4所述的基于传感器的裸手数据标注方法,其特征在于,所述手指的TIP骨骼点的三维位置信息的获取公式为:
TIP=L(S)+d1v1+rv2
所述手指的DIP骨骼点的三维位置信息的获取公式为:
TIP=L(S)+d1v1+rv2
其中,d1+d2=b,b表示所述TIP骨骼点与所述DIP骨骼点之间的骨长数据,L(s)表示所述手指的指尖位置的传感器相对所述深度相机的坐标下的三维位置信息,r表示所述手指的厚度数据的一半,v1表示所述指尖位置的6DoF数据中在Y轴方向上的旋转分量,v2表示所述指尖位置的6DoF数据中在Z轴方向上的旋转分量。
6.如权利要求4所述的基于传感器的裸手数据标注方法,其特征在于,所述基于所述三维位置信息及所述骨长数据获取所述裸手的对应手指的PIP骨骼点和MCP骨骼点的三维位置信息的过程包括:
基于所述骨长数据获取所述PIP骨骼点与所述DIP骨骼点之间的差值的第一范数||PIP-DIP||;
基于所述第一范数以及所述DIP骨骼点的三维位置信息确定所述PIP骨骼点的三维位置信息;同时,
基于所述骨长数据获取所述PIP骨骼点与所述MCP骨骼点之间的差值的第二范数||PIP-MCP||;
基于所述第二范数以及所述PIP骨骼点的三维位置信息确定所述MCP骨骼点的三维位置信息。
7.如权利要求1所述的基于传感器的裸手数据标注方法,其特征在于,所述预设个数骨骼点包括21个骨骼点;其中,
所述21个骨骼点包括所述裸手的5个手指的各3个关节点和1个指尖位置点,以及所述裸手的1个腕关节点。
8.如权利要求7所述的基于传感器的裸手数据标注方法,其特征在于,所述腕关节点的关节信息包括:
所述腕关节点处的传感器在所述深度图像上的二维位置信息,以及所述腕关节点处的传感器的6DoF数据相对所述深度相机坐标下的三维位置信息。
9.如权利要求1所述的基于传感器的裸手数据标注方法,其特征在于,所述预设在所述裸手指定位置的传感器包括:
设置在所述裸手的5个手指的指尖位置的传感器以及设置在所述裸手的手掌中心背面位置的传感器;并且,
所述传感器包括电磁传感器或者光纤传感器。
10.一种基于传感器的裸手数据标注***,其特征在于,包括:
坐标转换数据获取单元,用于对深度相机和预设在裸手指定位置的传感器进行设备标定处理,获取所述传感器相对所述深度相机的坐标转换数据;
深度图像及6DoF数据采集单元,用于通过所述深度相机采集所述裸手的深度图像,同时通过所述传感器采集与所述深度图像对应的所述裸手的传感器所在骨骼点的6DoF数据;
三维位置信息获取单元,用于基于所述6DoF数据以及所述坐标转换数据,获取所述裸手的预设个数骨骼点相对所述深度相机的坐标下的三维位置信息;
二维位置信息获取单元,用于基于所述预设个数骨骼点的三维位置信息,确定所述预设个数骨骼点在所述深度图像上的二维位置信息;
关节信息标注单元,用于通过所述二维位置信息及所述三维位置信息对所述深度图像中的所有骨骼点进行关节信息标注。
CN202110190107.7A 2021-02-18 2021-02-18 基于传感器的裸手数据标注方法及*** Pending CN112927290A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110190107.7A CN112927290A (zh) 2021-02-18 2021-02-18 基于传感器的裸手数据标注方法及***
PCT/CN2021/116299 WO2022174574A1 (zh) 2021-02-18 2021-09-02 基于传感器的裸手数据标注方法及***
US17/816,412 US20220366717A1 (en) 2021-02-18 2022-07-30 Sensor-based Bare Hand Data Labeling Method and System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110190107.7A CN112927290A (zh) 2021-02-18 2021-02-18 基于传感器的裸手数据标注方法及***

Publications (1)

Publication Number Publication Date
CN112927290A true CN112927290A (zh) 2021-06-08

Family

ID=76169884

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110190107.7A Pending CN112927290A (zh) 2021-02-18 2021-02-18 基于传感器的裸手数据标注方法及***

Country Status (3)

Country Link
US (1) US20220366717A1 (zh)
CN (1) CN112927290A (zh)
WO (1) WO2022174574A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022174574A1 (zh) * 2021-02-18 2022-08-25 青岛小鸟看看科技有限公司 基于传感器的裸手数据标注方法及***

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113238650B (zh) * 2021-04-15 2023-04-07 青岛小鸟看看科技有限公司 手势识别和控制的方法、装置及虚拟现实设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718879A (zh) * 2016-01-19 2016-06-29 华南理工大学 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法
CN106346485A (zh) * 2016-09-21 2017-01-25 大连理工大学 基于人手运动姿态学习的仿生机械手的非接触式控制方法
CN108346168A (zh) * 2018-02-12 2018-07-31 腾讯科技(深圳)有限公司 一种手势图像生成方法、装置及存储介质
US20180253856A1 (en) * 2017-03-01 2018-09-06 Microsoft Technology Licensing, Llc Multi-Spectrum Illumination-and-Sensor Module for Head Tracking, Gesture Recognition and Spatial Mapping
CN108919943A (zh) * 2018-05-22 2018-11-30 南京邮电大学 一种基于深度传感器的实时手部追踪方法
CN110865704A (zh) * 2019-10-21 2020-03-06 浙江大学 一种用于360°悬浮光场三维显示***的手势交互装置和方法
CN111696140A (zh) * 2020-05-09 2020-09-22 青岛小鸟看看科技有限公司 基于单目的三维手势追踪方法
CN111773027A (zh) * 2020-07-03 2020-10-16 上海师范大学 一种柔性驱动的手功能康复机器人控制***及控制方法
CN112083800A (zh) * 2020-07-24 2020-12-15 青岛小鸟看看科技有限公司 基于自适应手指关节规则滤波的手势识别方法及***
CN112083801A (zh) * 2020-07-24 2020-12-15 青岛小鸟看看科技有限公司 基于vr虚拟办公的手势识别***及方法
CN112115799A (zh) * 2020-08-24 2020-12-22 青岛小鸟看看科技有限公司 基于标记点的三维手势的识别方法、装置及设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4007899B2 (ja) * 2002-11-07 2007-11-14 オリンパス株式会社 運動検出装置
KR101687017B1 (ko) * 2014-06-25 2016-12-16 한국과학기술원 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
CN105389539B (zh) * 2015-10-15 2019-06-21 电子科技大学 一种基于深度数据的三维手势姿态估计方法及***
US10657367B2 (en) * 2017-04-04 2020-05-19 Usens, Inc. Methods and systems for hand tracking
CN109543644B (zh) * 2018-06-28 2022-10-04 济南大学 一种多模态手势的识别方法
CN110221690B (zh) * 2019-05-13 2022-01-04 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端
CN112927290A (zh) * 2021-02-18 2021-06-08 青岛小鸟看看科技有限公司 基于传感器的裸手数据标注方法及***

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718879A (zh) * 2016-01-19 2016-06-29 华南理工大学 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法
CN106346485A (zh) * 2016-09-21 2017-01-25 大连理工大学 基于人手运动姿态学习的仿生机械手的非接触式控制方法
US20180253856A1 (en) * 2017-03-01 2018-09-06 Microsoft Technology Licensing, Llc Multi-Spectrum Illumination-and-Sensor Module for Head Tracking, Gesture Recognition and Spatial Mapping
CN108346168A (zh) * 2018-02-12 2018-07-31 腾讯科技(深圳)有限公司 一种手势图像生成方法、装置及存储介质
CN108919943A (zh) * 2018-05-22 2018-11-30 南京邮电大学 一种基于深度传感器的实时手部追踪方法
CN110865704A (zh) * 2019-10-21 2020-03-06 浙江大学 一种用于360°悬浮光场三维显示***的手势交互装置和方法
CN111696140A (zh) * 2020-05-09 2020-09-22 青岛小鸟看看科技有限公司 基于单目的三维手势追踪方法
CN111773027A (zh) * 2020-07-03 2020-10-16 上海师范大学 一种柔性驱动的手功能康复机器人控制***及控制方法
CN112083800A (zh) * 2020-07-24 2020-12-15 青岛小鸟看看科技有限公司 基于自适应手指关节规则滤波的手势识别方法及***
CN112083801A (zh) * 2020-07-24 2020-12-15 青岛小鸟看看科技有限公司 基于vr虚拟办公的手势识别***及方法
CN112115799A (zh) * 2020-08-24 2020-12-22 青岛小鸟看看科技有限公司 基于标记点的三维手势的识别方法、装置及设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHANXIN YUAN ET AL.: "BigHand2.2M Benchmark: Hand Pose Dataset and State of the Art Analysis" *
YINGYING SHE ET AL.: "A Real-Time Hand Gesture Recognition Approach Based on Motion Features of Feature Points", 《2014 IEEE 17TH INTERNATIONAL CONFERENCE ON COMPUTATIONAL SCIENCE AND ENGINEERING》 *
郭锦辉: "手势识别及其在人机交互***中的应用", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022174574A1 (zh) * 2021-02-18 2022-08-25 青岛小鸟看看科技有限公司 基于传感器的裸手数据标注方法及***

Also Published As

Publication number Publication date
US20220366717A1 (en) 2022-11-17
WO2022174574A1 (zh) 2022-08-25

Similar Documents

Publication Publication Date Title
CN109584295B (zh) 对图像内目标物体进行自动标注的方法、装置及***
CN110058685B (zh) 虚拟对象的显示方法、装置、电子设备和计算机可读存储介质
KR20190127838A (ko) 카메라 자세 정보를 결정하기 위한 방법, 장치 및 디바이스, 그리고 저장 매체
CN106846497B (zh) 应用于终端的呈现三维地图的方法和装置
CN106688031A (zh) 用于提供内容感知照片滤镜的装置和方法
US9613444B2 (en) Information input display device and information input display method
CN109492607B (zh) 一种信息推送方法、信息推送装置及终端设备
US20220366717A1 (en) Sensor-based Bare Hand Data Labeling Method and System
CN112926423A (zh) 捏合手势检测识别方法、装置及***
CN109582122A (zh) 增强现实信息提供方法、装置及电子设备
CN111833461A (zh) 一种图像特效的实现方法、装置、电子设备及存储介质
CN112232315B (zh) 文本框检测方法、装置、电子设备和计算机存储介质
CN112927259A (zh) 基于多相机的裸手追踪显示方法、装置及***
CN104113682A (zh) 一种图像获取方法及电子设备
CN112486337B (zh) 笔迹图形分析方法、装置及电子设备
CN112487871B (zh) 笔迹数据处理方法、装置及电子设备
CN112487876A (zh) 智能笔字符识别方法、装置及电子设备
KR101582225B1 (ko) 인터랙티브 증강현실 서비스 시스템 및 방법
CN108228030B (zh) 相册显示方法、装置、存储介质及电子设备
CN112487875B (zh) 笔迹图形化方法、装置及电子设备
CN111258413A (zh) 虚拟对象的控制方法和装置
CN112990134B (zh) 图像仿真方法、装置、电子设备及存储介质
CN112487774B (zh) 书写表单电子化方法、装置及电子设备
CN112150486B (zh) 图像处理方法及装置
JP4703744B2 (ja) コンテンツ表現制御装置、コンテンツ表現制御システム、コンテンツ表現制御用基準物体およびコンテンツ表現制御プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210608