CN111338481B - 基于全身动态捕捉的数据交互***及方法 - Google Patents

基于全身动态捕捉的数据交互***及方法 Download PDF

Info

Publication number
CN111338481B
CN111338481B CN202010133549.3A CN202010133549A CN111338481B CN 111338481 B CN111338481 B CN 111338481B CN 202010133549 A CN202010133549 A CN 202010133549A CN 111338481 B CN111338481 B CN 111338481B
Authority
CN
China
Prior art keywords
information
hand gesture
limb movement
server
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010133549.3A
Other languages
English (en)
Other versions
CN111338481A (zh
Inventor
熊鹏航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Hexacercle Technology Co ltd
Original Assignee
Wuhan Hexacercle Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Hexacercle Technology Co ltd filed Critical Wuhan Hexacercle Technology Co ltd
Priority to CN202010133549.3A priority Critical patent/CN111338481B/zh
Publication of CN111338481A publication Critical patent/CN111338481A/zh
Application granted granted Critical
Publication of CN111338481B publication Critical patent/CN111338481B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于全身动态捕捉的数据交互***及方法,所述基于全身动态捕捉的数据交互***包括虚拟现实头盔、数据手套、全身动态捕捉设备以及服务器;所述虚拟现实头盔,用于接收房间进入指令,根据所述房间进入指令进入虚拟房间;所述数据手套,用于采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器;所述全身动态捕捉设备,用于采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器;所述服务器,用于将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示,从而提高线上办公的真实性。

Description

基于全身动态捕捉的数据交互***及方法
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种基于全身动态捕捉的数据交互***及方法。
背景技术
现阶段已有的会务***是基于摄像头的实时视频会务***,在企业开会过程中参会人员打开会议室中的摄像头或者参会者打开个人办公电脑上的摄像头通过会务***软件接入线上视频会议即可完成;
但是现阶段的线上视频会议只能解决开会和打卡功能,并且打卡功能还有很多漏洞,例如通过第三方打卡软件进行代理即可实现打卡功能,从而无法起到监督的作用。
发明内容
本发明的主要目的在于提出一种基于全身动态捕捉的数据交互***及方法,旨在解决提高线上办公的真实性。
为实现上述目的,本发明提供一种基于全身动态捕捉的数据交互***,所述基于全身动态捕捉的数据交互***包括分别与服务器连接的虚拟现实头盔、数据手套以及全身动态捕捉设备;
所述虚拟现实头盔,用于接收房间进入指令,根据所述房间进入指令进入虚拟房间;
所述数据手套,用于采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器;
所述全身动态捕捉设备,用于采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器;
所述服务器,用于将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示。
优选地,所述虚拟现实头盔,还用于获取服务器分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示。
优选地,所述虚拟现实头盔,还用于获取服务器分发的其他用户的手部姿态信息与肢体运动信息,将所述其他用户的手部姿态信息与肢体运动信息进行解析,得到相应的动作信息和位置信息,根据所述动作信息和位置信息在所述虚拟房间中进行展示。
优选地,所述服务器,还用于获取其他用户携带有目标地址信息的手部姿态信息与肢体运动信息,判断所述目标地址信息与所述其他用户的网络地址是否处于同一局域网,在所述目标地址信息与所述其他用户的网络地址未处于同一局域网时,将所述手部姿态信息与肢体运动信息通过云服务器转发至目标地址对应的虚拟现实头盔。
优选地,基于全身动态捕捉的数据交互***还包括主机;
所述数据手套,用于采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述主机;
所述全身动态捕捉设备,用于采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述主机;
所述主机,用于将所述手部姿态信息和肢体运动信息进行汇总,并将汇总后的数据发送至所述服务器。
此外,为实现上述目的,本发明还提出一种基于全身动态捕捉的数据交互方法,所述基于全身动态捕捉的数据交互方法基于如上文所述全身动态捕捉的数据交互***,所述基于全身动态捕捉的数据交互***包括虚拟现实头盔、数据手套、全身动态捕捉设备以及服务器,所述基于全身动态捕捉的数据交互方法包括:
所述虚拟现实头盔接收房间进入指令,根据所述房间进入指令进入虚拟房间,其中,所述虚拟房间包括当前用户和其他用户;
所述数据手套采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器;
所述全身动态捕捉设备采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器;
所述服务器将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示。
优选地,所述服务器将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示之后,所述方法还包括:
所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示。
优选地,所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示,包括:
所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息;
将所述其他用户的手部姿态信息与肢体运动信息进行解析,得到相应的动作信息和位置信息;
根据所述动作信息和位置信息在所述虚拟房间中进行展示。
优选地,所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息之前,所述方法还包括:
所述服务器获取其他用户携带有目标地址信息的手部姿态信息与肢体运动信息;
判断所述目标地址信息与所述其他用户的网络地址是否处于同一局域网;
在所述目标地址信息与所述其他用户的网络地址未处于同一局域网时,将所述手部姿态信息与肢体运动信息通过云服务器转发至目标地址对应的虚拟现实头盔。
优选地,基于全身动态捕捉的数据交互***还包括主机;
所述服务器将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示之前,所述方法还包括:
所述数据手套采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述主机;
所述全身动态捕捉设备采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述主机;
所述主机将所述手部姿态信息和肢体运动信息进行汇总,并将汇总后的数据发送至所述服务器。
本发明提出的基于全身动态捕捉的数据交互***,所述基于全身动态捕捉的数据交互***包括虚拟现实头盔、数据手套、全身动态捕捉设备、路由器以及服务器;所述虚拟现实头盔,用于接收房间进入指令,根据所述房间进入指令进入虚拟房间,其中,所述虚拟房间包括当前用户和其他用户;所述数据手套,用于采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器;所述全身动态捕捉设备,用于采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器;所述服务器,用于将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示,从而可通过数据手套以及全身动态捕捉设备实时采集用户的姿态信息,并在虚拟房间中进行展示,最大限度的反映用户的真实信息,提高线上办公的真实性。
附图说明
图1为本发明基于全身动态捕捉的数据交互***第一实施例的功能模块示意图;
图2为本发明基于全身动态捕捉的数据交互***一实施例的整体流程示意图;
图3为本发明基于全身动态捕捉的数据交互方法一实施例的虚拟房间展示示意图;
图4为本发明基于全身动态捕捉的数据交互方法第二实施例的功能模块示意图;
图5为本发明基于全身动态捕捉的数据交互方法第一实施例的流程示意图;
图6为本发明基于全身动态捕捉的数据交互方法第二实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
附图标号说明:
标号 名称 标号 名称
10 虚拟现实头盔 50 主机
20 数据手套 60 无线路由器
30 全身动态捕捉设备 70 虚拟用户
40 服务器
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明基于全身动态捕捉的数据交互***第一实施例的结构框图。所述基于全身动态捕捉的数据交互***包括分别与服务器40连接的虚拟现实头盔10、数据手套20以及全身动态捕捉设备30。
需要说明的是,所述虚拟现实头盔10可为虚拟现实(Virtual Reality,VR)一体机,还可为其他实现相同或相似功能的设备,本实施例对此不作限制,在本实施例中,以VR一体机为例进行说明,用户在佩戴VR头盔之后,可通过VR头盔展示虚拟的画面,所述数据手套20为设有大量传感器的手套,通过用户佩戴数据手套20,所述数据手套20可通过传感器采集用户的手掌运动信息,例如获得用户通过手掌进行OK的表示,所述全身动态捕捉设备30包括佩戴在手臂关节、腿关节以及腹部的多种运动采集设备,通过全身动态捕捉设备30可获取各个部位的运动信息以及实现空间定位。
在具体实现中,基于全身动态捕捉的数据交互***还包括主机50;所述主机50可为用户终端,例如用户电脑,还可为其他终端,本实施例对此不作限制,如2所示的整体流程示意图,所述虚拟现实头盔10、数据手套20以及虚拟现实头盔10与主机50通过无线连接,还可为有线连接,本实施例对此不作限制,所述主机50与无线路由器60连接,所述无线路由器60与服务器40连接,从而实现数据之间的交互。
在本实施例中,所述数据手套20,用于采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述主机50,所述全身动态捕捉设备30,用于采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述主机50,所述主机50,用于将所述手部姿态信息和肢体运动信息进行汇总,并将汇总后的数据发送至所述服务器40,从而避免频繁的数据手套20以及全身动态捕捉设备30与服务器40之间的交互,而是通过主机50进行数据汇总,再将汇总后的数据发送至所述服务器40,从而提高数据交互的效率,例如图2所示的主机50。
所述虚拟现实头盔10,用于接收房间进入指令,根据所述房间进入指令进入虚拟房间,其中,所述虚拟房间包括当前虚拟用户和其他虚拟用户。
需要说明的是,所述虚拟现实头盔10可接收服务器40发送的其他用户的数据,还可根据当前用户的数据手套20以及全身动态捕捉设备30采集的数据进行实时展示,例如所述虚拟现实头盔10可接收其他用户A的位置信息,在虚拟房间内展示用户A的位置信息,还可获取当前佩戴所述虚拟现实头盔10用户B的位置信息,并将所述位置信息进行展示,如图3所示的虚拟房间展示示意图,通过虚拟现实头盔10进行虚拟房间中虚拟用户70的位置与动作展示。
在本实施例中,所述房间进入指令可为虚拟现实头盔10的物理按键,通过所述物理按键启动房间进入指令,还可为通过虚拟现实头盔10展示的虚拟按键中,通过用户的数据手套20进行虚拟按键的操作,还可通过其他方式发起房间进入指令,本实施例对此不作限制,通过房间进入指令,所述虚拟现实头盔10可通过房间进入指令进行虚拟房间的展示。
所述数据手套20,用于采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器40。
可以理解的是,所述手部姿态信息包括手指关节以及手掌之间的运动信息,通过所述运动信息得到手指关节以及手掌的位置关系,根据所述位置关系可进行语义识别以及姿态识别。
所述数据手套20,用于采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器40。
所述全身动态捕捉设备30上具有空间定位功能,通过所述全身动态捕捉设备30的定位传感器实现用户的空间位置展示,实现准确的用户定位,例如通过建立实际状态下与虚拟空间中的同一的参考基准点,通过所述参考基准点进行准确定位,从而实现现实生活中与虚拟房间中的同步。
所述服务器40,用于将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示。
在本实施例中,可基于线上会议,例如用户A发起会议,通过所述虚拟现实头盔10展示虚拟房间以及会议虚拟场景信息,通过各个用户佩戴的数据手套20、数据手套20以及其他设备进入虚拟房间并进行用户动作、表情、语音以及文字信息的展示,在进行线上会议时,通过服务器40进行会议内容的实时交互,还可基于线上教育,学生和老师进行虚拟房间作为教室,老师可在虚拟教室中通过老师佩戴的设备进行线上教育,例如提出问题,学生可通过佩戴的设备在同一教室内进行动作、表情、语音以及文字信息的展示,对虚拟教室内老师提出的问题进行实时的问题答复,并将答复结果通过服务器40实时发送至老师所在的虚拟现实头盔10中进行展示,由于虚拟场景中真实展示用户的状态信息,包括用户动作、表情、语音以及文字信息中至少一项,从而最大限度的保证线上办公的真实性。
在具体实现中,所述虚拟空间的用户与真实世界中的用户设有相应的标签信息,通过所述标签信息可实现用户的识别以及虚拟现实头盔10的识别,例如用户A需要将数据在虚拟房间的虚拟用户A进行数据展示,则通过用户A的标签信息在虚拟房间中查找相应的标签的信息,从而实现对虚拟用户A的识别,所述标签信息可为用户账号信息,还可为其他具有唯一标识的信息,本实施例对此不作限制。
为了实现对虚拟现实头盔10的识别,也可通过标签信息进行识别,利于服务器40将其他用户的在同一虚拟房间中进行展示,需要获得处于同一虚拟房间的虚拟现实头盔10的授权信息,根据所述授权信息对处于同一虚拟房间的虚拟现实头盔10进行数据的分发,从而提高数据转发的准确性以及安全性。
本实施例通过上述方案,所述基于全身动态捕捉的数据交互***包括虚拟现实头盔10、数据手套20、全身动态捕捉设备30、路由器以及服务器40;所述虚拟现实头盔10,用于接收房间进入指令,根据所述房间进入指令进入虚拟房间,其中,所述虚拟房间包括当前用户和其他用户;所述数据手套20,用于采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器40;所述全身动态捕捉设备30,用于采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器40;所述服务器40,用于将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示,从而可通过数据手套20以及全身动态捕捉设备30实时采集用户的姿态信息,并在虚拟房间中进行展示,最大限度的反映用户的真实信息,提高线上办公的真实性。
进一步地,参照图4,图4为本发明基于全身动态捕捉的数据交互***第二实施例的结构框图,基于上述图1所示的实施例,提出本发明基于全身动态捕捉的数据交互***的第二实施例。
所述虚拟现实头盔10',还用于获取服务器40分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示。
在具体实现中,所述虚拟现实头盔10',还用于获取服务器40分发的其他用户的手部姿态信息与肢体运动信息,将所述其他用户的手部姿态信息与肢体运动信息进行解析,得到相应的动作信息和位置信息,根据所述动作信息和位置信息在所述虚拟房间中进行展示。
需要说明的是,为了实现对其他用户的信息展示,所述虚拟现实头盔10'通过获取服务器40分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示,例如如图3所示的用户为其他用户时,则根据其他用户的手部姿态信息与肢体运动信息在同一虚拟房间中进行展示。
在具体实现中,通过对所述其他用户的手部姿态信息与肢体运动信息进行解析,得到相应的动作信息和位置信息,根据所述动作信息和位置信息在所述虚拟房间中进行展示,例如根据手部姿态信息与肢体运动信息中的参考基准点信息,通过所述参考基准点信息在虚拟房间中进行查找,根据查找到的参考基准点信息为基准,对手部姿态信息与肢体运动信息进行位置解析,得到相应的动作信息和位置信息。
进一步地,所述服务器40,还用于获取其他用户携带有目标地址信息的手部姿态信息与肢体运动信息,判断所述目标地址信息与所述其他用户的网络地址是否处于同一局域网,在所述目标地址信息与所述其他用户的网络地址未处于同一局域网时,将所述手部姿态信息与肢体运动信息通过云服务器40转发至目标地址对应的虚拟现实头盔10'。
可以理解的是,在所述目标地址信息与所述其他用户的网络地址处于同一局域网时,将所述手部姿态信息与肢体运动信息直接通过目标地址发送到对应的虚拟现实头盔10'。
需要说明的是,局域网环境下的多人互动其实是统一局域网下多人穿戴全身动捕设备,设备将动作数据发送到局域网服务器40,即所述服务器40,如果局域网下的数据不用被局域网以外的其他用户得知,那么局域网服务器40处理完数据后就直接发回虚拟现实头盔10'中,虚拟现实头盔10'中显示局域网内用户的动作和位置信息。如果局域网内的用户信息需要和万维网上的其他用户互通,比如中国的一个用户需要与美国的一个用户进行远距离协同工作或者会议,数据就会经由局域网服务器40发送到云服务器40上处理完后发送到美国的用户所在的设备上进行呈现。
在本实施例中,在进行线上会议时,参会者可以直接通过虚拟现实头盔10'等硬软件产品直接进入到一个虚拟的空间中,在这个存在于互联网上的虚拟空间里参会者可以相互看到彼此的动作以及表情等,从而真实反映参会者的会议情况,因此可以有效的解决现阶段线上办公无法监管以及难以考核工作效率等问题。
需要说明的是,所述虚拟房间还可根据用户的需求进行场景设定。例如办公室,电脑、打印机以及电话等虚拟展示,并且通过服务器40与真实场景中的办公设备进行连接,例如,虚拟场景中的用户在进行电脑内容展示时,可将电脑内容展示在其他用户的真实电脑中,并在其他用户的虚拟场景中的虚拟电脑中进行展示,从而在虚拟空间中进行办公,不再需要租用固定办公室,电脑、打印机以及电话等等办公设备,实现全方位的虚拟化,本***还可应用在技术研发、线上服务、娱乐以及电商平台等产业,可大幅降低公司运营的固定资产成本,还可让出差也变得不再被需要,可通过虚拟会议取代跨国出差的问题。
在本实施例中,所述服务器40,还用于获取电子合同信息,在与其他用户建立智能合约的情况下,通过所述智能合对所述电子合同信息进行管理,例如签合同可以是电子合同,通过区块链技术进行管理,交易将可以通过电子货币完成,即通过搭建电子货币平台,通过调用电子货币平台实现与其他用户的电子货币交易。
本实施例提供的方案,通过获取其他用户携带有目标地址信息的手部姿态信息与肢体运动信息,判断所述目标地址信息与所述其他用户的网络地址是否处于同一局域网,在所述目标地址信息与所述其他用户的网络地址未处于同一局域网时,将所述手部姿态信息与肢体运动信息通过云服务器40转发至目标地址对应的虚拟现实头盔10',从而可应用于局域网以及外网状态,保证***应用的灵活性。
参照图5,本发明提供一种基于全身动态捕捉的数据交互方法,所述基于全身动态捕捉的数据交互方法基于如上文所述全身动态捕捉的数据交互***,所述基于全身动态捕捉的数据交互***包括虚拟现实头盔、数据手套、全身动态捕捉设备以及服务器,所述基于全身动态捕捉的数据交互方法包括:
需要说明的是,所述虚拟现实头盔可为虚拟现实(Virtual Reality,VR)一体机,还可为其他实现相同或相似功能的设备,本实施例对此不作限制,在本实施例中,以VR一体机为例进行说明,用户在佩戴VR头盔之后,可通过VR头盔展示虚拟的画面,所述数据手套为设有大量传感器的手套,通过用户佩戴数据手套,所述数据手套可通过传感器采集用户的手掌运动信息,例如获得用户通过手掌进行OK的表示,所述全身动态捕捉设备包括佩戴在手臂关节、腿关节以及腹部的多种运动采集设备,通过全身动态捕捉设备可获取各个部位的运动信息以及实现空间定位。
在具体实现中,基于全身动态捕捉的数据交互***还包括主机;所述主机可为用户终端,例如用户电脑,还可为其他终端,本实施例对此不作限制,如2所示的整体流程示意图,所述虚拟现实头盔、数据手套以及虚拟现实头盔与主机通过无线连接,还可为有线连接,本实施例对此不作限制,所述主机与无线路由器连接,所述无线路由器与服务器连接,从而实现数据之间的交互。
在本实施例中,所述数据手套采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述主机,所述全身动态捕捉设备采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述主机,所述主机将所述手部姿态信息和肢体运动信息进行汇总,并将汇总后的数据发送至所述服务器,从而避免频繁的数据手套以及全身动态捕捉设备与服务器之间的交互,而是通过主机进行数据汇总,再将汇总后的数据发送至所述服务器,从而提高数据交互的效率,例如图2所示的主机。
步骤S10,所述虚拟现实头盔接收房间进入指令,根据所述房间进入指令进入虚拟房间,其中,所述虚拟房间包括当前用户和其他用户。
需要说明的是,所述虚拟现实头盔可接收服务器发送的其他用户的数据,还可根据当前用户的数据手套以及全身动态捕捉设备采集的数据进行实时展示,例如所述虚拟现实头盔可接收其他用户A的位置信息,在虚拟房间内展示用户A的位置信息,还可获取当前佩戴所述虚拟现实头盔用户B的位置信息,并将所述位置信息进行展示,如图3所示的虚拟房间展示示意图,通过虚拟现实头盔进行虚拟房间中用户70的位置与动作展示。
在本实施例中,所述房间进入指令可为虚拟现实头盔的物理按键,通过所述物理按键启动房间进入指令,还可为通过虚拟现实头盔展示的虚拟按键中,通过用户的数据手套进行虚拟按键的操作,还可通过其他方式发起房间进入指令,本实施例对此不作限制,通过房间进入指令,所述虚拟现实头盔可通过房间进入指令进行虚拟房间的展示。
步骤S20,所述数据手套采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器。
可以理解的是,所述手部姿态信息包括手指关节以及手掌之间的运动信息,通过所述运动信息得到手指关节以及手掌的位置关系,根据所述位置关系可进行语义识别以及姿态识别。
步骤S30,所述数据手套采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器。
所述全身动态捕捉设备上具有空间定位功能,通过所述全身动态捕捉设备的定位传感器实现用户的空间位置展示,实现准确的用户定位,例如通过建立实际状态下与虚拟空间中的同一的参考基准点,通过所述参考基准点进行准确定位,从而实现现实生活中与虚拟房间中的同步。
步骤S40,所述服务器将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示。
在本实施例中,可基于线上会议,例如用户A发起会议,通过所述虚拟现实头盔展示虚拟房间以及会议虚拟场景信息,通过各个用户佩戴的数据手套、数据手套以及其他设备进入虚拟房间并进行用户动作、表情、语音以及文字信息的展示,在进行线上会议时,通过服务器进行会议内容的实时交互,还可基于线上教育,学生和老师进行虚拟房间作为教室,老师可在虚拟教室中通过老师佩戴的设备进行线上教育,例如提出问题,学生可通过佩戴的设备在同一教室内进行动作、表情、语音以及文字信息的展示,对虚拟教室内老师提出的问题进行实时的问题答复,并将答复结果通过服务器实时发送至老师所在的虚拟现实头盔中进行展示,由于虚拟场景中真实展示用户的状态信息,包括用户动作、表情、语音以及文字信息中至少一项,从而最大限度的保证线上办公的真实性。
在具体实现中,所述虚拟空间的用户与真实世界中的用户设有相应的标签信息,通过所述标签信息可实现用户的识别以及虚拟现实头盔的识别,例如用户A需要将数据在虚拟房间的虚拟用户A进行数据展示,则通过用户A的标签信息在虚拟房间中查找相应的标签的信息,从而实现对虚拟用户A的识别,所述标签信息可为用户账号信息,还可为其他具有唯一标识的信息,本实施例对此不作限制。
为了实现对虚拟现实头盔的识别,也可通过标签信息进行识别,利于服务器将其他用户的在同一虚拟房间中进行展示,需要获得处于同一虚拟房间的虚拟现实头盔的授权信息,根据所述授权信息对处于同一虚拟房间的虚拟现实头盔进行数据的分发,从而提高数据转发的准确性以及安全性。
本实施例通过上述方案,所述虚拟现实头盔接收房间进入指令,根据所述房间进入指令进入虚拟房间,其中,所述虚拟房间包括当前用户和其他用户;所述数据手套采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器;所述全身动态捕捉设备采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器;所述服务器将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示,从而可通过数据手套以及全身动态捕捉设备实时采集用户的姿态信息,并在虚拟房间中进行展示,最大限度的反映用户的真实信息,提高线上办公的真实性。
进一步地,如图6所示,基于第一实施例提出本发明基于全身动态捕捉的数据交互方法第二实施例,在本实施例中,所述步骤S40之后,所述方法还包括:
步骤S401,所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示。
在具体实现中,所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息,将所述其他用户的手部姿态信息与肢体运动信息进行解析,得到相应的动作信息和位置信息,根据所述动作信息和位置信息在所述虚拟房间中进行展示。
需要说明的是,为了实现对其他用户的信息展示,所述虚拟现实头盔通过获取服务器分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示,例如如图3所示的用户为其他用户时,则根据其他用户的手部姿态信息与肢体运动信息在同一虚拟房间中进行展示。
在具体实现中,通过对所述其他用户的手部姿态信息与肢体运动信息进行解析,得到相应的动作信息和位置信息,根据所述动作信息和位置信息在所述虚拟房间中进行展示,例如根据手部姿态信息与肢体运动信息中的参考基准点信息,通过所述参考基准点信息在虚拟房间中进行查找,根据查找到的参考基准点信息为基准,对手部姿态信息与肢体运动信息进行位置解析,得到相应的动作信息和位置信息。
进一步地,所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息之前,所述方法还包括:
所述服务器获取其他用户携带有目标地址信息的手部姿态信息与肢体运动信息,判断所述目标地址信息与所述其他用户的网络地址是否处于同一局域网,在所述目标地址信息与所述其他用户的网络地址未处于同一局域网时,将所述手部姿态信息与肢体运动信息通过云服务器转发至目标地址对应的虚拟现实头盔。
可以理解的是,在所述目标地址信息与所述其他用户的网络地址处于同一局域网时,将所述手部姿态信息与肢体运动信息直接通过目标地址发送到对应的虚拟现实头盔。
需要说明的是,局域网环境下的多人互动其实是统一局域网下多人穿戴全身动捕设备,设备将动作数据发送到局域网服务器,即所述服务器,如果局域网下的数据不用被局域网以外的其他用户得知,那么局域网服务器处理完数据后就直接发回虚拟现实头盔中,虚拟现实头盔中显示局域网内用户的动作和位置信息。如果局域网内的用户信息需要和万维网上的其他用户互通,比如中国的一个用户需要与美国的一个用户进行远距离协同工作或者会议,数据就会经由局域网服务器发送到云服务器上处理完后发送到美国的用户所在的设备上进行呈现。
在本实施例中,在进行线上会议时,参会者可以直接通过虚拟现实头盔等硬软件产品直接进入到一个虚拟的空间中,在这个存在于互联网上的虚拟空间里参会者可以相互看到彼此的动作以及表情等,从而真实反映参会者的会议情况,因此可以有效的解决现阶段线上办公无法监管以及难以考核工作效率等问题。
需要说明的是,所述虚拟房间还可根据用户的需求进行场景设定。例如办公室,电脑、打印机以及电话等虚拟展示,并且通过服务器与真实场景中的办公设备进行连接,例如,虚拟场景中的用户在进行电脑内容展示时,可将电脑内容展示在其他用户的真实电脑中,并在其他用户的虚拟场景中的虚拟电脑中进行展示,从而在虚拟空间中进行办公,不再需要租用固定办公室,电脑、打印机以及电话等等办公设备,实现全方位的虚拟化,本***还可应用在技术研发、线上服务、娱乐以及电商平台等产业,可大幅降低公司运营的固定资产成本,还可让出差也变得不再被需要,可通过虚拟会议取代跨国出差的问题。
在本实施例中,所述服务器,还用于获取电子合同信息,在与其他用户建立智能合约的情况下,通过所述智能合对所述电子合同信息进行管理,例如签合同可以是电子合同,通过区块链技术进行管理,交易将可以通过电子货币完成,即通过搭建电子货币平台,通过调用电子货币平台实现与其他用户的电子货币交易。
本实施例提供的方案,通过获取其他用户携带有目标地址信息的手部姿态信息与肢体运动信息,判断所述目标地址信息与所述其他用户的网络地址是否处于同一局域网,在所述目标地址信息与所述其他用户的网络地址未处于同一局域网时,将所述手部姿态信息与肢体运动信息通过云服务器转发至目标地址对应的虚拟现实头盔,从而可应用于局域网以及外网状态,保证***应用的灵活性。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个计算机可读存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台智能终端设备(可以是手机,计算机,终端设备,空调器,或者网络终端设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种基于全身动态捕捉的数据交互***,其特征在于,所述基于全身动态捕捉的数据交互***包括分别与服务器连接的虚拟现实头盔、数据手套以及全身动态捕捉设备;
所述虚拟现实头盔,用于接收房间进入指令,根据所述房间进入指令进入虚拟房间;
所述数据手套,用于采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器,其中,所述手部姿态信息包括手指关节以及手掌之间的运动信息;
所述全身动态捕捉设备,用于采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器;
所述服务器,用于将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示;
所述虚拟现实头盔,还用于获取服务器分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示;
所述虚拟现实头盔,还用于获取服务器分发的其他用户的手部姿态信息与肢体运动信息,将所述其他用户的手部姿态信息与肢体运动信息进行解析,得到相应的动作信息和位置信息,根据所述动作信息和位置信息在所述虚拟房间中进行展示;
所述服务器,还用于根据所述手部姿态信息得到手指关节以及手掌之间的运动信息,通过所述运动信息得到手指关节以及手掌的位置关系,通过所述位置关系进行语义识别以及姿态识别,将识别的语义和姿态在所述虚拟房间中进行实时展示;
所述全身动态捕捉设备,还用于建立实际状态下与虚拟空间中的同一参考基准点,通过所述参考基准点对用户的空间位置进行展示,以实现用户的定位;
所述虚拟现实头盔,还用于根据所述其他用户的手部姿态信息与肢体运动信息得到参考基准点信息,通过所述参考基准点信息在虚拟房间中进行查找,得到查找的参考基准点信息,并根据查找的参考基准点信息对所述其他用户的手部姿态信息与肢体运动信息进行位置解析,得到相应的动作信息和位置信息。
2.如权利要求1所述的基于全身动态捕捉的数据交互***,其特征在于,所述服务器,还用于获取其他用户携带有目标地址信息的手部姿态信息与肢体运动信息,判断所述目标地址信息与所述其他用户的网络地址是否处于同一局域网,在所述目标地址信息与所述其他用户的网络地址未处于同一局域网时,将所述手部姿态信息与肢体运动信息通过云服务器转发至目标地址对应的虚拟现实头盔。
3.如权利要求1或2所述的基于全身动态捕捉的数据交互***,其特征在于,基于全身动态捕捉的数据交互***还包括主机;
所述数据手套,用于采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述主机;
所述全身动态捕捉设备,用于采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述主机;
所述主机,用于将所述手部姿态信息和肢体运动信息进行汇总,并将汇总后的数据发送至所述服务器。
4.一种基于全身动态捕捉的数据交互方法,其特征在于,所述基于全身动态捕捉的数据交互方法基于如权利要求1至3中任一项所述全身动态捕捉的数据交互***,所述基于全身动态捕捉的数据交互***包括虚拟现实头盔、数据手套、全身动态捕捉设备以及服务器,所述基于全身动态捕捉的数据交互方法包括:
所述虚拟现实头盔接收房间进入指令,根据所述房间进入指令进入虚拟房间;
所述数据手套采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述服务器,其中,所述手部姿态信息包括手指关节以及手掌之间的运动信息;
所述全身动态捕捉设备采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器;
所述服务器将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示;
所述服务器将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示之后,所述方法还包括:
所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示;
所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息,并将所述其他用户的手部姿态信息与肢体运动信息在所述虚拟房间中进行展示,包括:
所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息;
将所述其他用户的手部姿态信息与肢体运动信息进行解析,得到相应的动作信息和位置信息;
根据所述动作信息和位置信息在所述虚拟房间中进行展示;
所述服务器将所述手部姿态信息在所述虚拟房间中进行实时展示包括:
所述服务器根据所述手部姿态信息得到手指关节以及手掌之间的运动信息;
通过所述运动信息得到手指关节以及手掌的位置关系;
通过所述位置关系进行语义识别以及姿态识别,将识别的语义和姿态在所述虚拟房间中进行实时展示;
所述全身动态捕捉设备采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述服务器之后,所述方法还包括:
所述全身动态捕捉设备建立实际状态下与虚拟空间中的同一参考基准点;
通过所述参考基准点对用户的空间位置进行展示,以实现用户的定位;
所述将所述其他用户的手部姿态信息与肢体运动信息进行解析,得到相应的动作信息和位置信息包括:
所述虚拟现实头盔根据所述其他用户的手部姿态信息与肢体运动信息得到参考基准点信息;
通过所述参考基准点信息在虚拟房间中进行查找,得到查找的参考基准点信息;
根据查找的参考基准点信息对所述其他用户的手部姿态信息与肢体运动信息进行位置解析,得到相应的动作信息和位置信息。
5.如权利要求4所述的基于全身动态捕捉的数据交互方法,其特征在于,所述虚拟现实头盔获取服务器分发的其他用户的手部姿态信息与肢体运动信息之前,所述方法还包括:
所述服务器获取其他用户携带有目标地址信息的手部姿态信息与肢体运动信息;
判断所述目标地址信息与所述其他用户的网络地址是否处于同一局域网;
在所述目标地址信息与所述其他用户的网络地址未处于同一局域网时,将所述手部姿态信息与肢体运动信息通过云服务器转发至目标地址对应的虚拟现实头盔。
6.如权利要求4或5所述的基于全身动态捕捉的数据交互方法,其特征在于,基于全身动态捕捉的数据交互***还包括主机;
所述服务器将所述手部姿态信息和所述肢体运动信息在所述虚拟房间中进行实时展示之前,所述方法还包括:
所述数据手套采集当前用户的手部姿态信息,并将所述手部姿态信息发送至所述主机;
所述全身动态捕捉设备采集当前用户的肢体运动信息,并将所述肢体运动信息发送至所述主机;
所述主机将所述手部姿态信息和肢体运动信息进行汇总,并将汇总后的数据发送至所述服务器。
CN202010133549.3A 2020-02-28 2020-02-28 基于全身动态捕捉的数据交互***及方法 Active CN111338481B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010133549.3A CN111338481B (zh) 2020-02-28 2020-02-28 基于全身动态捕捉的数据交互***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010133549.3A CN111338481B (zh) 2020-02-28 2020-02-28 基于全身动态捕捉的数据交互***及方法

Publications (2)

Publication Number Publication Date
CN111338481A CN111338481A (zh) 2020-06-26
CN111338481B true CN111338481B (zh) 2023-06-23

Family

ID=71185919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010133549.3A Active CN111338481B (zh) 2020-02-28 2020-02-28 基于全身动态捕捉的数据交互***及方法

Country Status (1)

Country Link
CN (1) CN111338481B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111988375B (zh) * 2020-08-04 2023-10-27 瑞立视多媒体科技(北京)有限公司 终端的定位方法、装置、设备及存储介质
TWI767633B (zh) * 2021-03-26 2022-06-11 亞東學校財團法人亞東科技大學 仿真虛擬教室
CN113965609B (zh) * 2021-09-13 2024-04-26 武汉灏存科技有限公司 群控式交互***及方法
CN113946210B (zh) * 2021-09-16 2024-01-23 武汉灏存科技有限公司 动作交互展示***及方法
CN114489346B (zh) * 2022-03-16 2023-08-18 连云港市规划展示中心 基于vr技术的姿态同步的展馆展示***和展示方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN206178656U (zh) * 2016-08-03 2017-05-17 广州原帆文化科技有限公司 虚拟现实单车互动***
WO2018072339A1 (zh) * 2016-10-19 2018-04-26 歌尔科技有限公司 一种虚拟现实头盔和切换虚拟现实头盔显示信息的方法
CN108196686A (zh) * 2018-03-13 2018-06-22 北京无远弗届科技有限公司 一种手部动作姿态捕捉设备、方法及虚拟现实交互***
WO2019037074A1 (zh) * 2017-08-25 2019-02-28 深圳市瑞立视多媒体科技有限公司 虚拟现实交互***、方法及计算机存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US10296086B2 (en) * 2015-03-20 2019-05-21 Sony Interactive Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
CN205460933U (zh) * 2016-01-21 2016-08-17 上海维霓文化传播有限公司 一种虚拟现实游戏***
CN206224385U (zh) * 2016-11-02 2017-06-06 广州幻境科技有限公司 一种用于虚拟现实环境的具有定位功能的动作捕捉***
CN108595004A (zh) * 2018-04-23 2018-09-28 新华网股份有限公司 基于虚拟现实vr的多人交互方法、装置及相应设备
CN108694871A (zh) * 2018-05-22 2018-10-23 山东捷瑞数字科技股份有限公司 一种基于大空间虚拟现实的多兵军事训练考核***
CN110096152B (zh) * 2019-04-30 2023-02-21 武汉灏存科技有限公司 身体部位的空间定位方法、装置、设备及存储介质
CN110333776A (zh) * 2019-05-16 2019-10-15 上海精密计量测试研究所 一种基于穿戴设备的军事装备操作训练***及方法
CN110610547B (zh) * 2019-09-18 2024-02-13 瑞立视多媒体科技(北京)有限公司 基于虚拟现实的座舱实训方法、***及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN206178656U (zh) * 2016-08-03 2017-05-17 广州原帆文化科技有限公司 虚拟现实单车互动***
WO2018072339A1 (zh) * 2016-10-19 2018-04-26 歌尔科技有限公司 一种虚拟现实头盔和切换虚拟现实头盔显示信息的方法
WO2019037074A1 (zh) * 2017-08-25 2019-02-28 深圳市瑞立视多媒体科技有限公司 虚拟现实交互***、方法及计算机存储介质
CN108196686A (zh) * 2018-03-13 2018-06-22 北京无远弗届科技有限公司 一种手部动作姿态捕捉设备、方法及虚拟现实交互***

Also Published As

Publication number Publication date
CN111338481A (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
CN111338481B (zh) 基于全身动态捕捉的数据交互***及方法
US9691184B2 (en) Methods and systems for generating and joining shared experience
CN101141611B (zh) 向用户通知其视线外的他人作出的姿势的方法与***
CN100399240C (zh) 使用富媒体环境的通信和协作***
US12001434B2 (en) Method for monitoring user behavior when interacting with content and a system for its implementation
US20020032037A1 (en) System for providing a virtual communication space corresponding to sensed information from the real world
CN112231463B (zh) 会话展示方法、装置、计算机设备和存储介质
JP2001510671A (ja) 通信方法及び端末
KR20190042337A (ko) 메신저 단체 채팅방 활성화를 위한 자연어 처리 기반 대화형 챗봇 운용 방법 및 시스템
CN110033293A (zh) 获取用户信息的方法、装置及***
CN106341380B (zh) 一种用于对用户进行远程身份认证的方法、装置和***
CN111402471A (zh) 人员处理方式的确定方法及装置、数据处理平台
CN105824799A (zh) 一种信息处理方法、设备和终端设备
CN109391697B (zh) 信息推送方法、用户终端、服务器及门禁控制终端
CN112287767A (zh) 交互控制方法、装置、存储介质以及电子设备
CN112183417B (zh) 一种置业顾问服务能力评价***及方法
US20130124240A1 (en) System and Method for Student Activity Gathering in a University
KR101986153B1 (ko) 웹툰 식별 기술을 이용한 커뮤니케이션 서비스 시스템 및 방법
CN113821684B (zh) 面试内容的标记方法、装置、电子设备及可读介质
Hagita et al. Collaborative capturing of experiences with ubiquitous sensors and communication robots
US11195336B2 (en) Framework for augmented reality applications
CN112347236A (zh) 基于ai算量的智能化工程咨询方法、***及其计算机设备
CN111061451A (zh) 一种信息处理方法及装置、***
CN112380261B (zh) 基于5g技术的远程辅导方法、装置、***及存储介质
WO2015199413A1 (ko) 사용자 단말로부터 수집된 데이터를 이용한 유형 정보 및 평가 정보 제공 방법 및 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant