CN112991552A - 人体虚实匹配方法、装置、设备及存储介质 - Google Patents

人体虚实匹配方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112991552A
CN112991552A CN202110262231.XA CN202110262231A CN112991552A CN 112991552 A CN112991552 A CN 112991552A CN 202110262231 A CN202110262231 A CN 202110262231A CN 112991552 A CN112991552 A CN 112991552A
Authority
CN
China
Prior art keywords
limb
actual
virtual
position information
touch point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110262231.XA
Other languages
English (en)
Other versions
CN112991552B (zh
Inventor
许澍虹
吕毅
吴程程
王丽君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commercial Aircraft Corp of China Ltd
Beijing Aeronautic Science and Technology Research Institute of COMAC
Original Assignee
Commercial Aircraft Corp of China Ltd
Beijing Aeronautic Science and Technology Research Institute of COMAC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commercial Aircraft Corp of China Ltd, Beijing Aeronautic Science and Technology Research Institute of COMAC filed Critical Commercial Aircraft Corp of China Ltd
Priority to CN202110262231.XA priority Critical patent/CN112991552B/zh
Publication of CN112991552A publication Critical patent/CN112991552A/zh
Application granted granted Critical
Publication of CN112991552B publication Critical patent/CN112991552B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种人体虚实匹配方法、装置、设备及存储介质。当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体;若所述第二肢体未触碰到所述第二物体,则获取触碰点的第一三维位置信息;其中,所述触碰点为所述第一肢体触碰所述第一物体的点;根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰。本发明实施例提供的人体虚实匹配方法,当第一肢体触碰到第一物体,而第二肢体未触碰第二物体时,根据触碰点的三维位置信息控制第二肢体移动,使得第二肢体与第二物体触碰,以实现实际人体与虚拟人体的匹配,可以降低虚实匹配的计算量,提高虚实匹配的效率。

Description

人体虚实匹配方法、装置、设备及存储介质
技术领域
本发明实施例涉及混合现实技术领域,尤其涉及一种人体虚实匹配方法、装置、设备及存储介质。
背景技术
混合现实(Mix Reality,MR),是合并现实世界和虚拟世界而产生的新的可视化环境,可实现物理和数字对象共存,并实时互动。此技术手段兼具虚拟与实物的优势,相较于纯虚拟仿真,可以使用部分关键实物为真实人提供触感以增加仿真的真实感;相较于纯实物仿真,可以使用虚拟场景替代大量实物以减少成本并提高可变性。随着计算机软硬件技术的发展,MR技术逐渐受到了航空、航天、高铁、船舶及汽车等领域的关注,开始在产品设计评估、复杂大部件制造装配、操作培训及维修保障等方面进行应用研究与推广。
混合现实的核心在于虚实匹配,即达到以人的主观感受为依据,虚拟场景与真实场景完全匹配,难以分辨的效果。为此,需要依赖运动捕捉设备,精确获取真实场景物体的运动信息,并以此驱动虚拟场景对应模型进行同步变换,实现两者的融合。目前,针对刚体,精度最高的光学运动捕捉设备已具备亚毫米级的运动追踪精度,可实现虚实匹配。但是,对于最为核心的人体,由于动作复杂性、肢体柔性、建模精度以及环境干扰等诸多因素,现有运动捕捉设备甚至难以实现厘米级精度的运动捕捉,导致难以实现精准的虚实匹配。这一问题在进行实物交互时会产生显著影响,当真实人已经触碰到操纵部件时,真实人所见虚拟场景中的数字人与操纵部件间仍会存在间隔,或者已经没入其中。这种触感与视觉的不匹配会破坏***的真实感与沉浸感,降低仿真的效果。。
目前,主流的解决方法采取正向解决思路,集中于针对人体运动捕捉算法以及人体建模精度的优化,利用混合追踪、IK算法、扫描建模等进行追踪结果的优化,随后通过在虚实对象同一位置设定并匹配标定点实现虚实匹配。然而由于人体运动复杂度过高、个体间差异过大,应用此类方法往往通过对某一特定人体、特定应用进行针对性参数调整方能生效,工作量大,效率低,难以解决通用问题。
发明内容
本发明实施例提供一种人体虚实匹配方法、装置、设备及存储介质,以实现实际人体与虚拟人体的匹配,可以降低虚实匹配的计算量,提高虚实匹配的效率。
第一方面,本发明实施例提供了一种人体虚实匹配方法,包括:
当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体;
若所述第二肢体未触碰到所述第二物体,则获取触碰点的第一三维位置信息;其中,所述触碰点为所述第一肢体触碰所述第一物体的点;
根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰;其中,当第一肢体为实际肢体及第一物体为实际物体时,第二肢体为虚拟肢体,第二物体为虚拟物体;当第一肢体为虚拟肢体及第一物体为虚拟物体时,第二肢体为实际肢体,第二物体为实际物体。
进一步地,当第一肢体实际肢体及第一物体为实际物体时,获取所述触碰点的第一三维位置信息,包括:
获取相机拍摄的实际肢体触碰实际物体的平面图像;
从所述平面图像提取触碰点的二维坐标信息;
基于相机成像模型根据所述二维坐标信息确定所述触碰点所在的空间直线;
确定所述空间直线与所述实际物体的交点信息,确定为所述触碰点的三维位置信息。
进一步地,根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰,包括:
控制所述虚拟肢体移动至所述触碰点的三维位置信息对应的位置,使得所述虚拟肢体与所述虚拟物体触碰。
进一步地,当第一肢体为虚拟肢体及第一物体为虚拟物体时,根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰,包括:
获取实际肢体末端当前的第二三维位置信息;
基于所述第二三维位置信息和所述第一三维位置信息确定所述实际肢体末端相对于所述触碰点的偏移方向;
引导所述实际肢体沿所述偏移方向移动,使得所述实际肢体与所述实际物体触碰。
进一步地,引导所述实际肢体沿所述偏移方向移动,使得所述实际肢体与所述实际物体触碰,包括:
控制所述虚拟肢体沿所述偏移方向的反方向移动设定偏移量;
控制所述虚拟肢体从移动后位置沿所述偏移方向移动至所述触碰点,以引导所述实际肢体沿所述偏移方向移动;
判断所述实际肢体与所述实际物体是否触碰;
若未触碰,则返回执行获取实际肢体末端当前的第二三维位置信息的操作,直到所述实际肢体与所述实际物体触碰。
进一步地,所述实际肢体的末端安装有触觉传感器及高光标记装置。
进一步地,判断所述实际肢体与所述实际物体是否触碰,包括:
判断是否检测到所述触觉传感器的触摸信号。。
第二方面,本发明实施例还提供了一种人体虚实匹配装置,包括:
触碰判断模块,用于当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体;
第一三维位置信息获取模块,用于若所述第二肢体未触碰到所述第二物体,则获取触碰点的第一三维位置信息;其中,触碰点为所述第一肢体触碰所述第一物体的点;
肢体移动控制模块,用于根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰;其中,当第一肢体为实际肢体及第一物体为实际物体时,第二肢体为虚拟肢体,第二物体为虚拟物体;当第一肢体为虚拟肢体及第一物体为虚拟物体时,第二肢体为实际肢体,第二物体为实际物体。
第三方面,本发明实施例还提供了一种计算机设备,所述设备包括:包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明实施例所述的人体虚实匹配方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理装置执行时实现如本发明实施例所述的人体虚实匹配方法。
本发明实施例公开了一种人体虚实匹配方法、装置、设备及存储介质。当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体;若第二肢体未触碰到第二物体,则获取触碰点的第一三维位置信息;根据触碰点的三维位置信息控制第二肢体移动,使得第二肢体与第二物体触碰。本发明实施例提供的人体虚实匹配方法,当第一肢体触碰到第一物体,而第二肢体未触碰第二物体时,根据触碰点的三维位置信息控制第二肢体移动,使得第二肢体与第二物体触碰,以实现实际人体与虚拟人体的匹配,可以降低虚实匹配的计算量,提高虚实匹配的效率。
附图说明
图1是本发明实施例一中的一种人体虚实匹配方法的流程图;
图2是本发明实施例一中的摄像头拍摄真实场景的示例图;
图3是本发明实施例一中的基于相机模型确定触碰点三维位置信息的示意图;
图4是本发明实施例一中的确定触碰点与实际肢体末端偏移方向的示例图;
图5是本发明实施例二中的一种人体虚实匹配装置的结构示意图;
图6是本发明实施例三中的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
本实施例的技术方案应用于混合现实中,包括实际场景和虚拟场景。其中,虚拟场景根据实际场景标定,且虚拟场景和实际场景完全对应。
实施例一
图1为本发明实施例一提供的一种人体虚实匹配方法的流程图,本实施例可适用于将虚拟人体和实际人体进行匹配的情况,该方法可以由人体虚实匹配装置来执行,该装置可由硬件和/或软件组成,并一般可集成在具有人体虚实匹配功能的设备中,该设备可以是服务器或服务器集群等电子设备。如图1所示,该方法具体包括如下步骤:
步骤110,当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体。
其中,当第一肢体为实际肢体及第一物体为实际物体时,第二肢体为虚拟肢体,第二物体为虚拟物体;当第一肢体为虚拟肢体及第一物体为虚拟物体时,第二肢体为实际肢体,第二物体为实际物体。
本实施例中,实际肢体的末端安装有触觉传感器及高光标记装置。触觉传感器用于检测触摸信号,高光标记装置用于标记实际肢体末端的位置。具体的,检测实际肢体与实际物体触碰的方式可以是触摸传感器是否检测到触摸信号,若检测到触摸信号,则表示实际肢体与实际物体触碰;检测虚拟肢体与虚拟物体的方式可以是检测虚拟场景中虚拟肢体与虚拟物体是否有交叉,若有交叉,则虚拟肢体与虚拟物体发送碰撞。
本实施例中,真实人体佩戴头戴式显示设备,头戴式显示设备的摄像头采集真实场景信息,用于识别真实肢体与真实物体间的位置关系。示例性的,图2是本实施例中的摄像头拍摄真实场景的示例图。
步骤120,若第二肢体未触碰到第二物体,则获取触碰点的第一三维位置信息。
具体的,当第一肢体实际肢体及第一物体为实际物体时,获取触碰点的第一三维位置信息的方式可以是:获取相机拍摄的实际肢体触碰实际物体的平面图像;从平面图像提取触碰点的二维坐标信息;基于相机成像模型根据二维坐标信息确定触碰点所在的空间直线;确定空间直线与实际物体的交点信息,确定为触碰点的三维位置信息。
本实施例中,若第一肢体实际肢体及第一物体为实际物体,当检测到实际肢体触碰实际物体,而虚拟肢体未触碰虚拟物体时,调用头戴式显示设备上的摄像头进行拍摄,获得实际肢体触碰实际物体的平面图像。由于采用高光标记对实际肢体的末端进行了标记,因此可以从平面图像中提取到触碰点的二维坐标信息,然后基于相机成像模型根据二维坐标信息确定触碰点的三维位置信息。
图3是本实施例中基于相机模型确定触碰点三维位置信息的示意图。如图3所示,相机(摄像头)拍摄真实场景的平面图像后可以根据高光标记识别出真实肢体的末端在图像中的投影P1,记坐标为(x1,y1),P1’为触碰点。根据相机的成像模型,可以得出P1与P1’的关系如下:
Figure BDA0002970499080000081
其中,B为相机的内参数矩阵,在(x1,y1)已知的情况下,可以计算出一条经过P1’的空间直线。本实施例中,由于刚体可以实现精准追踪与虚实匹配,可认为相机与实际场景中真实物体的空间位置以及真实物体的三维形貌均为已知。因此,可以计算空间直线与触碰的真实物体的交点确定出触碰点的三维位置信息,即P1’的三维坐标。
本实施例中,若第一肢体为虚拟肢体及第一物体为虚拟物体,当检测到虚拟肢体触碰虚拟物体,而触觉传感器未检测到触摸信号时,则表示真实肢体未触碰到真实物体。
步骤130,根据触碰点的三维位置信息控制第二肢体移动,使得第二肢体与第二物体触碰。
具体的,当第一肢体实际肢体及第一物体为实际物体时,在获得触碰点P1’的三维位置信息后,控制虚拟肢体移动至触碰点的三维位置信息对应的位置,使得虚拟肢体与虚拟物体触碰。
本实施例中,由于真实场景与虚拟场景一一对应,因此真实场景中触碰点P1’的三维坐标也是虚拟场景中虚拟肢体与虚拟物体触碰点的三维坐标。因此控制虚拟肢体移动至P1’的坐标对应的点上,就实现了虚拟肢体与虚拟物体的触碰。
本实施例中,当第一肢体为虚拟肢体及第一物体为虚拟物体时,根据触碰点的三维位置信息控制第二肢体移动,使得第二肢体与第二物体触碰的方式可以是:获取实际肢体末端当前的第二三维位置信息;基于第二三维位置信息和第一三维位置信息确定实际肢体末端相对于触碰点的偏移方向;引导实际肢体沿偏移方向移动,使得实际肢体与实际物体触碰。
其中,获取实际肢体末端当前的第二三维位置信息的过程可以是:调用头戴式显示设备上的摄像头进行拍摄,获得实际场景的平面图像。由于采用高光标记对实际肢体的末端进行了标记,因此可以从平面图像中提取到实际肢体末端的二维坐标信息,然后基于相机成像模型根据二维坐标信息确定当前肢体末端的第二三维位置信息。
图4为本实施例中确定触碰点与实际肢体末端偏移方向的示例图。如图4所示,P2’为触碰点(虚拟肢体的末端点),P2为触碰点在相机平面的投影点,P3’为实际肢体的末端点,P3为实际肢体的末端点在相机平面的投影点。
假设P3的坐标为(x3,y3),则基于相机的成像模型:
Figure BDA0002970499080000091
可以获得P3’的坐标(X3,Y3,Z3)。本实施例中,基于刚体满足虚实匹配的假设,可以根据虚拟场景中的触碰点解算出在真实场景中希望触碰真实物体的位置P2’,记其空间坐标为(X2,Y2,Z2)。从而根据P2’和P3’的坐标计算出实际肢体末端相对于触碰点的偏移方向。
本实施例中,首先移动虚拟肢体,使得P2和P3重合,此时虚拟肢体的末端和实际肢体的末端处于同一条直线上,此时虚拟肢体的末端和实际肢体的末端的X值和Y值相同,而无法保证虚拟肢体的末端和实际肢体的末端的深度相同,即Z值可能不同,因此需要对P3’的Z值进行修正。按照如下公式进行修正:
Figure BDA0002970499080000092
其中Δ为一微小偏移量,可以根据场景尺寸设置。然后再控制虚拟肢体移动至修正后的P3’处。最后控制虚拟肢体由调整后的P3’点移动至触碰点,以引导实际肢体移动,使得实际肢体与实际物体触碰。
本实施例中,可以通过语音的方式引导实际肢体沿偏移方向移动,或者由虚拟肢体引导实际肢体沿偏移方向移动,使得实际肢体与实际物体触碰。
可选的,引导实际肢体沿偏移方向移动,使得实际肢体与实际物体触碰得过程可以是:控制虚拟肢体沿偏移方向的反方向移动设定偏移量;控制虚拟肢体从移动后位置沿偏移方向移动至触碰点,以引导实际肢体沿偏移方向移动;判断实际肢体与实际物体是否触碰;若未触碰,则返回执行获取实际肢体末端当前的第二三维位置信息的操作,直到实际肢体与实际物体触碰。
具体的,用户可以通过眼睛看到虚拟肢体从移动后位置沿偏移方向移动至触碰点的移动路线,用户支配实际肢体跟随虚拟肢体的移动路线移动,从而靠近实际物体,以与实际物体触碰。当虚拟肢体在完成一次引导后,触觉传感器仍然为检测到触摸信号,则表明实际肢体还未触碰到实际物体,此时需要返回执行:获取实际肢体末端当前的第二三维位置信息,基于第二三维位置信息和第一三维位置信息确定实际肢体末端相对于触碰点的偏移方向,控制虚拟肢体沿偏移方向的反方向移动设定偏移量;控制虚拟肢体从移动后位置沿偏移方向移动至触碰点,以引导实际肢体沿偏移方向移动的操作,直到实际肢体与实际物体触碰。
本实施例的技术方案,当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体;若第二肢体未触碰到第二物体,则获取触碰点的第一三维位置信息;根据触碰点的三维位置信息控制第二肢体移动,使得第二肢体与第二物体触碰。本发明实施例提供的人体虚实匹配方法,当第一肢体触碰到第一物体,而第二肢体未触碰第二物体时,根据触碰点的三维位置信息控制第二肢体移动,使得第二肢体与第二物体触碰,以实现实际人体与虚拟人体的匹配,可以降低虚实匹配的计算量,提高虚实匹配的效率。
实施例二
图5是本发明实施例二提供的一种人体虚实匹配装置的结构示意图。如图5所示,该装置包括:
触碰判断模块210,用于当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体;
第一三维位置信息获取模块220,用于若第二肢体未触碰到第二物体,则获取触碰点的第一三维位置信息;其中,触碰点为第一肢体触碰第一物体的点;
肢体移动控制模块230,用于根据触碰点的三维位置信息控制第二肢体移动,使得第二肢体与第二物体触碰;其中,当第一肢体为实际肢体及第一物体为实际物体时,第二肢体为虚拟肢体,第二物体为虚拟物体;当第一肢体为虚拟肢体及第一物体为虚拟物体时,第二肢体为实际肢体,第二物体为实际物体。
可选的,当第一肢体实际肢体及第一物体为实际物体时,第一三维位置信息获取模块220,还用于:
获取相机拍摄的实际肢体触碰实际物体的平面图像;
从平面图像提取触碰点的二维坐标信息;
基于相机成像模型根据二维坐标信息确定触碰点所在的空间直线;
确定空间直线与实际物体的交点信息,确定为触碰点的三维位置信息。
可选的,肢体移动控制模块230,还用于:
控制虚拟肢体移动至触碰点的三维位置信息对应的位置,使得虚拟肢体与虚拟物体触碰。
可选的,当第一肢体为虚拟肢体及第一物体为虚拟物体时,肢体移动控制模块230,还用于:
获取实际肢体末端当前的第二三维位置信息;
基于第二三维位置信息和第一三维位置信息确定实际肢体末端相对于触碰点的偏移方向;
引导实际肢体沿偏移方向移动,使得实际肢体与实际物体触碰。
可选的,肢体移动控制模块230,还用于:
控制虚拟肢体沿偏移方向的反方向移动设定偏移量;
控制虚拟肢体从移动后位置沿偏移方向移动至触碰点,以引导实际肢体沿偏移方向移动;
判断实际肢体与实际物体是否触碰;
若未触碰,则返回执行获取实际肢体末端当前的第二三维位置信息的操作,直到实际肢体与实际物体触碰。
可选的,实际肢体的末端安装有触觉传感器及高光标记装置。
可选的,触碰判断模块210,用于:
判断是否检测到触觉传感器的触摸信号。
上述装置可执行本发明前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明前述所有实施例所提供的方法。
实施例三
图6为本发明实施例三提供的一种计算机设备的结构示意图。图6示出了适于用来实现本发明实施方式的计算机设备312的框图。图6显示的计算机设备312仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。设备312是典型的人体虚实匹配功能的计算设备。
如图6所示,计算机设备312以通用计算设备的形式表现。计算机设备312的组件可以包括但不限于:一个或者多个处理器316,存储装置328,连接不同***组件(包括存储装置328和处理器316)的总线318。
总线318表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及***组件互连(Peripheral Component Interconnect,PCI)总线。
计算机设备312典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机设备312访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置328可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(Random Access Memory,RAM)330和/或高速缓存存储器332。计算机设备312可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***334可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如只读光盘(Compact Disc-Read Only Memory,CD-ROM)、数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线318相连。存储装置328可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块326的程序336,可以存储在例如存储装置328中,这样的程序模块326包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块326通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备312也可以与一个或多个外部设备314(例如键盘、指向设备、摄像头、显示器324等)通信,还可与一个或者多个使得用户能与该计算机设备312交互的设备通信,和/或与使得该计算机设备312能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口322进行。并且,计算机设备312还可以通过网络适配器320与一个或者多个网络(例如局域网(Local AreaNetwork,LAN),广域网Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器320通过总线318与计算机设备312的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备312使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of IndependentDisks,RAID)***、磁带驱动器以及数据备份存储***等。
处理器316通过运行存储在存储装置328中的程序,从而执行各种功能应用以及数据处理,例如实现本发明上述实施例所提供的人体虚实匹配方法。
实施例四
本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该程序被处理装置执行时实现如本发明实施例中的注视点的映射方法。本发明上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体;若所述第二肢体未触碰到所述第二物体,则获取触碰点的第一三维位置信息;其中,所述触碰点为所述第一肢体触碰所述第一物体的点;根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰;其中,当第一肢体为实际肢体及第一物体为实际物体时,第二肢体为虚拟肢体,第二物体为虚拟物体;当第一肢体为虚拟肢体及第一物体为虚拟物体时,第二肢体为实际肢体,第二物体为实际物体。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种人体虚实匹配方法,其特征在于,包括:
当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体;
若所述第二肢体未触碰到所述第二物体,则获取触碰点的第一三维位置信息;其中,所述触碰点为所述第一肢体触碰所述第一物体的点;
根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰;其中,当第一肢体为实际肢体及第一物体为实际物体时,第二肢体为虚拟肢体,第二物体为虚拟物体;当第一肢体为虚拟肢体及第一物体为虚拟物体时,第二肢体为实际肢体,第二物体为实际物体。
2.根据权利要求1所述的方法,其特征在于,当第一肢体实际肢体及第一物体为实际物体时,获取所述触碰点的第一三维位置信息,包括:
获取相机拍摄的实际肢体触碰实际物体的平面图像;
从所述平面图像提取触碰点的二维坐标信息;
基于相机成像模型根据所述二维坐标信息确定所述触碰点所在的空间直线;
确定所述空间直线与所述实际物体的交点信息,确定为所述触碰点的三维位置信息。
3.根据权利要求2所述的方法,其特征在于,根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰,包括:
控制所述虚拟肢体移动至所述触碰点的三维位置信息对应的位置,使得所述虚拟肢体与所述虚拟物体触碰。
4.根据权利要求1所述的方法,其特征在于,当第一肢体为虚拟肢体及第一物体为虚拟物体时,根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰,包括:
获取实际肢体末端当前的第二三维位置信息;
基于所述第二三维位置信息和所述第一三维位置信息确定所述实际肢体末端相对于所述触碰点的偏移方向;
引导所述实际肢体沿所述偏移方向移动,使得所述实际肢体与所述实际物体触碰。
5.根据权利要求4所述的方法,其特征在于,引导所述实际肢体沿所述偏移方向移动,使得所述实际肢体与所述实际物体触碰,包括:
控制所述虚拟肢体沿所述偏移方向的反方向移动设定偏移量;
控制所述虚拟肢体从移动后位置沿所述偏移方向移动至所述触碰点,以引导所述实际肢体沿所述偏移方向移动;
判断所述实际肢体与所述实际物体是否触碰;
若未触碰,则返回执行获取实际肢体末端当前的第二三维位置信息的操作,直到所述实际肢体与所述实际物体触碰。
6.根据权利要求1-5任一所述的方法,其特征在于,所述实际肢体的末端安装有触觉传感器及高光标记装置。
7.根据权利要求6所述的方法,其特征在于,判断所述实际肢体与所述实际物体是否触碰,包括:
判断是否检测到所述触觉传感器的触摸信号。
8.一种人体虚实匹配装置,其特征在于,包括:
触碰判断模块,用于当检测到第一肢体触碰到第一物体时,判断第二肢体是否触碰到第二物体;
第一三维位置信息获取模块,用于若所述第二肢体未触碰到所述第二物体,则获取触碰点的第一三维位置信息;其中,触碰点为所述第一肢体触碰所述第一物体的点;
肢体移动控制模块,用于根据所述触碰点的三维位置信息控制所述第二肢体移动,使得所述第二肢体与所述第二物体触碰;其中,当第一肢体为实际肢体及第一物体为实际物体时,第二肢体为虚拟肢体,第二物体为虚拟物体;当第一肢体为虚拟肢体及第一物体为虚拟物体时,第二肢体为实际肢体,第二物体为实际物体。
9.一种计算机设备,其特征在于,所述设备包括:包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1-7任一所述的人体虚实匹配方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现如权利要求1-7中任一所述的人体虚实匹配方法。
CN202110262231.XA 2021-03-10 2021-03-10 人体虚实匹配方法、装置、设备及存储介质 Active CN112991552B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110262231.XA CN112991552B (zh) 2021-03-10 2021-03-10 人体虚实匹配方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110262231.XA CN112991552B (zh) 2021-03-10 2021-03-10 人体虚实匹配方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112991552A true CN112991552A (zh) 2021-06-18
CN112991552B CN112991552B (zh) 2024-03-22

Family

ID=76334862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110262231.XA Active CN112991552B (zh) 2021-03-10 2021-03-10 人体虚实匹配方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112991552B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130128910A (ko) * 2012-05-18 2013-11-27 한국과학기술원 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
CN104615347A (zh) * 2014-12-24 2015-05-13 天脉聚源(北京)科技有限公司 一种实现虚实画面同步的方法及装置
US20150363027A1 (en) * 2014-06-17 2015-12-17 Touchplus Information Corp. Touch sensing device and touch control system
KR101849226B1 (ko) * 2017-11-27 2018-05-30 주식회사 네비웍스 가상현실운용장치 및 그 동작 방법
CN108170295A (zh) * 2017-12-21 2018-06-15 网易(杭州)网络有限公司 虚拟摄像机状态控制方法、装置、电子设备及存储介质
WO2018126682A1 (zh) * 2017-01-03 2018-07-12 京东方科技集团股份有限公司 用于在虚拟现实***中提供触觉反馈的方法及装置
US20180356880A1 (en) * 2017-04-14 2018-12-13 Colopl, Inc. Information processing method and apparatus, and program for executing the information processing method on computer
CN109191593A (zh) * 2018-08-27 2019-01-11 百度在线网络技术(北京)有限公司 虚拟三维模型的运动控制方法、装置及设备
US20190018479A1 (en) * 2017-05-26 2019-01-17 Colopl, Inc. Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
CN110420463A (zh) * 2019-01-22 2019-11-08 网易(杭州)网络有限公司 游戏中虚拟对象的控制方法及装置、电子设备、存储介质
CN110796703A (zh) * 2019-11-18 2020-02-14 中国商用飞机有限责任公司北京民用飞机技术研究中心 一种位姿跟踪***、方法和存储介质
CN111443619A (zh) * 2020-04-17 2020-07-24 南京工程学院 一种虚实融合的人机协作仿真方法和***
CN111694429A (zh) * 2020-06-08 2020-09-22 北京百度网讯科技有限公司 虚拟对象驱动方法、装置、电子设备及可读存储
WO2021031454A1 (zh) * 2019-08-21 2021-02-25 佳都新太科技股份有限公司 一种数字孪生***、方法及计算机设备

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130128910A (ko) * 2012-05-18 2013-11-27 한국과학기술원 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
US20150363027A1 (en) * 2014-06-17 2015-12-17 Touchplus Information Corp. Touch sensing device and touch control system
CN104615347A (zh) * 2014-12-24 2015-05-13 天脉聚源(北京)科技有限公司 一种实现虚实画面同步的方法及装置
WO2018126682A1 (zh) * 2017-01-03 2018-07-12 京东方科技集团股份有限公司 用于在虚拟现实***中提供触觉反馈的方法及装置
US20180356880A1 (en) * 2017-04-14 2018-12-13 Colopl, Inc. Information processing method and apparatus, and program for executing the information processing method on computer
US20190018479A1 (en) * 2017-05-26 2019-01-17 Colopl, Inc. Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
KR101849226B1 (ko) * 2017-11-27 2018-05-30 주식회사 네비웍스 가상현실운용장치 및 그 동작 방법
CN108170295A (zh) * 2017-12-21 2018-06-15 网易(杭州)网络有限公司 虚拟摄像机状态控制方法、装置、电子设备及存储介质
CN109191593A (zh) * 2018-08-27 2019-01-11 百度在线网络技术(北京)有限公司 虚拟三维模型的运动控制方法、装置及设备
CN110420463A (zh) * 2019-01-22 2019-11-08 网易(杭州)网络有限公司 游戏中虚拟对象的控制方法及装置、电子设备、存储介质
WO2021031454A1 (zh) * 2019-08-21 2021-02-25 佳都新太科技股份有限公司 一种数字孪生***、方法及计算机设备
CN110796703A (zh) * 2019-11-18 2020-02-14 中国商用飞机有限责任公司北京民用飞机技术研究中心 一种位姿跟踪***、方法和存储介质
CN111443619A (zh) * 2020-04-17 2020-07-24 南京工程学院 一种虚实融合的人机协作仿真方法和***
CN111694429A (zh) * 2020-06-08 2020-09-22 北京百度网讯科技有限公司 虚拟对象驱动方法、装置、电子设备及可读存储

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ROBERT XIAO: "MRtouch:adding touch input to head-mounted mixed reality", IEEE *
孙熠璇: "基于虚拟环境训练及视觉运动辨识的上肢康复技术研究", 中国优秀硕士学位论文全文数据库信息科技辑 *
王妙云: "煤矿井下四旋翼无人机虚拟远程操控关键技术研究", 中国优秀硕士学位论文全文数据库信息科技辑 *

Also Published As

Publication number Publication date
CN112991552B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
KR102590841B1 (ko) 가상 오브젝트 구동 방법, 장치, 전자기기 및 판독 가능 저장매체
KR101687017B1 (ko) 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
KR101865655B1 (ko) 증강현실 상호 작용 서비스 제공 장치 및 방법
EP3113114B1 (en) Image processing method and device
US10489651B2 (en) Identifying a position of a marker in an environment
KR101606628B1 (ko) 포인팅 방향 검출 장치 및 그 방법과, 프로그램 및 컴퓨터 판독가능한 매체
CN110322500A (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
KR20200111617A (ko) 제스처 인식 방법, 장치, 전자 기기 및 저장 매체
US20150062123A1 (en) Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
JP2021120844A (ja) 車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体
CN104317391A (zh) 一种基于立体视觉的三维手掌姿态识别交互方法和***
US20130120250A1 (en) Gesture recognition system and method
KR20160138062A (ko) 적응적 호모그래피 매핑에 기초한 눈 시선 추적
CN111433783A (zh) 手部模型生成方法、装置、终端设备及手部动作捕捉方法
CN110068824A (zh) 一种传感器位姿确定方法和装置
KR20220100813A (ko) 자율주행 차량 정합 방법, 장치, 전자 기기 및 차량
CN111832611A (zh) 动物识别模型的训练方法、装置、设备及存储介质
CN112990101B (zh) 基于机器视觉的面部器官定位方法及相关设备
CN111915642A (zh) 图像样本的生成方法、装置、设备和可读存储介质
CN112991552B (zh) 人体虚实匹配方法、装置、设备及存储介质
Durchon et al. Challenges in applying deep learning to augmented reality for manufacturing
CN114926542A (zh) 基于光学定位***的混合现实固定参考系校准方法
CN114200934A (zh) 机器人目标跟随控制方法、装置、电子设备和存储介质
TWI811108B (zh) 混合實境處理系統及混合實境處理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant