CN107092347B - 一种增强现实互动***及图像处理方法 - Google Patents

一种增强现实互动***及图像处理方法 Download PDF

Info

Publication number
CN107092347B
CN107092347B CN201710140853.9A CN201710140853A CN107092347B CN 107092347 B CN107092347 B CN 107092347B CN 201710140853 A CN201710140853 A CN 201710140853A CN 107092347 B CN107092347 B CN 107092347B
Authority
CN
China
Prior art keywords
image
human body
rgb
image processing
body frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710140853.9A
Other languages
English (en)
Other versions
CN107092347A (zh
Inventor
胡喜林
李湘黔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Blaz Information Technology Co ltd
Original Assignee
Shenzhen Blaz Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Blaz Information Technology Co ltd filed Critical Shenzhen Blaz Information Technology Co ltd
Priority to CN201710140853.9A priority Critical patent/CN107092347B/zh
Publication of CN107092347A publication Critical patent/CN107092347A/zh
Application granted granted Critical
Publication of CN107092347B publication Critical patent/CN107092347B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种增强现实互动***及图像处理方法,其中***包括:包括:RGB摄像头,所述RGB摄像头用以获取第一RGB图像;红外传感器,所述红外传感器包括红外发射器和红外接收器,用以获取景深图像;体感控制器,所述体感控制器用以辨别所述景深图像中的人体部位,辨识出人体多个节点并生成人体框架,所述人体框架具有与所述人体多个节点对应的多个特征点;图像处理***,所述图像处理***通过一个裁剪范围裁剪所述景深图像,将裁剪后的景深图像叠加至所述第一RGB图像,生成第二RGB图像,本发明将获取的图像进行分割,可以实现对比图片特征码的速度提升,以及实际运算量减少了3倍以上,提高了识别率,从而提高了识别范围。

Description

一种增强现实互动***及图像处理方法
技术领域
本发明涉及人工智能领域,具体涉及一种增强现实互动***及图像处理方法。
背景技术
传统的AR识别,在处理高清图片时,会占用大量的CPU资源,由于kinect的RGB摄像头30帧每秒,采样帧率不够,而且距离越远,对比特征点的耗时越长,轻微的运动都会导致识别率大幅下降,以及特征点不够时,不能作为有效识别。
目前相关的专利申请如下:
1、申请号为201610187382.2的中国发明专利申请,名称为“一种内容交互方法及其***”,通过视频采集单元、第一计算终端、第二计算终端、触摸显示设备和语音输出单元,其中视频采集单元对场景中的识别图进行采集;第一计算终端对采集的识别图进行识别确认;当识别确认成功后,通过输出预制的互动内容;用户通过互动内容进行互动时,第一计算终端存储并向第二计算终端发送互动的步骤和内容;第二计算终端根据互动的步骤和内容进行统计分析,以及将分析结果反馈给第一计算终端,进而调整互动内容。从而实现了在虚实结合的界面上的人机互动,但是并没有解决本发明需要解决的技术问题。
2、申请号为201110037077.2的中国发明专利申请,名称为“实现扩增实境互动的方法、扩增实境互动装置及移动终端”,通过获取图案信息;图案为扩增实境互动场景;根据图案信息确定虚拟景物的三维信息;根据三维信息计算出虚拟景物与扩增实境互动装置、以及图案的初始相对空间位置关系;根据初始相对空间位置关系将虚拟景物和图案叠加在一起;采集扩增实境互动装置的空间位置信息,确定出扩增实境互动装置的三维运动路径;根据初始相对空间位置关系及三维动态运动路径,获得虚拟景物与扩增实境互动装置、以及图案的当前相对空间位置关系;根据当前相对空间位置关系将虚拟景物和图案重新进行叠加。增加了AR互动过程的稳定性,且提高了AR互动的易操作性,但是也没有解决本发明需要解决的技术问题。
发明内容
为了解决上述不足的缺陷,本发明提供了一种增强现实互动***及图像处理方法,本发明将获取的图像进行分割,可以将图片特征码比对的速度提升,也使实际运算量减少了3倍以上,提高了识别率,从而提高了识别范围。将识别距离从传统的AR识别范围在1米左右提高到了2.5米。也加快了用户拿取商家的商品在屏前识别的速度。
本发明提供的一种增强现实互动***,包括:
RGB摄像头,所述RGB摄像头用以获取第一RGB图像;
红外传感器,所述红外传感器包括红外发射器和红外接收器,用以获取景深图像;
体感控制器,所述体感控制器用以辨别所述景深图像中的人体部位,辨识出人体多个节点并生成人体框架,所述人体框架具有与所述人体多个节点对应的多个特征点;
图像处理***,所述图像处理***通过一个裁剪范围裁剪所述景深图像,将裁剪后的景深图像叠加至所述第一RGB图像,生成第二RGB图像,所述裁剪范围的最大高度为所述人体框架的头顶到所述人体框架的脊柱中心之间的高度,所述裁剪范围的最大宽度为左手和右手两边最大节点之间的宽度。
上述的***,其中,所述图像处理***连接有图像特征库,所述图像特征库包含多个图像,所述多个图像分别具有各自的图像特征点,所述图像处理***将所述人体框架的特征点与图像特征库的特征点进行对比,并将特征点比对相符的图像叠加至所述第二RGB图像上形成合成图案。
上述的***,其中,所述图像处理***还连接有资源库,所述资源库包含有物品信息、动画、视频、模型、图片和语音数据。
上述的***,其中,所述图像特征库的图像与所述资源库的所述物品信息、动画、视频、模型、图片和语音数据相关联。
上述的***,其中,所述图像处理***将所述物品信息、动画、视频、模型、图片和语音数据叠加至所述第二RGB图像或第一RGB图像。
另一方面,本发明提出了一种增强现实互动的图像处理方法,包括以下步骤:
(1)提供至少一个RGB摄像头、红外传感器、体感控制器、以及至少一个图像处理***,所述图像处理***连接有图像特征库,所述图像特征库具有特征点的图像;
(2)通过所述RGB摄像头,获取第一RGB图像;
(3)通过所述红外传感器获取景深图像;
(4)通过所述体感控制器辨别所述景深图像中的人体部位,辨识出人体多个节点并生成人体框架,所述人体框架具有与所述人体多个节点对应的多个特征点;
(5)通过一个裁剪范围裁剪所述景深图像,将裁剪后的景深图像叠加至所述第一RGB图像,生成第二RGB图像,所述裁剪范围的最大高度为所述人体框架的头顶到所述人体框架的脊柱中心之间的高度,所述裁剪范围的最大宽度为所述人体框架的左手和右手两边最大节点之间的宽度;
(6)提取所述第二RGB图像的其中一帧的特征点与所述图像特征库的图像的特征点进行对比;
(7)将与特征点比对相符的图像叠加到第二RGB图像形成合成图案。
上述的方法,其中,所述步骤(7)包括:所述图像处理***还连接有资源库,所述资源库包含物品信息、动画、视频、模型、图片和语音数据。
上述的方法,其中,所述步骤(7)包括:所述图像特征库的图像与所述资源库的所述物品信息、动画、视频、模型、图片和语音数据相关联。
上述的方法,其中,所述步骤(7)包括:所述图像处理***将所述物品信息、动画、视频、模型、图片和语音数据叠加至所述第二RGB图像或第一RGB图像。
本发明具有以下优点:1、本发明将获取的图像进行分割,可以实现对比图片特征码的速度提升,以及实际运算量减少了3倍以上,提高了识别率,从而提高了识别范围。将识别距离从传统的AR识别范围在1米左右提高到了2.5米。也加快了用户拿取商家的商品在屏前识别的速度;2、可以实现将制作的动画图像库、动作库、云端商品信息特征库有机结合,进行趣味广告投放。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明及其特征、外形和优点将会变得更明显。在全部附图中相同的标记指示相同的部分。并未刻意按照比例绘制附图,重点在于示出本发明的主旨。
图1为本发明一种增强现实互动***的框架图。
图2为本发明一种增强现实互动的图像处理方法的流程图。
图3为本发明中通过商品特征码索引资源动画的示意图。
图4为本发明中步骤(5)中裁剪后景深图像的参考示意图。
具体实施方式
在下文的描述中,给出了大量具体的细节以便提供对本发明更为彻底的理解。然而,对于本领域技术人员而言显而易见的是,本发明可以无需一个或多个这些细节而得以实施。在其他的例子中,为了避免与本发明发生混淆,对于本领域公知的一些技术特征未进行描述。
为了彻底理解本发明,将在下列的描述中提出详细的步骤以及详细的结构,以便阐释本发明的技术方案。本发明的较佳实施例详细描述如下,然而除了这些详细描述外,本发明还可以具有其他实施方式。
参照图1-图4所示,本发明提供的一种增强现实互动***,包括:
RGB摄像头,所述RGB摄像头用以获取第一RGB图像;
红外传感器,红外传感器包括红外发射器和红外接收器,用以获取景深图像;
体感控制器,优选为Kinect体感控制器,体感控制器用以辨别景深图像中的人体部位,辨识出人体多个节点并生成人体框架,进一步,辨识出人体25个关节点并生成骨架***,其中,人体框架具有与所述人体多个节点对应的多个特征点。
图像处理***,图像处理***通过一个裁剪范围裁剪景深图像,将裁剪后的景深图像叠加至第一RGB图像,生成第二RGB图像,参照图4所示,裁剪范围的最大高度为人体框架的头顶到所述人体框架的脊柱中心之间的高度,裁剪范围的最大宽度为左手和右手两边最大节点之间的宽度,进一步优选,通过人体框架头到脊柱中心确定出高度,左手右手两边识别出的最大关节点确认出宽度,以及通过创建分割遮罩去除人体外的冗余数据,便于在景深图像中追踪到玩家。
本发明一优选而非限制性的实施例中,图像处理***连接有图像特征库,图像特征库包含多个图像,该多个图像分别具有各自的图像特征点,图像处理***将人体框架的特征点与图像特征库的图像的特征点进行对比,并将特征点比对相符的图像叠加至第二RGB图像上形成合成图案。
本发明一优选而非限制性的实施例中,图像处理***还连接有资源库,所述资源库包含有物品信息、动画、视频、模型、图片和语音数据,用于提供广告、商品数据,可以实现将自己制作的广告、商品、动画、语音、图片、视频、模型有机结合,进行趣味广告投放。
本发明一优选而非限制性的实施例中,图像特征库的图像与资源库的物品信息、动画、视频、模型、图片和语音数据相关联,进一步,图像处理***将所述物品信息、动画、视频、模型、图片和语音数据叠加至所述第二RGB图像或第一RGB图像。
例如,增强现实互动***通过RGB摄像头和红外传感器检测到一个人,RGB摄像头和红外传感器分别生成第一RGB图像和景深图像。此时,体感控制器辨别景深图像中的人体部位,辨识出人体多个节点并生成人体框架。图像处理***根据人体框架的头顶到所述人体框架的脊柱中心之间的高度、人体框架的左手和右手两边最大节点之间的宽度确定一个裁剪范围,图像处理***根据这个裁剪范围裁剪景深图像,将裁剪后的景深图像叠加至第一RGB图像,生成第二RGB图像。图像处理***将第二RGB图像的特征点与图像特征库的图像的特征点进行对比,找到特征点比对相符的图像,比如一套盔甲图像,这套盔甲图像叠加至第二RGB图像上,使第二RGB图像与盔甲图像合成。同时,资源库中与特征点比对相符的图像相关联的资源,比如广告视频,则以一个方形框的形式叠加至第二RGB图像的双手之间,形成合成图案。这套盔甲图像和广告视频可以随着人的动作而移动。更优选的,为了广告投放的趣味性,人还可以做出提膝的动作,增强现实互动***识别出人体框架,人体框架具有与所述人体多个节点对应的多个特征点,该膝盖上的特征点在平面上接触到该方形框,则该方形框碎裂。实际上的效果是这个人提膝将承载着广告视频的方形框打碎。
再例如,增强现实互动***检测到一个无人机的商品盒,生成第一RGB图像,图像处理***直接将该第一RGB图像的特征点与图像特征库的图像的特征点进行对比,特征点比对相符的图像是一个无人机图像,与该无人机图像相关联的是一个能飞行的无人机动画,则该无人机动画叠加至所述第一RGB图像上合成。
另一面,本发明提供的一种增强现实互动的图像处理方法,参照图2所示,包括以下步骤:
步骤(1)提供至少一个RGB摄像头、红外传感器、体感控制器、以及至少一个图像处理***,所述图像处理***连接有图像特征库,所述图像特征库具有特征点的图像;
步骤(2)通过所述RGB摄像头,获取第一RGB图像;
步骤(3)通过红外传感器获取景深图像,其中红外传感器包括红外发射器和红外接收器,进一步,红外发射器用于发送安全的红外射线,红外接收器用于接收红外发射器的红外射线;
步骤(4)通过所述体感控制器辨别所述景深图像中的人体部位,辨识出人体多个节点并生成人体框架,所述人体框架具有与所述人体多个节点对应的多个特征点;
步骤(5)通过一个裁剪范围裁剪所述景深图像,将裁剪后的景深图像叠加至所述第一RGB图像,生成第二RGB图像,所述裁剪范围的最大高度为所述人体框架的头顶到所述人体框架的脊柱中心之间的高度,所述裁剪范围的最大宽度为所述人体框架的左手和右手两边最大节点之间的宽度;
步骤(6)提取所述第二RGB图像的其中一帧的特征点与所述图像特征库的图像的特征点进行对比;
步骤(7)将与特征点比对相符的图像叠加到第二RGB图像形成合成图案。
本发明一优选而非限制性的实施例中,步骤(6)包括:
判断是否有特征点,若是则继续,若否,则获取下一帧第二RGB图像继续与所述图像特征库的图像的特征点进行对比,也就是说通过特征点对比之后,若生成第二RGB图像的特征点与图像特征库的特征点没有相似的,则返回到步骤(4),重新生成人体框架。
本发明一优选而非限制性的实施例中,步骤(7)包括:
当裁剪过后的景深图像丢失则重复步骤(4),以及,图像处理***还连接有资源库,所述资源库包含物品信息、动画、视频、模型、图片和语音数据,进一步,图像特征库的图像与所述资源库的所述物品信息、动画、视频、模型、图片和语音数据相关联,再进一步,图像处理***将所述物品信息、动画、视频、模型、图片和语音数据叠加至所述第二RGB图像或第一RGB图像。
本发明的步骤(5)的具体实现过程为:分割的逻辑是在体感控制器处理后的景深图像后做处理,逻辑是取人物骨骼的4个数据点,分别为头,左手,右手,脊柱中心,做为主要的AR识别范围区域。分割遮罩后得到如图4所示,其中:外侧的矩形方框以内为真实场景,人体图像部分是红外传感器识别出来的人物遮罩,内部矩形部分是在体感控制器按照步骤(5)处理后的数据再次分割出来的部分。内部矩形部分为获取头,左手,右手,脊柱中心4个数据点的位置,按照1:1的比例大小换算成屏幕坐标形成的区域。内部矩形区域以外,都属于冗余数据,内部矩形部分即为裁剪后的景深图像。将裁剪后的景深图像叠加至所述第一RGB图像,生成第二RGB图像。
本发明的步骤(7)的具体实现过程为:图像特征库中与第二RGB图像特征点比对相符的图像通过特征码与资源库的物品信息、动画、视频、模型、图片和语音数据相关联,通过符合的特征码将对应的资源提取、叠加到图像位置,如此将自己制作的广告、商品、动画、语音、图片、视频、模型有机结合。参照图3所示,通过特征码索引资源库的具体方式为,通过特征码索引到id,通过id,找到对应的资源库,资源还可能是透明视频、3D模型、或者音乐资源等。其中,图像特征库的图像与资源库的物品信息、动画、视频、模型、图片和语音数据的关联方式有2种:一种为有标签关联,即通过建立与目标图像的三维坐标系,将三维素材(透明视频、3D模型、动画、音乐、图片)进行与目标图像的姿态、位置、及大小进行关联;另一种为无标签关联,就是识别出特征码后,播放音乐,视频等,不会基于目标图像做变化。其中,三维坐标系是根据被跟踪的目标图像特征点,以被跟踪的目标图像特征点所在平面为参考平台,以任意一个特征点为原点确定世界坐标系,重建3D虚拟场景,将3D模型叠加在上面,从而可以实现AR的互动。
本发明的重要特征点在于,基于所述景深图像分割遮罩去除人体外的冗余数据,也就是说,创建分割遮罩去除人体外的冗余数据,便于在景深图像中追踪玩家,进一步可以减轻高通算法模块的计算量。也就是说将获取的景深图像进行分割,可以实现将对比图片特征码的速度提升,以及将实际运算量减少了3倍以上,提高了识别率,从而提高了识别范围。将识别距离从传统的AR识别范围在1米左右提高到了2.5米。当用户拿取商家的商品在屏前时,也加快了AR识别的速度。
以上对本发明的较佳实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,其中未尽详细描述的设备和结构应该理解为用本领域中的普通方式予以实施;任何熟悉本领域的技术人员,在不脱离本发明技术方案范围情况下,都可利用上述揭示的方法和技术内容对本发明技术方案做出许多可能的变动和修饰,或修改为等同变化的等效实施例,这并不影响本发明的实质内容。因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。

Claims (6)

1.一种增强现实互动***,其特征在于,包括:
RGB摄像头,所述RGB摄像头用以获取第一RGB图像;
红外传感器,所述红外传感器包括红外发射器和红外接收器,用以获取景深图像;体感控制器,所述体感控制器用以辨别所述景深图像中的人体部位,辨识出人体多个节点并生成人体框架,所述人体框架具有与所述人体多个节点对应的多个特征点;
图像处理***,所述图像处理***通过一个裁剪范围裁剪所述景深图像,将裁剪后的景深图像叠加至所述第一RGB图像,生成第二RGB图像,所述裁剪范围的最大高度为所述人体框架的头顶到所述人体框架的脊柱中心之间的高度,所述裁剪范围的最大宽度为左手和右手两边最大节点之间的宽度;
所述图像处理***连接有图像特征库,所述图像特征库包含多个图像,所述多个图像分别具有各自的图像特征点,所述图像处理***将所述人体框架的特征点与图像特征库的特征点进行对比,并将特征点比对相符的图像叠加至所述第二RGB图像上形成合成图案;
所述图像处理***还连接有资源库,所述资源库包含有物品信息、动画、视频、模型、图片和语音数据。
2.如权利要求1所述的一种增强现实互动***,其特征在于,所述图像特征库的图像与所述资源库的所述物品信息、动画、视频、模型、图片和语音数据相关联。
3.如权利要求2所述的一种增强现实互动***,其特征在于,所述图像处理***将所述物品信息、动画、视频、模型、图片和语音数据叠加至所述第二RGB图像或第一RGB图像。
4.一种增强现实互动的图像处理方法,其特征在于,包括以下步骤:
(1)提供至少一个RGB摄像头、红外传感器、体感控制器、以及至少一个图像处理***,所述图像处理***连接有图像特征库,所述图像特征库具有特征点的图像;
(2)通过所述RGB摄像头,获取第一RGB图像;
(3)通过所述红外传感器获取景深图像;
(4)通过所述体感控制器辨别所述景深图像中的人体部位,辨识出人体多个节点并生成人体框架,所述人体框架具有与所述人体多个节点对应的多个特征点;
(5)通过一个裁剪范围裁剪所述景深图像,将裁剪后的景深图像叠加至所述第一RGB图像,生成第二RGB图像,所述裁剪范围的最大高度为所述人体框架的头顶到所述人体框架的脊柱中心之间的高度,所述裁剪范围的最大宽度为所述人体框架的左手和右手两边最大节点之间的宽度;
(6)提取所述第二RGB图像的其中一帧的特征点与所述图像特征库的图像的特征点进行对比;
(7)将与特征点比对相符的图像叠加到第二RGB图像形成合成图案;所述图像处理***还连接有资源库,所述资源库包含物品信息、动画、视频、模型、图片和语音数据。
5.如权利要求4所述的一种增强现实互动的图像处理方法,其特征在于,所述步骤(7)包括:
所述图像特征库的图像与所述资源库的所述物品信息、动画、视频、模型、图片和语音数据相关联。
6.如权利要求5所述的一种增强现实互动的图像处理方法,其特征在于,所述步骤(7)包括:
所述图像处理***将所述物品信息、动画、视频、模型、图片和语音数据叠加至所述第二RGB图像或第一RGB图像。
CN201710140853.9A 2017-03-10 2017-03-10 一种增强现实互动***及图像处理方法 Active CN107092347B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710140853.9A CN107092347B (zh) 2017-03-10 2017-03-10 一种增强现实互动***及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710140853.9A CN107092347B (zh) 2017-03-10 2017-03-10 一种增强现实互动***及图像处理方法

Publications (2)

Publication Number Publication Date
CN107092347A CN107092347A (zh) 2017-08-25
CN107092347B true CN107092347B (zh) 2020-06-09

Family

ID=59649354

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710140853.9A Active CN107092347B (zh) 2017-03-10 2017-03-10 一种增强现实互动***及图像处理方法

Country Status (1)

Country Link
CN (1) CN107092347B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108031110A (zh) * 2017-11-03 2018-05-15 东莞市新进巧工艺制品有限公司 一种基于ar技术的游戏***
JP2022061363A (ja) * 2020-10-06 2022-04-18 シャープ株式会社 音声メッセージ付画像の生成制御装置および生成方法
CN113552944B (zh) * 2021-07-20 2024-03-08 深圳市博乐信息技术有限公司 一种智慧宣传***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102375542A (zh) * 2011-10-27 2012-03-14 Tcl集团股份有限公司 一种肢体遥控电视的方法及电视遥控装置
CN102509092A (zh) * 2011-12-12 2012-06-20 北京华达诺科技有限公司 体感手势识别方法
CN103106604A (zh) * 2013-01-23 2013-05-15 东华大学 基于体感技术的3d虚拟试衣方法
CN103337079A (zh) * 2013-07-09 2013-10-02 广州新节奏智能科技有限公司 一种虚拟增强现实的教学方法及装置
CN103984928A (zh) * 2014-05-20 2014-08-13 桂林电子科技大学 基于景深图像的手指手势识别方法
CN104436642A (zh) * 2014-12-17 2015-03-25 常州市勤业新村幼儿园 基于Kinect的幼儿舞蹈体感游戏***及其工作方法
CN106355153A (zh) * 2016-08-31 2017-01-25 上海新镜科技有限公司 一种基于增强现实的虚拟对象显示方法、装置以及***
CN106412420A (zh) * 2016-08-25 2017-02-15 安徽华夏显示技术股份有限公司 一种互动拍照实现方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102375542A (zh) * 2011-10-27 2012-03-14 Tcl集团股份有限公司 一种肢体遥控电视的方法及电视遥控装置
CN102509092A (zh) * 2011-12-12 2012-06-20 北京华达诺科技有限公司 体感手势识别方法
CN103106604A (zh) * 2013-01-23 2013-05-15 东华大学 基于体感技术的3d虚拟试衣方法
CN103337079A (zh) * 2013-07-09 2013-10-02 广州新节奏智能科技有限公司 一种虚拟增强现实的教学方法及装置
CN103984928A (zh) * 2014-05-20 2014-08-13 桂林电子科技大学 基于景深图像的手指手势识别方法
CN104436642A (zh) * 2014-12-17 2015-03-25 常州市勤业新村幼儿园 基于Kinect的幼儿舞蹈体感游戏***及其工作方法
CN106412420A (zh) * 2016-08-25 2017-02-15 安徽华夏显示技术股份有限公司 一种互动拍照实现方法
CN106355153A (zh) * 2016-08-31 2017-01-25 上海新镜科技有限公司 一种基于增强现实的虚拟对象显示方法、装置以及***

Also Published As

Publication number Publication date
CN107092347A (zh) 2017-08-25

Similar Documents

Publication Publication Date Title
CN109191369B (zh) 2d图片集转3d模型的方法、存储介质和装置
CN107688391B (zh) 一种基于单目视觉的手势识别方法和装置
CN114303120A (zh) 虚拟键盘
KR101608253B1 (ko) 이미지 기반 멀티 뷰 3d 얼굴 생성
CN102332095B (zh) 一种人脸运动跟踪方法和***以及一种增强现实方法
CN106896925A (zh) 一种虚拟现实与真实场景融合的装置
KR102106135B1 (ko) 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법
CN115699093A (zh) 计算动态场景的图像
CN105107200B (zh) 基于实时深度体感交互与增强现实技术的变脸***及方法
CN103366610A (zh) 基于增强现实的三维互动学习***及方法
CN105144236A (zh) 实时立体匹配
CN106997618A (zh) 一种虚拟现实与真实场景融合的方法
CN107092347B (zh) 一种增强现实互动***及图像处理方法
CN110348370B (zh) 一种人体动作识别的增强现实***及方法
KR102234646B1 (ko) 가상 현실 체험 장치 및 방법
CN111833458A (zh) 图像显示方法及装置、设备、计算机可读存储介质
US20160182769A1 (en) Apparatus and method for generating motion effects by analyzing motions of objects
CN107016730A (zh) 一种虚拟现实与真实场景融合的装置
CN106971426A (zh) 一种虚拟现实与真实场景融合的方法
CN112308977A (zh) 视频处理方法、视频处理装置和存储介质
Haggag et al. An adaptable system for rgb-d based human body detection and pose estimation: Incorporating attached props
CN117333645A (zh) 一种环形全息交互***及其设备
Ciftci et al. Partially occluded facial action recognition and interaction in virtual reality applications
CN106981100A (zh) 一种虚拟现实与真实场景融合的装置
CN106293078A (zh) 基于摄像头的虚拟现实交互方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant