CN111708429A - 一种基于手掌实现ar的方法和*** - Google Patents

一种基于手掌实现ar的方法和*** Download PDF

Info

Publication number
CN111708429A
CN111708429A CN202010370658.7A CN202010370658A CN111708429A CN 111708429 A CN111708429 A CN 111708429A CN 202010370658 A CN202010370658 A CN 202010370658A CN 111708429 A CN111708429 A CN 111708429A
Authority
CN
China
Prior art keywords
palm print
digital
dimensional model
acquiring
palm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010370658.7A
Other languages
English (en)
Inventor
邹峥
刘石坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Normal University
Original Assignee
Fujian Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Normal University filed Critical Fujian Normal University
Priority to CN202010370658.7A priority Critical patent/CN111708429A/zh
Publication of CN111708429A publication Critical patent/CN111708429A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供了一种基于手掌实现AR的方法和***,涉及虚拟现实领域。该方法包括:根据用户标识获取用户的身份信息;根据身份信息和预设的身份信息与数字掌纹的对应关系,获取对应的数字掌纹;从数据库中读取待展示对象的三维模型,并确定三维模型与所述数字掌纹的三维位置关系;根据数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标;根据实体掌纹的空间位置坐标对数字掌纹及三维模型进行坐标转换,将数字掌纹和三维模型与实体掌纹对齐,进行增强现实AR。实现了个性化展示AR的技术,保证了AR展示的成功性。

Description

一种基于手掌实现AR的方法和***
技术领域
本申请属于虚拟现实领域,尤其涉及一种基于手掌实现AR的方法和***。
背景技术
AR是虚拟现实技术,通过AR用户可以观看到待展示物体的虚拟三维图像。现有技术AR需要登录本地和服务器端,从服务器端获取虚拟三维图像以进行展示,在登录本地和服务器端的过程中需要输入账号和密码,但如果用户遗忘自己的账号和密码则无法进行AR展示。另外,虚拟对象展示在由AR应用开发者所给定的位置,例如待展示实体的周围。当离开给定的实体环境,则无法进行AR展示。
发明内容
本发明实施例的主要目的在于提供一种基于手掌实现AR的方法和***,通过本发明实施例的方案,实现了个性化展示AR的技术,保证了AR展示的成功。
第一方面,本发明提供了一种基于手掌实现AR的方法,包括:
根据用户标识获取用户的身份信息;
根据所述身份信息和预设的身份信息与数字掌纹的对应关系,获取对应的数字掌纹;
从数据库中读取待展示对象的三维模型,并确定所述三维模型与所述数字掌纹的三维位置关系;
根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标;
根据实体掌纹的空间位置坐标对数字掌纹及三维模型进行坐标转换,将所述数字掌纹和三维模型与实体掌纹对齐,进行增强现实AR。
在一个可能的实现方式中,在所述根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标之后,所述方法还包括:
根据位置捕捉设备获取所述实体掌纹的手掌空间位置变换坐标,并根据所述手掌空间位置变换坐标更新所述三维模型的模型空间位置变换坐标。
在另一个可能的实现方式中,在所述根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标之后,所述方法还包括:
根据展示手的手指弯曲情况获取用户对所述三维模型的展示手交互动作,所述展示手交互动作包括:旋转、缩放。
在另一个可能的实现方式中,在所述根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标之后,所述方法还包括;
获取非展示手的动作,根据所述动作获取用户对所述三维模型的非展示手交互动作,所述非展示手交互动作包括:旋转、缩放。
在另一个可能的实现方式中,所述数据库为AR设备本地数据库和/或服务器端数据库。
在另一个可能的实现方式中,所述数字掌纹为左手数字掌纹和/或右手数字掌纹。
另一方面,本发明提供了一种基于手掌实现AR的***,所述***包括:
身份信息获取模块,用于根据用户标识获取用户的身份信息;
数字掌纹获取模块,用于根据所述身份信息和预设的身份信息与数字掌纹的对应关系,获取对应的数字掌纹;
虚拟信息预备模块,用于从数据库中读取待展示对象的三维模型,并确定所述三维模型与所述数字掌纹的三维位置关系;
用户手掌识别模块,用于根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标;
对齐模块,用于根据所述实体掌纹的空间位置坐标对数字掌纹及三维模型进行坐标转换,将所述数字掌纹和三维模型与实体掌纹对齐,进行增强现实AR。
在一个可能的实现方式中,所述***还包括:
坐标更新模块,用于根据位置捕捉设备获取所述实体掌纹的手掌空间位置变换坐标,并根据所述手掌空间位置变换坐标更新所述三维模型的模型空间位置变换坐标。
在另一个可能的实现方式中,所述***还包括:
展示手交互动作获取模块,用于根据展示手的手指弯曲情况获取用户对所述三维模型的展示手交互动作,所述展示手交互动作包括:旋转、缩放。
在另一个可能的实现方式中,所述***还包括:
非展示手交互动作获取模块,用于获取非展示手的动作,根据所述动作获取用户对所述三维模型的非展示手交互动作,所述非展示手交互动作包括:旋转、缩放。
本申请提供的技术方案带来的有益效果是:实现了个性化展示AR的技术,保证了AR展示的成功。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为本发明一个实施例提供的一种基于手掌实现AR的方法的流程图;
图2为本发明一个实施例提供的一种基于手掌实现AR的***的结构图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的模块或具有相同或类似功能的模块。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、模块和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、模块、组件和/或它们的组。应该理解,当我们称模块被“连接”或“耦接”到另一模块时,它可以直接连接或耦接到其他模块,或者也可以存在中间模块。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如和解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
实施例一
如图1所示为本发明一个实施例提供的一种基于手掌实现AR的方法的流程图,所述方法包括:
步骤S101,根据用户标识获取用户的身份信息。
在本发明实施例中,实现手掌AR的终端设备根据用户输入的用户标识识别出用户的身份,该标识信息为独有可识别用户身份的信息,包括:身份证号、指纹、用户账号等。
步骤S102,根据所述身份信息和预设的身份信息与数字掌纹的对应关系,获取对应的数字掌纹。
在本发明实施例中,终端设备的数据库中预设有身份信息与数字掌纹的对应关系,将获取的身份信息放在数据库中进行遍历,即可获取与身份信息对应的数字掌纹。需要指出的是,数字掌纹可以为单个的左手数字掌纹或右手数字掌纹,也可以是左手数字掌纹加上右手数字掌纹。
步骤S103,从数据库中读取待展示对象的三维模型,并确定所述三维模型与所述数字掌纹的三维位置关系。
在本发明实施例中,数据库中存储有待展示对象的三维模型,这些三维模型可以是从网络上下载的,也可以是终端自己通过算法生成的,将该三维模型与手掌掌纹进行注册,即可将三维模型与手掌掌纹建立对应关系。
步骤S104,根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取所述实体掌纹的空间位置坐标。
在本发明实施例中,AR设备通过预设的机器视觉算法根据数字掌纹与实体掌纹之间的对应关系,获取用户的实体掌纹的空间位置坐标。其中,机器视觉算法可以根据实际使用的进行选择和设置,本申请对此不作限定。
步骤S105,根据所述实体掌纹的空间位置坐标对数字掌纹及三维模型进行坐标转换,将所述数字掌纹和三维模型与实体掌纹对齐,进行增强现实AR。
在本发明实施例中,实体掌纹与数字掌纹为一一对应的关系,通过实体掌纹的空间位置坐标即可实现对数字掌纹和三维模型的坐标转换,进而将数字掌纹和三维模型与实体掌纹对齐,进行AR。
本发明实施例,根据用户标识获取用户的身份信息;根据所述身份信息和预设的身份信息与数字掌纹的对应关系,获取对应的数字掌纹;从数据库中读取待展示对象的三维模型,并确定所述三维模型与所述数字掌纹的三维位置关系;根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取所述实体掌纹的空间位置坐标;根据所述实体掌纹的空间位置坐标对数字掌纹及三维模型进行坐标转换,将所述数字掌纹和三维模型与实体掌纹对齐,进行增强现实AR。实现了个性化展示AR的技术,保证了AR展示的成功性。
需要指出的是,本申请所述的数据库为AR设备本地数据库和/或服务器端数据库。
作为本发明的一个可选实施例,在所述根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标之后,所述方法还包括:
根据位置捕捉设备获取所述实体掌纹的手掌空间位置变换坐标,并根据所述手掌空间位置变换坐标更新所述三维模型的模型空间位置变换坐标。
在本发明实施例中,AR设备在展示了虚拟三维图像之后,还需要实时对虚拟三维图像的虚拟坐标进行更新,保证用户在移动时可以正确观看虚拟三维图像。位置捕捉设备即随时获取实体掌纹的空间位置坐标的设备,位置捕捉设备实时对实体掌纹的空间位置坐标进行更新,进而对三维模型的空间位置坐标进行更新,实现三维模型跟随手掌位置的变化而变化。
作为本发明的另一个可选实施例,
在所述根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标之后,所述方法还包括:
根据展示手的手指弯曲情况获取用户对所述三维模型的展示手交互动作,所述展示手交互动作包括:旋转、缩放。
在本发明实施例中,当用户想要旋转该三维模型时,与三维模型位置相关联的手的手指做出弯曲的动作,位置捕捉设备捕捉该手指弯曲的动作,即可实现对三维模型的旋转。
作为本发明的另一个可选实施例,
在所述根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标之后,所述方法还包括;
获取非展示手的动作,根据所述动作获取用户对所述三维模型的非展示手交互动作,所述非展示手交互动作包括:旋转、缩放。
实施例二
如图2所示为本发明一个实施例提供的一种基于手掌实现AR的***的结构图,包括:
身份信息获取模块201,用于根据用户标识获取用户的身份信息。
在本发明实施例中,实现手掌AR的终端设备根据用户输入的用户标识识别出用户的身份,该标识信息为独有可识别用户身份的信息,包括:身份证号、指纹、用户账号等。
数字掌纹获取模块202,用于根据所述身份信息和预设的身份信息与数字掌纹的对应关系,获取对应的数字掌纹。
在本发明实施例中,终端设备的数据库中预设有身份信息与数字掌纹的对应关系,将获取的身份信息放在数据库中进行遍历,即可获取与身份信息对应的数字掌纹。需要指出的是,数字掌纹可以为单个的左手数字掌纹或右手数字掌纹,也可以是左手数字掌纹加上右手数字掌纹。
虚拟信息预备模块203,用于从数据库中读取待展示对象的三维模型,并确定所述三维模型与所述数字掌纹的三维位置关系。
在本发明实施例中,数据库中存储有待展示对象的三维模型,这些三维模型可以是从网络上下载的,也可以是终端自己通过算法生成的,将该三维模型与手掌掌纹进行注册,即可将三维模型与手掌掌纹建立对应关系。
用户手掌识别模块204,用于根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标。
在本发明实施例中,AR设备通过预设的机器视觉算法根据数字掌纹与实体掌纹之间的对应关系,获取用户的实体掌纹的空间位置坐标。其中,机器视觉算法可以根据实际使用的进行选择和设置,本申请对此不作限定。
对齐模块205,用于根据所述实体掌纹的空间位置坐标对数字掌纹及三维模型进行坐标转换,将所述数字掌纹和三维模型与实体掌纹对齐,进行增强现实AR。
在本发明实施例中,实体掌纹与数字掌纹为一一对应的关系,通过实体掌纹的空间位置坐标即可实现对数字掌纹和三维模型的坐标转换,进而将数字掌纹和三维模型与实体掌纹对齐,进行AR。
本发明实施例,根据用户标识获取用户的身份信息;根据所述身份信息和预设的身份信息与数字掌纹的对应关系,获取对应的数字掌纹;从数据库中读取待展示对象的三维模型,并确定所述三维模型与所述数字掌纹的三维位置关系;根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取所述实体掌纹的空间位置坐标;根据所述实体掌纹的空间位置坐标对数字掌纹及三维模型进行坐标转换,将所述数字掌纹和三维模型与实体掌纹对齐,进行增强现实AR。实现了个性化展示AR的技术,保证了AR展示的成功性。
需要指出的是,本申请所述的数据库为AR设备本地数据库和/或服务器端数据库。
作为本发明的一个可选实施例,所述***还包括:
坐标更新模块,用于根据位置捕捉设备获取所述实体掌纹的手掌空间位置变换坐标,并根据所述手掌空间位置变换坐标更新所述三维模型的模型空间位置变换坐标。
在本发明实施例中,AR设备在展示了虚拟三维图像之后,还需要实时对虚拟三维图像的虚拟坐标进行更新,保证用户在移动时可以正确观看虚拟三维图像。位置捕捉设备即随时获取实体掌纹的空间位置坐标的设备,位置捕捉设备实时对实体掌纹的空间位置坐标进行更新,进而对三维模型的空间位置坐标进行更新,实现三维模型跟随手掌位置的变化而变化。
作为本发明的另一个可选实施例,所述***还包括:
展示手交互动作获取模块,用于根据展示手的手指弯曲情况获取用户对所述三维模型的展示手交互动作,所述展示手交互动作包括:旋转。
在本发明实施例中,当用户想要旋转该三维模型时,与三维模型位置相关联的手的手指做出弯曲的动作,位置捕捉设备捕捉该手指弯曲的动作,即可实现对三维模型的旋转。
作为本发明的另一个可选实施例,所述***还包括;
非展示手交互动作获取模块,用于获取非展示手的动作,根据所述动作获取用户对所述三维模型的非展示手交互动作,所述非展示手交互动作包括:旋转、缩放。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种基于手掌实现AR的方法,其特征在于,包括:
根据用户标识获取用户的身份信息;
根据所述身份信息和预设的身份信息与数字掌纹的对应关系,获取对应的数字掌纹;
从数据库中读取待展示对象的三维模型,并确定所述三维模型与所述数字掌纹的三维位置关系;
根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取所述实体掌纹的空间位置坐标;
根据所述实体掌纹的空间位置坐标对数字掌纹及三维模型进行坐标转换,将所述数字掌纹和三维模型与实体掌纹对齐,进行增强现实AR。
2.如权利要求1所述的方法,其特征在于,在所述根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标之后,所述方法还包括:
根据位置捕捉设备获取所述实体掌纹的手掌空间位置变换坐标,并根据所述手掌空间位置变换坐标更新所述三维模型的模型空间位置变换坐标。
3.如权利要求1所述的方法,其特征在于,在所述根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标之后,所述方法还包括:
根据展示手的手指弯曲情况获取用户对所述三维模型的展示手交互动作,所述展示手交互动作包括:旋转、缩放。
4.如权利要求1所述的方法,其特征在于,在所述根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标之后,所述方法还包括;
获取非展示手的动作,根据所述动作获取用户对所述三维模型的非展示手交互动作,所述非展示手交互动作包括:旋转、缩放。
5.如权利要求1~4任一项所述的方法,其特征在于,所述数据库为AR设备本地数据库和/或服务器端数据库。
6.如权利要求1~4任一项所述的方法,其特征在于,所述数字掌纹为左手数字掌纹和/或右手数字掌纹。
7.一种基于手掌实现AR的***,其特征在于,所述***包括:
身份信息获取模块,用于根据用户标识获取用户的身份信息;
数字掌纹获取模块,用于根据所述身份信息和预设的身份信息与数字掌纹的对应关系,获取对应的数字掌纹;
虚拟信息预备模块,用于从数据库中读取待展示对象的三维模型,并确定所述三维模型与所述数字掌纹的三维位置关系;
用户手掌识别模块,用于根据所述数字掌纹和实体掌纹之间的对应关系,通过基于机器视觉的方法获取实体掌纹的空间位置坐标;
对齐模块,用于根据所述实体掌纹的空间位置坐标对数字掌纹及三维模型进行坐标转换,将所述数字掌纹和三维模型与实体掌纹对齐,进行增强现实AR。
8.如权利要求7所述的***,其特征在于,所述***还包括:
坐标更新模块,用于根据位置捕捉设备获取所述实体掌纹的手掌空间位置变换坐标,并根据所述手掌空间位置变换坐标更新所述三维模型的模型空间位置变换坐标。
9.如权利要求7所述的***,其特征在于,所述***还包括:
展示手交互动作获取模块,用于根据展示手的手指弯曲情况获取用户对所述三维模型的展示手交互动作,所述展示手交互动作包括:旋转、缩放。
10.如权利要求7所述的***,其特征在于,所述***还包括:
非展示手交互动作获取模块,用于获取非展示手的动作,根据所述动作获取用户对所述三维模型的非展示手交互动作,所述非展示手交互动作包括:旋转、缩放。
CN202010370658.7A 2020-05-06 2020-05-06 一种基于手掌实现ar的方法和*** Pending CN111708429A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010370658.7A CN111708429A (zh) 2020-05-06 2020-05-06 一种基于手掌实现ar的方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010370658.7A CN111708429A (zh) 2020-05-06 2020-05-06 一种基于手掌实现ar的方法和***

Publications (1)

Publication Number Publication Date
CN111708429A true CN111708429A (zh) 2020-09-25

Family

ID=72536383

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010370658.7A Pending CN111708429A (zh) 2020-05-06 2020-05-06 一种基于手掌实现ar的方法和***

Country Status (1)

Country Link
CN (1) CN111708429A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104580143A (zh) * 2014-11-09 2015-04-29 李若斌 一种基于手势识别的安全认证方法、终端、服务器和***
US20170140552A1 (en) * 2014-06-25 2017-05-18 Korea Advanced Institute Of Science And Technology Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same
CN106789953A (zh) * 2016-11-30 2017-05-31 宇龙计算机通信科技(深圳)有限公司 一种数据处理方法和ar设备
CN110321812A (zh) * 2019-06-17 2019-10-11 Oppo广东移动通信有限公司 一种解锁方法、增强现实设备及存储介质
US10607413B1 (en) * 2015-09-08 2020-03-31 Ultrahaptics IP Two Limited Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170140552A1 (en) * 2014-06-25 2017-05-18 Korea Advanced Institute Of Science And Technology Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same
CN104580143A (zh) * 2014-11-09 2015-04-29 李若斌 一种基于手势识别的安全认证方法、终端、服务器和***
US10607413B1 (en) * 2015-09-08 2020-03-31 Ultrahaptics IP Two Limited Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments
CN106789953A (zh) * 2016-11-30 2017-05-31 宇龙计算机通信科技(深圳)有限公司 一种数据处理方法和ar设备
CN110321812A (zh) * 2019-06-17 2019-10-11 Oppo广东移动通信有限公司 一种解锁方法、增强现实设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
孙超等: "增强现实环境下的人手自然交互", 《计算机辅助设计与图形学学报》 *
张彩霞等: "基于手势识别与手掌定位的增强现实***", 《北方工业大学学报》 *
陈明等: "基于手形交互与掌纹识别的增强现实应用", 《计算机应用》 *

Similar Documents

Publication Publication Date Title
CN110383274B (zh) 识别设备的方法、装置、***、存储介质、处理器和终端
CN109584295B (zh) 对图像内目标物体进行自动标注的方法、装置及***
US8751969B2 (en) Information processor, processing method and program for displaying a virtual image
CN103400119B (zh) 基于人脸识别技术的混合显示眼镜交互展示方法
CN106846497B (zh) 应用于终端的呈现三维地图的方法和装置
CN110866977B (zh) 增强现实处理方法及装置、***、存储介质和电子设备
CN107391984A (zh) 一种电力作业处理方法及***
CN110580024A (zh) 基于增强现实的车间辅助作业实现方法、***及存储介质
CN108430032B (zh) 一种实现vr/ar设备位置共享的方法及设备
CN110568934B (zh) 一种低误差高效率的多标记图增强现实***
CN109584361B (zh) 一种装备电缆虚拟预装和轨迹测量方法及***
CN109389634A (zh) 基于三维重建和增强现实的虚拟购物***
CN111897422B (zh) 一种虚实物体实时融合的实物交互方法与***
CN111459269A (zh) 一种增强现实显示方法、***及计算机可读存储介质
CN107330980A (zh) 一种基于无标志物的虚拟家具布置***
KR102464271B1 (ko) 포즈 획득 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN115008454A (zh) 一种基于多帧伪标签数据增强的机器人在线手眼标定方法
CN114882106A (zh) 位姿确定方法和装置、设备、介质
JP2014102685A (ja) 情報処理装置、情報処理方法及びプログラム
CN111708429A (zh) 一种基于手掌实现ar的方法和***
CN113344977B (zh) 一种基于图像处理的触头压力测量模型构建方法
CN115187752A (zh) 面向工业大场景的增强现实场景规划与显示***及方法
CN115131528A (zh) 虚拟现实场景确定方法、装置及***
CN114693749A (zh) 一种用于关联不同的物理坐标系的方法及***
CN110689625B (zh) 定制人脸混合表情模型自动生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200925