CN103793936A - 用于增强现实的自动化参考框架校准 - Google Patents
用于增强现实的自动化参考框架校准 Download PDFInfo
- Publication number
- CN103793936A CN103793936A CN201310529549.5A CN201310529549A CN103793936A CN 103793936 A CN103793936 A CN 103793936A CN 201310529549 A CN201310529549 A CN 201310529549A CN 103793936 A CN103793936 A CN 103793936A
- Authority
- CN
- China
- Prior art keywords
- real
- reference frame
- tracker
- video camera
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 claims abstract description 94
- 238000013507 mapping Methods 0.000 claims abstract description 41
- 238000006243 chemical reaction Methods 0.000 claims description 71
- 239000011159 matrix material Substances 0.000 claims description 46
- 230000009466 transformation Effects 0.000 claims description 36
- 230000008859 change Effects 0.000 claims description 17
- 230000004044 response Effects 0.000 claims 3
- 238000012423 maintenance Methods 0.000 claims 1
- 238000002372 labelling Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 27
- 238000005516 engineering process Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 16
- VEMKTZHHVJILDY-UHFFFAOYSA-N resmethrin Chemical compound CC1(C)C(C=C(C)C)C1C(=O)OCC1=COC(CC=2C=CC=CC=2)=C1 VEMKTZHHVJILDY-UHFFFAOYSA-N 0.000 description 15
- 238000013519 translation Methods 0.000 description 8
- 230000000712 assembly Effects 0.000 description 7
- 238000000429 assembly Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 7
- 239000003550 marker Substances 0.000 description 7
- 238000011960 computer-aided design Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000005096 rolling process Methods 0.000 description 4
- 230000010415 tropism Effects 0.000 description 4
- ZNJRONVKWRHYBF-UHFFFAOYSA-N 2-[2-[2-(1-azatricyclo[7.3.1.05,13]trideca-5,7,9(13)-trien-7-yl)ethenyl]-6-methylpyran-4-ylidene]propanedinitrile Chemical compound O1C(C)=CC(=C(C#N)C#N)C=C1C=CC1=CC(CCCN2CCC3)=C2C3=C1 ZNJRONVKWRHYBF-UHFFFAOYSA-N 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003760 hair shine Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000013011 mating Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及用于增强现实的自动化参考框架校准。说明了增强现实(100)的自动化参考框架校准的一个或多个***、方法、例程和/或技术。一个或多个***、方法、例程和/或技术可允许增强现实(AR)***(100)的校准,例如,通过自动校准虚拟物体和/或摄像机(102)的参考框架。一个示例性校准例程和/或技术可确定和/或计算从虚拟物体(112)的参考框架(例如,CAD模型)到与跟踪***(108)相关联的坐标框架(204)的映射或变换。另一示例性校准例程和/或技术可确定和/或计算从摄像机(102)镜头参考框架到由跟踪***(108)确定的整个摄像机(102)的参考框架的映射或变换。这些例程和/或技术可校准AR***(100)以提供虚拟内容和真实场景的现场摄像机(102)视图之间的快速、精确对准。
Description
技术领域
本公开涉及增强现实,并且更具体地涉及用于增强现实的自动化参考框架校准(automated frame of reference calibration)的一个或多个***、方法、例程和/或技术。
背景技术
增强现实(AR)通过叠加虚拟物体或介质到真实世界视图中而增强或增加真实世界视图的感知,例如,现场视频(live video)馈送。增强现实允许与真实世界有关的人工或模拟信息及其在真实世界视图上重叠的物体。增强现实与用人工或模拟视图代替真实世界视图的虚拟现实(VR)有关但不同。增强现实已经在各种应用中使用,如娱乐、视频游戏、体育和手机应用。
如本申请的其余部分中所阐述的和参照附图,通过此类***与本发明的一些方面的比较,常规和传统方法的进一步的局限性和缺点对于本领域的技术人员来说将是显而易见的。
发明内容
本公开描述了用于增强现实的自动化参考框架校准的一个或多个***、方法、例程和/或技术。一个或多个***、方法、例程和/或技术可以允许增强现实(AR)***的简单和快速校准,例如,通过自动校准虚拟物体和/或摄像机的参考框架。
本公开的一个或多个实施例描述了用于增强现实的方法,例如,由具有至少一个处理器的数据处理***执行的方法。该方法可包括接收或建立与物体跟踪***相关联的跟踪***坐标框架。所述跟踪***坐标框架可以与真实三维空间对准。所述跟踪***可以跟踪真实物体和摄像机在真实三维空间中的位置和取向。该方法可包括从所述跟踪***接收所述真实物体的第一真实物体参考框架。第一真实物体参考框架可表示所述真实物体相对于所述跟踪***坐标框架的位置和取向。该方法可包括确定用于所述真实物体的第二真实物体参考框架。所述第二真实物体参考框架可表示所述真实物体相对于所述跟踪***坐标框架的位置和取向。该方法可包括接收用于虚拟物体的第一虚拟物体参考框架。所述虚拟物体可以在所述真实物体后建模。所述第一虚拟物体参考框架可以与所述跟踪***坐标框架无关。该方法可包括确定用于所述虚拟物体的第二虚拟物体参考框架。该方法可包括确定用于所述虚拟物体的第二虚拟物体参考框架。所述第二虚拟物体参考框架可表示所述虚拟物体相对于所述跟踪***坐标框架的位置和取向。该方法可包括确定所述第一虚拟物体参考框架和所述跟踪***坐标框架之间的虚拟物体映射。该方法可包括显示增强场景,该增强场景包括所述真实三维空间的视图、所述真实物体的视图和一个或多个重叠的虚拟项目。所述虚拟物体映射可以用来放置所述一个或多个重叠的虚拟项目在所述增强场景中,以便所述一个或多个虚拟项目与所述真实物体对准。
本公开的一个或多个实施例描述了用于增强现实的方法,例如,由具有至少一个处理器的数据处理***执行的方法。该方法可包括接收或建立与物体跟踪***相关联的跟踪***坐标框架。所述跟踪***坐标框架可以与真实三维空间对准。所述跟踪***可以跟踪捕获真实三维空间的摄像机/照相机和印刷标记器(printed marker)在所述真实三维空间内的位置和取向。该方法可包括从所述跟踪***接收所述摄像机的摄像机参考框架。所述摄像机参考框架可表示所述摄像机相对于所述跟踪***坐标框架的位置和取向。该方法可包括接收或建立与所述印刷标记器相关联的印刷标记器坐标框架。所述印刷标记器坐标框架可以与所述真实三维空间对准。所述印刷标记器坐标框架可以与所述跟踪***坐标框架对准。该方法可包括确定所述摄像机镜头的摄像机镜头参考框架。所述摄像机镜头参考框架可表示所述摄像机镜头相对于所述印刷标记器坐标框架的位置和取向。该方法可包括确定所述摄像机参考框架和所述摄像机镜头参考框架之间的摄像机镜头映射。该方法可包括显示增强场景,该增强场景包括所述真实三维空间的视图和一个或多个虚拟项目。所述摄像机镜头映射可以用来改变所述增强场景中的所述一个或多个虚拟项目或使其失真。
本公开的一个或多个实施例描述了***。该***可包括捕获包括真实物体的真实三维空间的视图的摄像机。该***可包括跟踪所述真实物体和所述摄像机在真实三维空间内的位置和取向的跟踪***。所述跟踪***可经配置建立与所述跟踪***相关联的跟踪***坐标框架,并且所述跟踪***坐标框架可以与所述真实三维空间对准。该***可包括连接到所述摄像机和所述跟踪***的计算机,并且所述计算机可包括一个或多个存储器单元。所述计算机可以配置有虚拟建模器。所述虚拟建模器可经配置从所述跟踪***接收真实物体的第一真实物体参考框架,其中所述第一真实物体参考框架可表示所述真实物体相对于所述跟踪***坐标框架的位置和取向。所述虚拟建模器可进一步配置为计算所述真实物体的第二真实物体参考框架,其中所述第二真实物体参考框架可表示所述真实物体相对于所述跟踪***坐标框架的位置和取向。所述虚拟建模器可进一步配置为从所述一个或多个存储器单元接收虚拟物体的第一虚拟物体参考框架,其中所述虚拟物体可以在所述真实物体后建模,并且其中所述第一虚拟物体参考框架可与所述跟踪***坐标框架无关。所述虚拟建模器可进一步配置为计算所述虚拟物体的第二虚拟物体参考框架,其中所述第二虚拟物体参考框架可表示所述虚拟物体相对于所述跟踪***坐标框架的位置和取向。所述虚拟建模器可进一步配置为计算所述第一虚拟物体参考框架和所述跟踪***坐标框架之间的虚拟物体映射。所述虚拟建模器可进一步配置为生成并在所述一个或多个存储器单元中存储增强场景,该增强场景包括所述真实三维空间的视图、所述真实物体的视图和一个或多个重叠虚拟项目。所述虚拟物体映射可以用来放置所述一个或多个重叠虚拟项目在所述增强场景中,以便所述一个或多个虚拟项目与所述真实物体对准。
本公开的一个或多个实施例描述了数据处理***,其包括存储计算机代码的一个或多个存储器单元和连接到所述一个或多个存储器单元的一个或多个处理器单元。所述一个或多个处理器单元可以执行存储在所述一个或多个存储器单元内的计算机代码,以接收或建立与物体跟踪***相关联的跟踪***坐标框架。所述跟踪***坐标框架可以与真实的三维空间对准。所述跟踪***可以跟踪捕获真实三维空间的摄像机和印刷标记器在所述真实三维空间内的位置和取向。所述一个或多个处理器单元可以执行存储在所述一个或多个存储器单元内的计算机代码,以从所述跟踪***接收所述摄像机的摄像机参考框架。所述摄像机参考框架可表示所述摄像机相对于所述跟踪***坐标框架的位置和取向。所述一个或多个处理器单元可以执行存储在所述一个或多个存储器单元内的计算机代码,以接收或建立与所述印刷标记器相关联的印刷标记器坐标框架。所述印刷标记器坐标框架可以与所述真实三维空间对准,并且所述印刷标记器坐标框架可以与所述跟踪***坐标框架对准。所述一个或多个处理器单元可以执行存储在所述一个或多个存储器单元内的计算机代码,以确定所述摄像机镜头的摄像机镜头参考框架。所述摄像机镜头参考框架可表示所述摄像机镜头相对于所述印刷标记器坐标框架的位置和取向。所述一个或多个处理器单元可以执行存储在所述一个或多个存储器单元内的计算机代码,以确定所述摄像机参考框架和所述摄像机镜头参考框架之间的摄像机镜头映射。所述一个或多个处理器单元可以执行存储在所述一个或多个存储器单元内的计算机代码,以显示包括所述真实三维空间的视图和一个或多个虚拟项目的增强场景。所述摄像机镜头映射可以用来改变所述增强场景中的所述一个或多个虚拟项目或使其失真。
从下列说明和附图中,将更充分地理解本公开的这些和其他优点、方面和新颖特征以及其说明性实施例的细节。应该理解的是,前面的一般性描述仅是所要求保护的本公开的示例性和解释性描述,而非限制性描述。
附图说明
下列公开中描述了若干特征和优点,其中通过使用下列附图作为示例而说明了若干实施例。
图1描述了根据本公开的一个或多个实施例示出增强现实(AR)***的示例装置、组件、软件和交互的方框图,其中本文所讨论的自动化参考框架校准技术在这样的AR***中会是有用的。
图2描述了根据本公开的一个或多个实施例示出示例性校准技术的方框图。
图3根据本公开的一个或多个实施例描述了由跟踪***为了各种原因使用的工具或棒(wand)的图示。
图4A根据本公开的一个或多个实施例描述了具有连接到或放置在所述真实物体上的多个跟踪标记器的示例性真实物体的图示。
图4B根据本公开的一个或多个实施例描述了跟踪***如何可以创建和放置真实物体的表示的图示。
图5根据本公开的一个或多个实施例描述了虚拟建模软件如何可以建立真实物体的新参考框架的图示。
图6根据本公开的一个或多个实施例描述了虚拟建模软件如何可以建立虚拟物体的新参考框架的图示。
图7描述了根据本公开的一个或多个实施例示出示例性校准技术的方框图。
图8A根据本公开的一个或多个实施例描述了示例性摄像机和摄像机框架的图示。
图8B根据本公开的一个或多个实施例描述了跟踪***如何可以创建和放置摄像机的表示的图示。
图8C根据本公开的一个或多个实施例描述了具有集成摄像机的示例平板计算机的图示。
图9A和9B描述了印刷标记器如何可以允许摄像机镜头的参考框架的确定的图示。
图10A描述了可以根据本公开的一个或多个实施例生产的示例性增强场景的图示。
图10B描述了可以根据本公开的一个或多个实施例生产的示例性增强场景的图示。
图11描述了根据本公开的一个或多个实施例示出用于增强现实的自动化参考框架校准的方法中的示例步骤的流程图。
图12描述了根据本公开的一个或多个实施例示出用于增强现实的自动化参考框架校准的方法中的示例步骤的流程图。
图13描述了可以用来实施本公开的一个或多个实施例的示例性数据处理***的方框图。
具体实施方式
在各种AR***中,跟踪***可以用来跟踪摄像机和各种真实世界物体在三维空间中的位置和取向。例如,跟踪***可以跟踪摄像机和该摄像机正在查看/捕获的一台机器。各种AR***可以尝试创建包括由所述摄像机捕获的真实世界场景(包括各种真实世界物体)和重叠虚拟介质和/或物体的增强场景。为了创建所述增强场景,所述跟踪***可以建立虚拟坐标框架,并可以跟踪或“放置”所述真实世界物体在此坐标框架中的表示。各种AR***可以尝试“放置”各种虚拟物体(例如,CAD模型/物体)在所述坐标框架中,以便创建增强场景。虚拟物体/模型可以具有其自己的默认或任意参考框架(例如,三维位置和取向),并且因此,为了放置虚拟物体在所述跟踪***的坐标框架中,必须确定所述跟踪***的坐标框架和所述虚拟物体参考框架之间的映射或变换。此外,如果所述摄像机(例如,捕获真实世界的摄像机)移动,则AR***可以尝试改变所述虚拟物体的视图。为了精确地做到这一点,AR***可能需要跟踪所述摄像机镜头的位置和取向。然而,跟踪***可以仅跟踪整个摄像机的位置和取向。各种软件程序(例如,结合其他部件)可以用来确定坐标框架中的所述摄像机镜头的参考框架,但是这些镜头软件程序可以跟踪在由所述镜头软件程序建立的坐标框架中的镜头。因此,为了放置所述摄像机镜头在所述跟踪***的坐标框架中,必须确定所述跟踪***的坐标框架和所述镜头参考框架之间的映射或变换。确定这些映射和/或变换(例如,所述虚拟物体和/或所述摄像机镜头的映射和/或变换)可以称为AR***校准或校准的参考框架。
应该理解的是,术语“坐标框架”、“参考的框架”、“参考框架”和“位姿(pose)”可以在本公开中使用,并且可以密切相关。术语“坐标框架”可以指三维空间的三维表示,其中所述坐标框架包括三个平面或轴(例如,X轴、Y轴、Z轴)和一个原点(例如其中所述三个轴相交的点)。术语“参考的框架”或“参考框架”可以指例如在坐标框架中的物体或点的三维位置和三维取向。物体的参考框架可包括该物体的原点(例如,近似的质量中心)和该物体的取向(例如,相对于该物体建立的三个轴)。术语“位姿”是“位置和取向”的简称,并且可以指物体在三维空间中的三维位置(例如,X、Y、Z坐标)和三维取向(例如,滚动、俯仰、偏航)。
各种AR***可以通过手动或反复试验/试错法(trial-and-error)过程执行AR***校准,例如,相对于所述跟踪***坐标框架近似所述虚拟模型和/或所述摄像机镜头的参考框架,并且然后测试该增强场景来确定所述近似是否良好。例如,技术人员可以简单地查看所述增强场景中重叠的虚拟物体,并且从各种摄像机位置和取向作出关于它们是否出现在其正确位置中的确定。这个手动校准过程可以需要十二个参数的操纵,例如虚拟物体的六个参数(例如,X、Y、Z坐标和滚动、俯仰、偏航)和摄像机镜头的六个参数(例如,X、Y、Z坐标和滚动、俯仰、偏航)。这个过程可能费用高昂和/或是时间密集的,例如,需要许多小时(例如,8小时以上)来完成。即使当所述手动校准过程完成时,仍然未必得到精确的解决方案/校准。例如,从一个摄像机位姿表现为恰当安置的虚拟物体可能从不同位姿未表现为被恰当安置。虚拟物体放置的小错误可以导致较大真实世界物体上的大错误。此外,每次所述AR***被设置在新环境中或为了新真实物体或摄像机设置时,所述AR***必须手动校准。
本公开描述了增强现实的自动化参考框架校准的一个或多个***、方法、例程和/或技术。一个或多个***、方法、例程和/或技术可以允许增强现实(AR)***的简单快速校准,例如,通过自动校准虚拟物体和/或摄像机的参考框架。一个或多个***、方法、例程和/或技术可以允许所述AR***在相对短的时间量(例如,小于15分钟)内设置在新环境中或在新真实物体(例如,一台机器)上,并且可以允许重叠虚拟内容与真实世界场景的精确对准。如果所述AR***被用来指导技术人员进行精确的任务(例如,在精确位置钻小孔),则虚拟内容的精确对准可能是至关重要的。一个或多个***、方法、例程和/或技术可以确定和/或计算各种参考框架(例如,所述跟踪***的坐标框架、虚拟物体的参考框架和摄像机镜头的参考框架)之间的映射或变换。本公开可描述两个主要校准例程和/或技术。所述第一校准例程和/或技术可以确定和/或计算虚拟物体的参考框架(例如,CAD模型)和与所述跟踪***相关联的坐标框架之间的映射或变换。所述第二校准例程和/或技术可以确定和/或计算摄像机镜头的参考框架和由跟踪***确定的整个摄像机的参考框架之间的映射或变换。这些例程和/或技术可以校准AR***,以提供虚拟内容和真实场景的现场摄像机视图之间的快速、精确对准。
图1描述了根据本公开的一个或多个实施例示出了增强现实(AR)***100的示例装置、组件、软件和交互的方框图,其中本文所讨论的自动化参考框架校准技术在这样的AR***中会是有用的。AR***100可包括可捕获和/或串流真实世界场景的现场视频馈送的摄像机102。所述真实世界场景可包括一个或多个真实物体,例如,真实物体(RO)104。RO104可以是各种物体中的一个,例如,工具、一台机器、大型卫星、控制箱、控制面板或其他各种物体。所述摄像机102可以与计算机106通信,其中所述计算机可以解释和/或处理自与由所述摄像机捕获的真实世界场景和/或物体相关的所述摄像机发送的信息(例如,现场串流视频)。
所述AR***100可包括跟踪***108。所述跟踪***108可跟踪所述真实物体104和所述摄像机102的“位姿”(在三维空间内的位置和取向),并可以(例如,实时)串流此信息到计算机(例如,计算机106)或其他组件。所述跟踪***108可包括各种组件,例如,若干跟踪标记器、感测所述跟踪标记器的若干感测装置和可以运行关联的跟踪***软件的基础计算(base computing)装置。在一个示例中,每个标记器可以是具有经设计反射特定的光波长的反射涂层的小球体(例如,10mm球体)。在此示例中,所述标记器可以放置在真实世界空间内各种位置中和/或各种物体上,以便所述跟踪***108可以跟踪三维空间内的特定点和/或物体的位置和/或取向。例如,多个(例如,三个或更多个)跟踪标记器可以放置在所述真实物体104上,并且多个(例如,三个或更多个)跟踪标记器可以放置在所述摄像机102上。
所述跟踪***108的感测装置可以是经设计检测所述跟踪标记器在三维空间内的位置的摄像机。例如,每个摄像机可以是经设计检测来自各种跟踪标记器(例如,放置在所述摄像机102和所述真实物体104上的跟踪标记器)的反射的红外摄像机。所述各种感测装置(例如,红外摄像机)可以放置在和/或安装在所述三维空间周围的各种位置处,例如,多个(例如,八个或更多)摄像机可以安装在房间或实验室的墙壁上,例如,安装在一个布置中,以便感兴趣的三维空间被各种摄像机的视野范围充分地覆盖。所述跟踪***108的各种感测装置可以与基础计算装置通信(例如,通过实时通信链路,如以太网、WiFi等),其中所述基础计算装置可以运行关联的跟踪***软件。所述跟踪***软件可以处理来自所述各种感测装置的数据。所述跟踪***108可以与计算机106通信(例如,通过实时通信链路,如以太网、WiFi等)。所述计算机可以是与所述摄像机102通信的计算机。在一些实施例中,所述跟踪***108的基础计算装置可以是与计算机106相同的计算装置。
在一些实施例中,所述摄像机102可以集成到计算机106内。在一些示例中,计算机106可以是移动装置,例如,平板计算机、智能手机、PDA等。作为一个具体的示例,计算机106可以是具有集成摄像机的平板计算机(参见作为一示例的图7C)。具有集成摄像机的移动装置可以给用户提供移动的灵活性和自由度。例如,用户可以查看包括真实物体(例如,一台真实的机器)的增强场景,并且用户可以绕所述真实物体走动,从而查看所述真实物体的不同部分和/或角度。此外,用户可以在帮助用户执行任务的桌面的屏幕上看到虚拟内容,例如,虚拟内容可包括可以指导用户如何在所述真实物体上工作或使用所述真实物体工作的指令、箭头、硬件、工具等。此示例中的平板计算机(例如,计算机106)可包括所述虚拟建模软件110。此示例中的平板计算机可以与所述跟踪***108(例如,所述跟踪***的基础计算装置)通信(例如,通过实时通信链路,如以太网、WiFi等)。
计算机106可包括虚拟建模软件110。所述虚拟建模软件可以访问或加载各种虚拟物体,例如,虚拟物体(VO)112。可以各种已知方式中的一种方式创建和设计虚拟物体(例如,VO112),从而创建虚拟和/或计算机辅助设计(CAD)物体和/或模型。通过使用CAD软件,例如,使用基于矢量的图形等来描述物体(例如,在真实世界物体后建模的物体)的软件,可以创建虚拟/CAD物体/模型。虚拟/CAD物体/模型可以是详细说明真实世界物体的各种三维特征的三维物体。虚拟物体112可以是所述真实物体104的虚拟表示。计算机106可以访问或加载除表示真实世界空间内的真实物体的虚拟物体以外的其他各种虚拟物体。作为一个示例,真实物体104可以是一台机器,并且虚拟物体112可以是同一台机器的虚拟表示。此外,其他虚拟物体可以在真实世界空间中没有对应物,例如,虚拟物体可以表示假设性的螺钉、工具、电线和示出技术人员如何与所述真实物体104交互的类似物。
所述虚拟建模软件110可以接收来自所述跟踪***108(例如,由所述跟踪***、所述摄像机102的参考框架和真实物体104的参考框架建立的坐标系)的数据(例如,串流实时数据)。所述虚拟建模软件110可以执行本文所描述的各种例程、技术等,以创建增强场景(例如,增强场景114),例如,由通过虚拟物体增强和/或重叠的摄像机102捕获的所述真实世界空间的实时视图。所述虚拟建模软件110可以执行如本文所描述的各种校准例程和/或技术,以对准虚拟物体和摄像机镜头的坐标框架和参考框架到与所述跟踪***相关联的坐标框架。一旦校准完成,则所述虚拟建模软件110可以保持各种虚拟物体和现场真实世界场景之间的相关性和/或对准。所述计算机106可包括显示器116或与显示器116通信,该显示器116可以显示所述增强场景114给用户。所述虚拟建模软件110可以产生示出放置在现场视频馈送上的虚拟物体的(在显示器116上显示的)增强场景114。例如,根据摄像机102相对于真实物体104的位姿和/或真实物体104的位姿,所述虚拟建模软件110可以适当地使所述增强场景中的虚拟物体变形(例如,改变三维位置、三维取向和/或三维尺寸)。例如,如果所述摄像机102进一步移动远离真实物体104,则所述增强场景中的一个或多个虚拟物体可能收缩。作为另一示例,如果摄像机102移动得更靠近真实物体104,则一个或多个虚拟物体将放大。作为另一示例,如果摄像机102以相对于真实物体104的角度移动,则一个或多个虚拟物体将适当地旋转。
图2描述了根据本公开的一个或多个实施例示出示例性校准技术的方框图。更具体地,图2示出了可以用来确定和/或计算虚拟物体(例如,添加到增强场景的虚拟物体)的参考框架和与所述跟踪***相关联的参考框架之间的映射或变换的自动化参考框架校准技术。如可以在图2中看出的,跟踪***202(例如,类似于图1的跟踪***108)可以建立坐标框架204,例如,作为由技术人员执行的跟踪***设置的一部分。所述跟踪***的坐标框架可包括三个轴(例如,X轴、Y轴、Z轴)和其中所述三个轴相交的原点。所述跟踪***可以“放置”或关联坐标框架的原点与真实世界三维空间内的特定点,并可以相对于所述真实世界三维空间取向所述坐标框架。所述跟踪***可以利用工具或棒建立其坐标框架,例如,类似于图3中所示的棒300的棒。参考图3,所述棒300可以类似于字母“T”,并且可以包括可以指明第一轴(例如,X轴)的第一延伸构件(例如,构件302)和可以包括可指明第二轴(例如,Z轴)的第二延伸构件(例如,构件304)。所述棒300也可以指明在所述第一构件302/第一轴和所述第二构件304/第二轴相交的点306处的原点。第三虚轴(例如,Y轴)可以延伸通过原点306。作为一个示例,所述棒300可以安置在房间或实验室的地板上,并且所述跟踪机器可以通过检测所述棒和/或连接到所述棒的跟踪标记器(例如,跟踪标记器308、310、312、314、316)而建立其坐标框架。所述跟踪***可以建立与由所述棒300指明的所述原点和轴相关联的虚拟原点和三个虚拟轴。一旦所述跟踪***的坐标系建立,所述跟踪***就可以跟踪房间或实验室内的真实物体(例如,配备有三个或更多个跟踪标记器),并且确定其在坐标框架内的位姿,并且确定所述物体相对于所述三个轴的取向。
再次参考图2,所述跟踪***202可以确定真实物体的参考框架206。换句话说,所述跟踪***202可以跟踪所述真实物体。例如,所述真实物体可以类似于图1的真实物体104。所述真实物体(RO)可以是各种物体中的一个,例如,工具、一台机器、大型卫星、控制箱、控制面板或各种其他物体。图4A示出了真实物体400即钻头磨锐机工具的示例。为了所述跟踪***跟踪所述真实物体400(即,确定真实物体400的参考框架),多个(例如,三个或更多个)跟踪标记器(例如,跟踪标记器402、404、406)可以连接到或安置在所述真实物体400上。为了适当地跟踪,所述跟踪标记器可能必须适当地安置在所述真实物体400上,例如,以非共线、非对称布置方式安置。如果三个或更多个点位于单条直线上,则它们被认为是共线的。因此,跟踪标记器的非共线布置是指所述跟踪标记器经布置以便所述标记器不全位于一条直线上。为了适当的跟踪,至少三个非共线跟踪标记器可以放置在所述真实物体上。多于三个的跟踪标记器可以放置在所述真实物体上,例如,以提高计算的可靠性和/或精确性,例如,在所述跟踪标记器中的一个标记器的视图被遮挡的情况下。
所述跟踪***(例如,包括多个红外摄像机)可以检测所述跟踪标记器并创建和放置所述真实物体的表示在由所述跟踪***建立的坐标框架中。图4B示出了跟踪***如何可以创建和放置真实物体的表示的图示。所述跟踪***可以检测所述跟踪标记器(例如,标记器402、404、406及或许图4A中未示出的更多标记器)的位置,并可以创建和放置分别与所述跟踪标记器相关联的各点(例如,点452、454、456和458)在所述跟踪***的坐标框架中。从这些点(例如,点452、454、456和458),所述跟踪***可以确定原点(例如,点460)和用于所述真实物体的表示的取向(参见围绕点460的立方体和取向线)。所述原点可以通过计算所述点452、454、456和458的质心(例如,质量中心)确定。可以设置所述取向,以匹配(或关于)所述跟踪***的坐标系的取向。一旦所述跟踪***确定所述真实物体(RO)的参考框架(例如,与所述跟踪***坐标框架相关联的原点/位置和取向),则所述跟踪***可以串流关于所述真实物体的位姿的信息到所述虚拟建模软件。当所述真实物体可以移动和/或旋转时,关于所述真实物体的串流位姿信息可以实时更新。
再次参考图2,所述虚拟建模软件210可以为所述真实物体(RO)建立新的参考框架212。例如,所述虚拟建模软件210可能类似于图1的虚拟建模软件110。所述虚拟建模软件210可以使用与和所述跟踪***相关联的坐标框架相同的坐标框架。所述新RO参考框架212可以指定所述真实物体上不同的(当与所述RO参考框架206比较时)参考点并且可以确定和/或计算出不同的原点。建立新的RO参考框架可以允许所述虚拟建模软件选择所述真实物体上的参考点,所述参考点是与和所述真实物体相关联的虚拟物体(例如CAD模型)上的参考点相同(或非常接近)的参考点。
图5示出了所述虚拟建模软件如何可以为真实物体(例如,真实物体500)建立新的参考框架的图示。多个参考点(例如,点502、504、506)可以标示在所述真实物体500上。这些参考点可以例如由技术人员通过使用工具或棒(例如,类似于图3的棒300的棒)加以标示。所述工具或棒可以由所述跟踪***跟踪,例如,在相对于彼此的连接到所述棒的跟踪标记器之间的位置可以由所述跟踪***确定,从而允许精确的点收集。所述虚拟建模软件可以使用关于所述棒位置的来自所述跟踪***的数据来记录所述真实物体上的参考点。作为一个示例,所述虚拟建模软件可以将所述棒上的点识别为“指针”(例如,所述棒的延伸构件的顶端)。技术人员可以使所述指针触摸所述真实物体上的各点(例如,点502、504、506),并且通过所述棒和所述跟踪***,所述虚拟建模软件可以捕获或记录这些点并将它们放置在与所述跟踪***相关联的坐标框架中。为了确定所述新的参考框架,所述参考点可能必须被适当地放置在所述真实物体500上,例如,以非共线布置方式放置。至少三个非共线参考点可以放置在所述真实物体上。多于三个的参考点可以放置在所述真实物体上,例如,以提高计算的可靠性和/或精确性。从这些参考点(例如,点502、504、506),所述虚拟建模软件可以确定原点(例如,点508)和所述真实物体的取向(参见从点508延伸的轴线)。所述原点可以通过计算所述点502、504、506的质心(例如,质量中心)确定。所述真实物体的取向可以通过放置从所述原点延伸的两个轴(例如,X轴、Z轴)在由点502、504、506创建的平面内而确定。
再次参考图2,一旦所述新RO参考框架212建立起来,则所述虚拟建模软件210就可以计算由所述跟踪***确定的在所述新RO参考框架212和所述RO参考框架206之间的平移和/或旋转差。
参考图2,所述虚拟建模软件210可以访问或加载各种虚拟物体,例如,预先设计的CAD模型。所述虚拟建模软件210可以放置所述虚拟物体在与所述跟踪***相关联的坐标框架中,但是所述AR***可能需要在适当放置之前进行校准。虚拟物体(例如,CAD模型)可能具有其自己的参考框架(例如,原点和三个取向轴),例如,当设计所述虚拟物体时指定。可能会出现这种情况(例如,对于特定环境),即,所述虚拟建模软件引用的所有虚拟物体可以共享相同的参考框架(例如,VO参考框架214)。为了放置虚拟物体在与所述跟踪***相关联的坐标框架中,所述虚拟建模软件210可以确定所述虚拟物体的VO参考框架统214和与所述跟踪***相关联的坐标框架204之间的映射或变换。为了校准所述AR***(例如,确定所述映射或变换),所述虚拟建模软件210可以使用对应于所述AR***的摄像机(例如,图1中的摄像机102)正在捕获的真实物体(例如,图1的真实物体104)的虚拟物体(例如,图1的虚拟物体112)。这个虚拟物体可以具有VO参考框架214。
所述虚拟建模软件210可以为所述真实虚拟物体建立新的VO参考框架216。所述虚拟建模软件210可以使用与和所述跟踪***相关联的坐标框架相同的坐标框架。当与VO参考框架214比较时,所述新的VO参考框架216可以具有不同的原点和取向。建立新的VO参考框架可以允许所述虚拟建模软件选择所述虚拟物体上的参考点,其中所述参考点是与相对于对应的真实物体所标示的(如上面所解释的)参考点相同(或非常接近)的参考点,并且可以允许所述新的RO参考框架212和所述新的VO参考框架216之间的对准(大致参考点218)。(与所述真实物体相关联的)所述新的RO参考框架212和(与所述虚拟物体相关联的)所述新的VO参考框架216之间的对准可以例如通过选择所述真实物体和所述虚拟物体上的相同参考点和通过执行每个的相同原点和取向计算而实现。
图6示出了所述虚拟建模软件如何可以为所述虚拟物体(例如,虚拟物体600)建立新的VO参考框架的图示。注意,为了校准的目的,虚拟物体600可以是在所述AR***的摄像机正在捕获的关联的真实物体(例如,图5的真实物体500)后建模的虚拟物体。可以在所述虚拟物体600上选择多个参考点(例如,点602、604、606)。这些参考点可以对应于(例如与其在同一相对位置)经选择、标示和/或记录以创建所述新的RO参考框架的参考点(参见图5和相关讨论)。与所述RO参考框架确定一样,确定所述VO参考框架的参考点可以是非共线的布置,并且可以在所述虚拟物体上选择至少三个非共线的参考点。从这些参考点(例如,点602、604、606),所述虚拟建模软件可以确定原点(例如,点608)和所述虚拟物体的取向(参见从点608延伸的轴线)。所述原点可以通过计算所述点602、604、606的质心(例如,质量中心)确定。所述虚拟物体的取向可以通过放置从所述原点延伸的两个轴(例如,X轴、Z轴)在由点602、604、606创建的平面内而确定。
再次参考图2,一旦所述新的VO参考框架216建立起来,则所述虚拟建模软件210可以计算与所述虚拟物体相关联的所述新的VO参考框架216和所述VO参考框架214之间的平移和/或旋转差。
如上面所解释的,可能需要在三维空间内的关联的真实物体后建模的虚拟物体来校准所述AR***,例如,以确定可以与所述新的RO参考框架212对准的新的VO参考框架216。然而,一旦校准完成,则应该理解的是,其他各种虚拟物体可以(例如,通过所述虚拟建模软件)放置到与所述跟踪***相关联的坐标框架内。参考图2,可以看出这个放置为什么运作。为了将虚拟物体放置到与所述跟踪***相关联的坐标框架内,必须确定所述虚拟物体参考框架214(例如,原点和取向)和与所述跟踪***相关联的坐标框架204之间的映射或变换(例如,图2中所示的M4变换)。在所述校准过程完成之前,所述M4变换可能是未知的。如上面所解释的,所述校准过程可以确定与所述M4变换有关的其他各种映射或变换。如图2中所示,所述校准过程可以确定M1变换(即,其中所述跟踪***将所跟踪的真实物体放置在其坐标框架中)、M2变换(即,所述RO参考框架206和所述新的RO参考框架212之间的平移和旋转差)和M3变换(即,所述VO参考框架214和所述新的VO参考框架216之间的平移和旋转差)。一旦所述M1、M2和M3变换是已知的,则可以计算所述M4变换。一旦所述M4变换是已知的,则各种虚拟物体可以放置在与所述跟踪***相关联的坐标框架中。此外,当来自所述跟踪***的信息(例如,所述真实物体的位姿)串流到所述虚拟建模软件时,如果M1变换发生改变(即,所述真实物体在三维空间内的位姿),则所述M4变换可以例如实时更新。在这方面,虚拟物体可以重叠在真实世界场景上,并且例如,当所述场景内的关联的真实物体移动时,所述虚拟物体的外观可以适当地发生改变。
以下说明一个示例性技术,以计算M4变换,如图2中所示。图2中所示的各种变换(M1、M2、M3、M4)可以各自都表示为变换矩阵,例如,如三维计算机图形中通常使用的4×4变换矩阵。所述M1变换可以表示为下面的等式1中示出的变换矩阵。所述M2变换可以表示为下面的等式2中示出的变换矩阵。所述M3变换可以表示为下面的等式3中示出的变换矩阵。
每个变换矩阵可包括旋转或取向分量(DCMn或“方向余弦矩阵”)以及平移或位置分量(vn)。例如,DCMn表示所述Mn变换的旋转矩阵,而Vn表示所述Mn变换的平移矢量。所述旋转分量(DCMn)可以是表示两个物体之间的取向变化的3×3矩阵。所述DCMn分量可表示三个值,即滚动变化(例如,关于X轴的旋转)、俯仰变化(例如,关于Y轴的旋转)和偏航变化(例如,关于Z轴的旋转)。这三个值可以向外扩展到3×3DCMn矩阵,以恰当地配合所述4×4变换矩阵Mn。熟悉变换矩阵和矩阵乘法的人将认识到,变换矩阵必须以适当的方式增加,以便一个矩阵与另一矩阵的乘法得到所需要的变换。所述平移分量(vn)可以是表示两个物体的位置变化(例如,两个物体的原点之间的位置变化)的1×3矩阵(即,在垂直列中有3个数字)。所述平移分量(vn)可包括三个值,即相对于所述X轴的三维位置变化、相对于Y轴的三维位置变化和相对于Z轴的三维位置变化。当所述旋转分量(DCMn)和平移分量(vn)被添加到所述变换矩阵(Mn)和在底端行用“0001”填充(以使所述矩阵乘法运作)时,所述变换矩阵完成。
然后,可以如下面的等式4所示地计算出所述M4变换,从而得到如下面的等式5所示的M4变换。
在一些实施例中,一旦所述M4变换被计算,其就保持相同。如图2中可以看出的,一旦所述M4变换被计算,它可以表示从虚拟物体参考框架到TS确定的RO参考框架的变换。所述M4变换可以用来放置各种虚拟物体在与所述跟踪***相关联的坐标框架中,例如,以与所述TS确定的RO参考框架有关的位姿放置。当来自所述跟踪***的信息(例如,真实物体的位姿)被串流到所述虚拟建模软件时,如果所述M1变换发生改变(即,所述真实物体在三维空间内的位姿),则所述各种虚拟物体的位姿可以例如实时更新。
再次参考图1,当所述摄像机102移动时,所述摄像机102也可能需要在所述AR***可精确地变形、改变或对准虚拟物体之前进行校准。与校准所述摄像机102相关联的挑战和解决方案可能类似于相对于与所述跟踪***相关联的坐标框架与校准虚拟物体相关联的那些挑战和解决方案,如上面所解释的。为了实现虚拟物体和(由摄像机102捕获的)真实世界场景之间的精确对准,所述虚拟建模软件可能需要跟踪所述摄像机102的镜头的位姿,而不仅是作为整体的摄像机机身。用于校准摄像机的各种方法涉及漫长的试错法过程(例如,花费若干小时),从而手动地操纵与所述摄像机镜头相关联的六个参数(例如,X、Y、Z、滚动、俯仰、偏航)。通过这些手动方法,即使在校准完成后,也不能确保所述摄像机镜头的精确放置。
图7描述了根据本公开的一个或多个实施例示出了示例性校准技术的方框图。更具体地,图7示出了可以用来确定和/或计算由跟踪***跟踪的摄像机的参考框架和所述摄像机的镜头的参考框架之间的映射或变换的自动化参考框架校准技术。如图7中可以看出的,跟踪***702(例如,类似于图1的跟踪***108)可以建立坐标框架704,例如,作为由技术人员执行的跟踪***设置的一部分(如上面详细解释的)。所述跟踪***702可以确定摄像机的参考框架706。换句话说,所述跟踪***702可以跟踪所述摄像机。例如,所述摄像机可以类似于图1的摄像机102。所述摄像机可以是独立的摄像机,或者可以并入计算机(例如,运行所述虚拟建模软件的计算机)内。图8A示出了示例性摄像机800的图示。为了所述跟踪***跟踪所述摄像机800(即,确定其参考框架),多个(例如,三个或更多个)跟踪标记器(例如,跟踪标记器802、804、806)可以连接到所述摄像机800或放置在其上。在一些实施例中,所述跟踪标记器可以连接到摄像机机身本身。在其他实施例中,所述跟踪标记器可以连接到包含和/或支持所述摄像机800的框架801,如图8A的示例中所示。为了恰当地跟踪,所述跟踪标记器可能必须被适当地放置在所述摄像机800上,例如,以非共线布置方式放置。为了恰当地跟踪,至少三个非共线的跟踪标记器可以放置在所述摄像机(或摄像机框架)上。多于三个的跟踪标记器可以放置在所述摄像机上,例如,以提高计算的可靠性和/或精确性,例如,在所述跟踪标记器中的一个跟踪标记器的视图被遮挡的情况下。
所述跟踪***(例如,包括多个红外摄像机)可以检测所述摄像机(或摄像机框架)上的跟踪标记器,并可以创建和放置所述摄像机的表示在由所述跟踪***建立的坐标框架中。图8B示出了跟踪***如何可以创建和放置所述摄像机的表示的图示。所述跟踪***可以检测所述跟踪标记器(例如,标记器802、804、806以及或许其他各种标记器)的位置,并可以创建和放置分别与所述跟踪标记器相关联的点(例如,点852、854、856以及或许各种其他点)在所述跟踪***的坐标框架中。从这些点(例如,点852、854、856以及或许其他点),所述跟踪***可以确定原点(例如,点860)和所述真实物体的表示的取向(参见围绕点860的立方体和取向线)。所述原点可以通过计算所述点852、854、856以及或许其他点的质心(例如,质量中心)而确定。可以设置所述取向,以匹配(或关于)所述跟踪***的坐标系的取向。一旦所述跟踪***确定所述摄像机的参考框架(例如,与所述跟踪***坐标框架相关联的原点/位置和取向),则所述跟踪***可以串流关于所述摄像机的位姿的信息到所述虚拟建模软件。当所述摄像机可以移动和/或旋转时,关于所述摄像机的串流位姿信息可以实时更新。
在本公开的一些实施例中,所述摄像机可以并入计算机(例如,运行所述虚拟建模软件的计算机)内。作为一个具体示例,所述计算机可以是具有集成摄像机的平板计算机。图8C示出了具有集成摄像机的示例性平板计算机870的图示。例如,所述平板计算机870的第一侧874可以面对用户872,而相对的第二侧876可以远离用户872。所述摄像机可以安装到所述第二侧876上,以便所述摄像机可以捕获真实物体(例如,真实物体880)。如果所述AR***被恰当地校准,则用户872可以看到所述平板计算机870的屏幕上的真实世界场景(包括真实物体880的视图881)。所述屏幕也可以显示虚拟内容(例如,虚拟内容882),重叠在所述真实世界场景/真实物体的顶部上。为了跟踪***跟踪所述摄像机(例如,并入所述平板计算机870的摄像机),多个跟踪标记器(例如,跟踪标记器884、886、888)可以安装到所述平板计算机870上。然后,可以与上面解释的方法类似的方法进行所述摄像机的跟踪。
再次参考图7,所述虚拟建模软件710可以接收关于所述摄像机的位姿/参考框架的来自所述跟踪***702的串流信息。然而,所述虚拟建模软件710可能需要跟踪所述摄像机镜头的位置,而不是作为整体的所述摄像机机身(或摄像机框架,或平板计算机)的位置。为了确定所述摄像机镜头的参考框架,可以使用特殊的印刷标记器和相关的软件。图9A和9B描述了示出所述印刷标记器如何可以允许所述镜头的参考框架的确定的图示。如图9A中所示,摄像机902可以捕获或记录真实世界项目,即摄像机的视场904。专用印刷标记器906可以放置在所述摄像机的视场904中。应该理解的是,所述印刷标记器906仅可以用来校准所述摄像机和所述AR***。一旦所述虚拟建模软件能够跟踪所述摄像机的镜头,则可以移除所述虚拟标记器906。
为了校准所述AR***,所述印刷标记器906可以放置在所述摄像机的视场904内,例如,在房间或实验室的三维空间内(例如,地板上)的某处。所述印刷标记器906可包括可表示所述印刷标记器的坐标框架(例如,原点和取向)的各种标记(例如,标记908)。所述摄像机902然后可以捕获所述印刷标记器906(包括各种标记),并且可以串流该信息到计算机910(例如,类似于图1的计算机106)。所述计算机910可以是包括所述虚拟建模软件的相同的计算机。所述计算机910可包括与所述印刷标记器906相关联的软件912。所述印刷标记器软件912可以接收来自摄像机902的信息,包括该摄像机如何“看到”所述印刷标记器906,例如,所述印刷标记器看上去如何在该摄像机的视场内定位和取向。所述印刷标记器软件912然后可以处理该信息,从而例如当所述镜头位于由所述印刷标记器906(和所述各种标记908)建立的坐标框架内时,确定摄像机902镜头的参考框架(例如,原点和取向)。作为一个示例,并且参考图9B,为了校准的目的,所述摄像机902和所述印刷标记器906可以相对于彼此取向,以便由所述印刷标记器建立的轴(例如,X、Y、Z)对准所述摄像机的垂直轴、水平轴和深度轴,特别是所述摄像机的镜头。
再次参考图7,所述虚拟建模软件(例如,通过与特殊的印刷标记器相关的软件)可以确定摄像机镜头参考框架714,例如,当摄像机镜头参考框架714与由所述印刷标记器建立的坐标框架712相关时。为了关联所述摄像机镜头的位姿与各种虚拟物体的位姿,所述虚拟建模软件可以将所述摄像机镜头放置到与所述跟踪***相关联的坐标框架内,例如,如由所述跟踪***跟踪的,通过关联所述摄像机镜头的参考框架714与作为整体的所述摄像机的参考框架706。然而,所述虚拟建模软件710可能不能够关联所述摄像机镜头的参考框架714与作为整体的所述摄像机的参考框架706,直到所述AR***得到校准,例如,因为由所述印刷标记器建立的坐标框架712可能不同于由所述跟踪***建立的坐标框架704。因此,所述校准过程可包括对准(一般由数字716所示)由所述印刷标记器建立的坐标框架712和由所述跟踪***建立的坐标框架704。这种对准可包括将所述印刷标记器(例如,所述印刷标记器的原点)放置在与所述跟踪***坐标框架的原点相同的位置(例如,房间或实验室的地板上的三维空间内的相同位置)。所述对准也可包括对准所述印刷标记器的各轴(例如,X、Y、Z)与所述跟踪***的坐标框架的各轴。在这方面,一旦这两个坐标框架对准,则所述虚拟建模软件710就可以将它们视为相同的坐标框架。
为了关联所述摄像机镜头的参考框架714与作为整体的所述摄像机的参考框架706,所述虚拟建模软件710可确定/计算映射或变换(例如,图7中所示的C3变换)。在所述校准过程完成之前,所述C3变换可能不是已知的。如上面所解释的,所述校准过程可以确定与所述C3变换相关的其他各种映射或变换。如图7中所示,所述校准过程可以确定所述C1变换(即,其中所述跟踪***将所跟踪的摄像机放置在其坐标框架内)和所述C2变换(即,所述印刷标记器坐标框架712和由与所述印刷标记器相关联的软件确定的新的摄像机镜头参考框架714之间的平移和旋转差)。一旦所述C1和C2变换已知,则所述C3变换可以被计算。一旦所述C3变换已知,则所述摄像机可以来回移动,并且所述虚拟建模软件可以跟踪所述跟踪***的坐标框架中的摄像机镜头,即使所述印刷标记器不再出现在所述摄像机的视场内。当来自所述跟踪***的信息(例如,所述摄像机的位姿)串流到所述虚拟建模软件时,如果所述C1变换发生改变(即,所述摄像机在三维空间内的位姿),则所述C3变换可以例如实时更新。在这方面,虚拟物体可以重叠在真实世界场景上,并且例如,随着所述摄像机移动,所述虚拟物体的外观可以适当地发生改变。
以下说明了一个示例性技术来计算所述C3变换,如图7中所示。图7中所示的各种变换(C1、C2、C3)中的每个都可以表示为变换矩阵,例如,三维计算机图形中通常使用的4×4变换矩阵。所述C1变换可以表示为下面的等式6中所示的变换矩阵。所述C2变换可以表示为下面的等式7中所示的变换矩阵。
类似于上面所描述的Mn变换矩阵,每个Cn变换矩阵可以包括旋转或取向分量(DCMn)和平移或位置分量(vn)。然后,可以如下面的等式8中所示计算所述C3变换,从而得到下面的等式9中所示的C3变换。
(等式8)
然后,再次参考图7,所述C3变换可以用来将所述摄像机镜头放置在与所述跟踪***相关联的坐标框架中,例如,通过关联所述摄像机镜头的位姿与由所述跟踪***跟踪的所述摄像机的位姿。当来自所述跟踪***的信息(例如,所述摄像机的位姿)被串流到所述虚拟建模软件时,如果所述C1变换发生改变(即,所述摄像机在三维空间内的位姿),则所述C3变换可以例如实时更新。在操作中,所述C3变换的更新可以运作如下:所述跟踪***702可以检测摄像机的位姿的变化(跟踪***更新C1)。所述跟踪***702可以串流所述摄像机的参考框架706信息(例如,以变换矩阵的形式)到所述虚拟建模软件710。所述虚拟建模软件可以使该参考框架/变换矩阵乘以所述C3变换矩阵,以进行所述C3变换。所述虚拟建模软件然后可以根据所述摄像机变化的位姿而更新在与所述跟踪***相关联的坐标框架中的各种虚拟物体的位姿。
再次参考图1,所述虚拟建模软件110可以执行本文所描述的各种例程、技术等,以创建动态增强场景(例如,增强场景114),例如,由通过动态可变虚拟物体增强和/或覆盖的摄像机102所捕获的真实世界空间的实时视图。一旦所述AR***的校准实现,如上所述,所述虚拟建模软件110可以动态地保持各种虚拟物体和包括一个或多个真实物体(例如,真实物体104)的现场真实世界场景之间的相关性和/或对准。即使当所述摄像机102可以围绕物体104移动和旋转时,并且即使当所述真实物体104可以移动和旋转时,所述虚拟建模软件110也可以保持这种对准。
所述虚拟建模软件110可产生示出放置在现场视频馈送上的虚拟物体的动态增强场景114(例如,在显示器116上显示)。例如,根据所述摄像机102的位姿和/或所述真实物体104的位姿,所述虚拟建模软件110可以适当地使所述增强场景中的虚拟物体变形(例如,改变三维位置、三维取向和/或三维尺寸)。例如,如果所述摄像机102进一步移动远离所述真实物体104,则所述增强场景中的一个或多个虚拟物体会收缩。作为另一示例,如果所述摄像机102移动得更接近所述真实物体104,则一个或多个虚拟物体将放大。作为另一示例,如果所述摄像机102以相对于所述真实物体104的角度移动,则一个或多个虚拟物体将适当地旋转。在所述增强场景显示在显示器116上之前,所述增强场景114可以(例如立刻)存储在存储器(例如,易失性或非易失性存储器单元)中。显示器116上显示的和/或所述增强场景114中保持的所述增强的或虚拟的内容对于正在使用所述AR***的用户会是有用的。例如,用户可以与所述虚拟内容交互和/或从所述增强内容接收有益信息。作为一个具体的示例,虚拟物体/内容可以向技术人员提供关于一台机器在制造过程中的有价值的指导信息。
图10A描述了可以根据本公开的一个或多个实施例产生的示例性增强场景的图示。所述增强场景可包括由摄像机捕获的真实世界场景/环境,例如,具有桌子1004和该桌子上的真实物体1006(例如,一台机器)的房间1002的一部分。所述增强场景可包括由本文所描述的AR***添加的一个或多个虚拟物体,例如,与所述真实物体1006相关的(例如基于所述真实物体1006的CAD模型)的虚拟物体1010。图10A仅示出所述虚拟物体1010的一部分(例如,剖开)。此剖视图可帮助示出所述虚拟物体1010如何可以与所述真实物体1006对准。然而,应该理解的是,在一些实施例中,整个虚拟物体可以显示在所述增强场景中。如果所述摄像机移动,则所述真实世界场景和所述虚拟物体可以类似方式移动。如果所述真实物体移动,则与所述真实物体相关的任何虚拟物体均可以类似方式移动。图10A的示例性增强场景是一个示例,其示出了基于所述真实物体建模的虚拟物体如何可以与所述真实物体对准,例如,以校准所述AR***。在一些示例中,在校准完成后,基于所述真实物体建模的虚拟物体可能不出现在所述增强场景中。相反,其他各种虚拟物体可以出现,例如,与所述真实物体相关的工具、硬件(例如,螺钉)、布线、指令等。例如,这些虚拟物体可以向技术人员提供关于一台机器的有价值的指导信息,例如,关于如何安装项目或执行任务(例如,钻孔)的指令。
图10B描述了可以根据本公开的一个或多个实施例产生的示例性增强场景的图示。所述增强场景可包括由摄像机捕获的真实世界场景/环境,例如,具有真实物体1056(例如,面板)的房间1052的一部分。所述增强场景可包括由本文所描述的AR***添加的一个或多个虚拟物体,例如,可以是箱子或单元的虚拟物体1060,和各种关联的电线、导管和/或电线线束。如果所述摄像机移动,所述真实世界场景和所述虚拟物体可以类似方式移动。如果所述真实物体1056移动(例如,所述面板),则与所述真实物体相关的任何虚拟物体(例如,虚拟物体1060)可以类似方式移动。例如,图10B的示例性增强场景可以向技术人员指示如何将单元1060安装在面板1056上。
本公开的某些实施例可以在用于增强现实的自动化参考框架校准的一个或多个方法中发现。关于本文所描述的以及关联的附图中描绘的各种方法,应该理解的是,在一些实施例中,所描述和/或描绘的步骤中的一个或多个步骤可以不同顺序执行。此外,在一些实施例中,一种方法可包括比所描述和/或描绘的步骤更多或更少的步骤。
图11描述了根据本公开的一个或多个实施例示出了在一种用于增强现实的自动化参考框架校准的方法中的示例性步骤的流程图1100。更具体地,图11示出了可以用来确定和/或计算虚拟物体(例如,添加到增强场景的虚拟物体)的参考框架和与跟踪***相关联的参考框架之间的映射或变换的自动化参考框架校准的方法中的示例性步骤。在步骤1102,例如,在所述跟踪***的设置过程中建立所述跟踪***的坐标系。在步骤1104,所述跟踪***可以跟踪或确定真实物体(RO)的参考框架。所述跟踪***也可以在步骤1104处确定所述M1变换。为了所述跟踪***跟踪真实物体,所述真实物体可能需要配备有多个跟踪标记器。
在步骤1106处,例如,通过表示多个参考点(例如,使用棒)和计算原点,虚拟建模软件可以确定所述真实物体的新的参考框架。在步骤1108处,虚拟建模软件可以计算所述M2变换(例如,在所述新的RO参考框架和由所述跟踪***确定的真实物体的参考框架之间的位姿的差异)。在步骤1110处,所述虚拟建模软件可以访问或加载虚拟物体(例如,基于所述真实物体建模的虚拟物体),并可以确定所述VO的参考框架。在步骤1112处,例如,通过在所述虚拟模型上标示在所述真实物体上标示的相同的参考点以创建新的RO参考框架,所述虚拟建模软件可以确定新的VO参考框架。所述点的原点可以被计算。在步骤1114处,所述虚拟建模软件可以计算所述M3变换(例如,所述新的VO参考框架和原始的VO参考框架之间的位姿的差异)。在步骤1116处,所述虚拟建模软件可以计算所述M4变换(例如,通过将所述M1、M2和M3变换矩阵相乘在一起)。
图12描述了根据本公开的一个或多个实施例示出在用于增强现实的自动化参考框架校准的方法中的示例性步骤的流程图1200。更具体地,图12示出了用于自动化参考框架校准的方法中的示例性步骤,所述方法可以用来确定和/或计算由跟踪***跟踪的摄像机的参考框架和所述摄像机镜头的参考框架之间的映射或变换。在步骤1202处,例如,在所述跟踪***的设置过程中建立了所述跟踪***的坐标系。在步骤1204处,所述跟踪***可以跟踪或确定摄像机的参考框架。所述跟踪***也可以在步骤1204处确定所述C1变换。为了所述跟踪***跟踪摄像机,所述摄像机(或摄像机框架,或平板计算机)可能需要配备有多个跟踪标记器。在步骤1206处,例如,通过使用印刷标记器和相关的软件,可以建立与印刷标记器相关联的坐标框架。与所述印刷标记器相关联的坐标框架可以与所述跟踪***的坐标框架对准。在步骤1208处,虚拟建模软件(例如,通过与所述印刷标记器相关联的软件)可以确定例如相对于所述印刷标记器的坐标框架的所述摄像机镜头的参考框架。在步骤1210处,所述虚拟建模软件可以计算所述C2变换(例如,所述摄像机镜头参考框架和所述印刷标记器坐标框架之间的位姿的差异)。这种计算可以(至少部分)由与所述印刷标记器相关联的软件执行。在步骤1212处,所述虚拟建模软件可以计算所述C3变换(例如,通过由所述C1变换矩阵除以所述C2变换矩阵)。
本文所描述的任何***和方法也考虑了各种变体,其包括由具有至少一个处理器的数据处理***100执行的用于增强现实100的方法。可替代的方法可以包括接收或建立与物体跟踪***108相关联的跟踪***坐标框架204。所述跟踪***坐标框架204与真实三维空间对准,并跟踪真实物体104和摄像机102在真实三维空间内的位置和取向。在此布置中,所述数据处理***100也从所述跟踪***108接收所述真实物体104的第一真实物体参考框架212。所述第一真实物体参考框架212表示所述真实物体104相对于所述跟踪***坐标框架204的位置和取向。
接着,所述数据处理***100确定所述真实物体104的第二真实物体参考框架212,其中所述第二真实物体参考框架212表示所述真实物体104相对于所述跟踪***坐标框架204的位置和取向。所述数据处理***100然后接收用于虚拟物体112的第一虚拟物体参考框架216,其中所述虚拟物体112是在所述真实物体104后建模的,并且其中所述第一虚拟物体参考框架212与所述跟踪***坐标框架204无关。
所述数据处理***100也确定用于所述虚拟物体112的第二虚拟物体参考框架216,其中所述第二虚拟物体参考框架216表示所述虚拟物体112相对于所述跟踪***坐标框架204的位置和取向。虚拟物体112映射也是在所述第一虚拟物体参考框架216和所述跟踪***坐标框架204之间确定的。
增强场景114由所述数据处理***100显示并包括所述真实三维空间的视图、所述真实物体104的视图和一个或多个重叠的虚拟项目。在这里,所述虚拟物体112映射用于将所述一个或多个重叠的虚拟项目放置在所述增强场景114中,以便所述一个或多个虚拟项目与所述真实物体104对准。
在进一步的可选布置中,所述数据处理***100经配置也确定所述第二真实物体参考框架212,其可以接收或检测所述真实物体104上的三个或更多个真实物体非共线点。相对于所述跟踪***坐标框架204限定了三个或更多个真实物体非共线点的位置。通过计算所述三个或更多个真实物体非共线点的质心,确定真实物体104原点。然后确定真实物体取向,该取向与所述第一真实物体参考框架212的取向相关。可以优选的是,所述第二虚拟物体参考框架216是通过接收或表示所述虚拟物体112上的三个或更多个虚拟物体非共线点而确定的,其中相对于所述跟踪***坐标框架204限定三个或更多个虚拟物体非共线点的位置。其后,虚拟物体原点可以通过计算所述三个或更多个虚拟物体非共线点的质心而确定,这可以进一步确定虚拟物体取向。
在对任何所描述的布置的进一步改进中,所述第二真实物体参考框架212和所述第二虚拟物体参考框架216对准,其中所述三个或更多个虚拟物体非共线点和所述三个或更多个真实物体非共线点都位于相对于所述跟踪***坐标框架204的大致相同的位置。另外,所述真实物体104取向和所述虚拟物体112取向大致是相同的,因为每个取向都与所述跟踪***坐标框架204有关。
在其他配置中,所述虚拟物体112映射的确定可包括接收或确定表示所述第一真实物体参考框架212的第一变换矩阵。也可以确定表示所述第一真实物体参考框架212和所述第二真实物体参考框架212之间的位置和取向的差异的第二变换矩阵。此外,可以确定表示所述第一虚拟物体参考框架216和所述第二虚拟物体参考框架216之间的位置和取向的差异的第三变换矩阵。也可以计算表示所述虚拟物体112映射的第四变换矩阵。在这里,所述第四变换矩阵表示所述第一虚拟物体参考框架216和所述跟踪***坐标框架204之间的位置和取向的差异。所述第四变换矩阵也通过执行所述第一、第二和第三变换矩阵之间的矩阵乘法而计算。
在另一布置中,使用所述虚拟物体112映射将所述一个或更多个重叠的虚拟项目放置在所述增强场景114中可以包括接收第一重叠虚拟项目的第一虚拟项目参考框架216。在此变体中,所述第一虚拟项目参考框架216与所述跟踪***坐标框架204无关。可以参考所述虚拟物体112映射,以变换所述第一虚拟项目参考框架216到与所述跟踪***坐标框架204相关的变换后的参考框架。可以使用所述变换参考框架将所述第一重叠虚拟项目放置在所述增强场景114中。
所述数据处理***100可进一步配置为从所述跟踪***108接收关于所述真实物体104的位置和取向的实时信息。在这种改进中,所述虚拟物体112映射是基于所述实时信息更新的,并且所述增强场景114是通过更新所述一个或更多个重叠虚拟项目的放置而更新的,以便所述一个或更多个虚拟项目保持与所述真实物体104对准。
本公开的方法、例程和技术(包括所描述的不同实施例的流程图和方框图中示出的示例性方法和例程)可以实施为由一个或多个数据处理***执行的软件,所述一个或多个数据处理***被编程,以便所述数据处理***适于执行和/或实施本文所描述的部分或所有的方法、例程和/或技术。本文所引用的方框图或流程图中的每个方框或符号可表示计算机可用或可读程序代码的模块、区段或部分,所述计算机可用或可读程序代码包括用于由一个或多个数据处理***实施指定的一个或多个功能的一个或多个可执行指令。在本公开的一些可替代的实施方式中,方框图或流程图的方框或符号中示出的一个或多个功能可以不以图中所注明的顺序出现。例如,在一些情况下,连续示出的两个方框或符号可以基本同时执行,或者所述方框有时可以相反顺序执行,这取决于所涉及的功能。在所述数据处理***执行所述代码之前,部分或所有的所述计算机代码可以被加载到数据处理***的存储器内。
图13描述了可以用来实施本公开的一个或多个实施例的示例性数据处理***1300的方框图。例如,同样暂时地参考图1,计算机106可以采用与图13的数据处理***1300类似的数据处理***的形式。作为另一示例,与跟踪***108相关的跟踪***软件可以在与图13的数据处理***1300类似的数据处理***上执行。参考图13,数据处理***1300可以用来部分地或全部地执行本公开的方法、例程和/或解决方案中的一个或多个。在本公开的一些实施例中,一个以上的数据处理***可以用来实施本文所描述的方法、例程、技术和/或解决方案。
在图13的示例中,数据处理***1300可包括提供各组件(例如,处理器单元1304、存储器1306、永久性贮存器1308、通信单元1310、输入/输出(I/O)单元1312和显示器1314)之间的通信的通信结构1302。总线***可以用来实施通信结构1302,并可以由一个或多个总线(如***总线或输入/输出总线)组成。通过使用为连接到总线***的不同组件或装置之间的数据传输提供的任何适当类型的架构,可以实施所述总线***。
处理器单元1304可以用于执行可加载到所述数据处理***1300内的指令(例如,软件程序),例如,加载到存储器1306内。处理器单元1304可以是一个或多个处理器的集合,或者可以是多处理器核心,这取决于特定的实施方式。处理器单元1304可以使用一个或多个异构处理器***实施,在所述一个或多个异构处理器***中,主处理器与次级处理器提供在单个芯片上。作为另一说明性示例,处理器单元1304可以是包含相同类型的多个处理器的对称的多处理器***。
存储器1306可以是例如,随机存取存储器或任何其他合适的易失性或非易失性存储装置。存储器1306可包括一层或多层的高速缓冲存储器。永久性贮存器1308可以采用各种形式,这取决于特定的实施方式。例如,永久性贮存器1308可包含一个或多个组件或装置。例如,永久性贮存器1308可以是硬盘驱动器、固态驱动器、闪存或上述的某种组合。
用于操作***的指令可以位于永久性贮存器1308上。在一个具体实施例中,所述操作***可以是多个已知操作***的某种版本。用于应用和/或程序的指令也可以位于永久性贮存器1308上。这些指令可以加载到存储器1306内,以由处理器单元1304执行。例如,本公开中描述的不同实施例的方法和/或处理可以通过使用可以加载到存储器(如存储器1306)内的计算机实施的指令而由处理器单元1304执行。这些指令称为可以由处理器单元1304中的一个处理器读取和执行的程序代码、计算机可用程序代码或计算机可读程序代码。
显示器1314可以提供一种机构来显示信息给用户,例如,通过LCD或LED屏幕或监视器,或其他类型的显示器。应该理解的是,贯穿本公开,术语“显示器”可以灵活的方式用来指物理显示器(如物理屏幕),或指用户在物理装置的屏幕上看到的图像。输入/输出(I/O)单元1312允许数据通过可以连接到数据处理***1300的其他装置的输入和输出。输入/输出装置可以直接地或通过***I/O控制器而连接到所述***。
通信单元1310可以提供与其他数据处理***或装置的通信,例如,通过一个或多个网络。通信单元1310可以是网络接口卡。通信单元1310可以通过使用有线和/或无线通信链路提供通信。在一些实施例中,所述通信单元可包括经设计和/或适于根据各种无线通信标准(例如,WiFi标准、蓝牙标准等)通信的电路。
为数据处理***1300示出的不同组件并不意在提供对不同实施例可以被实施的方式的架构限制。所述不同说明性实施例可以在包括除了或代替为数据处理***1300示出的那些组件以外的组件的数据处理***中实施。图13中所示的其他组件可以根据所示的说明性示例而变化。
所述数据处理***1300也可以布置为具有存储计算机代码的一个或多个存储器单元和连接到所述一个或多个存储器单元1306的一个或多个处理器单元1304,其中所述一个或多个处理器单元1304执行存储在所述一个或多个存储器单元1306中的计算机代码。正在执行的计算机代码接收或建立与物体跟踪***108、202相关联的跟踪***坐标框架204。所述跟踪***坐标框架204与真实三维空间对准,并且所述跟踪***108跟踪捕获真实三维空间的摄像机102和印刷标记器906在所述真实三维空间内的位置和取向。
所述跟踪***108接收所述摄像机102的摄像机参考框架,并且所述摄像机参考框架表示所述摄像机102相对于所述跟踪***坐标框架204的位置和取向。还接收或建立的是与所述印刷标记器相关联的印刷标记器坐标框架204,其中所述印刷标记器坐标框架204与所述真实三维空间对准。所述印刷标记器坐标框架204与所述跟踪***坐标框架204对准,并且摄像机镜头参考框架被确定用于所述摄像机102的镜头。所述摄像机镜头参考框架表示所述摄像机102镜头相对于所述印刷标记器坐标框架204的位置和取向。
在所述摄像机102参考框架和所述摄像机102镜头参考框架之间确定摄像机102镜头映射,并且显示包括所述真实三维空间的视图和一个或多个虚拟项目的增强场景114,其中所述摄像机102镜头映射用于改变所述增强场景114中的所述一个或多个虚拟项目或使其失真。
所述不同的有利实施例的描述被提供以用于说明和描述的目的,且并非意图穷举或将所述实施例限制为公开的形式。许多修改和变体对于本领域的那些普通技术人员将是显而易见的。与其他有利实施例相比,进一步的不同的有利实施例可以提供不同的优点。选择的一个或多个实施例可以被选定和说明,以便最好地解释实际应用的实施例的原理,并且能够使本领域的其他普通技术人员理解具有适合于所考虑的特定用途的各种修改的各种实施例的公开。
Claims (12)
1.一种用于增强现实(100)的方法,所述方法由具有至少一个处理器的数据处理***执行,所述方法包括:
接收或建立与物体跟踪***(108)相关联的跟踪***坐标框架(204),
其中所述跟踪***坐标框架(204)与真实三维空间对准,和
其中所述跟踪***(108)跟踪捕获真实三维空间的摄像机(102)和印刷标记器(906)在所述真实三维空间内的位置和取向;
从所述跟踪***(108)接收用于所述摄像机(102)的摄像机参考框架,
其中所述摄像机参考框架表示所述摄像机(102)相对于所述跟踪***坐标框架(204)的位置和取向;
接收或建立与所述印刷标记器(906)相关联的印刷标记器坐标框架(204),
其中所述印刷标记器坐标框架(204)与所述真实三维空间对准,和
其中所述印刷标记器坐标框架(204)与所述跟踪***(108)坐标框架(204)对准;
确定所述摄像机镜头的摄像机(102)镜头参考框架,
其中所述摄像机镜头参考框架表示所述摄像机(102)镜头相对于所述印刷标记器坐标框架(204)的位置和取向;
确定在所述摄像机(102)参考框架和所述摄像机(102)镜头参考框架之间的摄像机镜头映射;和
显示包括所述真实三维空间的视图和一个或更多个虚拟项目的增强场景(114),
其中所述摄像机(102)镜头映射用来改变所述增强场景(114)中的所述一个或更多个虚拟项目或使其失真。
2.根据权利要求1所述的方法,其中确定所述摄像机(102)镜头参考框架包括由与所述印刷标记器(906)相关联的软件程序接收摄像机(102)镜头位置和取向信息。
3.根据权利要求1所述的方法,其中对准所述印刷标记器坐标框架(204)与所述跟踪***坐标框架(204)包括放置所述印刷标记器(906)在所述真实三维空间内的位置和取向,以便:
与所述印刷标记器(906)相关联的原点位于与和所述跟踪***(108)相关联的原点大致相同的所述三维空间内的位置;和
与所述印刷标记器(906)相关联的三个轴在所述三维空间内大致对准与所述跟踪***(108)相关联的三个轴。
4.根据权利要求1所述的方法,其中确定所述摄像机(102)镜头映射包括:
接收或确定表示第一真实物体参考框架(212)的第一变换矩阵;
确定表示所述摄像机(102)镜头参考框架和所述印刷标记器坐标框架(204)之间的位置和取向的差异的第二变换矩阵;
计算表示所述摄像机(102)镜头映射的第三变换矩阵,
其中所述第三变换矩阵表示所述摄像机参考框架和所述摄像机镜头参考框架之间的位置和取向的差异,和
其中所述第三变换矩阵是通过执行所述第一变换矩阵和第二变换矩阵之间或所述第二变换矩阵和第一变换矩阵之间的矩阵除法而计算的。
5.根据权利要求1所述的方法,其中使用所述摄像机(102)镜头映射来改变所述增强场景(114)中的一个或更多个重叠虚拟项目或使其失真包括:
通过使用第一虚拟项目参考框架(216)放置第一重叠虚拟项目在所述增强场景(114)中,
其中所述第一虚拟项目参考框架(216)与所述跟踪***坐标框架(204)有关;
从所述跟踪***(108)接收关于所述摄像机(102)的位置和取向的实时信息;
参考所述虚拟物体(112)映射而变换,从而基于所述实时信息更新所述摄像机(102)镜头参考框架;和
基于更新的摄像机(102)镜头参考框架,通过改变所述一个或更多个重叠虚拟项目或使其失真来更新所述增强场景(114)。
6.根据权利要求1所述的方法,其中改变所述增强场景(114)中的所述一个或更多个重叠虚拟项目或使其失真包括收缩所述重叠虚拟项目,以响应于所述摄像机(102)进一步移动远离所述三维空间内的真实物体(104)。
7.根据权利要求1所述的方法,其中改变所述增强场景(114)中的所述一个或更多个重叠虚拟项目或使其失真包括放大所述重叠虚拟项目,以响应于所述摄像机(102)移动得更靠近所述三维空间内的真实物体(104)。
8.根据权利要求1所述的方法,其中改变所述增强场景(114)中的所述一个或更多个重叠虚拟项目或使其失真包括旋转所述重叠虚拟项目,以响应于所述摄像机(102)以相对于所述三维空间内的真实物体(104)的角度移动。
9.一种***,包括:
摄像机(102),其捕获包括真实物体(104)的真实三维空间的视图;
跟踪***(108),其跟踪所述真实物体(104)和所述摄像机(102)在真实三维空间内的位置和取向,其中所述跟踪***(108)配置为建立与所述跟踪***(108)相关联的跟踪***坐标框架(204),其中所述跟踪***坐标框架(204)与所述真实三维空间对准;和
计算机(106),其连接到所述摄像机(102)和所述跟踪***(108),所述计算机(106)具有一个或更多个存储器单元,所述计算机(106)配置为具有虚拟建模器,
其中所述虚拟建模器配置为从所述跟踪***(108)接收用于所述真实物体(104)的第一真实物体参考框架,其中所述第一真实物体参考框架(212)表示所述真实物体(104)相对于所述跟踪***坐标框架(204)的位置和取向;
其中所述虚拟建模器进一步配置为计算用于所述真实物体(104)的第二真实物体参考框架(212),其中所述第二真实物体参考框架(212)表示所述真实物体相对于所述跟踪***坐标框架(204)的位置和取向;
其中所述虚拟建模器进一步配置为自所述一个或更多个存储器单元接收用于虚拟物体(112)的第一虚拟物体参考框架(216),其中所述虚拟物体(112)在所述真实物体(104)后建模,并且其中所述第一虚拟物体参考框架(216)与所述跟踪***坐标框架(204)无关;
其中所述虚拟建模器进一步配置为计算用于所述虚拟物体(112)的第二虚拟物体参考框架(216),其中所述第二虚拟物体参考框架(216)表示所述虚拟物体(112)相对于所述跟踪***坐标框架(204)的位置和取向;
其中所述虚拟建模器进一步配置为计算所述第一虚拟物体参考框架(216)和所述跟踪***坐标框架(204)之间的虚拟物体(112)映射;和
其中所述虚拟建模器进一步配置为在所述一个或更多个存储器单元中生成和存储包括所述真实三维空间的视图、所述真实物体(104)的视图和一个或更多个重叠虚拟项目的增强场景(114),其中所述虚拟物体(112)映射用来放置所述一个或更多个重叠虚拟项目在所述增强场景(114)中,以便所述一个或更多个虚拟项目与所述真实物体(104)对准。
10.根据权利要求9所述的***,其进一步包括连接到所述计算机(106)的显示器,其中所述虚拟建模器进一步配置为将所述增强场景(114)传送到所述显示器,并且其中所述显示器配置为向用户示出所述增强场景(114)。
11.根据权利要求9所述的***,其中使用所述虚拟物体(112)映射以放置所述一个或更多个重叠虚拟项目在所述增强场景(114)中包括:
接收用于第一重叠虚拟项目的第一虚拟项目参考框架(216),
其中所述第一虚拟项目参考框架(216)与所述跟踪***坐标框架(204)无关;
参考所述虚拟物体(112)映射,从而将所述第一虚拟项目参考框架(216)变换到与所述跟踪***坐标框架(204)有关的变换后的参考框架;和
通过使用所述变换参考框架而将所述第一重叠虚拟项目放置在所述增强场景(114)中。
12.根据权利要求9所述的***,其中所述虚拟建模器进一步配置为:
从所述跟踪***(108)接收关于所述真实物体(104)的位置和取向的实时信息;
基于所述实时信息更新所述虚拟物体(112)映射;和
通过更新所述一个或更多个重叠虚拟项目的放置以便所述一个或更多个虚拟项目保持与所述真实物体对准而更新所述增强场景(114)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/665,837 US9508146B2 (en) | 2012-10-31 | 2012-10-31 | Automated frame of reference calibration for augmented reality |
US13/665,837 | 2012-10-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103793936A true CN103793936A (zh) | 2014-05-14 |
CN103793936B CN103793936B (zh) | 2018-12-14 |
Family
ID=49518667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310529549.5A Active CN103793936B (zh) | 2012-10-31 | 2013-10-31 | 用于增强现实的自动化参考框架校准 |
Country Status (10)
Country | Link |
---|---|
US (1) | US9508146B2 (zh) |
EP (1) | EP2728548B1 (zh) |
JP (1) | JP6223122B2 (zh) |
KR (1) | KR102110123B1 (zh) |
CN (1) | CN103793936B (zh) |
AU (1) | AU2013224660B2 (zh) |
BR (1) | BR102013027358B1 (zh) |
CA (1) | CA2825834C (zh) |
RU (1) | RU2651239C9 (zh) |
SG (1) | SG2013068408A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469684A (zh) * | 2015-11-26 | 2016-04-06 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种适用于虚拟维修试验平台的模拟工具 |
CN105491365A (zh) * | 2015-11-25 | 2016-04-13 | 罗军 | 基于移动终端的图像处理方法、装置及*** |
CN106352910A (zh) * | 2015-07-13 | 2017-01-25 | 波音公司 | 无损检测设备的自动校准 |
CN107564089A (zh) * | 2017-08-10 | 2018-01-09 | 腾讯科技(深圳)有限公司 | 三维图像处理方法、装置、存储介质和计算机设备 |
CN107665452A (zh) * | 2016-07-29 | 2018-02-06 | 个人优制有限公司 | 用于虚拟鞋试配的方法和*** |
CN108475118A (zh) * | 2016-01-19 | 2018-08-31 | 泰科恩促进有限公司 | 增强现实的远程交互式***及相关方法 |
CN109195832A (zh) * | 2016-04-07 | 2019-01-11 | 西门子移动有限公司 | 位置确定*** |
CN109348209A (zh) * | 2018-10-11 | 2019-02-15 | 北京灵犀微光科技有限公司 | 增强现实显示装置和视觉标定方法 |
CN109345560A (zh) * | 2018-09-20 | 2019-02-15 | 网易(杭州)网络有限公司 | 增强现实设备的运动跟踪精度测试方法及装置 |
CN109765992A (zh) * | 2017-11-09 | 2019-05-17 | 波音公司 | 将虚拟内容与物理环境空间配准的***、方法和工具 |
CN109920064A (zh) * | 2019-03-14 | 2019-06-21 | 烟台九田自动化科技有限公司 | 一种基于增强现实技术的模型空间位姿的精确调整方法 |
WO2019136588A1 (zh) * | 2018-01-09 | 2019-07-18 | 深圳前海达闼云端智能科技有限公司 | 基于云端计算的标定方法、装置、电子设备和计算机程序产品 |
CN110140100A (zh) * | 2017-01-02 | 2019-08-16 | 摩致实验室有限公司 | 三维增强现实对象用户界面功能 |
CN110291554A (zh) * | 2017-02-03 | 2019-09-27 | 本杰明·摩尔公司 | 协助消费者选择颜色的自主*** |
CN111162840A (zh) * | 2020-04-02 | 2020-05-15 | 北京外号信息技术有限公司 | 用于设置光通信装置周围的虚拟对象的方法和*** |
CN111480050A (zh) * | 2017-12-15 | 2020-07-31 | 麦普威有限公司 | 具有计算机生成的虚拟参照物的机器视觉*** |
CN112836558A (zh) * | 2019-11-25 | 2021-05-25 | 杭州海康机器人技术有限公司 | 机械臂末端调整方法、装置、***、设备及介质 |
CN113438964A (zh) * | 2019-02-12 | 2021-09-24 | 卡特彼勒公司 | 增强现实模型对准 |
WO2021190649A1 (en) * | 2020-03-27 | 2021-09-30 | Ke.Com (Beijing) Technology Co., Ltd. | Method and device for collecting images of a scene for generating virtual reality data |
CN113646808A (zh) * | 2019-04-04 | 2021-11-12 | 中心线生物医药股份有限公司 | 空间跟踪***与增强现实显示器的配准 |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9058693B2 (en) * | 2012-12-21 | 2015-06-16 | Dassault Systemes Americas Corp. | Location correction of virtual objects |
US9922446B2 (en) * | 2012-12-21 | 2018-03-20 | Apple Inc. | Method for representing virtual information in a real environment |
GB2583848B (en) * | 2014-05-21 | 2021-03-24 | Tangible Play Inc | Virtualization of tangible interface objects |
US20150348322A1 (en) * | 2014-06-02 | 2015-12-03 | Dell Products L.P. | Dynamically Composited Information Handling System Augmented Reality at a Primary Display |
KR101835434B1 (ko) * | 2015-07-08 | 2018-03-09 | 고려대학교 산학협력단 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
US9898869B2 (en) * | 2015-09-09 | 2018-02-20 | Microsoft Technology Licensing, Llc | Tactile interaction in virtual environments |
IL245339A (en) * | 2016-04-21 | 2017-10-31 | Rani Ben Yishai | Method and system for verification of registration |
US10453232B2 (en) * | 2016-08-29 | 2019-10-22 | International Business Machines Corporation | Product installation alignment assistance |
ES2973462T3 (es) * | 2016-11-11 | 2024-06-20 | Ericsson Telefon Ab L M | Soportar una aplicación de software para realidad aumentada |
US10552981B2 (en) | 2017-01-16 | 2020-02-04 | Shapetrace Inc. | Depth camera 3D pose estimation using 3D CAD models |
CN106875493B (zh) * | 2017-02-24 | 2018-03-09 | 广东电网有限责任公司教育培训评价中心 | Ar眼镜中虚拟目标物的叠加方法 |
CN106878786B (zh) * | 2017-03-07 | 2020-03-03 | 北京小米移动软件有限公司 | Vr视频中弹幕的显示方法和装置 |
KR101941005B1 (ko) * | 2017-04-05 | 2019-01-22 | 광주과학기술원 | 인카운터 타입 햅틱 시스템에서 임의의 툴에 대한 툴 캘리브레이션 방법 |
US10742940B2 (en) | 2017-05-05 | 2020-08-11 | VergeSense, Inc. | Method for monitoring occupancy in a work area |
US11044445B2 (en) | 2017-05-05 | 2021-06-22 | VergeSense, Inc. | Method for monitoring occupancy in a work area |
US10777018B2 (en) * | 2017-05-17 | 2020-09-15 | Bespoke, Inc. | Systems and methods for determining the scale of human anatomy from images |
CN108932051B (zh) * | 2017-05-24 | 2022-12-16 | 腾讯科技(北京)有限公司 | 增强现实图像处理方法、装置及存储介质 |
EP3616035B1 (en) | 2017-06-19 | 2024-04-24 | Apple Inc. | Augmented reality interface for interacting with displayed maps |
CN108734786B (zh) * | 2017-09-12 | 2021-07-27 | 武汉天际航信息科技股份有限公司 | 实景三维增强现实可视化***及方法 |
EP3462411A1 (en) * | 2017-09-27 | 2019-04-03 | Arkite NV | Configuration tool and method for a quality control system |
US10777007B2 (en) | 2017-09-29 | 2020-09-15 | Apple Inc. | Cooperative augmented reality map interface |
US10235774B1 (en) | 2017-11-14 | 2019-03-19 | Caterpillar Inc. | Method and system for calibration of an image capturing device mounted on a machine |
US11039084B2 (en) * | 2017-11-14 | 2021-06-15 | VergeSense, Inc. | Method for commissioning a network of optical sensors across a floor space |
US10567746B2 (en) * | 2017-11-14 | 2020-02-18 | Caterpillar Inc. | Calibration jig |
NO20180179A1 (en) * | 2018-02-02 | 2019-04-08 | Kitron Asa | Method and system for augmented reality assembly guidance |
WO2019152617A1 (en) * | 2018-02-03 | 2019-08-08 | The Johns Hopkins University | Calibration system and method to align a 3d virtual scene and 3d real world for a stereoscopic head-mounted display |
CN108876900A (zh) * | 2018-05-11 | 2018-11-23 | 重庆爱奇艺智能科技有限公司 | 一种与现实场景融合的虚拟目标投射方法和*** |
US10977868B2 (en) * | 2018-06-29 | 2021-04-13 | Factualvr, Inc. | Remote collaboration methods and systems |
US10839604B2 (en) * | 2018-07-11 | 2020-11-17 | The Boeing Company | Augmented reality system with an active portable anchor |
US10896546B2 (en) * | 2018-07-11 | 2021-01-19 | The Boeing Company | Augmented reality system with an active portable anchor |
US10475250B1 (en) * | 2018-08-30 | 2019-11-12 | Houzz, Inc. | Virtual item simulation using detected surfaces |
WO2020055903A1 (en) * | 2018-09-10 | 2020-03-19 | Fanuc America Corporation | Robot calibration for ar and digital twin |
US10740987B2 (en) | 2018-10-12 | 2020-08-11 | The Boeing Company | Augmented reality system for visualizing nonconformance data for an object |
RU2697942C1 (ru) * | 2018-10-30 | 2019-08-21 | Общество С Ограниченной Ответственностью "Альт" | Способ и система обратного оптического трекинга подвижного объекта |
CN112912937A (zh) * | 2018-10-31 | 2021-06-04 | 米沃奇电动工具公司 | 空间感知工具*** |
RU2713570C1 (ru) * | 2018-12-20 | 2020-02-05 | Анатолий Александрович Перепелица | Способ формирования изображения дополненной реальности и робототехническая система для его осуществления |
WO2020163218A1 (en) * | 2019-02-04 | 2020-08-13 | Beam Therapeutics Inc. | Systems and methods for implemented mixed reality in laboratory automation |
RU2702495C1 (ru) * | 2019-03-13 | 2019-10-08 | Общество с ограниченной ответственностью "ТрансИнжКом" | Способ и система сбора информации для устройства совмещенной реальности в режиме реального времени |
EP3938975A4 (en) | 2019-03-15 | 2022-12-14 | Vergesense, Inc. | ARRIVAL DETECTION OF BATTERY POWERED OPTICAL SENSORS |
CN110020649A (zh) * | 2019-03-22 | 2019-07-16 | 联想(北京)有限公司 | 一种信息处理方法、装置、设备及存储介质 |
EP3946825A1 (en) * | 2019-03-25 | 2022-02-09 | ABB Schweiz AG | Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system |
CN110322484B (zh) * | 2019-05-29 | 2023-09-08 | 武汉幻石佳德数码科技有限公司 | 多设备共享的增强现实虚拟空间的校准方法及*** |
KR102208708B1 (ko) * | 2019-08-14 | 2021-01-28 | 한국과학기술연구원 | 공통 좌표계 기반의 가상공간에서 가상 컨텐츠 제공 방법 및 장치 |
CA3090634A1 (en) * | 2019-08-20 | 2021-02-20 | Lune Rouge Divertissement Inc. | Machine vision system and method |
US11620808B2 (en) | 2019-09-25 | 2023-04-04 | VergeSense, Inc. | Method for detecting human occupancy and activity in a work area |
CN110782499B (zh) * | 2019-10-23 | 2023-01-06 | Oppo广东移动通信有限公司 | 一种增强现实设备的标定方法、标定装置及终端设备 |
KR102314782B1 (ko) * | 2019-10-28 | 2021-10-19 | 네이버랩스 주식회사 | 3차원 증강현실 표시 방법 |
KR102199772B1 (ko) * | 2019-11-12 | 2021-01-07 | 네이버랩스 주식회사 | 3차원 모델 데이터 생성 방법 |
CN111127661B (zh) * | 2019-12-17 | 2023-08-29 | 北京超图软件股份有限公司 | 一种数据处理方法、装置及电子设备 |
JP7470511B2 (ja) | 2019-12-17 | 2024-04-18 | 荏原環境プラント株式会社 | 情報処理システム、情報処理方法、情報処理プログラム |
US11288792B2 (en) * | 2020-02-19 | 2022-03-29 | Palo Alto Research Center Incorporated | Method and system for change detection using AR overlays |
TWI741536B (zh) * | 2020-03-20 | 2021-10-01 | 台灣骨王生技股份有限公司 | 基於混合實境的手術導航影像成像方法 |
US11043039B1 (en) * | 2020-04-22 | 2021-06-22 | The Boeing Company | 3D point cluster correlation for content alignment on augmented reality platforms |
CN113674326B (zh) * | 2020-05-14 | 2023-06-20 | 惟亚(上海)数字科技有限公司 | 一种基于增强现实的频域处理的跟踪方法 |
WO2021230884A1 (en) * | 2020-05-15 | 2021-11-18 | Zebra Technologies Corporation | Calibration system and method for data capture system |
US11557046B2 (en) * | 2020-09-30 | 2023-01-17 | Argyle Inc. | Single-moment alignment of imprecise overlapping digital spatial datasets, maximizing local precision |
KR102358950B1 (ko) * | 2020-10-05 | 2022-02-07 | 홍준표 | 모바일 스캔 객체 모델 스케일링을 통한 증강현실 구현 장치 및 방법 |
KR20220059054A (ko) | 2020-11-02 | 2022-05-10 | 한국전자통신연구원 | 특징점 지도 업데이트 기반의 증강현실 컨텐츠 제공 방법 및 이를 위한 장치 |
US12028507B2 (en) * | 2021-03-11 | 2024-07-02 | Quintar, Inc. | Augmented reality system with remote presentation including 3D graphics extending beyond frame |
CN113112545B (zh) * | 2021-04-15 | 2023-03-21 | 西安电子科技大学 | 基于计算机视觉的手持移动打印装置定位方法 |
CN113345105A (zh) * | 2021-06-18 | 2021-09-03 | 北京爱奇艺科技有限公司 | 一种坐标系调整方法、装置、电子设备及存储介质 |
US11423576B1 (en) | 2021-07-23 | 2022-08-23 | Ford Global Technologies, Llc | Infrastructure node localization with respect to alternative frame of reference |
CN113920281A (zh) * | 2021-10-11 | 2022-01-11 | 郭小川 | 一种虚拟现实环境中空间规划方法、***及应用方法 |
EP4191529A1 (en) * | 2021-11-23 | 2023-06-07 | Virnect, Co., Ltd. | Camera motion estimation method for augmented reality tracking algorithm and system therefor |
KR102442637B1 (ko) | 2021-11-23 | 2022-09-13 | 주식회사 버넥트 | 증강현실 추적 알고리즘을 위한 카메라 움직임 추정 방법 및 그 시스템 |
KR20230101463A (ko) | 2021-12-29 | 2023-07-06 | 주식회사 버넥트 | 가상 뷰포인트 카메라를 활용하여 타겟 객체를 학습하는 방법 및 이를 이용하여 타켓 객체를 구현한 실물 객체에 가상 모델을 증강하는 방법 |
US11922691B2 (en) * | 2022-04-20 | 2024-03-05 | Adobe Inc. | Augmented reality systems for comparing physical objects |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020094189A1 (en) * | 2000-07-26 | 2002-07-18 | Nassir Navab | Method and system for E-commerce video editing |
US20070236514A1 (en) * | 2006-03-29 | 2007-10-11 | Bracco Imaging Spa | Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation |
CN101101505A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 一种实现三维增强现实的方法及*** |
CN101520904A (zh) * | 2009-03-24 | 2009-09-02 | 上海水晶石信息技术有限公司 | 带有现实环境估算的增强现实的方法及其*** |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281504A (ja) * | 2002-03-22 | 2003-10-03 | Canon Inc | 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム |
JP4401727B2 (ja) * | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 画像表示装置及び方法 |
JP2006012042A (ja) * | 2004-06-29 | 2006-01-12 | Canon Inc | 画像生成方法及び装置 |
RU54233U1 (ru) * | 2006-01-17 | 2006-06-10 | Общество с ограниченной ответственностью "СИМТЕХ" | Система виртуального окружения |
ATE452379T1 (de) * | 2007-10-11 | 2010-01-15 | Mvtec Software Gmbh | System und verfahren zur 3d-objekterkennung |
US7778794B2 (en) | 2007-11-26 | 2010-08-17 | The Boeing Company | System and method for identifying an element of a structure in an engineered environment |
US8482412B2 (en) | 2008-10-16 | 2013-07-09 | The Boeing Company | Data interface process with RFID data reader glove |
KR101335391B1 (ko) * | 2010-04-12 | 2013-12-03 | 한국전자통신연구원 | 영상 합성 장치 및 그 방법 |
US8525830B2 (en) | 2010-09-17 | 2013-09-03 | The Boeing Company | Point cloud generation system |
US8423318B1 (en) | 2010-09-17 | 2013-04-16 | The Boeing Company | Object management system |
US9182487B2 (en) | 2011-06-22 | 2015-11-10 | The Boeing Company | Advanced remote nondestructive inspection system and process |
US9113050B2 (en) | 2011-01-13 | 2015-08-18 | The Boeing Company | Augmented collaboration system |
-
2012
- 2012-10-31 US US13/665,837 patent/US9508146B2/en active Active
-
2013
- 2013-08-30 CA CA2825834A patent/CA2825834C/en active Active
- 2013-09-04 AU AU2013224660A patent/AU2013224660B2/en active Active
- 2013-09-11 SG SG2013068408A patent/SG2013068408A/en unknown
- 2013-09-24 KR KR1020130113027A patent/KR102110123B1/ko active IP Right Grant
- 2013-10-24 BR BR102013027358-9A patent/BR102013027358B1/pt active IP Right Grant
- 2013-10-24 EP EP13190010.2A patent/EP2728548B1/en active Active
- 2013-10-28 JP JP2013222976A patent/JP6223122B2/ja active Active
- 2013-10-30 RU RU2013148372A patent/RU2651239C9/ru active
- 2013-10-31 CN CN201310529549.5A patent/CN103793936B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020094189A1 (en) * | 2000-07-26 | 2002-07-18 | Nassir Navab | Method and system for E-commerce video editing |
US20070236514A1 (en) * | 2006-03-29 | 2007-10-11 | Bracco Imaging Spa | Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation |
CN101101505A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 一种实现三维增强现实的方法及*** |
CN101520904A (zh) * | 2009-03-24 | 2009-09-02 | 上海水晶石信息技术有限公司 | 带有现实环境估算的增强现实的方法及其*** |
Non-Patent Citations (2)
Title |
---|
MIHRAN TUCERYAN ET AL: "Calibration Requirements and Procedures for a Monitor-Based Augmented Reality System", 《IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS》 * |
SCOTT A. KUHL ET AL: "HMD calibration and its effects on distance judgments", 《ACM TRANSACTIONS ON APPLIED PERCEPTION (TAP)》 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106352910A (zh) * | 2015-07-13 | 2017-01-25 | 波音公司 | 无损检测设备的自动校准 |
CN105491365A (zh) * | 2015-11-25 | 2016-04-13 | 罗军 | 基于移动终端的图像处理方法、装置及*** |
CN105469684A (zh) * | 2015-11-26 | 2016-04-06 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种适用于虚拟维修试验平台的模拟工具 |
CN108475118A (zh) * | 2016-01-19 | 2018-08-31 | 泰科恩促进有限公司 | 增强现实的远程交互式***及相关方法 |
CN109195832B (zh) * | 2016-04-07 | 2022-02-08 | 西门子交通有限公司 | 位置确定*** |
CN109195832A (zh) * | 2016-04-07 | 2019-01-11 | 西门子移动有限公司 | 位置确定*** |
CN107665452A (zh) * | 2016-07-29 | 2018-02-06 | 个人优制有限公司 | 用于虚拟鞋试配的方法和*** |
CN110140100A (zh) * | 2017-01-02 | 2019-08-16 | 摩致实验室有限公司 | 三维增强现实对象用户界面功能 |
CN110140100B (zh) * | 2017-01-02 | 2020-02-28 | 摩致实验室有限公司 | 三维增强现实对象用户界面功能 |
CN110291554A (zh) * | 2017-02-03 | 2019-09-27 | 本杰明·摩尔公司 | 协助消费者选择颜色的自主*** |
CN110291554B (zh) * | 2017-02-03 | 2022-06-03 | 本杰明·摩尔公司 | 协助消费者选择颜色的自主*** |
CN107564089A (zh) * | 2017-08-10 | 2018-01-09 | 腾讯科技(深圳)有限公司 | 三维图像处理方法、装置、存储介质和计算机设备 |
CN109765992A (zh) * | 2017-11-09 | 2019-05-17 | 波音公司 | 将虚拟内容与物理环境空间配准的***、方法和工具 |
CN109765992B (zh) * | 2017-11-09 | 2024-02-23 | 波音公司 | 将虚拟内容与物理环境空间配准的***、方法和工具 |
US11443418B2 (en) | 2017-12-15 | 2022-09-13 | Oy Mapvision Ltd | Machine vision system with a computer generated virtual reference object |
CN111480050A (zh) * | 2017-12-15 | 2020-07-31 | 麦普威有限公司 | 具有计算机生成的虚拟参照物的机器视觉*** |
WO2019136588A1 (zh) * | 2018-01-09 | 2019-07-18 | 深圳前海达闼云端智能科技有限公司 | 基于云端计算的标定方法、装置、电子设备和计算机程序产品 |
CN109345560A (zh) * | 2018-09-20 | 2019-02-15 | 网易(杭州)网络有限公司 | 增强现实设备的运动跟踪精度测试方法及装置 |
CN109345560B (zh) * | 2018-09-20 | 2021-02-19 | 网易(杭州)网络有限公司 | 增强现实设备的运动跟踪精度测试方法及装置 |
CN109348209A (zh) * | 2018-10-11 | 2019-02-15 | 北京灵犀微光科技有限公司 | 增强现实显示装置和视觉标定方法 |
CN113438964A (zh) * | 2019-02-12 | 2021-09-24 | 卡特彼勒公司 | 增强现实模型对准 |
CN109920064A (zh) * | 2019-03-14 | 2019-06-21 | 烟台九田自动化科技有限公司 | 一种基于增强现实技术的模型空间位姿的精确调整方法 |
CN113646808A (zh) * | 2019-04-04 | 2021-11-12 | 中心线生物医药股份有限公司 | 空间跟踪***与增强现实显示器的配准 |
CN112836558A (zh) * | 2019-11-25 | 2021-05-25 | 杭州海康机器人技术有限公司 | 机械臂末端调整方法、装置、***、设备及介质 |
CN112836558B (zh) * | 2019-11-25 | 2024-06-28 | 杭州海康机器人股份有限公司 | 机械臂末端调整方法、装置、***、设备及介质 |
WO2021190649A1 (en) * | 2020-03-27 | 2021-09-30 | Ke.Com (Beijing) Technology Co., Ltd. | Method and device for collecting images of a scene for generating virtual reality data |
CN111162840B (zh) * | 2020-04-02 | 2020-09-29 | 北京外号信息技术有限公司 | 用于设置光通信装置周围的虚拟对象的方法和*** |
CN111162840A (zh) * | 2020-04-02 | 2020-05-15 | 北京外号信息技术有限公司 | 用于设置光通信装置周围的虚拟对象的方法和*** |
Also Published As
Publication number | Publication date |
---|---|
AU2013224660A1 (en) | 2014-05-15 |
JP2014167786A (ja) | 2014-09-11 |
BR102013027358B1 (pt) | 2022-03-29 |
RU2013148372A (ru) | 2015-05-10 |
SG2013068408A (en) | 2014-05-29 |
BR102013027358A2 (pt) | 2014-10-21 |
RU2651239C9 (ru) | 2018-08-22 |
US9508146B2 (en) | 2016-11-29 |
KR20140055975A (ko) | 2014-05-09 |
EP2728548B1 (en) | 2021-02-24 |
AU2013224660B2 (en) | 2019-03-07 |
US20140118339A1 (en) | 2014-05-01 |
CN103793936B (zh) | 2018-12-14 |
EP2728548A2 (en) | 2014-05-07 |
CA2825834C (en) | 2018-01-02 |
JP6223122B2 (ja) | 2017-11-01 |
EP2728548A3 (en) | 2017-11-08 |
KR102110123B1 (ko) | 2020-05-14 |
CA2825834A1 (en) | 2014-04-30 |
RU2651239C2 (ru) | 2018-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103793936A (zh) | 用于增强现实的自动化参考框架校准 | |
CN113485392B (zh) | 基于数字孪生的虚拟现实交互方法 | |
US11100649B2 (en) | Fiducial marker patterns, their automatic detection in images, and applications thereof | |
CN102789514B (zh) | 一种机械设备拆装3d在线诱导***的诱导方法 | |
KR20190053119A (ko) | 증강 현실 플랫폼들의 물리적 환경에 가상 콘텐츠를 공간적으로 등록하기 위한 시스템들, 방법들 및 툴들 | |
CN110243360A (zh) | 机器人在运动区域的地图构建及定位方法 | |
CN105190703A (zh) | 使用光度立体来进行3d环境建模 | |
CN101984765A (zh) | 能够导航和/或映射任何多维空间的***和方法 | |
CN103246350A (zh) | 基于感兴趣区实现辅助信息提示的人机接口设备及方法 | |
CN109540140A (zh) | 一种融合ssd目标识别和里程计信息的移动机器人定位方法 | |
CN109445599A (zh) | 交互笔检测方法及3d交互*** | |
CN113814987B (zh) | 多相机机器人手眼标定方法、装置、电子设备及存储介质 | |
CN107864510A (zh) | 一种适用于核电站核岛的室内定位方法、终端设备及存储介质 | |
Astad et al. | Vive for robotics: Rapid robot cell calibration | |
CN104260908B (zh) | 一种跨平台对地观测卫星联合演示验证*** | |
CN103034345B (zh) | 一种真实空间中的地理虚拟仿真三维鼠标笔 | |
CN113686332A (zh) | 移动机器人及其导航方法、装置、设备和存储介质 | |
Kanuganti | Optimization of the Single Point Active Alignment Method (SPAAM) with a Random Forest for accurate Visual Registration | |
CN117572399A (zh) | 一种基于Lighting house空间定位技术的位置微调算法 | |
Klug | Assistance for Measuring Human-Made Structures with Robotic Total Stations | |
CN117553697A (zh) | 一种基于led的高速摄像测量方法及舱门形变测量*** | |
Shi et al. | Design and implementation of lunar surface inspection simulation and validation system | |
Bapat | Integration of multiple vision systems and toolbox development |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |