CN113711162A - 用于混合现实应用中机器人交互的***和方法 - Google Patents
用于混合现实应用中机器人交互的***和方法 Download PDFInfo
- Publication number
- CN113711162A CN113711162A CN202080011999.3A CN202080011999A CN113711162A CN 113711162 A CN113711162 A CN 113711162A CN 202080011999 A CN202080011999 A CN 202080011999A CN 113711162 A CN113711162 A CN 113711162A
- Authority
- CN
- China
- Prior art keywords
- virtual
- robot
- world
- real
- mixed reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims description 32
- 238000000034 method Methods 0.000 title claims description 11
- 238000012545 processing Methods 0.000 claims abstract description 66
- 230000004044 response Effects 0.000 claims abstract description 18
- 230000006399 behavior Effects 0.000 claims abstract description 16
- 230000015654 memory Effects 0.000 claims abstract description 11
- 230000003068 static effect Effects 0.000 claims description 16
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000001960 triggered effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 8
- 239000011521 glass Substances 0.000 description 8
- 230000003190 augmentative effect Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
- A63F13/98—Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/803—Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/05—UAVs specially adapted for particular uses or applications for sports or gaming, e.g. drone racing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Human Computer Interaction (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Manipulator (AREA)
Abstract
本公开涉及一种用于实现混合现实***的处理装置,该处理装置包括:一个或多个处理核心;以及一个或多个存储指令的指令存储器,当所述指令由所述一个或多个处理核心执行时,使得所述一个或多个处理核心:维持一个虚拟世界,该虚拟世界至少包括与现实世界中的第一机器人对应的第一虚拟副本;生成一个或多个影响所述虚拟世界中的所述第一虚拟副本的虚拟事件;响应所述一个或多个虚拟事件生成用于控制所述第一机器人的控制信号(CTRL);并将所述控制信号(CTRL)传输至所述第一机器人,以修改所述第一机器人的行为,并提供对所述一个或多个虚拟事件的现实世界的响应。
Description
本专利申请要求于2019年1月31日提交的法国专利申请的优先权,并分配了申请号FR19/00974,其内容在此引入作为参考。
技术领域
本公开涉及机器人控制***领域,尤其涉及一种允许增强现实和混合现实应用的***。
背景技术
有人提议提供允许增强现实和混合现实应用的***。
“增强现实”对应于物理现实世界环境的直接或间接的实时视图,其元素由叠加在实时视图上的计算机生成的信息(例如视觉和音频信息)“增强”。
“混合现实”,也被称为混合现实,是将现实世界和虚拟世界融合,以产生新的环境和可视化,其中,物理和数字对象可以共存并实时交互。混合现实的名称来源于这样一个事实,即,世界既不是完全物理的,也不是完全虚拟的,而是两个世界的混合体。
然而,在提供混合现实环境中存在技术上的困难,在混合现实环境中,虚拟世界中涉及虚拟元素的事件可以与物理世界中真实对象的动态行为同步。
发明内容
本说明书的实施例的目的是至少部分地解决现有技术中的一个或多个困难。
根据一个方面,提供了一种用于实现混合现实***的处理装置,该处理装置包括:一个或多个处理核心;以及存储指令的一个或多个指令存储器,当所述指令由一个或多个处理核心执行时,使得所述一个或多个处理核心:维持一个虚拟世界,所述虚拟世界至少包括与现实世界中的第一机器人相对应的第一虚拟副本;生成影响所述虚拟世界中的所述第一虚拟副本的一个或多个虚拟事件;响应所述一个或多个虚拟事件生成用于控制所述第一机器人的控制信号;以及将所述控制信号传输至所述第一机器人,以修改所述第一机器人的行为,并对所述一个或多个虚拟事件提供现实世界的响应。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心在生成所述控制信号之前接收旨在控制所述第一机器人的用户或计算机生成的命令,其中,所述生成控制信号包括根据所述一个或多个虚拟事件修改用户或计算机生成的命令。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心将在没有虚拟事件的情况下由用户或计算机生成的命令生成的控制信号限制在第一范围,其中,向所述一个或多个虚拟事件提供现实世界的响应的所述控制信号超过所述第一范围。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心生成混合现实视频流,以被转发到显示接口,所述混合现实视频流包括来自在时间和空间上同步,并与由相机捕捉的原始视频流合并的所述虚拟世界的一个或多个虚拟特征。
根据一个实施例,所述指令使得所述一个或多个处理核心在所述混合现实视频流中生成表示由所述现实世界中的所述第一机器人的行为触发的虚拟事件的虚拟特征。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心基于由跟踪***提供的跟踪数据,连续跟踪所述第一机器人与其位置和方向相对应的六自由度坐标。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心至少基于所述第一机器人的所述跟踪数据和所述一个或多个真实静态或移动对象或其他机器人的六自由度坐标,生成所述控制信号,以确保所述第一机器人与一个或多个真实的静态或移动对象或其他机器人的非接触式交互。
一种混合现实***,包括:上述处理装置;活动区,包括所述第一机器人和在所述处理装置控制下的一个或多个其他的机器人的;跟踪***,其被配置为跟踪所述第一机器人和所述一个或多个其他的机器人的相对位置和方向。
根据一个实施例,所述第一机器人是无人机或陆基机器人。
根据一个实施例,所述混合现实***还包括一个或多个用户控制接口,用于生成用户命令的。
根据另一方面,提供了一种在混合现实***中控制一个或多个机器人的方法,该方法包括:在由一个或多个指令存储器存储的指令的控制下,由一个或多个处理核心维持一个虚拟世界,所述虚拟世界至少包括与所述现实世界中的第一机器人相对应的第一虚拟副本;生成影响虚拟世界中的所述第一虚拟副本的一个或多个虚拟事件;响应所述一个或多个虚拟事件生成用于控制第一机器人的控制信号;以及将所述控制信号传输至所述第一机器人,以修改所述第一机器人的行为,并为所述一个或多个虚拟事件提供现实世界的响应。
附图说明
上述特征和优点以及其他特征和优点将在以下通过举例而非限制的方式给出的具体实施例的描述中参照附图进行详细描述,其中:
图1是根据本公开的示例实施例的混合现实***的透视图;
图2根据示例实施例更详细的示意性示出了图1的混合现实***的计算***;
图3根据示例实施例更详细的示意性示出了图2的处理装置;
图4表示根据本公开的示例实施例的现实世界;
图5表示对应于图4的现实世界的虚拟世界;
图6示出了在生成混合现实视频图像期间的视频图像;
图7示意性地示出了根据示例实施例的用于根据命令控制机器人的控制回路;
图8示出了根据本公开的示例实施例的具有现实世界效果的虚拟世界特征的示例;
图9示出了根据本公开的示例实施例的虚拟围栏功能;以及
图10示出了根据本公开的示例实施例的机器人之间的模拟非接触碰撞功能。
具体实施方式
在本公开的内容中,术语“耦合”用于指定***元件之间的连接,该连接可以是直接的,也可以通过一个或多个中间元件,例如缓冲器、通信接口、中间网络等。
此外,在整个本说明书中,以下术语将被视为具有以下定义:
“机器人”—在某种程度上自动操作并在某种程度上受用户控制的任何机器或机械装置。例如,如下文将更详细地描述的那样,机器人在某种程度上是通过基于用户命令的无线控制接口被远程控制的。
“混合现实应用”—一种在现实世界和虚拟世界之间存在交互的应用。例如,在现实世界发生的事件被跟踪并应用到虚拟世界,而在虚拟世界中发生的事件会导致现实世界的效果。互联网网站www.drone-interactive.com提供了一些混合现实交互式视频游戏的例子。“Drone Interactive”这一名称可能对应一个或多个注册商标。虽然在下面的描述中,混合现实***的实施方案是根据互动游戏的应用实例来描述的,但是对于本领域技术人员来说显而易见的是,本文描述的***可以具有其他的应用,例如,用于机器的维护或建筑;用于探索,包括空间探索;用于制造业,例如在制造链中;用于搜索和救援,或用于培训,包括在上述任何应用的背景下的飞行员或驾驶员培训。
“虚拟副本”—虚拟世界中的虚拟元素,其与现实世界中的真实元素相对应。例如,一堵墙、一座山、一棵树或其他类型的元素可能存在于现实世界中,并且也是基于其至少一些现实世界的属性,特别是对应于其相对位置和方向的六个自由度(DoF)坐标,其3D模型或其在移动元素情况下的动态行为在虚拟世界中被定义。一些虚拟副本可能对应于移动元素,例如机器人,甚至对应于在下面更详细描述的某些特定情况下的用户。虽然静态元素的六个自由度坐标,例如,对于给定的应用来说只存储一次,但移动元素(例如机器人)的六自由度坐标则被跟踪并应用于其在虚拟世界中的虚拟副本,这将在下文中详细描述。最后,每个虚拟副本的行为模仿现实世界中相应的移动元素的行为。
图1是根据本公开的一个示例实施例的混合现实***100的透视图。图1仅示出了该***的现实世界元素,虚拟世界由下面更详细描述的计算***120维持。
***100,例如,包括任何形状和尺寸的活动区102。活动区102,例如,定义了混合现实***可以在其中运行的体积,特别是多个机器人可以在其中运行,并且在其中可以跟踪机器人的6个DoF坐标(位置和方向)。虽然在图1的示例中,活动区102限定了一个基本上是圆柱形的体积,但在其他可选的实施例中,也可以有其他的形状。活动区102的大小和形状将取决于各种因素,诸如机器人的数量和大小,机器人执行的活动类型以及来自现实世界的任何约束。
一个或多个机器人,例如,存在于活动区102内,并且可以彼此交互,与活动区中的其他移动或静态真实对象以及与虚拟世界中的虚拟元素交互。例如,活动区102定义了游戏区,其中使用了构成混合现实游戏一部分的机器人。在图1的示例中,机器人包括无人机108和模型车辆110形式的陆基机器人,尽管机器人的特定类型将取决于游戏或应用。事实上,机器人可以是能够远程控制的任何类型。机器人的数量可以是从一个到几十个不等。
活动区102内的每个机器人,例如,是至少部分可通过无线接口控制的远程控制的机器人。然而,一个或多个机器人也有可能包括有线控制线。
在此假设,活动区102内的每个机器人包括电源,例如电池,以及一个或多个致动器、马达等,用于使每个机器人的部件根据用户命令和/或在一个或多个自动控制回路的控制下移动。例如:无人机包括一个或多个可产生向前、向后、横向和/或垂直的平移的螺旋桨;模型车辆形式的陆基机器人包括用于驱动车辆的一个或多个车轮的电机和用于操纵车辆的某些车轮的一个或多个致动器。当然,用于移动机器人的具体类型的电机或致动器将取决于机器人的类型及其被设计所执行的操作类型。
计算***120,例如,被配置为跟踪现实世界中(在活动区102内)的活动,同时还维持虚拟世界,并且合并现实世界和虚拟世界,以便为一个或多个用户和/或观众提供混合现实体验,这一点现在将被更详细地描述。
混合现实***100,例如,包括跟踪***112,其能够跟踪机器人的相对位置和方向(六自由度坐标),并且在某些情况下还跟踪活动区102内的其他移动或静态对象。例如,以相对较高的精度跟踪位置信息,例如,精度为1cm或更小,而方向的测量精度为1度或更低。事实上,该***用于准确同步现实世界和虚拟世界并在它们之间建立互动的整体性能将在一定程度上取决于跟踪数据的准确性。在一些实施例中,机器人具有六个自由度,三个是平移分量,三个是旋转分量,并且跟踪***112能够跟踪它们中的每一个相对于这六个自由度的位置和方向。
在一些实施例中,每个机器人可以包括多个主动或被动标记(未示出),这些标记可以被跟踪***112检测到。跟踪***112的发射器,例如发射红外光,以及可以集成在光发射器中的照相机,例如,根据这些标记反射的光检测机器人的六自由度坐标。例如,每个被跟踪的对象(包括机器人)都有一个独特的标记图案,该图案允许它在其他被跟踪的对象中被识别,并确定其方向。此外,跟踪***112可以包括一个或多个发射器,其以不可见光的波长向活动区102发射光线。有许多不同的跟踪***是基于这种类型的跟踪技术,一个例子是以“Optitrack”(名称“Optitrack”可能对应于注册商标)的名称销售的跟踪***。
在进一步的实施例中,光是以光束的形式出现的,并且机器人包括光捕获元件(未示出),该元件在机器人穿过光束时进行检测,通过识别光束,可以估计出机器人的六自由度坐标。这样的***,例如,是由HTC公司以Lighthouse的名称销售的(HTC和Lighthouse可能对应于注册商标)。
机器人也有可能包括机载跟踪***,例如,基于惯性测量单元或任何其他定位装置,允许机器人检测它们的六自由度坐标(位置和方向),并将该信息传递给计算***120。
在进一步的实施例中,可以使用不同类型的跟踪***,例如,基于UWB(超宽带)模块的***,或基于可视相机的***,其中,图像处理被用于执行对象识别和检测机器人的六自由度坐标(位置和方向)。
计算***120,例如,从跟踪***112接收信息,实时指示活动区102中每个被跟踪对象(包括机器人)的六自由度坐标(位置和方向)。根据跟踪***的类型,该信息可以通过有线连接和/或无线接口接收。
混合现实***100包括用于捕获活动区的实时(流)视频图像的摄像机,这些图像被处理以创建混合现实视频流,以显示给用户和/或观众。例如,混合现实***100包括位于活动区102内部或外部的一个或多个固定摄像机114和/或安装在一些或所有机器人上的一个或多个摄像机116。一个或多个固定摄像机114或机器人摄像机116,例如,是平移和倾斜摄像机,或平移变焦(PTZ)摄像机。在活动区102外部的相机114的情况下,它可以被布置为捕获整个区域102,提供混合现实场景的全局视图。
由摄像机114和/或116捕获的视频流,例如,可以无线传输到计算***120,尽管对于某些摄像机,例如固定摄像机114,可以使用有线连接。
计算***120,例如,能够与活动区102内的机器人进行无线通信。例如,计算***120包括,对于每个机器人,机器人控制接口,其具有一根或多根天线122,以允许向机器人无线传输控制信号;和机器人视频接口,其具有一根或多根天线123,以允许无线接收机器人摄像机116的视频流。虽然图1中示出了单根天线122和单根天线123,但是,例如,每个天线的数量等于机器人的数量。
计算***120,例如,是一个中央***,通过该***可以控制活动区102中的所有机器人,管理现实世界和虚拟世界之间的所有交互,并且执行所有视频处理,以创建混合现实视频流。或者,计算***120可以由分布在不同位置的若干单元组成。
用户接口例如,允许用户控制一个或多个机器人和/或允许用户或观众通过观看活动区102的混合现实图像沉浸在混合现实游戏或应用中。例如,提供一个或多个控制接口125,包括,例如,操纵杆126、手持游戏控制器128,和/或方向盘130,尽管可以使用任何类型的控制接口。控制接口125,例如,通过有线连接连接到计算机***120,尽管在替代实施例中可以使用无线连接。此外,为了允许用户和/或观众通过观看活动区102的混合现实图像而沉浸在混合现实游戏或应用中,提供了一个或多个显示接口132,例如虚拟现实(VR)眼镜或视频眼镜136,和/或显示屏138,和/或透视增强现实(AR)眼镜134,尽管可以使用任何类型的显示器。在一些实施例中,向每个用户提供音频流。例如,头戴式眼镜134和136配备有耳机。此外或替代地,扬声器140可以向用户和/或观众提供音频。显示接口132,例如,通过有线连接连接到计算机***120,尽管在替代的实施例中可以使用无线连接。
活动区102,例如,包括,除了机器人之外,一个或多个在虚拟世界中具有虚拟副本的另外的静态或移动对象。例如,在图1中,墙142和气球143分别是在虚拟世界中被复制的静态和移动对象。也可以有任何其他对象,例如,静态或移动的场景特征、装饰物、球、钟摆、门、摆动的门/窗等。这些对象的六自由度坐标(位置和方向)可以被跟踪***112跟踪。如下文所述,机器人与墙142和/或气球143和/或任何其他对象之间可能存在交互,这可能导致计算***120在虚拟世界中生成虚拟事件,也可能在现实世界中产生物理反应。当然,任何类型的固定或移动对象都可以出现在活动区102中并复制到虚拟世界中。在一些实施例中,活动区102内的所有真实元素,无论是移动的还是固定的,都具有虚拟副本。这允许计算***120存储或跟踪这些真实元素的六自由度坐标(位置和方向),从而允许,例如,避免机器人与这些对象的碰撞。
在一些实施例中,用户可以与活动区102中的机器人直接交互。例如,图1示出了活动区102中的用户佩戴着透明的增强现实(AR)眼镜134,其允许直接查看的活动区102的混合现实图像。跟踪***112,例如,能够跟踪AR眼镜134的六自由度坐标(位置和方向),例如,基于固定在AR眼镜134的标记。从而可以生成适当的混合现实图像,并将其提供给AR眼镜134的显示屏。
在一些情况下,一个或多个用户可以以不同于使用上述控制接口125之一(游戏控制器、操纵杆等)的方式与一个或多个机器人进行交互。例如,活动区102中的用户可以使用棒144或任何其他实体对象直接与机器人交互。跟踪***112,例如,跟踪棒144的运动,而计算***120,例如,作为这些运动的函数控制机器人。例如,一个或多个无人机可以被棒144击退,或者被引导到棒144所指示的区域,尽管可以设想任何类型的交互。
图2更详细的示意性地说明了图1的混合现实***的计算***120的架构的示例。
***120,例如,包括由一台或多台联网计算机实现的处理装置(处理装置)202。处理装置202,例如,包括指令存储器(指令存储器)204和一个或多个处理核心(一个或多个处理核心)206。处理装置202,例如,还包括存储存储器(存储存储器)208,存储由处理核心206处理的数据,这将在下文中详细描述。
处理装置202,例如,从一个或多个控制接口(一个或多个控制接口)125接收用户命令(CMD)。用户命令对应于用户对机器人的期望控制,例如,指示机器人的期望位移和/或其他期望行为。此外,用户命令还可以对应于任何用户在混合现实游戏或应用中的任何期望的触发动作。在一些实施例中,处理装置202生成反馈信号FB,该信号被送回控制接口125。这些反馈信号,例如,使用户接口125响应于混合现实游戏或应用中的事件而振动,或提供其他形式的反馈响应(触觉反馈或其他)。
计算***120,例如,包括机器人摄像机接口(机器人摄像机接口)210,该接口无线的接收来自一个或多个机器人的机器人相机116的原始视频流(原始视频流),并将这些原始视频流传输到处理装置202。此外,计算***120,例如,包括机器人控制接口(机器人控制接口)212,其从处理装置202接收机器人控制信号(CTRL)并将这些控制信号无线传输到一个或多个机器人。计算***120,例如,包括固定摄像机接口(固定摄像机接口)214,其通过无线或有线接口接收来自固定摄像机114的原始视频流,并将这些原始视频流传输到处理装置202。虽然在图2中未示出,但处理装置202也可生成控制信号,用于控制固定摄像机114和/或机器人摄像机116的平移、倾斜和/或变焦。
处理装置202,例如,修改从固定摄像机114和/或机器人摄像机116接收的原始视频流,以生成混合现实视频流(混合现实视频流),并且在某些情况下(未示出)生成音频流,其被传输到显示接口(显示接口)132。
处理装置202,例如,还从跟踪***(跟踪***)112接收对应于所有被跟踪对象(机器人和静态/移动对象)的六自由度坐标(位置和方向)的跟踪数据(跟踪数据)。
图3更详细的示意性地示出了图2中的处理装置202的功能,并且特别是表示了在处理装置202中通过软件加载到指令存储器204,并由处理核心206执行来实现软件模块的例子。当然,处理装置202可以有多种实现方式,一些功能可以通过硬件实现,也可以通过软件和硬件混合实现。
处理装置202,例如,实现混合现实模块(混合现实模块)302,包括显示模块(显示模块)304和真实-虚拟交互引擎(真实-虚拟交互引擎)305。处理装置202,例如,还包括:存储在存储存储器208中的数据库(数据库)306、机器人控制模块(机器人控制模块)310以及在一些情况下的人工智能模块(人工智能模块)309。
混合现实模块302从用户接口(用户接口)的控制接口(控制接口)125接收用于控制相应机器人的用户命令(CMD),并且在一些实施例中生成反馈信号FB发送回至这些控制接口125。此外或替代地,一个或多个机器人可由人工智能模块309生成并由混合现实模块302接收的命令(CMD_AI)控制。
数据库306,例如,存储以下一项或多项:
-机器人数据,至少包括每个机器人的3D模型和动态模型,分别表示机器人的3D形状和动态行为;
-真实对象数据,至少包括活动区102中每个静态/移动真实对象的3D模型,以及静态对象的永久六自由度坐标(位置和方向);
-混合现实应用数据,包括,例如,虚拟世界中包含的每个虚拟元素的3D模型、平视显示器(HUD)数据、特效(FX)数据、取决于应用的一些特定规则,以及在视频游戏的情况下的游戏数据;
-摄像机数据,至少,包括每个摄像机(固定摄像机114和机器人摄像机116)的内在和外在参数,以及对于固定摄像机,它们的永久六自由度坐标(位置和方向)。
混合现实模块302构建和维持虚拟世界,该虚拟世界由所有虚拟元素组成,包括机器人的虚拟副本和活动区102中的静态/移动真实对象。特别是,真实-虚拟交互引擎305从跟踪***112接收跟踪数据(跟踪数据),并使用存储在数据库306中的数据来确保真实元素(机器人和活动区102中的静态/移动真实对象)和它们在虚拟世界中的相应虚拟副本之间的六自由度坐标(位置和方向)同步。
引擎305,例如,还基于初始用户命令(CMD)或人工智能生成的命令(CMD_AI)以及与一个或多个机器人相关的真实虚拟交互来生成用于控制一个或多个机器人的修改的命令信号CMD'。例如,这些真实-虚拟交互是根据混合现实应用中发生的事件和/或取决于应用,根据数据库306中的其他特定规则,作为机器人被跟踪的六自由度坐标(位置和方向)、来自数据库306的机器人数据(包括机器人动态模型)的函数生成的。在视频游戏的情况下,这些规则可以在游戏玩法数据中定义。引擎305,例如,还实施了防碰撞程序,以防止机器人本身之间和/或任何机器人与活动区102中的另一个真实对象之间的碰撞,以及在某些情况下任何机器人与虚拟世界中的虚拟元素之间的碰撞。下面将参考图8、图9和图10描述真实-虚拟交互的一些示例。
显示模块304,例如,基于来自固定摄像机114和/或机器人摄像机116的原始视频流生成混合现实视频流,并在合并由真实-虚拟交互引擎305生成的虚拟特征(例如,一个或多个虚拟元素的视图、平视显示数据、视觉特效等)之后,将其传送到相应的显示接口132。例如,由真实-虚拟交互引擎305产生的虚拟特征在时间和空间上是同步的,并与原始视频流合并。例如,混合现实应用中一个或多个虚拟元素的视图被呈现在显示界面上,其位置和方向取决于相应的固定或机器人摄像机114/116的视场和六自由度坐标(位置和方向)。
机器人控制模块310,例如,接收由真实-虚拟交互引擎305生成的修改的命令信号CMD',并基于这些命令信号生成一个或多个控制信号CTRL,以控制多个机器人中的一个(机器人控制接口),下面将结合图7更详细地描述。
现在将参考图4、图5和图6(A)至图6(E)更详细地描述混合现实模块302的操作。
图4是活动区400的透视现实世界视图。在图4的示例中,活动区400包括静态墙402和两个机器人,它们是两个无人机404和406。此外,活动区400的背景包括带有印刷图形的背景墙409。无人机404具有,例如,具有视场407的摄像机116。在该示例中,摄像机116刚性附接在无人机上,但是在替代实施例中,摄像机116可以是平移和倾斜的摄像机或PTZ摄像机。
图5是对应于图4的活动区400的虚拟世界500的透视图,同时也是图4的实例。该虚拟世界包括虚拟副本402'、404'和406,分别对应于真实墙402和真实无人机404和406。虚拟副本402'、404'和406'在虚拟世界中的位置和方向与真实墙402和真实无人机404和406在现实世界中的位置和方向相同,并且,例如,可以由混合现实模块302根据由跟踪***112提供的无人机404和406的六自由度坐标以及存储在数据库306中的真实墙402的六自由度坐标来确定。以同样的方式,无人机404的虚拟副本404'具有虚拟摄像机116',其具有与真实无人机404的视场407相对应的虚拟视场407'。在图5的示例中,虚拟世界中没有背景。虚拟世界500还包括一些纯粹的虚拟元素,特别是飞龙408'、在无人机404的虚拟副本404'和龙尾之间的虚拟***410',以及在龙尾和墙402的虚拟复制品402'的边缘之间的虚拟***412'。
显示模块304通过将由真实无人机404的摄像机116捕获的现实世界的原始视频流与对应于无人机404的虚拟副本404'的虚拟摄像机116'的视点的虚拟世界的虚拟图像合并而生成混合现实视频流,现在将参考图6(A)至6(E)更详细地描述。
图6(A)是从无人机404的摄像机116在与图4和5相同的时间实例中捕获的原始视频流中提取的真实图像。通过对应于视场407,该图像包括无人机406、墙402的一部分和活动区的背景409的一部分。该图像,例如,由混合现实模块302的显示模块304通过图2的机器人摄像机接口210从无人机404的摄像机116接收。
图6(B)示出了与图4和图5相同的时间实例中,对应于无人机404的虚拟副本的虚拟摄像机116'的视点的计算机生成的图像。该图像包括龙408'的一部分、***410'的一部分以及墙402和无人机406的虚拟副本402'和406'的一部分。该图像,例如,还包括,在前景中的平视显示器(HUD)602'根据混合现实应用指示,例如,玩家的得分和/或其他信息。在本实施例中,图像由以下平面构成:
-第一平面:HUD602';
-第二平面:***410';
-第三平面:龙408'的尾部;
-第四平面:墙的虚拟副本402';
-第五平面:龙408'的翼;
-第六平面:无人机的虚拟副本406';
-第七平面:龙408'的首;
-背景平面:空的,如图6B中的点划线所示。
图6(C)示出了由显示模块304从图6(B)的图像生成的图像掩码的示例,其中,图6(A)的真实图像中要在最终图像中保持的区域(背景和虚拟副本的可见部分)用对角线条纹表示,而要被图6(B)的纯虚拟元素的可见部分替换的区域则用白色表示。
图6(D)显示了图6(A)的图像在应用了图6(C)的图像遮罩后的情况。将添加虚拟元素的区域的轮廓用虚线表示。
图6(E)表示构成混合现实视频流一部分的最终图像,并与图6(D)的图像相对应,图6(B)的虚拟元素已经被合并在该图像上。在该示例中,最终图像包括无人机406、墙402和背景409的原始视频图像与纯虚拟元素408'、410'和602'的合并。这种合并是在考虑到图像的各个平面之间可能出现的遮挡的情况下进行的。
在一些实施例中,显示模块304为正在被处理的原始视频流的每个图像生成类似于图6(C)的图像掩码,其被应用于原始视频流的相应图像。真实-虚拟交互引擎305,例如,还向显示模块304提供包括要与真实图像合并的虚拟元素的图像,类似于图6(B)的示例,并且显示模块304,例如,合并这些图像以生成类似于图6(E)的最终图像。
显示模块304,例如,以类似于图6(A)至6(E)的示例的方式处理从机器人/固定摄像机116/114接收的每个原始视频流,以便生成相应的混合现实视频流到每个显示接口。
图6被用于说明可用于生成混合现实图像的原理,对于本领域技术人员来说显而易见的是,这些原理的实现可以采用各种形式。
图7示意性地示出了用于控制机器人的控制回路700,例如,图1的无人机108,根据一个示例性实施方案,使用图3的真实-虚拟交互引擎(真实-虚拟交互引擎)305和机器人来控制模块310。
如图7所示,用户命令(CMD)或人工智能生成的命令(CMD_AI)由真实-虚拟交互引擎305接收,并通过考虑在混合现实应用中发生的事件和/或其他特定规则,例如防碰撞例程,进行处理,以生成修改的命令CMD',该命令被提供给机器人控制模块310。
机器人控制模块310,例如,包括传递函数模块701,其将每个修改的命令CMD'转换成期望的机器人状态(期望状态),包括机器人的期望的六自由度坐标(位置和方向)。该模块310还包括减法模块702,该减法模块702基于由跟踪***112提供的跟踪数据(跟踪数据)连续地计算错误状态值(错误状态值)作为期望机器人状态和由另一传递函数模块703产生的测量机器人状态(测量状态)之间的差错误状态值被提供给控制器(控制器)704,其,例如,使用来自数据库306的机器人动态模型(机器人动态模型),并旨在生成使该错差状态值最小的控制信号CTRL。生成的控制信号CTRL,例如,通过机器人控制接口以无线方式传输给机器人108。
现在将通过参考图8至图10的几个示例更详细地描述真实-虚拟交互引擎305对命令信号CMD的修改。这些图例示出了控制无人机802的示例。然而,对于本领域技术人员来说显而易见的是,这些原理可以应用于其他类型的机器人。
图8(A)说明了第一个示例,其中,无人机802飞向虚拟的助推区804',例如,该区域仅作为虚拟世界中的虚拟元素存在。推力计806'与无人机802相关联地示出,并以阴影条表示在给定时间内应用于无人机的推力水平。该推力计806'是为了帮助理解真实-虚拟交互引擎305的操作而呈现的,这种虚拟推力计取决于在混合现实应用可以或可以不显示给用户,例如,作为HUD的一部分。
图8(A)的顶部显示了推力计806'的放大版本。可以看出,这个量具分为四个部分。中心点对应于零推力(0),其左侧的区域对应于施加给无人机802的反向推力,而其右侧的区域对应于施加给无人机802的正向推力。部分808涵盖了从零到用户命令的极限CMD_MAX的向前推力范围,部分810涵盖了从零到用户命令的极限-CMD_MAX的反向推力范围。部分812涵盖了从CMD_MAX到更高水平CMD_MAX'的向前推力范围,而部分814涵盖从-CMD_MAX到水平-CMD_MAX'的反向推力范围。例如,水平CMD_MAX'和–CMD_MAX'对应于无人机在推力方面的实际极限。因此,部分812和部分814为真实-虚拟交互引擎305增加了灵活性,使其能够超过正常的用户命令限制,以增加现实世界的效果来响应虚拟事件,这将在下文中详细描述。在一些实施例中,在机器人内应用于产生由命令CMD_MAX'产生的推力的功率比在机器人内应用于产生由命令CMD_MAX产生的推力的功率至少大50%。
在图8(A)的示例中,推力计806'指示低于水平CMD_MAX的向前推力,该推力,例如,仅由用户命令CMD对无人机802产生。因此,无人机以中等速度向区域804'移动,如箭头816所示。
图8(B)示出了稍后到达虚拟助推区804'时的无人机802。真实-虚拟交互引擎305检测到无人机802在该区域804'中的存在,并因此将推力增加到CMD_MAX和CMD_MAX'之间的提升水平,如推力计806'所指示的。如箭头818所示,无人机802的速度,例如,因此增加到高水平。例如,真实-虚拟交互引擎305根据用户命令CMD确定新的推力,增加一定的百分比,例如100%。
图9说明了基于虚拟墙902'的虚拟围栏功能的示例。
图9(A)对应于第一时间实例,其中,无人机802正朝着虚拟墙902'移动,例如,以用户命令的最大推力CMD_MAX,导致相对较高的速度。
图9(B)说明了刚刚发生碰撞后的情况。当无人机802到达距墙902'给定距离的点时,真实-虚拟交互引擎305,例如,通过向无人机802施加最大反推力-CMD_MAX'模拟碰撞,以模拟从墙壁902'的反弹。作为响应,无人机802,例如,快速减速至停止,然后开始倒车,例如,从未经过虚拟墙902'。同时,在虚拟世界中可以生成虚拟***904',以便向用户/观众提供一些虚拟碰撞的视觉反馈。
虽然在图9的示例中,墙902'是纯虚拟的,但可以使用相同的方法来避免与活动区102中的真实物体发生碰撞。
图10说明了两个无人机之间模拟的非接触式碰撞的示例。
图10(A)对应于第一时间实例,其中,无人机802在前进方向上以相对较低的速度移动,而另一个无人机1002以最大推力CMD_MAX,并因此以相对较高的速度朝无人机802的同一方向移动。
图10(B)说明了无人机802和1002之间模拟的非接触碰撞之后的情况。例如,当无人机1002到达距无人机802一定距离时,真实-虚拟交互引擎305通过向无人机1002施加高的反向推力来模拟碰撞,如推力计1004'所表示的,例如,在极限CMD_MAX和-CMD-MAX'之间,以模拟碰撞后的反弹。真实-虚拟交互引擎305,例如,还增加了无人机802的推力,例如,增加到最大向前推力CMD_MAX',以模拟无人机802被从后面强力推动。同时,可以在虚拟世界中生成虚拟***1006',以便向用户/观众提供一些非接触式碰撞的视觉反馈。
在一些情况下,真实-虚拟交互引擎305也可以模拟碰撞后对机器人的损坏,例如,通过将任何用户命令CMD减少一定百分比来模拟推力的损失。
本文描述的实施例的一个优点是,它们允许实现混合现实***,其中,虚拟世界中的事件可用于在现实世界中生成响应。这是通过由真实-虚拟交互引擎305生成修改过的机器人命令来实现的,以在现实世界中创建特定机器人行为。例如,这允许在现实世界中相对密切地模拟虚拟事件,从而带来特别逼真的用户体验。
这样描述了至少一个说明性的实施例后,本领域技术人员将容易想到各种改变、修改和改进。例如,对于本领域技术人员显而易见的是,本文所述的计算***的各种功能可以完全以软件或至少部分以硬件来实现。
此外,对于本领域技术人员来说显而易见的是,在替代性的实施例中,与各种实施例有关的各种特征可以以任何方式组合。
Claims (14)
1.一种用于实现混合现实***的处理装置,该处理装置包括:
一个或多个处理核心(206);和
一个或多个存储指令的指令存储器(204),当所述指令由所述一个或多个处理核心执行时,使得所述一个或多个处理核心:
-维持一个虚拟世界,所述虚拟世界至少包括与现实世界中的第一机器人相对应的第一虚拟副本;
-生成影响所述虚拟世界中的所述第一虚拟副本的一个或多个虚拟事件;
-响应所述一个或多个虚拟事件生成用于控制所述第一机器人的控制信号(CTRL);以及
-将所述控制信号(CTRL)传输至所述第一机器人,以修改所述第一机器人的行为,并为所述一个或多个虚拟事件提供现实世界的响应。
2.根据权利要求1所述的处理装置,其中,所述指令进一步使得所述一个或多个处理核心(206)在生成所述控制信号(CTRL)之前接收旨在控制所述第一机器人的用户命令,其中,生成所述控制信号(CTRL)包括基于所述一个或多个虚拟事件修改所述用户命令。
3.根据权利要求2所述的处理装置,其中,所述虚拟世界进一步包括与所述现实世界中的第二机器人相对应的第二虚拟副本,并且,其中所述指令还使得所述一个或多个处理核心(206):
-生成影响所述虚拟世界中的第二虚拟副本的一个或多个进一步的虚拟事件;
-接收计算机生成的旨在控制所述第二机器人的命令;
-基于所述一个或多个进一步的虚拟事件,通过修改所述计算机生成的命令来生成进一步的控制信号(CTRL);以及
-将所述进一步的控制信号(CTRL)传输至所述第二机器人,以修改所述第二机器人的行为,并提供对所述一个或多个进一步的虚拟事件的现实世界的响应。
4.根据权利要求2或3所述的处理装置,其中,所述指令进一步使得所述一个或多个处理核心(206)在没有虚拟事件的情况下将由用户或计算机生成的命令生成的控制信号限制在第一范围(-CMD_MAX,CMD_MAX),其中,向所述一个或多个虚拟事件提供现实世界的响应的所述控制信号超过所述第一范围。
5.根据权利要求1至3中任一项所述的处理装置,其中,所述指令进一步使得所述一个或多个处理核心(206)生成混合现实视频流,以被转发到显示接口(132),所述混合现实视频流包括来自在时间和空间上同步,并与由相机(114、116)捕捉的原始视频流合并的所述虚拟世界的一个或多个虚拟特征。
6.根据权利要求4所述的处理装置,其中,所述指令使得所述一个或多个处理核心(206)在所述混合现实视频流中生成表示由所述现实世界中的所述第一机器人的行为触发的虚拟事件的虚拟特征(410'、904'、1006')。
7.根据权利要求1至5中任一项所述的处理装置,其中,所述指令进一步使得所述一个或多个处理核心(206)基于由跟踪***(112)提供的跟踪数据,连续跟踪所述第一机器人与其位置和方向相对应的六自由度坐标。
8.根据权利要求6所述的处理装置,其中,所述指令进一步使所述一个或多个处理核心(206)至少基于所述第一机器人的所述跟踪数据和所述一个或多个真实静态或移动对象或其他机器人的六自由度坐标,生成所述控制信号(CTRL),以确保所述第一机器人与一个或多个真实的静态或移动对象或其他机器人的非接触式交互。
9.一种混合现实***,包括:
-权利要求1至7中任一项所述的处理装置;
-活动区(102),包括所述第一机器人和在所述处理装置控制下的一个或多个其他的机器人;以及
-跟踪***(112),其被配置为跟踪所述第一机器人和所述一个或多个其他的机器人的相对位置和方向。
10.根据权利要求8所述的混合现实***,其中,所述第一机器人是无人机(108)或陆基机器人(110)。
11.根据权利要求8或9所述的混合现实***,还包括一个或多个用户控制接口(125),用于生成用户命令(CMD)。
12.一种在混合现实***中控制一个或多个机器人的方法,该方法包括:
-在由一个或多个指令存储器(204)存储的指令的控制下,由一个或多个处理核心(206)维持一个虚拟世界,所述虚拟世界至少包括与所述现实世界中的第一机器人相对应的第一虚拟副本;
-生成影响虚拟世界中的所述第一虚拟副本的一个或多个虚拟事件;
-响应所述一个或多个虚拟事件生成用于控制第一机器人的控制信号(CTRL);以及
-将所述控制信号(CTRL)传输至所述第一机器人,以修改所述第一机器人的行为,并为所述一个或多个虚拟事件提供现实世界的响应。
13.根据权利要求12所述的方法,还包括:
-在生成所述控制信号(CTRL)之前,由所述一个或多个处理核心(206)接收旨在控制所述第一机器人的用户命令,其中,生成所述控制信号(CTRL)包括基于所述一个或多个虚拟事件修改所述用户命令。
14.根据权利要求13所述的方法,其中,所述虚拟世界进一步包括与所述现实世界中的第二机器人相对应的第二虚拟副本,该方法进一步包括:
-生成影响所述虚拟世界中的第二虚拟副本的一个或多个进一步的虚拟事件;
-接收计算机生成的旨在控制所述第二机器人的命令;
-基于影响所述第二虚拟副本的一个或多个进一步的虚拟事件,通过修改所述计算机生成的命令来生成进一步的控制信号(CTRL);以及
-将所述进一步的控制信号(CTRL)传输至所述第二机器人,以修改所述第二机器人的行为,并提供对所述一个或多个进一步的虚拟事件的现实世界的响应。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1900974A FR3092416B1 (fr) | 2019-01-31 | 2019-01-31 | Système et procédé d’interaction avec des robots dans des applications de réalité mixte |
FR1900974 | 2019-01-31 | ||
PCT/EP2020/052321 WO2020157215A1 (en) | 2019-01-31 | 2020-01-30 | System and method for robot interactions in mixed reality applications |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113711162A true CN113711162A (zh) | 2021-11-26 |
Family
ID=67660182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080011999.3A Pending CN113711162A (zh) | 2019-01-31 | 2020-01-30 | 用于混合现实应用中机器人交互的***和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220083055A1 (zh) |
EP (1) | EP3918447A1 (zh) |
CN (1) | CN113711162A (zh) |
FR (1) | FR3092416B1 (zh) |
WO (1) | WO2020157215A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12028507B2 (en) * | 2021-03-11 | 2024-07-02 | Quintar, Inc. | Augmented reality system with remote presentation including 3D graphics extending beyond frame |
CN113485392B (zh) * | 2021-06-17 | 2022-04-08 | 广东工业大学 | 基于数字孪生的虚拟现实交互方法 |
CN114180040B (zh) * | 2021-12-09 | 2023-01-06 | 华南理工大学 | 一种仿龙形飞行器 |
CN116679830A (zh) * | 2023-06-05 | 2023-09-01 | 苏州萤火空间科技有限公司 | 一种用于混合现实的人机交互***、方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105188516A (zh) * | 2013-03-11 | 2015-12-23 | 奇跃公司 | 用于增强和虚拟现实的***与方法 |
US20160054837A1 (en) * | 2014-08-19 | 2016-02-25 | Sony Computer Entertainment America Inc. | Systems and methods for providing feedback to a user while interacting with content |
US20160349835A1 (en) * | 2015-05-28 | 2016-12-01 | Microsoft Technology Licensing, Llc | Autonomous drones for tactile feedback in immersive virtual reality |
Family Cites Families (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7343232B2 (en) * | 2003-06-20 | 2008-03-11 | Geneva Aerospace | Vehicle control system including related methods and components |
US20160267720A1 (en) * | 2004-01-30 | 2016-09-15 | Electronic Scripting Products, Inc. | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience |
US8139108B2 (en) * | 2007-01-31 | 2012-03-20 | Caterpillar Inc. | Simulation system implementing real-time machine data |
US8831780B2 (en) * | 2012-07-05 | 2014-09-09 | Stanislav Zelivinski | System and method for creating virtual presence |
US9798322B2 (en) * | 2014-06-19 | 2017-10-24 | Skydio, Inc. | Virtual camera interface and other user interaction paradigms for a flying digital assistant |
WO2016032807A1 (en) * | 2014-08-25 | 2016-03-03 | Google Inc. | Methods and systems for augmented reality to display virtual representations of robotic device actions |
US20170243403A1 (en) * | 2014-11-11 | 2017-08-24 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
US10546424B2 (en) * | 2015-04-15 | 2020-01-28 | Google Llc | Layered content delivery for virtual and augmented reality experiences |
EP3321773B1 (en) * | 2015-07-08 | 2022-12-14 | Sony Group Corporation | Information processing device, display device, information processing method, and program |
US10399225B2 (en) * | 2015-07-08 | 2019-09-03 | Stephen Favis | Biomimetic humanoid robotic model, control system, and simulation process |
US20170250930A1 (en) * | 2016-02-29 | 2017-08-31 | Outbrain Inc. | Interactive content recommendation personalization assistant |
US10325610B2 (en) * | 2016-03-30 | 2019-06-18 | Microsoft Technology Licensing, Llc | Adaptive audio rendering |
US20170286572A1 (en) * | 2016-03-31 | 2017-10-05 | General Electric Company | Digital twin of twinned physical system |
US20170289202A1 (en) * | 2016-03-31 | 2017-10-05 | Microsoft Technology Licensing, Llc | Interactive online music experience |
US11577159B2 (en) * | 2016-05-26 | 2023-02-14 | Electronic Scripting Products Inc. | Realistic virtual/augmented/mixed reality viewing and interactions |
WO2017218384A1 (en) * | 2016-06-13 | 2017-12-21 | Wal-Mart Stores, Inc. | Virtual reality shopping systems and methods |
CA3031769A1 (en) * | 2016-08-04 | 2018-02-08 | Fairwayiq, Inc. | System and method for managing and interacting with spectators at an activity venue |
US20180047093A1 (en) * | 2016-08-09 | 2018-02-15 | Wal-Mart Stores, Inc. | Self-service virtual store system |
US20180060948A1 (en) * | 2016-08-24 | 2018-03-01 | Wal-Mart Stores, Inc. | Apparatus and method for providing a virtual shopping environment |
US10416669B2 (en) * | 2016-09-30 | 2019-09-17 | Sony Interactive Entertainment Inc. | Mechanical effects by way of software or real world engagement |
US10269177B2 (en) * | 2016-10-06 | 2019-04-23 | Google Llc | Headset removal in virtual, augmented, and mixed reality using an eye gaze database |
US10332317B2 (en) * | 2016-10-25 | 2019-06-25 | Microsoft Technology Licensing, Llc | Virtual reality and cross-device experiences |
US20180151000A1 (en) * | 2016-11-27 | 2018-05-31 | Cix Liv | Deployable mixed and virtual reality environment system and method |
KR102553190B1 (ko) * | 2016-12-29 | 2023-07-07 | 매직 립, 인코포레이티드 | 외부 조건들에 기초한 웨어러블 디스플레이 디바이스의 자동 제어 |
US20200098185A1 (en) * | 2017-01-17 | 2020-03-26 | Pravaedi Llc | Virtual reality training device |
US20180210442A1 (en) * | 2017-01-23 | 2018-07-26 | Qualcomm Incorporated | Systems and methods for controlling a vehicle using a mobile device |
US10877470B2 (en) * | 2017-01-26 | 2020-12-29 | Honeywell International Inc. | Integrated digital twin for an industrial facility |
US20180231973A1 (en) * | 2017-02-16 | 2018-08-16 | Wal-Mart Stores, Inc. | System and Methods for a Virtual Reality Showroom with Autonomous Storage and Retrieval |
CN108664037B (zh) * | 2017-03-28 | 2023-04-07 | 精工爱普生株式会社 | 头部佩戴型显示装置以及无人机的操纵方法 |
US10967255B2 (en) * | 2017-05-26 | 2021-04-06 | Brandon Rosado | Virtual reality system for facilitating participation in events |
EP3635538A4 (en) * | 2017-06-05 | 2021-03-10 | Umajin Inc. | PROCEDURES AND SYSTEMS FOR AN APPLICATION SYSTEM |
US10639557B2 (en) * | 2017-06-22 | 2020-05-05 | Jntvr Llc | Synchronized motion simulation for virtual reality |
US10803663B2 (en) * | 2017-08-02 | 2020-10-13 | Google Llc | Depth sensor aided estimation of virtual reality environment boundaries |
US20190065028A1 (en) * | 2017-08-31 | 2019-02-28 | Jedium Inc. | Agent-based platform for the development of multi-user virtual reality environments |
US20190102494A1 (en) * | 2017-10-03 | 2019-04-04 | Endurica, LLC | System for tracking incremental damage accumulation |
US20190102709A1 (en) * | 2017-10-03 | 2019-04-04 | Invight, Inc. | Systems and methods for coordinating venue systems and messaging control |
US10678238B2 (en) * | 2017-12-20 | 2020-06-09 | Intel IP Corporation | Modified-reality device and method for operating a modified-reality device |
US10751877B2 (en) * | 2017-12-31 | 2020-08-25 | Abb Schweiz Ag | Industrial robot training using mixed reality |
US11487350B2 (en) * | 2018-01-02 | 2022-11-01 | General Electric Company | Dynamically representing a changing environment over a communications channel |
US10679412B2 (en) * | 2018-01-17 | 2020-06-09 | Unchartedvr Inc. | Virtual experience monitoring mechanism |
US10565764B2 (en) * | 2018-04-09 | 2020-02-18 | At&T Intellectual Property I, L.P. | Collaborative augmented reality system |
US10755007B2 (en) * | 2018-05-17 | 2020-08-25 | Toyota Jidosha Kabushiki Kaisha | Mixed reality simulation system for testing vehicle control system designs |
US20190354099A1 (en) * | 2018-05-18 | 2019-11-21 | Qualcomm Incorporated | Augmenting a robotic vehicle with virtual features |
CN110531846B (zh) * | 2018-05-24 | 2023-05-23 | 卡兰控股有限公司 | 在实时3d虚拟世界代表真实世界的范围内的实时3d虚拟对象的双向实时3d交互操作 |
US11307968B2 (en) * | 2018-05-24 | 2022-04-19 | The Calany Holding S. À R.L. | System and method for developing, testing and deploying digital reality applications into the real world via a virtual world |
US10890921B2 (en) * | 2018-05-31 | 2021-01-12 | Carla R. Gillett | Robot and drone array |
US20190049950A1 (en) * | 2018-09-17 | 2019-02-14 | Intel Corporation | Driving environment based mixed reality for computer assisted or autonomous driving vehicles |
US20200210137A1 (en) * | 2018-12-27 | 2020-07-02 | Facebook Technologies, Llc | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
US10921878B2 (en) * | 2018-12-27 | 2021-02-16 | Facebook, Inc. | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
US11024074B2 (en) * | 2018-12-27 | 2021-06-01 | Facebook Technologies, Llc | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
KR20220018760A (ko) * | 2020-08-07 | 2022-02-15 | 삼성전자주식회사 | 단말에 3d 캐릭터 이미지를 제공하는 엣지 데이터 네트워크 및 그 동작 방법 |
-
2019
- 2019-01-31 FR FR1900974A patent/FR3092416B1/fr active Active
-
2020
- 2020-01-30 CN CN202080011999.3A patent/CN113711162A/zh active Pending
- 2020-01-30 EP EP20701650.2A patent/EP3918447A1/en not_active Withdrawn
- 2020-01-30 US US17/425,490 patent/US20220083055A1/en not_active Abandoned
- 2020-01-30 WO PCT/EP2020/052321 patent/WO2020157215A1/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105188516A (zh) * | 2013-03-11 | 2015-12-23 | 奇跃公司 | 用于增强和虚拟现实的***与方法 |
US20160054837A1 (en) * | 2014-08-19 | 2016-02-25 | Sony Computer Entertainment America Inc. | Systems and methods for providing feedback to a user while interacting with content |
US20160349835A1 (en) * | 2015-05-28 | 2016-12-01 | Microsoft Technology Licensing, Llc | Autonomous drones for tactile feedback in immersive virtual reality |
Also Published As
Publication number | Publication date |
---|---|
EP3918447A1 (en) | 2021-12-08 |
FR3092416B1 (fr) | 2022-02-25 |
US20220083055A1 (en) | 2022-03-17 |
FR3092416A1 (fr) | 2020-08-07 |
WO2020157215A1 (en) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102275520B1 (ko) | 현실 세계를 대표하는 실시간 3d 가상 세계 내에서 실시간 3d 가상 객체의 양방향 실시간 대화형 오퍼레이션 | |
US20220083055A1 (en) | System and method for robot interactions in mixed reality applications | |
US11014000B2 (en) | Simulation system, processing method, and information storage medium | |
US20200254353A1 (en) | Synchronized motion simulation for virtual reality | |
CN109478345B (zh) | 模拟***、处理方法及信息存储介质 | |
US10067736B2 (en) | Proximity based noise and chat | |
US10197998B2 (en) | Remotely controlled motile device system | |
US9183676B2 (en) | Displaying a collision between real and virtual objects | |
WO2018224847A2 (en) | Mixed reality gaming system | |
CN111716365B (zh) | 基于自然行走的沉浸式远程交互***及方法 | |
KR102282117B1 (ko) | 인공지능 디스플레이 장치 | |
WO2017188224A1 (ja) | シミュレーションシステム | |
Ghandeharizadeh | Holodeck: Immersive 3D Displays Using Swarms of Flying Light Specks | |
US20180033328A1 (en) | Immersive vehicle simulator apparatus and method | |
Ai et al. | Real-time unmanned aerial vehicle 3D environment exploration in a mixed reality environment | |
WO2016145946A1 (zh) | 一种实景交互式操控*** | |
GB2535729A (en) | Immersive vehicle simulator apparatus and method | |
KR101881227B1 (ko) | 무인 비행체를 이용한 비행 체험 방법 및 장치 | |
JP6918189B2 (ja) | シミュレーションシステム及びプログラム | |
CN108333956A (zh) | 用于运动仿真平台的反解联动算法 | |
US11776206B1 (en) | Extended reality system and extended reality method with two-way digital interactive digital twins | |
EP3136372A1 (en) | Immersive vehicle simulator apparatus and method | |
JP2011215919A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
MXPA97002604A (en) | Method for the generation of virtual image and suapar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |