CN108028910A - 信息处理设备、信息处理方法与程序 - Google Patents

信息处理设备、信息处理方法与程序 Download PDF

Info

Publication number
CN108028910A
CN108028910A CN201680053720.1A CN201680053720A CN108028910A CN 108028910 A CN108028910 A CN 108028910A CN 201680053720 A CN201680053720 A CN 201680053720A CN 108028910 A CN108028910 A CN 108028910A
Authority
CN
China
Prior art keywords
viewpoint
video
moving body
space
mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201680053720.1A
Other languages
English (en)
Inventor
历本纯
历本纯一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN108028910A publication Critical patent/CN108028910A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/28Mobile studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

[问题]为了提出以下一种信息处理设备、一种信息处理方法和一种程序,它们能够生成一种视频,通过该视频,用户可以容易地理解由于视点变换而导致的位置关系的变化。[解决方案]该信息处理设备设置有显示控制单元,该显示控制单元使第一视频显示在用户观察的显示区域中,该第一视频由安装在第一空间内移动的第一移动体上的第一图像拾取单元捕捉。该显示控制单元生成与在作为第一图像拾取单元的视点的第一视点和用于捕捉第一空间的第二视点之间连续移动的视点位置对应的第一迁移视频。

Description

信息处理设备、信息处理方法与程序
技术领域
本公开涉及一种信息处理设备、一种信息处理方法以及一种程序。
背景技术
传统上,远程呈现作为一种用户与远程代理机器人进行通信的技术而公知。通过这种远程呈现,将机器人测量的信息传送给用户。另外,用户的动作控制该机器人,结果,用户可感觉到他/她与机器人好像是一体的。根据这种远程呈现,用户可以感知到好像在物理位置上没有任何限制一样。
而且,近来已经提出了一种能够实现人与人之间的远程呈现的技术。例如,已经提出了以下一种技术,其中,佩戴头戴式相机的用户在特定环境中进行工作,并且将由该头戴式相机捕捉的视频(video,影像)传送给另一远程用户。根据这种技术,例如,位于特定环境中的现场工作人员可以得到专家的远程协助。
例如,下面的专利文献1描述了以下一种技术,该技术使由安装在空间中移动的移动体上的成像装置捕捉的视频显示在用户在视觉上识别的显示区域中。
引文列表
专利文献
专利文献1:WO 2015/122108
发明内容
技术问题
然而,在专利文献1所述的技术中,当在位于空间中的视点之间执行变换(transition)时,非连续地切换显示的视频。因此,用户可能变得无法掌握视点变换之后的位置关系。
因此,本公开提出了一种新改进的信息处理设备、信息处理方法和程序,其可以生成允许用户容易地理解由视点变换导致的位置关系的变化的视频。
问题的解决方案
根据本公开,提供了一种信息处理设备,包括:显示控制单元,其被配置为使第一视频显示在用户在视觉上识别的显示区域中,由在第一空间中移动的第一移动体上安装的第一成像单元捕捉所述第一视频。所述显示控制单元生成与在作为第一成像单元的视点的第一视点和用于对第一空间进行成像的第二视点之间连续移动的视点位置对应的第一迁移视频。
另外,根据本公开,提供了一种信息处理方法,包括:使第一视频显示在用户在视觉上识别的显示区域中,由在第一空间中移动的第一移动体上安装的第一成像单元捕捉所述第一视频;并且由处理器生成与在作为第一成像单元的视点的第一视点和用于对第一空间进行成像的第二视点之间连续移动的视点位置对应的第一迁移视频。
另外,根据本公开,提供了一种程序,用于促使计算机用作显示控制单元,所述显示控制单元被配置为使第一视频显示在用户在视觉上识别的显示区域中,由安装在第一空间中移动的第一移动体上的第一成像单元捕捉所述第一视频。所述显示控制单元生成与在作为第一成像单元的视点的第一视点和用于对第一空间进行成像的第二视点之间连续移动的视点位置对应的第一迁移视频。
发明的有益效果
根据如上所述的本公开,可以生成允许用户容易地理解由视点变换导致的位置关系的变化的视频。注意,本文描述的效果不一定是限定性的,而是可以实现在本公开中描述的任何效果。
附图说明
图1是示出根据本公开的实施方式的信息处理***的配置示例的说明图。
图2是根据本实施方式的安装在移动体2上的耳机(headset)20的外部视图。
图3是示出由本实施方式配置的点云的图像的示例。
图4是示意性地示出根据本实施方式的基于离开(jack-out)和进入(jack-in)的视点移动的说明图。
图5是示出基于图4所示的视点“1”到视点“3”生成的视频的示例的说明图。
图6是示出根据本实施方式的服务器10的配置示例的功能方框图。
图7是示出根据本实施方式的当显示空间监测视频时的“锁定”标记的显示示例的说明图。
图8是示出根据本实施方式的在离开期间的视点移动示例的说明图。
图9是示出根据本实施方式的基于兴趣点(POI)的空间监测视点移动示例的说明图。
图10是示出根据本实施方式的在进入期间的视点移动示例的说明图。
图11是示出根据本实施方式的包括在离开期间生成的第一迁移视频中的帧的示例的说明图。
图12是示出根据本实施方式的包括在进入期间生成的第二迁移视频中的帧的示例的说明图。
图13是示出根据本实施方式的操作的流程的示例的流程图。
图14是表示根据本实施方式的“离开处理”的流程的流程图。
图15是示出根据本实施方式的“进入处理”的流程的流程图。
图16是示意性地示出根据本实施方式的应用示例的不同工作空间中的视点之间的移动的说明图。
图17是示出根据本实施方式的应用示例的用于选择变换目的地的视点的列表的示例的说明图。
图18是示出根据本实施方式的应用示例的用于选择变换目的地的视点的地图的示例的说明图。
图19是示出根据本实施方式的应用示例的迁移视频的显示示例的说明图。
图20是示出根据本实施方式的服务器10的硬件配置示例的说明图。
图21是根据本实施方式的变形例的安装在移动体2上的全方位相机24的外部视图。
图22是示出全方位相机24的成像区域的说明图。
图23是根据本实施方式的变形例的自走式深度相机90的示意图。
图24是根据本实施方式的变形例的安装在移动体2上的安装式深度相机92的示意图。
具体实施方式
在下文中,将参考附图详细描述本公开的一个或多个优选实施方式。注意,在本说明书和附图中,具有基本相同的功能和结构的结构元件用相同的附图标记表示,并且省略这些结构元件的重复说明。
另外,在本说明书和附图中,通过在相同的附图标记之后添加不同的字母,来在某些情况下区分具有基本相同的功能和结构的多个结构元件。例如,根据需要,区分具有基本相同的功能和结构的多个组件,例如,移动体2a和移动体2b。然而,在不特别需要区分具有基本相同的功能和结构的相应多个结构元件的情况下,仅给出相同部分的附图标记。例如,在不特别需要区分移动体2a和移动体2b的情况下,简称为移动体2。
另外,将根据下面所示的各项的顺序来描述“具体实施方式”。
1、信息处理***的配置
2、实施方式的详细描述
3、硬件配置
4、变形例
<<1、信息处理***的配置>>
首先,将参考图1描述根据本实施方式的信息处理***的配置。如图1所示,在本实施方式中,基本上设置有一个或多个移动体2所在的工作空间和用户4所在的环境,假定这两者相互远离。在此处,移动体2例如是在预定工作空间内进行作业的人、机器人、安装在工作空间内的相机(传感器)等。注意,下面的描述将以移动体2是人的示例为中心进行。另外,预定工作空间例如是诸如房间等空间。另外,用户4是在视觉上识别由稍后描述的服务器10提供的关于工作空间的视频的人。注意,工作空间是本公开中的第一空间的示例。另外,服务器10是本公开中的信息处理设备的示例。
<1-1、移动体2的环境>
首先,将描述关于移动体2所在的工作空间的信息处理***的配置。如图1所示,例如,多个深度相机30和多个运动捕捉传感器32设置在工作空间中。
注意,在移动体2是人的情况下,移动体2佩戴例如耳机20,如图1和图2所示。注意,图2的(A)是示出从正面看时佩戴耳机20的移动体2的外观的示图,图2的(B)是示出从左侧看时佩戴耳机20的移动体2的外观的示图。如图2所示,耳机20例如具有相机200和头部追踪标记(head tracking marker)210。在此处,相机200是本公开中的第一成像单元的示例。相机200例如捕捉移动体2的视线方向的视频。例如,相机200可以是鱼眼相机。
头部追踪标记210例如是反射红外线的标记。如图2所示,多个头部追踪标记210可安装在单个耳机20中。该头部追踪标记210可由多个运动捕捉传感器32(安装在工作空间中的)进行感测。因此,追踪移动体2在工作空间中的位置。
深度相机30例如具有深度传感器和RGB传感器。该深度相机30获取关于位于工作空间中的每个物体的三维信息。例如,深度相机30通过使用红外线的照射和飞行时间(timeof flight,飞行时间法)来获取关于位于工作空间中的每个物体的三维信息。
注意,如图1所示,多个深度相机30基本上安装在工作空间中。另外,可以预先校准每个运动捕捉传感器32和每个深度相机30,使得在工作空间中感测到的相同物体的坐标值变得相同。然后,如稍后将描述的,服务器10能够通过综合由多个深度相机30感测的关于RGB-D的信息来配置点云(每个点具有三维坐标的这样的信息的集合)。因此,可以指定工作空间中的每个移动体2的三维坐标。
例如,图3是示出基于由多个深度相机30感测的信息配置的点云的图像40的示例。通常,单个深度相机30难以对整个工作空间成像,并且可能出现无法感测到的区域。因此,在工作空间中彼此不同的位置处安装的多个深度相机30感测该工作空间,然后,综合感测的信息,使得不能感测的区域可被最小化。
服务器10执行要由用户4在视觉上识别的视频的生成、显示控制等。例如,服务器10获取由安装在特定移动体2上的(耳机20的)相机200捕捉的视频,然后,基于已经获取的捕捉视频来生成移动体视频。然后,服务器10促使稍后描述的投影仪36投影所生成的移动体视频。
注意,服务器10可以安装在工作空间中,或者可以安装在用户4所在的环境中,或者可以安装在另一地方。
<1-2、用户4的环境>
接下来,将描述关于用户4所在的环境的信息处理***的配置。例如,如图1所示,在环境中设置多个运动捕捉传感器34、三个投影仪36和三个屏幕38。
运动捕捉传感器34检测用户4在环境中的运动。例如,运动捕捉传感器34检测用户4的头部的运动。
投影仪36是通过发光来投影图像的装置。例如,投影仪36从服务器10接收视频,然后,在屏幕38上投影所接收的视频。在图1所示的示例中,三个屏幕38以屏幕38分别位于用户4的前面、左侧和右侧的位置关系安装。然后,每个投影仪36在每个投影仪36的方向上将针对屏幕38的视频投影在屏幕38上。另外,三个投影仪36还能够在一个或多个屏幕38上投影立体视频。
例如,用户4可佩戴具有液晶显示器(LCD)的3D眼镜。这允许用户4立体地观看在屏幕38上显示的视频。
根据上述信息处理***,用户4可以通过在视觉上识别投影在屏幕38上的工作空间中的视频来获得好像他/她位于工作空间中的感觉。另外,例如,移动体2和用户4之间的配合(例如,用户4对移动体2的工作支持)成为可能。
注意,用户4所在的环境的信息处理***不限于上述配置,而是可以仅安装单个屏幕38。此外,在这种情况下,也可以仅安装单个投影仪36。
另外,例如,上述信息处理***可以经由诸如互联网等通信网络被配置为分布式***。例如,移动体2所在的)工作空间、用户4所在的环境以及服务器10位于彼此分离的地点,然后,安装在相应地点的各装置可以经由通信网络连接。
<1-3、概述>
[1-3-1、公知技术中的问题]
同时,在工作空间中存在多个移动体2的情况下,期望位置上远隔的用户4可以在各移动体2的视点(在下文中可以称为移动体视点)之间自由变换并可以在视觉上识别工作空间中的视频。
然而,例如,当切换相机那样切换视点时,用户4在切换视点之后可能不能掌握工作空间中的位置关系,并且可能会感到困惑。
因此,将上述情况作为着眼点,来创建根据本实施方式的服务器10。当在工作空间中的移动体2的移动体视点之间进行变换时,服务器10促使变换通过用于监测工作空间的空间监测视点。此外,在移动体视点与空间监测视点之间进行变换时,服务器10能够通过在移动体2的移动体视点与空间监测视点之间连续移动视点位置来生成视频,然后,促使用户4在视觉上识别生成的视频。这允许将工作空间中的视点移动呈现给用户4,而没有空间间隙。
[1-3-2、远程呈现的概述]
在此处,将参考图图4和图5来描述由本实施方式实现的远程呈现的概述。图4是示意性地示出根据本实施方式的基于离开和进入的视点移动的说明图。在此处,离开使视点从作为用户4目前正在在视觉上识别的视频的捕捉源的移动体2的移动体视点变换到空间监测视点。另外,进入促使视点从(当前)空间监测视点变换到位于工作空间中的任何移动体2的移动体视点。
另外,图5的(A)示出了基于图4所示的移动体2a的移动体视点(图4所示的箭头“1”)的视频(在下文中可以被称为移动体视频)的示例。另外,图5的(B)示出了基于空间监测视点(图4所示的箭头“2”)的视频(在下文中可以被称为空间监测视频)的示例。另外,图5的(C)示出了基于图4所示的移动体2b的移动体视点(图4中所示的箭头“3”)的视频的示例。
注意,图4以用户4在移动体2a中正进行进入作为初始状态为前提。在这种情况下,如图5的(A)所示,基于移动体2a的移动体视点的视频50a投影到屏幕38上,然后,用户4在视觉上识别视频50a。通过在视觉上识别该移动体视频50a,用户4可以获得好像他/她已经进入移动体2a的感觉。
随后,当用户4发出“离开”命令时,服务器10将视点位置从移动体2a的移动体视点连续移动到空间监测视点。注意,发出“离开”命令是本公开中的第一操作的示例。
随后,基于图5的(B)所示的空间监测视点的视频50b例如投影到屏幕38上。这允许用户4例如全景监测整个工作空间。注意,用户4可以在工作空间中自由地移动空间监测视点的位置的同时监测工作空间。
假设用户4随后希望通过图4所示的另一移动体2b的移动体视点来在视觉上识别视频。在这种情况下,首先,用户4通过预定方法选择移动体2b,然后,发出“进入”命令。然后,服务器10将视点位置从空间监测视点连续移动到移动体2b的移动体视点。随后,如图5的(C)所示,基于移动体2b的移动体视点的视频50c例如投影到屏幕38上。
注意,基于移动体2的移动体视点的视频提供清晰的图像,但基本上不是立体视频。因此,例如,用户4可以从用户4正在进行进入的移动体2进行离开,以基于空间监测视点立体地观看工作空间。随后,为了查看详细的视频,也可以再次在相同的移动体2内进行进入。
<<2、实施方式的详细描述>>
<2-1、配置>
上面已经描述了本实施方式的概述。接下来,将详细描述根据本实施方式的服务器10的配置。图6是示出根据本实施方式的服务器10的配置的功能方框图。如图6所示,服务器10具有控制单元100、通信单元120和存储单元122。
[2-1-1、控制单元100]
控制单元100通常使用内置在服务器10中的硬件(例如,稍后描述的CPU 150和RAM154)来控制服务器10的操作。此外,如图6所示,控制单元100具有空间信息获取单元102、操作信息获取单元104、视点移动单元106、视频生成单元108和输出控制单元110。
[2-1-2、空间信息获取单元102]
空间信息获取单元102例如获取在工作空间中感测的三维信息和图像信息。例如,空间信息获取单元102从多个深度相机30中接收多个深度相机30在工作空间中感测到的关于RGB-D的信息。
另外,空间信息获取单元102基于已经获取的三维信息和图像信息来配置点云。
[2-1-3、操作信息获取单元104]
操作信息获取单元104获取关于用户4的操作的信息。例如,操作信息获取单元104获取关于发出“进入”命令或“离开”命令的操作的信息。在此处,例如,发出“进入”命令或“离开”命令的操作可以是姿势操作、对操作单元(省略图示)的操作、语音输入、视线操作等。另外,姿势操作例如是头部姿势、手势等。另外,操作单元例如是操纵杆、触摸面板等。
例如,操作信息获取单元104获取由运动捕捉传感器34等检测到的关于用户4的头部的信息(例如,位置、加速度和速度等),然后,基于获取的信息,识别头部姿势。作为一个示例,在检测到用户4向后方以及斜上方快速移动他/她的头部的运动的情况下,操作信息获取单元104将检测出的运动识别为用于发出“离开”命令的头部姿势。
(2-1-3-1、进入目标的选择)
另外,在发出“进入”命令之前,操作信息获取单元104例如获取关于用户4选择移动体2作为“进入”目标的操作的信息。例如,在检测到用户4已经将视线指向在空间监测视频中显示的一个或多个移动体2中的任何一个的情况下,操作信息获取单元104将视线所指向的移动体2识别为作为“进入”目标的移动体2。注意,在这种情况下,输出控制单元110的控制可以在例如空间监测视频中,使“锁定”标记510以重叠的方式显示在作为“进入”目标的移动体2附近,如图7所示。
或者,在检测到用户4选择了位于工作空间中的一个或多个POI中的任何一个的操作的情况下,操作信息获取单元104将与所选择的POI对应的移动体2识别为作为“进入”目标的移动体2。在此处,POI包括例如工作空间中的预定位置(例如,工作台的中心)、移动体2的位置等。注意,当显示空间监测视频时,例如,POI选择UI可以被呈现给用户4。然后,用户4可以使用该选择UI选择任何POI。
[2-1-4、视点移动单元106]
视点移动单元106基于由操作信息获取单元104获取的操作信息和由空间信息获取单元102配置的点云,在移动体2的移动体视点和空间监测视点之间连续移动视点位置。例如,视点移动单元106确定连续连接移动体2的移动体视点和空间监测视点的移动路径,然后沿着所确定的移动路径连续移动视点位置。此外,视点移动单元106还能够确定视点方向,使得视点方向根据视点位置在移动路径上的移动而连续改变。此外,视点移动单元106还能够确定视角,使得视角根据视点位置在移动路径上的移动而连续改变。
(2-1-4-1、在离开期间)
例如,在由操作信息获取单元104获取指示发出“离开”命令的操作信息的情况下,视点移动单元106将视点位置从用户4正进行进入的移动体2的移动体视点连续移动到空间监测视点。
在此处,参考图8,将更详细地描述上述内容。图8是示出在已经发出“离开”命令的情况下,由视点移动单元106确定的移动路径(移动路径60)的示例的说明图。在这种情况下,例如,基于由空间信息获取单元102配置的点云,视点移动单元106使在移动路径60的起点处的视点V1与用户4正在执行进入的移动体2的移动体视点一致,并使在移动路径60的终点处的视点V5与空间监测视点一致。然后,视点移动单元106通过对视点位置进行线性插值来确定移动路径60,以便视点位置连续改变。如图8所示,例如,视点移动单元106可以将移动路径60确定为贝塞尔曲线。注意,此时,空间监测视点的位置也可相对于工作空间内的移动体2以设置为向后并且向上,空间监测视点的方向设置在朝着移动体2的方向,如图8所示。
此外,例如,视点移动单元106可以使在移动路径60的起点处的视点V1的方向与用户4正在执行进入的移动体2的移动体视点的方向一致,并且可以使在移动路径60的终点处的视点V5的方向与空间监测视点的方向一致。然后,视点移动单元106可以对移动路径60上的视点方向进行线性插值,使得视点方向根据视点位置的移动而连续改变。根据上述确定示例,当完成离开时,基于空间监测视点的视频可以是从移动体2的后侧向下看移动体2的视频。此外,视频可以是移动体2位于视频的中心的视频。
因此,在移动体2是人的情况下,生成以下这种迁移视频,其中,例如,用户4从用户4正在进行进入的人的头部离开,然后,视点相对于这个人向后并且向上连续上升。结果,用户4可以通过在视觉上识别迁移视频而获得他/她从人的身体离开的感觉。
此外,视点移动单元106还能够确定移动路径60上的视角,使得视角在移动路径60的起点和终点之间连续变化。在图8所示的示例中,例如,视点移动单元106可以使在移动路径60的起点处的视点V1处的视角与在用户4正在执行进入的移动体2的移动体视点处的视角一致,并且可以使在移动路径60的终点处的视点V5处的视角与空间监测视点处的视角一致。然后,视点移动单元106可以对移动路径60上的视角进行线性插值,使得视角根据视点位置的移动而连续改变。
另外,视点移动单元106能够基于所确定的移动路径上的当前视点位置和终点位置之间的位置关系来确定当前视点位置的移动速度。在图8所示的示例中,例如,视点V2、V3、V4和V5分别表示沿着由视点移动单元106确定的移动路径在单位时间间隔移动的视点。如图8所示,视点移动单元106确定视点移动速度,使得移动速度随着移动路径60上的视点位置接近终点而降低。在此处,在经过时间(the elapsed time)和视点移动速度之间的关系可以是线性的,或者可以是非线性的。例如,视点移动单元106可以确定视点移动速度,使得在经过时间和视点移动速度之间的关系与预定的对数函数一致。或者,视点移动单元106可以确定视点移动速度,使得视点移动速度像沿着所确定的移动路径如渐快渐慢(slow-inand slow-out)一样改变。即,视点移动单元106可以确定视点移动速度,使得移动速度从移动路径上的起点到中间位置逐渐加速,然后,移动速度从中间位置到终点逐渐减速。
-空间监测视点的确定
注意,也可以基于预定的条件来确定在离开期间空间监测视点的位置。例如,空间监测视点可以基于工作空间中的移动体2的排列来确定。作为一个示例,空间监测视点可以被确定为处于可以监测位于工作空间中的所有移动体2的位置和视角。
或者,可以根据关于用户4的设置信息来确定空间监测视点。或者,可以基于在工作空间中进行的工作(工作目的)来确定空间监测视点。例如,在存储单元122中预先存储关于适于工作目的的空间监测视点的位置和视角的信息,然而,基于存储在存储单元122中的信息,来确定空间监测视点。作为一个示例,在工作空间为“手术室”的情况下(在手术模式期间),可以将空间监测视点限定在可以监测至少整个手术台的位置和视角处。或者,在工作空间是“厨房”的情况下(在烹饪模式期间),可以将空间监测视点限定在可以监测整个厨房的位置和视角处。
注意,例如,在发出“离开”命令等之前,用户4可以选择对应于工作空间的工作目的。或者,服务器10也可以基于表示移动体2正在进行的工作的内容的信息,来自动地确定工作目的。或者,服务器10可以根据工作空间(工作空间的位置、工作空间的类型等)自动确定工作目的。
(2-1-4-2、在空间监测视点模式期间)
另外,在离开结束的情况下(在下文中,可以称为在空间监测视点模式期间),视点移动单元106基于操作信息获取单元104所获取的操作信息,连续移动空间监测视点的位置。例如,如图9所示,视点移动单元106基于对根据POI导航工作空间的操作的检测来连续移动空间监测视点的位置。例如,在检测到用于接近位于工作空间内的任何POI的操作的情况下,视点移动单元106使空间监测视点的位置连续接近POI,同时将空间监测视点的方向保持在指向POI的状态下,例如,与图9所示的视点V1、V2和V3一样。另外,在检测到用于围绕任何POI旋转的操作的情况下,视点移动单元106连续改变空间监测视点的方向,使得空间监测视点的方向保持在指向POI的状态中,同时以POI为中心连续旋转地移动空间监测视点的位置(类似于圆形扫射),例如,与图9所示的视点V1、V4、V5和V6一样。
(2-1-4-3、在进入期间)
此外,在由用户4选择作为“进入”目标的移动体2并且由操作信息获取单元104获取表示已经发出“进入”命令的操作信息的情况下,视点移动单元106将视点位置从空间监测视点连续移动到作为“进入”目标的移动体2的移动体视点。
在此处,参考图10,将更详细地描述上述内容。图10是示出在已经发出“进入”命令的情况下由视点移动单元106确定的移动路径(移动路径62)的示例的说明图。在这种情况下,例如,视点移动单元106使在移动路径62的起点处的视点V1与(当发出“进入”命令时的)空间监测视点一致,并使在移动路径62的终点处的视点V5与作为“进入”目标的移动体2的移动体视点一致。然后,视点移动单元106通过对视点位置进行线性插值来确定移动路径62,使得视点位置连续变化。例如,如图10所示,视点移动单元106可以将移动路径62确定为贝塞尔曲线。
此外,例如,视点移动单元106可以使例如在移动路径62的起点处的视点V1的方向与由运动捕捉传感器34等感测到的用户4的头部的方向(或视线方向)一致,并且可以使在移动路径62的终点处的视点V5的方向与作为“进入”目标的移动体2的移动体视点的方向一致。然后,视点移动单元106可以对移动路径62上的视点方向进行线性插值,使得视点方向根据视点位置的移动而连续改变。根据上述确定示例,可以生成从空间监测视点向移动体2的移动体视点连续进行移动的这种迁移视频。例如,在作为进入目标的移动体2是人的情况下,生成迁移视频,该迁移视频可以向用户4赋予视点位置从作为“进入”目标的移动体2的后侧连续移动到移动体2的头部并且然后整合到移动体2中的感觉。
此外,视点移动单元106还能够确定移动路径62上的视角,使得视角在移动路径62的起点和终点之间连续变化。例如,在图10所示的示例中,视点移动单元106可以使在移动路径60的起点处的视点V1处的视角与在空间监测视点处的视角一致,并且可以使在移动路径60的终点处的视点V5处的视角与在作为“进入”目标的移动体2的移动体视点处的视角一致。然后,视点移动单元106可以将移动路径62上的视角进行线性插值,使得视角根据视点位置的移动而连续改变。
另外,视点移动单元106能够确定视点移动速度,使得移动速度随着移动路径62上的视点位置接近终点而降低(类似于离开情况)。例如,在图10所示的示例中,视点V2、V3、V4和V5示出了单元时间间隔沿视点移动单元106的移动路径移动的视点。例如,视点移动单元106可以确定视点移动速度,使得在经过时间和视点移动速度之间的关系与预定的对数函数一致。
[2-1-5、视频生成单元108]
视频生成单元108是本公开中的显示控制单元的示例。视频生成单元108生成要在用户4在视觉上识别的显示区域中显示的视频。
(2-1-5-1、移动体视频)
例如,当用户4正在任何移动体2内进行进入时,视频生成单元108基于由安装在移动体2上的相机200捕捉的视频来生成移动体视频。例如,视频生成单元108基于由相机200捕捉的图像来生成全景图像(移动体视频)。例如,移动体视频可以是球形视频,其中,用户4可以自由地环视移动体2的移动体视点的位置周围的环境。该移动体视频允许用户4在视觉上识别在进入期间在移动体2的视点处捕捉的视频。
注意,在移动体2是人的情况下,当移动体2的头部旋转时,在所生成的移动体视频中包括不期望的图像抖动。然后,用户4在观看这种移动体视频时可能感觉到晕动症。因此,优选的是,例如,视频生成单元108通过使用诸如专利文献1中描述的技术等公知技术对由相机200捕捉的图像进行抖动校正处理来生成移动体视频。
例如,视频生成单元108估计在相机200捕捉的连续帧之间的移动体2的头部的旋转。然后,视频生成单元108执行使由相机200捕捉的每个帧根据相对于帧而估计的(移动体2的头部的)总旋转量进行反转的校正。因此,在所生成的移动体视频中抑制了由移动体2的头部的旋转导致的图像抖动。
(2-1-5-2、空间监测视频)
另外,在空间监测视点模式期间,视频生成单元108基于由视点移动单元106确定的空间监测视点(位置、方向和视角)以及由空间信息获取单元102配置的点云,来生成空间监测视频。在该空间监测视频中,例如,用户4可以俯瞰工作空间,并且可以监测整个工作空间。例如,用户4可以把握位于工作空间中的多个移动体2之间的位置关系。
注意,作为变形例,在用户4先前刚执行进入的移动体2被包括在空间监测视点的视野中的情况下,视频生成单元108可以设置显示器来明确地显示在空间监测视频中的移动体2。
(2-1-5-3、第一迁移视频)
此外,在发出“离开”命令的情况下,视频生成单元108生成与由视点移动单元106从用户4正在执行进入的移动体2的移动体视点连续移动到空间监测视点的视点位置对应的第一迁移视频。在这种情况下,例如,视频生成单元108基于由视点移动单元106移动的视点和由空间信息获取单元102配置的点云,通过以单位间隔生成帧,来生成第一迁移视频。
图11是示出包括在生成的第一迁移视频中的四个帧的示例的示图。注意,例如,图11中所示的帧70a与在发出“离开”命令的时间点的移动体视频相同,并且帧70d与在离开结束的时间点的空间监测视频相同。如图11所示,在帧70a和帧70d之间显示帧70b和帧70c(示出从帧70a到帧70d的迁移)。
该第一迁移视频允许用户4容易地理解由于从用户4先前刚进行进入的移动体2的移动体视点到空间监测视点的变换而导致的位置关系的变化。
(2-1-5-4、第二迁移视频)
另外,在用户4选择了作为“进入”目标的移动体2,并且由操作信息获取单元104获取了表示已经发出“进入”命令的操作信息的情况下,视频生成单元108生成与由视点移动单元106从空间监测视点连续移动到作为“进入”目标的移动体2的移动体视点的视点位置对应的第二迁移视频。注意,生成第二迁移视频的具体方法基本类似于第一迁移视频。
图12是示出包括在生成的第二迁移视频中的四个帧的示例的示图。注意,例如,在图12所示的帧72a与在发出“进入”命令时的时间点的空间监测视频相同,并且帧72d与在进入结束时的时间点的作为“进入”目标的移动体2的移动体视频相同。如图12所示,在帧72a和帧72d之间显示帧72b和帧72c(显示从帧72a到帧72d的迁移)。
该第二迁移视频允许用户4容易地理解由于从空间监测视点到作为“进入”目标的移动体2的移动体视点的变换而导致的位置关系的变化。
[2-1-6、输出控制单元110]
(2-1-6-1、视频的显示)
输出控制单元110是本公开中的显示控制单元的示例。输出控制单元110使由视频生成单元108生成的视频显示在用户4在视觉上识别的显示区域中。例如,当由视频生成单元108生成移动体视频、空间监测视频、第一迁移视频或第二迁移视频时,输出控制单元110使投影仪36依次投影生成的视频在屏幕38上。
(2-1-6-2、“锁定”标记)
此外,当显示空间监测视频时,例如,输出控制单元110能够使如图7所示的“锁定”标记510以重叠的方式显示在空间监测视频上。例如,该“锁定”标记510是用于明确地示出用户4选择为进入目标的移动体2的显示器。然而,“锁定”标记510不限于这种示例,而可以是用户4选择作为“进入”目标的移动体2的UI。在这种情况下,可以在空间监测视频中显示的所有移动体2上显示“锁定”标记510。
(2-1-6-3、选择移动体2时的UI)
另外,在显示空间监测视频时,输出控制单元110例如也能够使用户4选择移动体2作为“进入”目标的UI以重叠的方式显示在正显示的视频上。例如,该UI可以针对每个移动体2包括诸如指示是否当前可以进入的信息、可以在移动体2中执行进入的用户4的固定数量、关于在移动体2中执行进入的用户4的识别信息等信息。另外,该UI可以包括用于与任何移动体2聊天的聊天UI,或者可以包括关于个别移动体2与另一用户4b(或用户4a)之间的聊天的历史信息。或者,该UI可以包括用于拨打任何移动体2(人)的电话簿UI。例如,用户4可以使用耳机、移动电话等与任何移动体2交谈。
(2-1-6-4、移动体2的通知)
另外,作为变形例,在作为离开目标(或进入目标)的移动体2是人的情况下,输出控制单元110还能够使指示执行离开(或进入)完成的通知输出到作为离开目标(或进入目标)的移动体2。例如,在离开之后,输出控制单元110可以使表示执行离开完成的显示、声音或振动输出到用户4先前刚执行进入的移动体2。注意,在这种情况下,输出控制单元110可以进一步向移动体2通知关于用户4已经执行了离开的识别信息。注意,在进入情况下的通知示例可以是类似的。
[2-1-7、通信单元120]
通信单元120执行到能够与服务器10进行通信的其他装置的信息发送/接收。例如,通信单元120根据输出控制单元110的控制将所生成的视频传输给投影仪36。另外,通信单元120还接收由安装在每个移动体2上的相机200捕捉的视频。另外,通信单元120还接收来自深度相机30、运动捕捉传感器32、运动捕捉传感器34等的感测信息。
[2-1-8、存储单元122]
存储单元122存储各种类型的数据和各种类型的软件。例如,存储单元122存储历史信息DB。在该历史信息DB中,例如,日期和时间、关于用户4的识别信息、关于已经由用户4执行进入或离开的移动体2的识别信息、关于工作空间的信息以及关于执行进入或插出的信息可以相关联。在此处,例如,关于工作空间的信息可以包括指示工作空间的位置的信息或者关于在工作空间中进行的工作的内容(例如,手术、烹饪等)的信息。因此,例如,用户4可以通过将关于用户4的识别信息或关于移动体2的识别信息用作搜索关键字来搜索历史信息DB,来浏览期望的历史信息。另外,当浏览历史信息时,用户4也可以重新执行关于与历史信息对应的内容的进入或插出的指令。
注意,例如,控制单元100能够在每次执行进入或插出时将历史信息存储在历史信息DB中。
<2-2、操作>
[2-2-1、总体流程]
上面已经描述了根据本实施方式的配置。接下来,将描述根据本实施方式的操作流程的示例。注意,在下文中,前提是服务器10已经预先获取关于工作空间的三维信息并且然后预先配置点云。另外,前提是,在初始状态下,用户4在工作空间中在某个移动体2内正在执行进入。
如图13所示,首先,服务器10的视频生成单元108获取由安装在用户4正在执行进入的移动体2上的相机200捕捉的视频,然后,基于所获取的视频,依次生成移动体视频。然后,输出控制单元110使所生成的移动体视频依次显示在用户4在视觉上识别的显示区域中(S101)。
然后,服务器10确定是否已经由用户4发出“离开”命令(S103)。在没有发出“离开”命令的情况下(S103:否),服务器10重复S101的处理。
另一方面,在已经检测到发出“离开”命令的情况下(S103:是),服务器10执行稍后描述的“离开处理”(S105)。
随后,视频生成单元108基于空间监测视点和由空间信息获取单元102预先配置的点云来依次生成空间监测视频。然后,输出控制单元110使所生成的空间监测视频显示在用户4在视觉上识别的显示区域中(S107)。
然后,服务器10确定用户4是否已经选择了作为“进入”目标的移动体2并且是否已经发出了“进入”命令(S109)。在未选择作为“进入”目标的移动体2或未发出“进入”命令的情况下(S109:否),服务器10重复S107的处理。
另一方面,在已经选择了作为“进入”目标的移动体2并且已经发出了“进入”命令的情况下(S109:是),服务器10执行稍后描述的“进入处理”(S111)。
随后,视频生成单元108获取安装在已经在S111中执行了进入的移动体2上的相机200所捕捉的视频,然后,基于所获取的视频,依次生成移动体视频。然后,输出控制单元110使所生成的移动体视频依次显示在用户4在视觉上识别的显示区域中(S113)。
[2-2-2、离开处理]
在此处,参考图14,将详细描述S105中的“离开处理”的内容。如图14所示,首先,视点移动单元106基于已经配置的点云来确定从用户4正在执行进入的移动体2的移动体视点到空间监测视点的移动路径(S201)。
随后,视点移动单元106将指示要生成的第一迁移图像中的帧的数量的变量I设置为“1”(S203)。然后,视点移动单元106将包括在要生成的第一迁移图像中的帧的总数设置为N(S205)。
随后,视点移动单元106确定I是否小于或等于N(S207)。在I小于或等于N的情况下(S207:是),视点移动单元106沿着在S201中确定的移动路径将视点位置移动到第I帧的时间点。另外,视点移动单元106确定在第I帧的时间点处的视点处的方向和视角,使得在视点处的方向和视角根据视点位置的移动连续改变(S209)。
随后,视频生成单元108基于移动的视点位置和已经配置的点云生成第I帧(S211)。
随后,视点移动单元106将“1”加到I(S213)。然后,视点移动单元106再次执行S207的处理。
在S207中I大于N的情况下,即,在第一迁移视频的生成已经结束的情况下(S207:否),输出控制单元110使所生成的第一迁移视频显示在用户4在视觉上识别的显示区域中(S215)。然后,服务器10结束“离开处理”。
[2-2-3、进入处理]
接下来,参考图15,将详细描述S111中的“进入处理”的内容。如图15所示,首先,视点移动单元106基于已经配置的点云,确定从当前空间监测视点到用户4在S109中选择的作为“进入”目标的移动体2的移动体视点的移动路径(S301)。
注意,图15中所示的S303至S315的处理基本上类似于在“离开处理”中的S203至S215的处理。
<2-3、效果>
[2-3-1、效果1]
如上所述,当在工作空间中的移动体2的移动体视点之间进行移动时,根据本实施方式的服务器10使移动通过空间监测视点。此外,在移动体视点与空间监测视点之间(在离开或进入期间)进行变换的情况下,服务器10通过基于预先配置的点云,在移动体2的移动体视点与空间监测视点之间连续移动视点位置,来生成迁移视频,然后,使所生成的迁移视频显示在用户4在视觉上识别的显示区域中。因此,由于工作空间中的视点移动可以没有空间间隙地呈现给用户4,所以用户4可以容易地理解由视点变换引起的位置关系的变化。
注意,在公知的技术中,公开了仅基于移动体视点提供视频的技术或仅基于空间监测视点提供视频的技术。然而,没有公开与本实施方式一样的用于在移动体2a的移动体视点与空间监测视点之间进行无缝变换并且进一步实现进入另一移动体2b的移动体视点的技术。本实施方式使得位于工作空间中的多个移动体2(人或机器人)的视点之间的变换能够自由地执行,同时保持空间连续性。因此,容易使位置上远隔的用户4(观察者)把握整个工作空间。
[2-3-2、效果2]
另外,例如,本实施方式适用于灾难现场等的远程监测、远程操作等。另外,由于本实施方式能够在移动体2和用户4之间配合,所以例如也适用于诸如远程手术和远程实验等各种领域。例如,用户4可以根据需要在移动体视频和空间监测视频之间切换的同时,通过参考视频来适当地提供移动体2的各种工作指令。
[2-3-3、效果3]
另外,根据本实施方式,可以配置用于技能传递的平台。例如,对于诸如运动、演奏乐器和工业艺术等技能的远程学习是有用的。例如,教师(移动体2)可以向远程学习者(用户4)展示他/她自己的技能,然后,学习者可以看一看并模仿。此外,学习者可以从任何空间监测视点和教师的视点观察教师的模范表演。另外,在教师的模范表演作为原物大小的3D模型投影在屏幕38上的情况下,学习者可以将他/她自己的表演与教师的模范表演进行比较。此外,教师的模范表演也可以被存档,然后,被封装,作为用于技能传递的新的交互式教科书。
[2-3-4、效果4]
另外,在移动体2是人的情况下,在离开期间,生成用户4从用户4正在进行进入的移动体2的头部离开,然后,视点相对于移动体2向后并且向上连续升高的这种第一迁移视频,然后,呈现给用户4。这允许用户4获得他/她离开移动体2的主体的感觉。
此外,根据本实施方式,可以配置用于研究人工脱体体验的平台。例如,因为在本实施方式中可以为用户4提供移动体视点和空间监测视点之间的无缝迁移,所以研究关于脱体体验的认知效果是有用的。
<2-4、应用示例>
上面已经描述了本实施方式。在上述实施方式中,上面已经基本描述了在单个工作空间中执行视点之间的变换的示例。同时,在预先提供多个工作空间的情况下,期望可以执行不同工作空间中的视点之间的变换。例如,如图16所示,期望可以执行从位于工作空间“房间A”的移动体2a的移动体视点或者空间监测视点到位于工作空间“房间B”的移动体2c的移动体视点的变换。
接下来,将描述本实施方式的应用示例。如稍后将描述的,根据本应用示例,可以生成连续连接位于不同工作空间中的移动体2的移动体视点的迁移视频,然后,使用户4在视觉上识别所生成的迁移视频。即使在使视点在不同的工作空间之间变换的情况下,这也允许用户4容易地理解由视点变换引起的位置关系的变化。
[2-4-1、配置]
首先,将详细描述根据本应用示例的服务器10的配置。注意,根据本应用示例的包括在服务器10中的结构元件与上述实施方式的结构元件(在图6中示出)类似。下面将仅描述与上述实施方式具有不同功能的结构元件,并且省略对重复内容的描述。
(2-4-1-1、空间信息获取单元102)
根据本应用例的空间信息获取单元102获取在多个工作空间的每一个中感测的三维信息和图像信息。例如,空间信息获取单元102从各个工作空间中的多个深度相机30中接收由设置在多个工作空间中的每个工作空间中的多个深度相机30感测的关于RGB-D的信息。
另外,针对每个工作空间,空间信息获取单元102基于已经获取的三维信息和图像信息来配置工作空间的点云。
(2-4-1-2、操作信息获取单元104)
例如,根据本应用示例的操作信息获取单元104获取关于用户4在空间监测视点模式期间使视点变换到位于任一工作空间中的移动体的视点或空间监测视点的操作的信息。注意,在本应用示例中,用户4可以执行将移动体2指定为进入目标的操作,例如,执行向另一工作空间中的空间监测视点变换的操作等。
-从列表中选择
例如,操作信息获取单元104能够获取关于从呈现给用户4的使视点变换到位于任何工作空间中的移动体视点或空间监测视点的列表中进行的选择的操作的信息。例如,如图17中所示的列表80可以向用户4呈现,其中关于移动体2的识别信息800和关于工作空间的识别信息802已经相关联。然后,用户4可以从列表80中选择作为“进入”目标的移动体2并从列表80中选择另一工作空间。注意,图17中所示的列表80表明,移动体“迈克尔”和移动体“杰西卡”位于工作空间“ABC大厦101房间”中,并且移动体“约翰”位于工作空间“XYZ大厅205房间”中。在这种情况下,例如,操作信息获取单元104获取关于用户4从列表80中选择作为“进入”目标的移动体2的操作的信息。或者,操作信息获取单元104也能够获取关于用户4从列表80中选择作为“进入”目标的移动体2所在的工作空间的操作的信息,并且基于获取的信息,指定作为进入目标的移动体2。或者,操作信息获取单元104从列表80中获取关于用户4选择用于使视点变换到另一工作空间中的空间监测视点的工作空间的操作的信息。
-从地图中选择
或者,操作信息获取单元104能够从呈现给用户4的地图获取关于选择的操作的信息,用于使视点变换到位于任何工作空间中的移动体视点或空间监测视点。例如,显示关于相应工作空间的识别信息822和关于位于相应工作空间中的移动体2的识别信息820(与关于相应工作空间的位置信息相关联)的如图18所示的地图可以向用户4呈现。然后,用户4可以从地图82选择移动体2,作为“进入”目标,或者从地图82中选择另一工作空间。注意,获取操作信息的具体示例类似于上述列表80的情况。
(2-4-1-3、视点移动单元106)
根据本应用示例的视点移动单元106在根据操作信息获取单元104获取的操作信息指定的变换目的地的工作空间中的移动体视点或空间监测视点与当前工作空间中的当前视点之间连续移动视点位置。例如,在当前视点是位于工作空间A中的移动体2a的移动体视点,并且变换目的地的视点是位于工作空间B中的移动体2b的移动体视点的情况下,视点移动单元106首先确定按照移动体2a的移动体视点、工作空间A中的空间监测视点、全景图、工作空间B中的空间监测视点和移动体2b的移动体视点的顺序连续连接的移动路径。然后,视点移动单元106沿着所确定的移动路径连续移动视点位置。在此处,全景图是显示工作空间A与工作空间B之间的位置关系的地图。
(2-4-1-4、视频生成单元108)
例如,在由用户4发出从在当前工作空间(例如,工作空间A)中的当前移动体视点执行离开并在位于另一工作空间(例如,工作空间B)中的某个移动体2b的移动体视点中执行进入的命令的情况下,根据本应用示例的视频生成单元108生成与由视点移动单元106连续移动的视点位置对应的迁移视频。例如,视频生成单元108可以在要生成的迁移视频之中,生成与按照工作空间A中的空间监测视点、全景图和工作空间B中的空间监测视点的顺序移动的视点位置对应的视频,作为视点按照缩小工作空间A、从工作空间A滚动到工作空间B,以及放大工作空间B的顺序移动的动画。图19是示出该动画的一帧的显示示例84的说明图。图19示出了例如当视点从工作空间“ABC大楼”移动到工作空间“XYZ大厅”时的动画的示例。
[2-4-2、效果]
如上所述,根据本应用示例,生成连续连接位于不同工作空间中的移动体2的移动体视点的迁移视频,然后,使所生成的迁移视频显示在用户4在视觉上识别的显示区域中。因此,即使在使视点在不同的工作空间之间变换的情况下,用户4也可以容易地理解由视点变换引起的位置关系的变化。
[2-4-3、变形例]
注意,以上描述已经针对在定义了多个工作空间的情况下生成包括全景图的迁移视频的示例,而本应用示例不限于这种示例。例如,在用户4正在进行进入的移动体2a和作为新的进入目标的移动体2b具有预定的位置关系的情况下,服务器10能够执行上述迁移视频的生成和显示控制。在此处,例如,预定位置关系可以是移动体2a和移动体2b彼此分开预定阈值或更多的情况,或者在移动体2a与移动体2b之间存在屏蔽(例如,墙壁)的情况。
<<3、硬件配置>>
接下来,将参考图20描述根据本实施方式的服务器10的硬件配置。如图20所示,服务器10包括CPU 150、ROM 152、RAM 154、内部总线156、接口158、存储装置160和通信装置162。
CPU 150用作算术处理装置和控制装置,并根据各种程序来控制服务器10中的整体操作。此外,CPU 150实现服务器10中的控制单元100的功能。注意,CPU 150包括诸如微处理器等处理器。
ROM 152存储由CPU150使用的控制数据(例如,程序和操作参数)等。
例如,RAM 154临时存储由CPU 150执行的程序等。
内部总线156包括CPU总线等。该内部总线156将CPU 150、ROM 152和RAM 154互相连接。
接口158将存储装置160和通信装置162连接到内部总线156。例如,存储装置160经由该接口158和内部总线156与CPU 150交换数据。
存储装置160是用作存储单元122的数据存储装置。例如,存储装置160包括记录介质、将数据记录在记录介质中的记录装置、从记录介质读出数据的读出装置、删除记录介质中记录的数据的删除装置等。
通信装置162是通信接口,包括用于连接到诸如公共网络或互联网等通信网络的通信装置等。另外,通信装置162可以是与无线局域网(LAN)兼容的通信装置、与长期演进(LTE)兼容的通信装置或与电线通信的有线通信装置。该通信装置162用作通信单元120。
<<4、变形例>>
上面参考附图描述了本公开的优选实施方式,而本公开不限于上述示例。本领域技术人员可以在所附权利要求的范围内找到各种变更和变形例,并且应该理解,将自然地落入本公开的技术范围内。
<4-1、变形例1>
例如,在上述实施方式中,描述了在移动体2是人的情况下移动体2佩戴耳机20(如图2所示)的示例,但是这种示例不是限制,也可以是佩戴全方位相机。
注意,在移动体2在头部佩戴公知的全方位相机的情况下,可以生成移动体2的整个周边的移动体视频。然而,不能实现立体视觉。
同时,考虑到通过使用移动体视频的应用,例如,工作支持,如果可以立体地观察移动体2的向前方向,则是有用的。因此,作为变形例,移动体2可以例如在头部的左侧和右侧(在耳朵上)佩戴全方位相机24,如图21所示。该全方位相机24例如包括具有超过180o的视角的相机和用于位置追踪的标记(marker)。当这些全方位相机24安装在头部的左侧和右侧时,例如,可以将在移动体2的前向的成像区域86和在移动体2的横向和后向的成像区域88成像,如图22所示。然后,由于在向向上的成像区域86由两个(左和右)全方位相机24成像,如图22所示,所以双眼立体视觉是可能的。
该变形例允许用户4在视觉上识别可以立体观察移动体2的前向的移动体视频。因此,通过使用移动体视频,在诸如工作支持等场景中是有用的。注意,在不需要立体视觉的情况下,仅应该限于安装在头部一侧上的全方位相机24的成像范围,然后,甚至在这种情况下,也可以获取移动体2的整个周边的视频。
<4-2、变形例2>
此外,根据本实施方式的信息处理***不需要具有运动捕捉传感器32。这是因为服务器10可以基于根据由多个深度相机30的感测而配置的点云以及安装在每个移动体2上的相机200捕捉的视频,来指定工作空间中的每个移动体2的移动体视点的方向(移动体2的移动方向)。
另外,作为另一变形例,用户4可以佩戴能够与服务器10通信的头戴式显示器(HMD),而不是安装多个投影仪36和多个屏幕38。在此处,在本公开中,HMD是显示区域的示例。该变形例允许用户4通过HMD在视觉上识别从服务器10传输的视频。
此外,在该变形例中,用户4的头部、眼睛等的运动可以由HMD感测。然后,在这种情况下,可以不安装运动捕捉传感器34。
<4-3、变形例3>
[4-3-1、自走式深度相机90]
另外,在上述实施方式中,已经描述了通过安装在工作空间中的多个深度相机30来感测关于工作空间的三维信息的示例,但是这种示例不是限制性的。例如,如图23所示,能够在工作空间中自由移动的自走式深度相机90可以感测关于工作空间的三维信息。例如,自走式深度相机90可以是已经连接了深度相机的无人驾驶车辆。
[4-3-2、安装式深度相机92]
或者,如图24所示,安装在移动体2上的安装式深度相机92可以感测关于工作空间的三维信息。在该变形例中,服务器10随着每个移动体2在工作空间中移动而依次配置点云。注意,在本变形例中,由于可以从移动体2的移动体视点获取三维信息,所以移动体视点也用作空间监测视点。因此,这种变形例允许服务器10生成移动体视频,作为与空间监测视频一样的视频。
或者,当(静止的)深度相机30、自走式深度相机90和安装式深度相机92中的任何两个或更多个组合使用时,也可以感测关于工作空间的三维信息。
<4-4、变形例4>
[4-4-1、限制示例1]
另外,作为另一变形例,服务器10还能够在满足预定条件的情况下限制离开或进入的执行。在此处,预定条件例如是在生成空间监测视频时还未充分获取关于工作空间的三维信息的情况。注意,在这种情况下,例如,当发出“离开”命令或“进入”命令时,服务器10可能输出错误显示或声音。
或者,服务器10可以在输出错误的同时将空间监测视点移动到充分地获取三维信息的位置。然后,服务器10能够在移动之后基于空间监测视点生成空间监测视频。
或者,在使用根据上述变形例3的自走式深度相机90或者安装式深度相机92的情况下,服务器10也可以移动自走式相机90或者佩戴安装式深度相机92的移动体2,使得充分获取三维信息。然后,服务器10能够基于新获取的三维信息生成空间监测视频。
或者,在工作空间中存在某个屏蔽的情况下,服务器10可以使某个机器人移动屏蔽。
[4-4-2、限制示例2]
可选地,上述预定条件可以是移动体2或管理员禁止离开或进入的情况。根据这种情况,例如,在移动体2是人的情况下,移动体2可以在隐私方面部分地限制进入。
[4-4-3、限制示例3]
或者,例如,上述预定条件可以是移动体2显著移动他/她的头部等的情况。根据该条件,在估计用户4在从移动体2进行离开或在移动体2内进行进入时感到的晕动症增加的情况下,可以施加限制,以便不执行离开和进入。
注意,在这种情况下,例如,当由用户4发出“离开”命令或“进入”命令时,服务器10还能够暂时中止执行离开或进入,然后,在移动体2的头部等的运动解决时,执行离开或进入。
<4-5、变形例5>
另外,在上述实施方式中,已经描述了本公开中的信息处理设备是服务器10的示例,但是这种示例不是限制。例如,信息处理设备可以是个人计算机(PC)、智能电话、平板终端、HMD、游戏控制台等。
另外,根据上述实施方式,也可以提供用于促使诸如CPU 150、ROM152和RAM 154等硬件发挥与根据上述实施方式的服务器10的相应组件等同的功能的计算机程序。另外,还提供了其上记录有计算机程序的记录介质。
此外,在本说明书中描述的效果仅仅是说明性或示例性的效果,而不是限制性的。即,利用或代替上述效果,根据本公开的技术可以从本说明书的描述中实现本领域技术人员清楚的其他效果。
另外,也可以如下配置本技术。
(1)一种信息处理设备,包括:
显示控制单元,其被配置为使在用户在视觉上识别的显示区域中显示第一视频,由安装在第一空间中移动的第一移动体上的第一成像单元捕捉所述第一视频,其中,
所述显示控制单元生成与在作为第一成像单元的视点的第一视点和用于对第一空间进行成像的第二视点之间连续移动的视点位置对应的第一迁移视频。
(2)根据(1)所述的信息处理设备,还包括:
空间信息获取单元,其被配置为获取关于第一空间的三维信息;以及
视点移动单元,其被配置为基于由所述空间信息获取单元获取的关于第一空间的三维信息,在第一视点和第二视点之间连续移动视点位置,其中,
所述显示控制单元基于所述视点移动单元的视点位置的移动来生成第一迁移视频。
(3)根据(2)所述的信息处理设备,还包括:
操作信息获取单元,其被配置为获取关于检测用户对于从第一视点到第二视点的移动的第一操作的信息,其中,
当检测到第一操作时,所述显示控制单元生成第一迁移视频,并使生成的第一迁移视频显示在显示区域中。
(4)根据(3)所述的信息处理设备,其中,
所述视点移动单元确定第一视点用作起点并且第二视点用作终点的视点位置的移动路径,并且沿着所确定的移动路径连续移动视点位置。
(5)根据(4)所述的信息处理设备,其中,
所述视点移动单元进一步确定移动路径上的视点方向,使得所述视点方向根据视点位置的移动而连续改变。
(6)根据(5)所述的信息处理设备,其中,
所述视点移动单元使在移动路径的起点处的视点方向与第一视点的方向一致,并且使在移动路径的终点处的视点方向与第二视点的方向一致。
(7)根据(5)或(6)所述的信息处理设备,其中,
所述视点移动单元进一步确定移动路径上的视点的视角,使得视点的视角根据视点位置的移动而连续改变。
(8)根据(4)到(7)中任一项所述的信息处理设备,其中,
所述视点移动单元基于当前视点位置与移动路径上的终点的位置之间的位置关系来改变视点位置的移动速度。
(9)根据(8)所述的信息处理设备,其中,
所述视点移动单元随着当前视点位置与移动路径上的终点的位置之间的距离变短而减小视点位置的移动速度。
(10)根据(8)或(9)所述的信息处理设备,其中,
所述视点移动单元确定视点位置的移动速度,使得经过时间与视点位置的移动速度之间的关系变为非线性。
(11)根据(4)到(10)中任一项所述的信息处理设备,其中,
所述第二视点相对于第一空间中的第一移动体设置在后方且设置在上方,并且
所述第二视点指向第一移动体。
(12)根据(4)到(11)中任一项所述的信息处理设备,其中,
在从第一视点移动到第二视点之后,所述操作信息获取单元还获取关于检测用户选择第二移动体的第二操作的信息,并且
所述显示控制单元生成与在第二视点和作为在由第二操作选择的第二移动体上安装的第二成像单元的视点的第三视点之间连续移动的视点位置对应的第二迁移视频,并且使所生成的第二迁移视频显示在显示区域中。
(13)根据(12)所述的信息处理设备,其中,
所述第二移动***于第一空间内,并且
所述第二操作是用户选择一个或多个第二移动体中的任何一个的操作。
(14)根据(12)或(13)所述的信息处理设备,其中,
所述视点移动单元进一步确定第二视点用作起点并且第三视点用作终点的视点位置的第二移动路径,并且沿着所确定的第二移动路径连续移动视点位置,并且
所述显示控制单元基于视点位置沿着第二移动路径的移动来生成第二迁移视频。
(15)根据(14)所述的信息处理设备,其中,
所述视点移动单元进一步确定第二移动路径上的视点方向,使得视点方向根据视点位置沿着第二移动路径的移动而连续改变。
(16)根据(15)所述的信息处理设备,其中,
所述视点移动单元使在第二移动路径的起点处的视点方向与当检测到第二操作时的用户的方向一致,并且使在第二移动路径的终点处的视点方向与第三视点的方向一致。
(17)根据(12)到(16)中任一项所述的信息处理设备,其中,
在由第二操作选择的第二移动***于第二空间内的情况下,所述显示控制单元使在显示区域中显示空间移动视频,所述空间移动视频基于视点位置从第二视点到用于对第二空间进行成像的第四视点的连续移动,并且
在空间移动视频结束之后,所述显示控制单元使在显示区域中显示第二迁移视频,所述第二迁移视频与在第四视点和作为安装在由第二操作选择的第二移动体上的第二成像单元的视点的第三视点之间连续移动的视点位置对应。
(18)根据(17)所述的信息处理设备,其中,
所述空间移动视频是显示在第一空间与第二空间之间的位置关系的视频。
(19)一种信息处理方法,包括:
使第一视频显示在用户在视觉上识别的显示区域中,由安装在第一空间中移动的第一移动体上的第一成像单元捕捉所述第一视频,并且
由处理器生成与在作为第一成像单元的视点的第一视点和用于对第一空间进行成像的第二视点之间连续移动的视点位置对应的第一迁移视频。
(20)一种程序,用于促使计算机用作显示控制单元,所述显示控制单元被配置为在用户在视觉上识别的显示区域中显示第一视频,由安装在第一空间中移动的第一移动体上的第一成像单元捕捉所述第一视频,其中,
所述显示控制单元生成与在作为第一成像单元的视点的第一视点和用于对第一空间进行成像的第二视点之间连续移动的视点位置对应的第一迁移视频。
附图标记列表
2 移动体
4 用户
10 服务器
20 耳机
24 全方位相机
30 深度相机
32、34 运动捕捉传感器
36 投影仪
38 屏幕
90 自走式深度相机
92 安装式深度相机
100 控制单元
102 空间信息获取单元
104 操作信息获取单元
106 视点移动单元
108 视频生成单元
110 输出控制单元
120 通信单元
122 存储单元

Claims (20)

1.一种信息处理设备,包括:
显示控制单元,被配置为使第一视频显示在用户在视觉上识别的显示区域中,所述第一视频由第一空间中移动的第一移动体上安装的第一成像单元来捕捉,其中,
所述显示控制单元生成与在作为所述第一成像单元的视点的第一视点和用于对所述第一空间进行成像的第二视点之间连续移动的视点位置对应的第一迁移视频。
2.根据权利要求1所述的信息处理设备,进一步包括:
空间信息获取单元,被配置为获取关于所述第一空间的三维信息;以及
视点移动单元,被配置为基于由所述空间信息获取单元获取的关于所述第一空间的所述三维信息,在所述第一视点与所述第二视点之间连续移动所述视点位置,其中,
所述显示控制单元基于所述视点移动单元对所述视点位置的移动来生成所述第一迁移视频。
3.根据权利要求2所述的信息处理设备,进一步包括:
操作信息获取单元,被配置为获取与对所述用户用于从所述第一视点到所述第二视点的移动的第一操作进行的检测有关的信息,其中,
当所述第一操作被检测到时,所述显示控制单元生成所述第一迁移视频,并且使生成的所述第一迁移视频显示在所述显示区域中。
4.根据权利要求3所述的信息处理设备,其中,
所述视点移动单元确定将所述第一视点作为起点并且将所述第二视点作为终点的所述视点位置的移动路径,并且沿着确定出的所述移动路径连续移动所述视点位置。
5.根据权利要求4所述的信息处理设备,其中,
所述视点移动单元进一步确定所述移动路径上的视点方向,使得所述视点方向根据所述视点位置的移动而连续改变。
6.根据权利要求5所述的信息处理设备,其中,
所述视点移动单元使所述移动路径的起点处的视点方向与所述第一视点的方向一致,并且使所述移动路径的终点处的视点方向与所述第二视点的方向一致。
7.根据权利要求5所述的信息处理设备,其中,
所述视点移动单元进一步确定所述移动路径上的视点的视角,使得所述视点的视角根据所述视点位置的移动而连续改变。
8.根据权利要求4所述的信息处理设备,其中,
所述视点移动单元基于当前视点位置与所述移动路径上的终点的位置之间的位置关系来改变所述视点位置的移动速度。
9.根据权利要求8所述的信息处理设备,其中,
所述视点移动单元随着所述当前视点位置与所述移动路径上的终点的位置之间的距离变短而减小所述视点位置的所述移动速度。
10.根据权利要求8所述的信息处理设备,其中,
所述视点移动单元确定所述视点位置的所述移动速度,使得经过时间与所述视点位置的所述移动速度之间的关系变成非线性的。
11.根据权利要求4所述的信息处理设备,其中,
所述第二视点在所述第一空间中设置在所述第一移动体的后方且设置在所述第一移动体的上方,并且
所述第二视点指向所述第一移动体。
12.根据权利要求4所述的信息处理设备,其中,
在从所述第一视点移动到所述第二视点之后,所述操作信息获取单元进一步获取与对所述用户选择第二移动体的第二操作进行的检测有关的信息,并且
所述显示控制单元生成与在所述第二视点和作为安装在由所述第二操作选择的所述第二移动体上的第二成像单元的视点的第三视点之间连续移动的所述视点位置对应的第二迁移视频,并且使所生成的第二迁移视频显示在所述显示区域中。
13.根据权利要求12所述的信息处理设备,其中,
所述第二移动***于所述第一空间内,并且
所述第二操作是所述用户选择一个或多个所述第二移动体中的任何一个的操作。
14.根据权利要求12所述的信息处理设备,其中,
所述视点移动单元进一步确定将所述第二视点作为起点并且将所述第三视点作为终点的所述视点位置的第二移动路径,并且沿着确定出的所述第二移动路径连续移动所述视点位置,并且
所述显示控制单元基于所述视点位置沿着所述第二移动路径的移动来生成所述第二迁移视频。
15.根据权利要求14所述的信息处理设备,其中,
所述视点移动单元进一步确定所述第二移动路径上的视点方向,使得所述视点方向根据所述视点位置沿着所述第二移动路径的移动而连续改变。
16.根据权利要求15所述的信息处理设备,其中,
所述视点移动单元使所述第二移动路径的起点处的所述视点方向与检测到所述第二操作时的所述用户的方向一致,并且使所述第二移动路径的终点处的所述视点方向与所述第三视点的方向一致。
17.根据权利要求12所述的信息处理设备,其中,
在由所述第二操作选择的所述第二移动***于第二空间内的情况下,所述显示控制单元使空间移动视频显示在所述显示区域中,所述空间移动视频基于所述视点位置从所述第二视点到用于对所述第二空间进行成像的第四视点的连续移动,并且
在所述空间移动视频结束之后,所述显示控制单元使第二迁移视频显示在所述显示区域中,该第二迁移视频与在所述第四视点和作为安装在由所述第二操作选择的所述第二移动体上的所述第二成像单元的视点的所述第三视点之间连续移动的所述视点位置对应。
18.根据权利要求17所述的信息处理设备,其中,
所述空间移动视频是示出所述第一空间与所述第二空间之间的位置关系的视频。
19.一种信息处理方法,包括:
使第一视频显示在用户在视觉上识别的显示区域中,所述第一视频由在第一空间中移动的第一移动体上安装的第一成像单元来捕捉;以及
由处理器生成与在作为所述第一成像单元的视点的第一视点和用于对所述第一空间进行成像的第二视点之间连续移动的视点位置对应的第一迁移视频。
20.一种程序,用于使计算机用作显示控制单元,所述显示控制单元被配置为第一视频显示在用户在视觉上识别的显示区域中,所述第一视频由在第一空间中移动的第一移动体上安装的第一成像单元来捕捉,其中,
所述显示控制单元生成与在作为所述第一成像单元的视点的第一视点和用于对所述第一空间进行成像的第二视点之间连续移动的视点位置对应的第一迁移视频。
CN201680053720.1A 2015-09-25 2016-07-12 信息处理设备、信息处理方法与程序 Pending CN108028910A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562232621P 2015-09-25 2015-09-25
US62/232,621 2015-09-25
PCT/JP2016/070585 WO2017051592A1 (ja) 2015-09-25 2016-07-12 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
CN108028910A true CN108028910A (zh) 2018-05-11

Family

ID=58385975

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680053720.1A Pending CN108028910A (zh) 2015-09-25 2016-07-12 信息处理设备、信息处理方法与程序

Country Status (6)

Country Link
US (1) US10600253B2 (zh)
EP (1) EP3355576A4 (zh)
JP (1) JPWO2017051592A1 (zh)
KR (1) KR20180059765A (zh)
CN (1) CN108028910A (zh)
WO (1) WO2017051592A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109901371A (zh) * 2019-03-01 2019-06-18 懿春秋(北京)科技有限公司 一种全息成像***和方法
CN110716639A (zh) * 2018-07-12 2020-01-21 苹果公司 具有基于眼睛活动的显示器操作的电子设备
CN111727605A (zh) * 2018-06-01 2020-09-29 Lg电子株式会社 用于发送和接收关于多个视点的元数据的方法及设备
CN112330556A (zh) * 2020-11-03 2021-02-05 燕山大学 一种基于有理贝塞尔曲面的球幕投影几何校正方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10750161B2 (en) * 2015-07-15 2020-08-18 Fyusion, Inc. Multi-view interactive digital media representation lock screen
JP6518982B2 (ja) * 2016-11-07 2019-05-29 Soinn株式会社 動作転移装置、動作転移方法及び動作転移プログラムが格納された非一時的なコンピュータ可読媒体
US11039084B2 (en) * 2017-11-14 2021-06-15 VergeSense, Inc. Method for commissioning a network of optical sensors across a floor space
GB2569130B (en) 2017-12-05 2020-11-04 Ali Musallam Ibrahim Method and system for sharing an item of media content
JP2021514573A (ja) 2018-02-17 2021-06-10 ドリームヴュ,インコーポレイテッド マルチセンサを使用してオムニステレオビデオを捕捉するためのシステム及び方法
US11736675B2 (en) * 2018-04-05 2023-08-22 Interdigital Madison Patent Holdings, Sas Viewpoint metadata for omnidirectional video
JP7246146B2 (ja) * 2018-08-28 2023-03-27 株式会社Nttドコモ 情報処理装置及び映像投影システム
WO2021176947A1 (ja) * 2020-03-06 2021-09-10 ソニーグループ株式会社 情報処理装置、及び情報処理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03175886A (ja) * 1989-12-05 1991-07-30 Sony Corp 画像処理装置
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
US20130069862A1 (en) * 2011-01-28 2013-03-21 Empire Technology Development Llc Remote movement guidance
CN103620527A (zh) * 2011-05-10 2014-03-05 寇平公司 使用动作和语音命令来控制信息显示和远程设备的头戴式计算机
JP2014127987A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置および記録媒体
CN104522921A (zh) * 2014-12-11 2015-04-22 佛山市威格特电气设备有限公司 增强现实智能安全帽
US9088787B1 (en) * 2012-08-13 2015-07-21 Lockheed Martin Corporation System, method and computer software product for providing visual remote assistance through computing systems

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3928229B2 (ja) * 1997-11-28 2007-06-13 ソニー株式会社 表示制御装置および表示制御方法、並びに記録媒体
US7312766B1 (en) * 2000-09-22 2007-12-25 Canadian Space Agency Method and system for time/motion compensation for head mounted displays
JP3495011B2 (ja) * 2000-11-21 2004-02-09 株式会社ソニー・コンピュータエンタテインメント 情報処理方法及びプログラム実行装置、コンピュータに実行させるための情報処理プログラム及びコンピュータに実行させるための情報処理プログラムを記録した記録媒体
JP5109221B2 (ja) * 2002-06-27 2012-12-26 新世代株式会社 ストロボスコープを使った入力システムを備える情報処理装置
JP4140518B2 (ja) * 2003-12-15 2008-08-27 ソニー株式会社 情報処理装置および方法、並びにプログラム
US7872665B2 (en) * 2005-05-13 2011-01-18 Micoy Corporation Image capture and processing
US20080096654A1 (en) * 2006-10-20 2008-04-24 Sony Computer Entertainment America Inc. Game control using three-dimensional motions of controller
US20080096657A1 (en) * 2006-10-20 2008-04-24 Sony Computer Entertainment America Inc. Method for aiming and shooting using motion sensing controller
JP5436773B2 (ja) * 2007-12-14 2014-03-05 株式会社バンダイナムコゲームス プログラム及びゲーム装置
JP5436772B2 (ja) * 2007-12-14 2014-03-05 株式会社バンダイナムコゲームス プログラム及びゲーム装置
US9185361B2 (en) * 2008-07-29 2015-11-10 Gerald Curry Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information
JP5491217B2 (ja) * 2010-01-27 2014-05-14 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、ゲームシステム
JP5520146B2 (ja) * 2010-06-30 2014-06-11 キヤノン株式会社 映像受信装置、及びその制御方法
JP5622986B2 (ja) 2010-07-27 2014-11-12 富士通テン株式会社 画像表示システム、画像処理装置及び画像表示方法
US9396385B2 (en) * 2010-08-26 2016-07-19 Blast Motion Inc. Integrated sensor and video motion analysis method
JP5597837B2 (ja) * 2010-09-08 2014-10-01 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、及び、画像生成装置
JP2012109719A (ja) * 2010-11-16 2012-06-07 Canon Inc 映像処理装置及びその制御方法
JP2012128737A (ja) * 2010-12-16 2012-07-05 Samsung Yokohama Research Institute Co Ltd 3d映像生成システム
JP5790187B2 (ja) * 2011-06-16 2015-10-07 ソニー株式会社 表示装置
US8982117B2 (en) * 2011-06-22 2015-03-17 Samsung Display Co., Ltd. Display apparatus and method of displaying three-dimensional image using same
JP5996169B2 (ja) * 2011-07-27 2016-09-21 オリンパス株式会社 画像処理システム、情報処理装置及びプログラム
US9116555B2 (en) * 2011-11-23 2015-08-25 Sony Computer Entertainment America Llc Gaming controller
US8870654B2 (en) * 2011-11-23 2014-10-28 Sony Computer Entertainment America Llc Gaming controller
US9008487B2 (en) 2011-12-06 2015-04-14 Alcatel Lucent Spatial bookmarking
JP5425881B2 (ja) * 2011-12-22 2014-02-26 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
KR20130107584A (ko) * 2012-03-22 2013-10-02 삼성디스플레이 주식회사 3차원 영상 표시 방법 및 이를 수행하기 위한 표시 장치
JP6094190B2 (ja) * 2012-12-10 2017-03-15 ソニー株式会社 情報処理装置および記録媒体
JP5892060B2 (ja) * 2012-12-25 2016-03-23 カシオ計算機株式会社 表示制御装置、表示制御システム、表示制御方法及びプログラム
JP5853975B2 (ja) * 2013-03-15 2016-02-09 ソニー株式会社 画像表示装置及び画像表示方法
JP6281737B2 (ja) * 2013-05-29 2018-02-21 カシオ計算機株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP5597762B1 (ja) * 2013-12-27 2014-10-01 パナソニック株式会社 活動マップ分析装置、活動マップ分析システムおよび活動マップ分析方法
JP6515813B2 (ja) 2014-02-17 2019-05-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03175886A (ja) * 1989-12-05 1991-07-30 Sony Corp 画像処理装置
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
US20130069862A1 (en) * 2011-01-28 2013-03-21 Empire Technology Development Llc Remote movement guidance
CN103620527A (zh) * 2011-05-10 2014-03-05 寇平公司 使用动作和语音命令来控制信息显示和远程设备的头戴式计算机
US9088787B1 (en) * 2012-08-13 2015-07-21 Lockheed Martin Corporation System, method and computer software product for providing visual remote assistance through computing systems
JP2014127987A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置および記録媒体
CN104522921A (zh) * 2014-12-11 2015-04-22 佛山市威格特电气设备有限公司 增强现实智能安全帽

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111727605A (zh) * 2018-06-01 2020-09-29 Lg电子株式会社 用于发送和接收关于多个视点的元数据的方法及设备
CN111727605B (zh) * 2018-06-01 2022-09-13 Lg电子株式会社 用于发送和接收关于多个视点的元数据的方法及设备
CN110716639A (zh) * 2018-07-12 2020-01-21 苹果公司 具有基于眼睛活动的显示器操作的电子设备
CN110716639B (zh) * 2018-07-12 2022-06-21 苹果公司 具有基于眼睛活动的显示器操作的电子设备
US11782503B2 (en) 2018-07-12 2023-10-10 Apple Inc. Electronic devices with display operation based on eye activity
CN109901371A (zh) * 2019-03-01 2019-06-18 懿春秋(北京)科技有限公司 一种全息成像***和方法
CN109901371B (zh) * 2019-03-01 2021-09-03 悠游笙活(北京)网络科技有限公司 一种全息成像***和方法
CN112330556A (zh) * 2020-11-03 2021-02-05 燕山大学 一种基于有理贝塞尔曲面的球幕投影几何校正方法
CN112330556B (zh) * 2020-11-03 2022-04-19 燕山大学 一种基于有理贝塞尔曲面的球幕投影几何校正方法

Also Published As

Publication number Publication date
KR20180059765A (ko) 2018-06-05
EP3355576A4 (en) 2019-05-01
WO2017051592A1 (ja) 2017-03-30
US10600253B2 (en) 2020-03-24
US20180247463A1 (en) 2018-08-30
EP3355576A1 (en) 2018-08-01
JPWO2017051592A1 (ja) 2018-08-16

Similar Documents

Publication Publication Date Title
CN108028910A (zh) 信息处理设备、信息处理方法与程序
RU2754991C2 (ru) Система устройства просмотра смешанной реальности и способ для него
CN107315470B (zh) 图形处理方法、处理器和虚拟现实***
CN108304063B (zh) 信息处理装置、信息处理方法和计算机可读介质
JP6918455B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP2629267A2 (en) Real-time compositing of live recording-based and computer graphics-based media streams
US11212515B2 (en) Information processing device and information processing method
CN107924584A (zh) 增强现实
JP6807455B2 (ja) 情報処理装置および画像生成方法
CN108377361B (zh) 一种监控视频的显示控制方法及装置
CN105929538A (zh) 一种虚拟现实设备的显示方法及装置
US20210385555A1 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of actors
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20170081456A (ko) 가상현실 기반 개인형 체험요소 공유 시스템 및 그 방법
GB2562815A (en) Methods and systems for viewing and editing computer-based designs
EP3493541B1 (en) Selecting an omnidirectional image for display
JP2018007180A (ja) 映像表示装置、映像表示方法及び映像表示プログラム
WO2022014170A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
JPWO2018062251A1 (ja) 情報処理装置
JP6739539B2 (ja) 情報処理装置
Zainudin et al. Implementing immersive virtual reality: Lessons learned and experience using open source game engine
US11310472B2 (en) Information processing device and image generation method for projecting a subject image onto a virtual screen
JP5656809B2 (ja) 会話映像表示システム
JP2020136821A (ja) 情報処理装置及びその制御方法、プログラム
US20240078767A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20201127