CN110651304A - 信息处理装置、信息处理方法以及程序 - Google Patents
信息处理装置、信息处理方法以及程序 Download PDFInfo
- Publication number
- CN110651304A CN110651304A CN201880032211.XA CN201880032211A CN110651304A CN 110651304 A CN110651304 A CN 110651304A CN 201880032211 A CN201880032211 A CN 201880032211A CN 110651304 A CN110651304 A CN 110651304A
- Authority
- CN
- China
- Prior art keywords
- image
- user
- control unit
- viewpoint
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 65
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 230000008859 change Effects 0.000 claims abstract description 18
- 230000002093 peripheral effect Effects 0.000 claims abstract description 18
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 4
- 230000003111 delayed effect Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 35
- 238000004891 communication Methods 0.000 description 31
- 238000001514 detection method Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 201000003152 motion sickness Diseases 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【课题】本公开提出了能够在改变在三维虚拟空间中显示的图像时降低用户的不舒服感的、新且改进的信息处理装置、信息处理方法以及程序。【解决方案】根据本公开,提供了一种包括控制单元的信息处理装置,该控制单元执行以用户的第一人称视点显示设置所观看目标图像的三维虚拟空间的控制,以在固定所观看目标图像的周边图像的同时改变所观看目标图像。所观看目标图像是用户要观看的目标。
Description
技术领域
本公开涉及信息处理装置、信息处理方法以及程序。
背景技术
专利文献1公开了一种用于在三维虚拟空间中设置对象图像和全景图像并以用户的视点(即,第一人称视点)显示图像的技术。
引用列表
专利文献
专利文献1:日本专利申请特开No.2013-97094
发明内容
本发明要解决的问题
顺便说一下,在以第一人称视点显示的所有这种图像在同一时间段改变的情况下,用户有时对图像的改变感到不舒服。这种不舒服的感觉可能表现为所谓的晕动病。
因此,本公开提出了能够在改变在三维虚拟空间中显示的图像时减少用户的不舒服感的、新且改进的信息处理装置、信息处理方法以及程序。
技术方案
根据本公开,提供了一种包括控制单元的信息处理装置,该控制单元执行以用户的第一人称视点显示设置所观看目标图像的三维虚拟空间的控制,并且执行在固定所观看目标图像的周边图像的同时改变所观看目标图像的控制,所观看目标图像是用户要观看的目标。
根据本公开,提供了一种信息处理方法,该信息处理方法包括以下步骤:在处理器的控制下,以用户的第一人称视点显示设置用户要观看的所观看目标图像的三维虚拟空间;以及在固定所观看目标图像的周边图像的同时移动所观看目标图像。
根据本公开,提供了一种用于使得计算机实现控制功能的程序,该控制功能执行以用户的第一人称视点显示设置所观看目标图像的三维虚拟空间的控制,并且执行在固定所观看目标图像的周边图像的同时改变所观看目标图像的控制,所观看目标图像是用户要观看的目标。
根据本公开,改变预期用户的注意力集中在上面的所观看目标图像,并且固定在所观看目标图像周围的周边图像。由此,可以降低用户的不舒服感。
本发明的有益效果
如上所述,根据本公开,可以在改变在三维虚拟空间中显示的图像时降低用户的不舒服感。注意,效果不是必须限于上面描述,并且除了上述效果之外或代替上述效果,本公开还可以具有这里描述的效果或从本说明书可想到的其他效果中的任意一个。
附图说明
图1是例示了根据本公开的实施例的信息处理***的使用状态的示例的说明图。
图2是例示了控制装置的构造的框图。
图3是例示了显示装置的构造的框图。
图4是例示了由信息处理***进行的处理的示例的流程图。
图5是例示了由信息处理***进行的处理的示例的流程图。
图6是例示了显示装置上的显示的示例的说明图。
图7是例示了显示装置上的显示的示例的说明图。
图8是例示了显示装置上的显示的示例的说明图。
图9是例示了显示装置上的显示的示例的说明图。
图10是例示了显示装置上的显示的示例的说明图。
图11是例示了显示装置上的显示的示例的说明图。
图12是例示了显示装置上的显示的示例的说明图。
图13是例示了显示装置上的显示的示例的说明图。
具体实施方式
下文中,将参照附图详细描述本公开的优选实施例。注意,在本说明书和附图中,具有大致相同功能构造的部件将由相同的附图标记来表示,并且将省略冗余的描述。
注意,描述将按以下顺序给出。
1、信息处理***的构造
1-1、整体构造
1-2、控制装置的构造
1-3、显示装置的构造
2、第一显示控制处理
3、第二显示控制处理
<1、信息处理装置的构造>
(1-1、整体构造)
首先,将参照图1描述根据本实施例的信息处理***1的整体构造。如图1例示,信息处理***1包括控制装置(信息处理装置)10、显示装置20以及通信电缆30。
控制装置10在三维虚拟空间中设置实际场景图像。然后,控制装置10使得显示装置20以用户的第一人称视点,显示设置实际场景图像的三维虚拟空间。具体地,控制装置10设置是虚拟空间中的用户视点的虚拟用户视点,并且生成从虚拟用户的视点看到的显示图像。这里,虚拟用户的视点基于从显示装置20发送的姿态检测信息来指定。姿态检测信息由在显示装置20中并入的姿态检测单元来生成。“从虚拟用户视点看到的图像”意指在虚拟空间中在用户的视场中看到的图像。然后,控制装置10使得显示装置20显示显示图像。
显示装置20包括所谓的头戴式显示器(HMD),并且安装在人U(用户)的眼睛周围。然后,在显示装置20上显示上述显示图像。然后,当虚拟用户的视点由于用户的操作(例如,面部移动、用于“向前移动”的指示操作等)而变化时,显示图像根据操作变化。因此,用户可以犹如用户存在于实际场景中一样地享受虚拟体验。
注意,控制装置10和显示装置10可以一体构成。例如,显示装置20可以具有控制装置10的功能。此外,显示装置20不限于头戴式显示器,并且可以是另一种显示器。例如,显示装置20可以包括静止显示器或便携式终端(例如,移动电话、智能电话、智能平板电脑、便携式游戏装置等)的显示器。在这种情况下,姿态检测单元可以通过例如为显示器或便携式终端设置成像装置来实现。
顺便,在显示图像的整体在同一时间段根据虚拟用户视点的变化而变化的情况下,用户有时关于实际场景图像的变化感觉不舒服。例如,在实际场景图像沿着实际场景图像中的道路图像移动的情况下,用户可能具有用户在移动的错觉,虽然他/她实际上未移动。当然,可以说用于以第一人称视点显示实际场景图像的技术是用于用这种错觉娱乐用户的技术。然而,这种错觉可能使得一些用户具有不舒服的感觉。另外,这种不舒服的感觉可能引起所谓的晕动病。此外,以第一人称视点显示的图像频繁变化,这也可能使得用户感觉不舒服。特别地,因为头戴式显示器用作显示装置20,所以图像显示在用户的几乎整个视场上。因此,假定该构造高度可能使得用户具有不舒服感。
本发明人认为用户的不舒服感可能由于个人的视觉特性而引起。换言之,人将他的/她的注意力集中在在人的视场中看到的图像的、包括他的/她的视点的特定区域上。因此,即使图像在该区域中变化,也认为用户不经常感觉不舒服。另一方面,如果在用户将他的/她的注意力集中在上面的区域外部存在图像的变化,则认为存在用户感觉不舒服的高可能性。此外,还在存在用户意料之外的变化的情况下,认为存在用户具有不舒服感的高可能性。
因此,本发明人研究一种用于降低用户的不舒服感的技术。首先,本发明人研究一种传送技术。例如,假定虚拟用户的视点从设置实际场景图像的三维虚拟空间中的特定点移动到另一个,则在显示装置20上显示从移动的虚拟用户的视点看到的实际场景图像。换言之,实际场景图像在变化的状态下显示。用户可能关于这种变化感觉不舒服。因此,在传送技术中,紧接在显示特定点的实际场景图像之后,显示另一点的实际场景图像。然而,在该技术中,用户难以抓住移动期间的空间图像。此外,用户难以取得点之间的距离感。
接着,本发明人研究一种用于将固定图像(诸如车辆驾驶舱图像,例如)重叠在显示图像上的技术。可以预期在用户的视场中看到的这种固定物体可以降低用户的不舒服感。然而,该技术可能劣化真实感,这降低用户的探索体验的感觉。
接着,本发明人研究一种用于仅清楚显示预期用户将他的/她的注意力集中在上面的显示图像的区域并模糊或隐藏其周围的周边区域的技术。然而,该技术减少从显示图像获得的信息量。此外,降低用户的浸入感。
接着,本发明人研究第三人称视点。在该技术中,在虚拟空间中设置与用户对应的人物图像,并且以第三人称视点显示包括人物图像的区域。还可以预期该技术降低用户的不舒服感。然而,该技术劣化用户自己移动的用户感觉。
如上所述,上述技术中的任意一种显著劣化为用户提供的虚拟体验。因此,在本实施例中,当在预期用户将他的/她的注意力集中在上面的区域中改变图像(例如,移动视点图像230。参见稍后描述的第一显示控制处理)的同时,固定在该区域之外的周边图像。此外,图像的变化(例如,角色图像P的移动。参见稍后描述的第二显示控制处理)使得用户预测图像的下一变化。由此,用户可以以降低的不舒服感享受视觉体验。下文中,将详细地描述根据本实施例的信息处理***。
(1-2、控制装置的构造)
接着,将参照图1和图2描述控制装置10的构造。控制装置10包括通信单元11、存储单元12以及控制单元13。控制装置10包括中央处理单元(CPU)(即,处理器)、随机存取存储器(RAM)、只读存储器(ROM)、硬盘、通信装置等,作为硬件构造。在ROM中,记录对于控制装置10的处理必要的信息,诸如程序。CPU读取并执行在ROM中存储的程序。
通信单元11包括例如通信装置,并且经由通信电缆30与显示装置20通信。此外,通信单元11还能够经由未例示的网络与其他信息处理装置通信,并且例如可以借助通信获取实际场景图像、地图图像等。实际场景图像是通过对实际场景成像获得的图像。通信单元11向控制单元13输出每次通信单元11与显示装置20通信时获得的信息。此外,通信单元11向显示装置20发送从控制单元13提供的信息,例如,显示图像。
存储单元12例如包括ROM、RAM、硬盘等,并且存储对于控制装置10的处理必要的信息。例如,存储单元12存储程序、各种图像等。这里,在存储单元12中存储的图像包括实际场景图像、地图图像等。
控制单元13例如包括CPU等,并且控制控制装置10的各部件。此外,控制单元13生成要在显示装置20上显示的显示图像,并且向通信单元11输出显示图像。虽然稍后将给出其详细描述,但控制单元13在三维虚拟空间中设置实际场景图像。接着,控制单元13设置是虚拟空间中的用户视点的虚拟用户视点,并且生成从虚拟用户的视点看到的显示图像。
(1-3、显示装置的构造)
接着,将参照图1和图3描述显示装置20的构造。显示装置20包括通信单元21、姿态检测单元22、显示单元23以及显示控制单元24。显示装置20包括中央处理单元(CPU)(即,处理器)、随机存取存储器(RAM)、只读存储器(ROM)、姿态检测传感器、头戴式显示装置、通信装置等,作为硬件构造。在ROM中,记录对于显示装置20的处理必要的信息,诸如程序。CPU读取并执行在ROM中存储的程序。
通信单元21包括例如通信装置等,并且经由通信电缆30与控制装置10通信。通信单元21向显示控制单元24输出每次通信单元21与控制装置10通信时获得的信息,例如,显示图像。此外,通信单元21向控制装置10发送从显示控制单元24提供的、稍后将描述的信息,例如,姿态检测信息。
姿态检测单元22包括例如姿态检测传感器,并且检测显示装置20的姿态。姿态检测传感器例如可以是陀螺仪传感器。姿态检测单元22生成与显示装置20的姿态有关的姿态检测信息,并且向显示控制单元24输出所生成的姿态检测信息。这里,显示装置20的姿态取决于用户头部的方位变化。然后,可以基于用户头部的方位粗略识别用户的视点。因此,在本实施例中,使用姿态检测信息来指定虚拟用户的视点。如上所述,虚拟用户的视点基于来自姿态检测单元22的姿态检测信息来指定。因此,用户可以通过改变用户头部的方位来移动虚拟用户的视点。
这里,姿态检测传感器可以是用于检测用户视线的视线检测传感器(即,用于对用户眼睛附近的图像成像的成像装置)。在这种情况下,姿态检测传感器可以直接检测用户的视线。此外,用户可以通过改变视线来移动虚拟用户的视点。
此外,信息处理***1可以包括能够接收来自用户的输入操作的输入操作装置。控制单元13可以基于从输入操作装置给出的输入操作信息来移动虚拟用户的视点。
此外,信息处理***1还可以包括用于检测整个用户身体的姿势的传感器(例如,成像装置)。然后,控制单元13可以基于从传感器提供的检测信息来指定虚拟用户的视点。换言之,在这种情况下,控制单元13一体使用用户的面部、身体以及视线的方位。
显示单元23包括例如头戴式显示装置,并且在显示控制单元24的控制下显示显示图像等。
显示控制单元24例如包括CPU等,并且控制显示装置20的各部件。此外,显示控制单元使得显示单元23显示从通信单元21提供的显示图像。此外,显示控制单元24向通信单元21输出从姿态检测单元22提供的姿态检测信息。
(2、第一显示控制处理)
接着,将详细描述由控制装置10的控制单元13执行的显示控制。控制单元13执行以用户的第一人称视点,显示设置所观看目标图像的三维虚拟空间的控制。所观看目标图像是用户要观看的目标。然后,控制单元13执行在固定所观看目标图像的周边图像的同时改变所观看目标图像的控制。具体地,控制单元13执行第一显示控制处理和第二显示控制处理。注意,控制单元13执行第一显示控制处理和第二显示控制处理,同时显示装置20向控制装置10发送上述的姿态检测信息。
首先,将参照图4以及图6至图12描述第一显示控制处理。在步骤S10中,控制单元13在三维虚拟空间中设置地图图像100。这里,地图图像100可以预先存储在存储单元12中,或者可以由通信单元11从另一个信息处理装置获取。控制单元13可以允许用户选择要在三维虚拟空间中设置的地图图像100。在这种情况下,例如,控制单元13使得显示装置20显示具有地图图像的所列候选的显示图像列表。具体地,控制单元13向通信单元11输出显示图像列表,并且通信单元11向显示装置20发送显示图像列表。显示装置20的通信单元21向显示控制单元24输出所接收的显示图像列表。显示控制单元24使得显示单元23显示显示图像列表。“使得显示装置20显示图像”的所有处理以与上述相同的方式来执行。
显示图像列表可以使用任意列表,只要用户可以感知地图图像100即可。例如,显示图像列表可以是地图图像的缩略图等的列表、地名的列表或其组合。用户从显示图像列表选择期望的地图图像100。用于其的洗涤方法不特别受限,而是可以包括例如通过使用未例示的输入操作装置进行的选择方法、通过使用虚拟用户的视点进行的选择方法等。在后者方法中,控制单元13使得显示装置20将稍后将描述的虚拟用户视点连同显示图像列表一起显示。
接着,控制单元13在地图图像100上设置一个或多个目标点(即,检查点)。这里,各个目标点可以是但不限于例如具有地标的点。目标点可以由用户来设置。接着,控制单元13在地图图像上设置指示目标点的目标点图像110。此外,在目标点图像110附近,可以布置指示目标点是最终目标点的目标图像120。在图6中,目标图像120设置在目标点图像110c的附近。此外,控制单元13可以使得用户选择时隙。然后,控制单元13可以基于用户所选的时隙设置目标点。例如,取决于用户所选的时隙,可以存在不在营业中(关闭)的地标。因此,控制单元13可以被构造为不将不在营业中的地标设置为目标点。
此外,控制单元13在地图图像100上设置角色图像(跟随/移动图像)P,作为所观看目标图像。角色图像P的初始位置不特别受限。虽然稍后将给出其详细描述,但角色图像P还被称为玩偶图像等。注意,在该实施例中,模拟人物的图像被称为角色图像P,但角色图像P可以具有任意其他形状。除了角色图像P之外的图像可以用作跟随/移动图像。
此外,控制单元13基于姿态检测信息,指定虚拟用户的视点,作为虚拟空间中的用户视点。然后,控制单元13在三维虚拟空间中设置指示虚拟用户视点的虚拟用户视点图像Q。
接着,控制单元13生成从虚拟用户视点看到的图像(即,在虚拟空间中在用户的视场中看到的图像),作为显示图像。然后,控制单元13使得显示装置20显示显示图像。由此,控制单元13使得显示装置20以用户的第一人称视点显示地图图像100以及地图图像上的各图像(目标点图像110、角色图像P等)。此外,控制单元13在任意时间接收姿态检测信息,并且基于姿态检测信息生成显示图像。然后,控制单元13使得显示装置20显示显示图像。由此,用户可以在使虚拟用户视点在三维虚拟空间中自由移动的同时观看地图图像100以及地图图像上的各图像(目标点图像110、角色图像P等)。
在步骤S20中,控制单元13确定用户是否注视目标点图像110中的任意一个。例如,控制单元13确定虚拟用户视点图像Q是否在预定时间段或更长内在目标点图像110上。在确定用户注视目标点图像110中的任意一个的情况下,控制单元13进行到步骤S30,并且在确定用户未注视目标点图像110的情况下,控制单元13完成该处理。
在步骤S30中,控制单元13获取与用户注视的目标点图像110对应的实际场景图像300(即,场景图像。参见图9)。这种实际场景图像300可以存储在存储单元12中,或者可以由通信单元11从另一个信息处理装置获取。下文中,用户注视的目标点图像110还被称为“注视点图像”。此外,由注视点图像指示的目标点还被称为“注视点”。
在步骤S40中,控制单元13使角色图像P移动到注视点图像上。换言之,控制单元13使角色图像P跟随虚拟用户视点移动。图7中例示了示例。在该示例中,用户注视目标点图像110a,并且使角色图像P移动到目标点图像110a中。由此,用户的注意力可以集中在角色图像P上。注意,在角色图像P移动的同时,地图图像100固定。换言之,控制单元13执行以用户的第一人称视点,显示设置所观看目标图像(这里,为角色图像P)的三维虚拟空间的控制。所观看目标图像是用户要观看的目标。此外,控制单元13执行在固定所观看目标图像的周边图像(这里,为地图图像100)的同时改变所观看目标图像(这里,移动角色图像P)的控制。换言之,控制单元13仅改变预期用户的注意力集中在上面的角色图像P,而固定周边图像。由此,可以预期降低用户的不舒服感。
这里,控制单元13可以根据用户的熟练程度(第一显示控制处理的执行次数等)改变角色图像P的移动速度。例如,控制单元13可以随着用户具有更高的熟练程度而提高角色图像P的移动速度。即使控制单元13这样显示角色图像P,也预期具有更高熟练程度的用户可以理解显示内容。
然后,控制单元13在角色图像P周围的三维虚拟空间中显示实际场景图像(场景图像)300,但如果实际场景图像300突然显示,则用户可能感觉不舒服。这是因为用户可能不能预料图像的这种变化。
因此,在显示实际场景图像300之前,控制单元13执行向用户通知这种显示的控制。例如,如图8例示,控制单元13使得在注视点图像(这里,为目标点图像110a)上定位的角色图像P回头看向用户侧。由此,控制单元13使得用户预料将来图像变化(即,与注视点图像有关的图像的某一变化)。因此,即使在角色图像P周围的三维虚拟空间中显示实际场景图像300,用户也不太可能具有不舒服感。当然,用于通知用户的方法不限于该说明书,并且可以使用任意方法,只要方法可以吸引用户的注意力即可。例如,可以从显示装置20输出某种通知声音。此外,可以在显示装置20中设置多个声源输出部,并且可以取决于注视点从不同的输出位置输出通知声音。由此,可以进一步增强用户对注视点的注意力。
注意,控制单元13可以响应于用户的选择操作等省略角色图像P的移动以及上述通知处理。这是因为在图像变化时几乎感觉不到不舒服的用户(即,很难得晕动病的用户)可能期望立即观看实际场景图像300。
接着,控制单元13从虚拟用户视点拉近至角色图像P。换言之,以角色P作为中心放大地图图像和角色P。注意,当这种放大处理突然执行时,存在用户可能感觉不舒服的可能性,但如上所述,被预先通知的用户几乎感觉不到不舒服。
这里,当虚拟用户视点偏离角色P并再次返回到角色P时,控制单元13可以从虚拟用户视点执行拉近处理。可以省略拉近处理。
在步骤S50中,如图9例示,控制单元13在角色图像P周围的三维虚拟空间中设置实际场景图像300。然后,控制单元13生成从虚拟用户视点看到的显示图像。注意,此时的虚拟用户视点(即,视点在实际场景图像300中的位置)优选地预先设置。然后,控制单元13使得显示装置20显示显示图像。由此,用户可以观看实际场景图像300。其后,控制单元13擦除角色图像P和地图图像100,并且进行到第二显示控制处理。注意,当要显示实际场景图像300时,可以立即擦除角色图像P和地图图像100。
(1-2-2、第二显示控制处理)
接着,将参照图5至图12描述第二显示控制处理。在步骤S60中,如图10例示,控制单元13在三维虚拟空间中设置实际场景图像300(对应于注视点图像的实际场景图像300;所谓的场景图像)。因此,可以说实际场景图像300是三维图像。此外,控制单元13在任意时间接收姿态检测信息,并且基于姿态检测信息指定虚拟用户视点。然后,控制单元13在三维虚拟空间中设置指示虚拟用户视点的虚拟用户视点图像Q。
此外,控制单元13指定最靠近注视点图像的目标点图像110(下文中还称为“紧接目标点图像”)。在图7的示例中,紧接目标点图像是目标点图像110b。下文中,由紧接目标点图像指示的目标点还被称为“紧接目标点”。接着,控制单元13生成图12和图13所例示的移动视点图像230。这里,移动视点图像230是从虚拟用户视点看到的实际场景图像,该视点从注视点移动到紧接目标点。图12和图13例示了移动视点图像230的一个场景(在移动视点图像230的再现期间的特定时间点显示的图像)。
例如,控制单元13可以获取在从注视点到紧接目标点的路线中的各点拍摄的多个所拍摄图像,并且基于所拍摄图像生成移动视点图像230。这些所拍摄图像可以存储在存储单元12中,或者可以由通信单元11从另一个信息处理装置获取。可以说移动视点图像230指示从注视点到紧接目标点的路线。
移动视点图像230可以指示到除了紧接目标点之外的目标点的路线。此外,控制单元13可以选择多个目标点,并且生成与各个目标点对应的移动视点图像230。此外,移动视点图像230可以是平面图向,或者可以与实际场景图像300中一样地是三维图像。此外,移动视点图像230可以是延时影片。换言之,控制单元13可以连续显示静止图像。这些静止图像可以是平面图像或三维图像。在移动视点图像230是平面图像或延时影片的情况下,可以减少移动视点图像230的数据量。从数据量的角度,优选地是移动视点图像230是延时影片,并且构成延时影片的静止图像是平面图像。
接着,控制单元13在三维虚拟空间中设置图11所例示的图像显示框200。这里,移动视点图像230等显示在图像显示框200中。例如,控制单元13在与从注视点到紧接目标点的路线与设置实际场景图像300的三维虚拟空间中的区域的交点对应的位置处设置图像显示框200。由此,用户可以容易地理解用户可以从实际场景图像300中的哪一个位置移动到紧接目标点。在生成多个移动视点图像230的情况下,控制单元13在三维虚拟空间中设置与各个移动视点图像230对应的图像显示框200。
这里,控制单元13根据从注视点到紧接目标点的距离调节图像显示框200的尺寸。例如,控制单元13可以随着从注视点到紧接目标点的距离增大而减小图像显示框200的尺寸。由此,用户可以抓住到紧接目标点的距离感。注意,控制单元13可以在移动视点图像230的再现期间将图像显示框200的尺寸返回到预设尺寸。这是因为如果图像显示框200太小,则可能变得用户难以观看移动视点图像230。
此外,控制单元13在图像显示框200中设置符号图像。这里,符号图像是指示移动视点图像230显示在图像显示框200中的图像。图11例示了符号图像的示例。在图11所例示的示例中,控制单元13在图像显示框200中设置播放按钮图像210和缩略图图像220,作为符号图像。缩略图图像220可以是移动视点图像230的第一场景(要首先显示的图像)。此外,符号图像可以是指示存在于紧接目标点处的地标的地标图像。在这种情况下,用户可以容易地理解什么种类的地标存在于紧接目标点处。此外,可以省略符号图像。在这种情况下,在图像显示框200中还显示实际场景图像300引起在图像显示框200内部和外部的实际场景图像300的连续显示。该构造使得用户观看自然图像。然而,在这种情况下,用户难以理解图像显示框200在哪里。因此,控制单元13可以突出(例如,着色等)图像显示框200。
接着,控制单元13生成从虚拟用户视点看到的显示图像,并且使得显示装置20显示显示图像。此外,控制单元13在任意时间接收姿态检测信息,并且基于姿态检测信息生成显示图像。然后,控制单元13使得显示装置20显示显示图像。换言之,控制单元13执行以用户的第一人称视点,显示设置实际场景图像300等的三维虚拟空间的控制。由此,用户可以当在三维虚拟空间中自由移动虚拟用户视点的同时观看实际场景图像300和符号图像。因此,用户可以犹如用户处于真实场景中一样地享受虚拟体验。
在步骤S70中,控制单元13确定用户是否注视符号图像。例如,控制单元13确定虚拟用户视点图像Q是否在多于预定时间段内在符号图像上。图11例示了虚拟用户视点图像Q处于符号图像上的状态。在控制单元13确定用户注视符号图像的情况下,处理进行到步骤S80,并且在控制单元13确定用户未注视符号图像的情况下,完成处理。
在步骤S80中,如图12和图13例示,控制单元13在图像显示框200中显示(再现)移动视点图像230。这里,控制单元13在显示(再现)移动视点图像230的同时固定图像显示框200的周边图像(即,实际场景图像300)。换言之,控制单元13执行以用户的第一人称视点,显示设置所观看目标图像(这里,为移动视点图像230)的三维虚拟空间的控制。所观看目标图像是用户要观看的目标。此外,控制单元13执行在固定所观看目标图像的周边图像(这里,为定位在图像显示框200周围的实际场景图像300)的同时改变所观看目标图像(这里,再现移动视点图像230)的控制。由此,用户可以容易地理解从注视点到紧接目标点的路线的氛围(路线中的特性、移动方向、移动距离、移动时间段等)。
这里,控制单元13可以根据用户的熟练程度(再现移动视点图像230的次数等)改变移动视点图像230的显示模式。例如,控制单元13可以随着用户具有更高的熟练程度而提高移动视点图像230的显示速度(再现速度)。此外,在移动视点图像230以延时形式显示(再现)的情况下,可以减少用于移动视点图像230的静止图像的数量。即使控制单元13这样显示移动视点图像230,也预期具有更高熟练程度的用户理解移动视点图像230的内容。
此外,控制单元13可以响应于用户的选择操作等省略移动视点图像230的再现。这是因为在图像变化时几乎感觉不到不舒服的用户(即,很难得晕动病的用户)可能期望立即观看下一场景图像。
此外,在移动视点图像230在内部示出人物的情况下,可以取决于人物的数量改变移动视点图像230的再现模式。例如,可以随着移动视点图像230中的人物图像的数量增加而降低移动视点图像230的显示速度(再现速度)。这是因为预期随着移动视点图像230中的人物增加,用户花费更多的时间来抓住路线。此外,控制单元13可以准备在不同时隙中拍摄的多种移动视点图像230,以显示用户所选的移动视点图像230。由此,用户可以抓住各时隙的氛围。此外,控制单元13可以显示在存在更少数量的人物的时隙中拍摄的移动视点图像230。在这种情况下,用户可以更容易地理解路线的氛围。
此外,当虚拟用户视点在移动视点图像230的再现期间在移动视点图像230之外时,控制单元13可以取消移动视点图像230的再现,并且将图像显示框200中的状态返回至初始状态(即,显示符号图像的状态)。
其后,控制单元13以紧接目标点作为注视点重复第二显示控制处理。换言之,紧接目标点处的实际场景图像(场景图像)设置在三维虚拟空间中。如上所述,在本实施例中,首先再现图像显示框200中的移动视点图像230,然后包括周边图像的显示图像整体变成下一场景图像。在这点上,例如,在整个显示图像被设置为移动视点图像230的情况下,用户可能感觉不舒服。然而,在本实施例中,移动视点图像230仅显示在图像显示框200中,即,仅显示在用户注视的区域中,并且其周边图像固定。因此,用户在移动视点图像230的再现期间几乎感觉不到不舒服。
这里,控制单元13可以在虚拟用户视点再次落在图像显示框200中时(而不是紧接在移动视点图像230的再现之后)显示紧接目标点的实际场景图像。
此外,在上述实施例中,虽然在三维虚拟空间中设置实际场景图像,但可以设置另一种图像,例如,人工创建的场景图像。例如,本实施例可以应用于执行三维显示的游戏等。在这种情况下,还基于人工生成的场景图像生成地图图像和移动视点图像这两者。即使在执行三维显示的游戏中,用户也可能具有如上所述的不舒服感。因此,根据本实施例的处理的执行使得能够降低用户的不舒服感。
如上所述,根据本实施例,控制单元13执行以用户的第一人称视点,显示设置所观看目标图像(例如,角色图像P和移动视点图像230)的三维虚拟空间的控制。所观看目标图像是用户要观看的目标。然后,控制单元13执行在固定所观看目标图像的周边图像(例如,地图图像100和实际场景图像300)的同时改变所观看目标图像的控制。换言之,控制单元13改变预期用户的注意力集中在上面的所观看目标图像并固定周边图像。由此,可以降低用户的不舒服感。此外,因为该处理不改变周边图像的质量,所以用户可以享受虚拟体验。
此外,控制单元13以与虚拟用户视点移动的方向关联的方式改变所观看目标图像。具体地,控制单元13使角色图像P(跟随/移动图像)跟随虚拟用户视点移动。此外,控制单元13将从移动的虚拟用户视点看到的图像显示为移动视点图像230。即使在这种情况下,因为周边图像固定,所以可以降低用户的不舒服感。
此外,因为控制单元13在三维虚拟空间中设置实际场景图像300,所以用户可以犹如用户存在于真实场景中一样地享受虚拟体验。这里,控制单元13例如可以在三维虚拟空间中设置人工创建的场景图像。在这种情况下,用户可以犹如用户他/她自己处于所创建场景中一样地享受虚拟体验。
此外,控制单元13在三维虚拟空间中设置多个目标点。例如,控制单元13在设置在三维虚拟空间中的地图图像上设置多个目标点。然后,控制单元13在三维虚拟空间中设置与目标点中的任意一个(例如,用户的注视视点)对应的场景图像。然后,控制单元13执行显示从虚拟用户视点看到的场景图像作为移动视点图像230的控制,该虚拟用户视点从一个目标点移动到另一个目标点(例如,紧接目标点)。由此,用户可以容易地理解从一个目标点到另一个目标点的路线的氛围。此外,在另一个目标点是紧接目标点的情况下,用户可以容易地理解到紧接目标点的路线的氛围。
此外,控制单元13在图像显示框200中设置符号图像,这执行在虚拟用户的视点与符号图像重叠时显示移动视点图像230的控制。因此,用户可以容易地理解移动视点图像230显示在三维虚拟空间中的哪一个位置处。
此外,因为控制单元设置指示存在于另一个目标点处的地标的地标图像,作为符号图像,所以用户可以容易地理解什么种类的地标存在于另一个目标点处。
此外,控制单元13在与从一个目标点到另一个目标点的路线与设置实际场景图像300的区域的交点对应的位置处设置图像显示框200。因此,用户可以容易地理解用户可以从实际场景图像300中的哪一个位置移动到另一个目标点。
此外,控制单元13将移动视点图像230显示为平面图像。由此,可以减少移动视点图像230的数据量。
此外,控制单元13将移动视点图像230显示为延时形式。由此,可以减少移动视点图像230的数据量。
此外,在虚拟用户视点与目标点图像110重叠的情况下,控制单元13使角色图像P重叠在目标点图像110上。接着,控制单元13执行在角色图像P周围的三维虚拟空间中显示目标点(即,注视点)的实际场景图像300的控制。因此,控制单元13在显示实际场景图像300之前移动角色图像P,由此,用户可以预料将来图像变化。因此,即使在角色图像P周围的三维虚拟空间中显示实际场景图像300,用户也不太可能具有不舒服感。
此外,控制单元13执行在角色图像P周围的三维虚拟空间中显示实际场景图像300之前向用户通知要显示目标点(即,注视点)的实际场景图像300的控制。例如,控制单元13执行输出通知声音的控制。这使得可以使得用户预料将来图像变化。
如上所述,已经参照附图详细描述了本公开的优选实施例,但本公开的技术范围不限于这些示例。在如在所附权利要求的范围内阐述的技术思想内,本领域技术人员显然可以找到各种变更和修改,并且应理解,它们当然将归入本发明的技术范围。
此外,这里描述的效果仅是例示和演示的,而不是限制的。换言之,连同或代替这些效果,根据本公开的技术可以展示从这里的描述对本领域技术人员显而易见的其他效果。
注意,本技术还可以如下构造。
(1)
一种信息处理装置,其包括控制单元,该控制单元执行以用户的第一人称视点显示设置所观看目标图像的三维虚拟空间的控制,并且执行在固定所观看目标图像的周边图像的同时改变所观看目标图像的控制,所观看目标图像是用户要观看的目标。
(2)
根据(1)的信息处理装置,其中,控制单元以与方向关联的方式改变所观看目标图像,在三维虚拟空间中设置的虚拟用户的视点沿该方向移动。
(3)
根据(2)的信息处理装置,其中,控制单元在三维虚拟空间中设置场景图像。
(4)
根据(3)的信息处理装置,其中,场景图像包括通过对实际场景成像获得的实际场景图像。
(5)
根据(3)或(4)的信息处理装置,其中,控制单元在三维虚拟空间中设置图像显示框,并且执行在图像显示框中显示从移动的虚拟用户的视点看到的移动视点图像作为所观看目标图像的控制。
(6)
根据(5)的信息处理装置,其中,控制单元在三维虚拟空间中设置多个目标点,在三维虚拟空间中设置与目标点中的任意一个对应的场景图像,并且执行显示从虚拟用户的视点看到的场景图像,作为移动视点图像,该虚拟用户的视点从一个目标点向另一个目标点移动。
(7)
根据(6)的信息处理装置,其中,控制单元将另一个目标点设置为最靠近一个目标点的目标点。
(8)
根据(6)或(7)的信息处理装置,其中,控制单元在图像显示框中设置符号图像,并且执行在虚拟用户的视点与符号图像重叠时显示移动视点图像的控制。
(9)
根据(8)的信息处理装置,其中,控制单元设置指示在另一个目标点处存在的地标的地标图像,作为符号图像。
(10)
根据(6)至(9)中任意一项的信息处理装置,其中,控制单元在与从一个目标点到另一个目标点的路线和设置场景图像的区域的交点对应的位置处设置图像显示框。
(11)
根据(5)至(10)中任意一项的信息处理装置,其中,控制单元将移动视点图像显示为平面图像。
(12)
根据(5)至(11)中任意一项的信息处理装置,其中,控制单元将移动视点图像显示为延时形式。
(13)
根据(2)至(12)中任意一项的信息处理装置,其中,控制单元在三维虚拟空间中设置地图图像。
(14)
根据(13)的信息处理装置,其中,控制单元执行在跟随虚拟用户的视点的同时显示在地图图像上移动的跟随/移动图像作为所观看目标图像的控制。
(15)
根据(14)的信息处理装置,其中,控制单元在地图图像上设置指示目标点的目标点图像。
(16)
根据(15)的信息处理装置,其中,在虚拟用户的视点与目标点图像重叠的情况下,控制单元使跟随/移动图像重叠在目标点图像上,然后执行在跟随/移动图像周围的三维虚拟空间中显示目标点的场景图像的控制。
(17)
根据(16)的信息处理装置,其中,控制单元执行在目标点的场景图像显示在跟随/移动图像周围的三维虚拟空间中之前,向用户通知要显示场景图像的控制。
(18)
一种信息处理方法,其中,处理器执行以用户的第一人称视点显示设置用户要观看的所观看目标图像的三维虚拟空间的控制,并且执行在固定所观看目标图像的周边图像的同时改变所观看目标图像的控制。
(19)
一种用于使得计算机实现控制功能的程序,该控制功能执行以用户的第一人称视点显示设置所观看目标图像的三维虚拟空间的控制,并且执行在固定所观看目标图像的周边图像的同时改变所观看目标图像的控制,所观看目标图像是用户要观看的目标。
附图标记列表
1 信息处理***
10 控制装置
11 通信单元
12 存储单元
13 控制单元
20 显示装置
21 通信单元
22 姿态检测单元
23 显示单元
24 显示控制单元
30 通信电缆
100 地图图像
110 目标点图像
P 角色图像
Q 虚拟用户视点图像
200 图像显示框
210 播放按钮图像
220 缩略图图像
230 移动视点图像
300 实际场景图像。
Claims (19)
1.一种信息处理装置,其包括控制单元,该控制单元执行控制以便以用户的第一人称视点显示设置所观看目标图像的三维虚拟空间,并且执行控制以便在固定所述所观看目标图像的周边图像的同时改变所述所观看目标图像,所述所观看目标图像是用户要观看的目标。
2.根据权利要求1所述的信息处理装置,其中,所述控制单元以与方向关联的方式改变所述所观看目标图像,在所述三维虚拟空间中设置的虚拟用户的视点沿该方向移动。
3.根据权利要求2所述的信息处理装置,其中,所述控制单元在所述三维虚拟空间中设置场景图像。
4.根据权利要求2所述的信息处理装置,其中,所述场景图像包括通过对实际场景成像获得的实际场景图像。
5.根据权利要求3所述的信息处理装置,其中,所述控制单元在所述三维虚拟空间中设置图像显示框,并且执行控制以便在所述图像显示框中显示从移动的所述虚拟用户的视点看到的移动视点图像作为所述所观看目标图像。
6.根据权利要求5所述的信息处理装置,其中,所述控制单元在所述三维虚拟空间中设置多个目标点,在所述三维虚拟空间中设置与所述目标点中的任意一个对应的所述场景图像,并且执行显示从所述虚拟用户的视点看到的所述场景图像,作为所述移动视点图像,该虚拟用户的视点从所述一个目标点向另一个目标点移动。
7.根据权利要求6所述的信息处理装置,其中,所述控制单元将所述另一个目标点设置为最靠近所述一个目标点的目标点。
8.根据权利要求6所述的信息处理装置,其中,所述控制单元在所述图像显示框中设置符号图像,并且执行控制以便在所述虚拟用户的视点与所述符号图像重叠时显示所述移动视点图像。
9.根据权利要求8所述的信息处理装置,其中,所述控制单元设置指示在所述另一个目标点处存在的地标的地标图像,作为所述符号图像。
10.根据权利要求6所述的信息处理装置,其中,所述控制单元在与从所述一个目标点到所述另一个目标点的路线和设置所述场景图像的区域的交点对应的位置处设置所述图像显示框。
11.根据权利要求5所述的信息处理装置,其中,所述控制单元将所述移动视点图像显示为平面图像。
12.根据权利要求5所述的信息处理装置,其中,所述控制单元将所述移动视点图像显示为延时形式。
13.根据权利要求2所述的信息处理装置,其中,所述控制单元在所述三维虚拟空间中设置地图图像。
14.根据权利要求13所述的信息处理装置,其中,所述控制单元执行控制以便在跟随所述虚拟用户的视点的同时显示在所述地图图像上移动的跟随/移动图像作为所述所观看目标图像。
15.根据权利要求14所述的信息处理装置,其中,所述控制单元在所述地图图像上设置指示目标点的目标点图像。
16.根据权利要求15所述的信息处理装置,其中,在所述虚拟用户的视点与所述目标点图像重叠的情况下,所述控制单元使所述跟随/移动图像重叠在所述目标点图像上,然后执行控制以便在所述跟随/移动图像周围的所述三维虚拟空间中显示所述目标点的场景图像。
17.根据权利要求16所述的信息处理装置,其中,所述控制单元执行控制以便在所述目标点的场景图像显示在所述跟随/移动图像周围的所述三维虚拟空间中之前,向所述用户通知要显示所述场景图像。
18.一种信息处理方法,其中,处理器执行控制以便以用户的第一人称视点显示设置所观看目标图像的三维虚拟空间,并且执行控制以便在固定所述所观看目标图像的周边图像的同时改变所述所观看目标图像,所述所观看目标图像是用户要观看的目标。
19.一种程序,该程序用于使得
计算机实现以下控制功能:
执行控制以便以用户的第一人称视点显示设置所观看目标图像的三维虚拟空间,并且执行控制以便在固定所述所观看目标图像的周边图像的同时改变所述所观看目标图像,所述所观看目标图像是用户要观看的目标。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-101479 | 2017-05-23 | ||
JP2017101479 | 2017-05-23 | ||
PCT/JP2018/015961 WO2018216402A1 (ja) | 2017-05-23 | 2018-04-18 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110651304A true CN110651304A (zh) | 2020-01-03 |
CN110651304B CN110651304B (zh) | 2024-05-24 |
Family
ID=64396745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880032211.XA Active CN110651304B (zh) | 2017-05-23 | 2018-04-18 | 信息处理装置、信息处理方法以及程序 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11182950B2 (zh) |
JP (1) | JP7040521B2 (zh) |
CN (1) | CN110651304B (zh) |
WO (1) | WO2018216402A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113082700A (zh) * | 2021-04-15 | 2021-07-09 | 网易(杭州)网络有限公司 | 信息交互方法、装置和电子设备 |
CN113778070A (zh) * | 2020-07-17 | 2021-12-10 | 北京京东振世信息技术有限公司 | 机器人的控制方法和装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023223760A1 (ja) * | 2022-05-18 | 2023-11-23 | 富士フイルム株式会社 | 制御装置、制御方法、制御プログラム、及びシステム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010175329A (ja) * | 2009-01-28 | 2010-08-12 | Mitsubishi Electric Corp | 車載情報装置 |
CN103150009A (zh) * | 2011-07-28 | 2013-06-12 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
US20140368426A1 (en) * | 2013-06-13 | 2014-12-18 | Nintendo Co., Ltd. | Image processing system, image processing apparatus, storage medium having stored therein image processing program, and image processing method |
CN104471616A (zh) * | 2012-07-25 | 2015-03-25 | 索尼公司 | 信息处理设备以及程序 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3548459B2 (ja) | 1998-11-20 | 2004-07-28 | 富士通株式会社 | 案内情報提示装置,案内情報提示処理方法,案内情報提示プログラムを記録した記録媒体,案内用スクリプト生成装置,案内情報提供装置,案内情報提供方法および案内情報提供プログラム記録媒体 |
JP4500632B2 (ja) | 2004-09-07 | 2010-07-14 | キヤノン株式会社 | 仮想現実感提示装置および情報処理方法 |
JP6056127B2 (ja) | 2011-10-31 | 2017-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2014158174A1 (en) | 2013-03-28 | 2014-10-02 | Irdeto Canada Corporation | Method and system for media path security |
EP3196840B1 (en) * | 2016-01-22 | 2022-12-14 | Nokia Technologies Oy | Displaying visual information of views captured at geographic locations |
US10984595B2 (en) * | 2017-01-13 | 2021-04-20 | Samsung Electronics Co. Ltd | Method and apparatus for providing guidance in a virtual environment |
-
2018
- 2018-04-18 JP JP2019519515A patent/JP7040521B2/ja active Active
- 2018-04-18 CN CN201880032211.XA patent/CN110651304B/zh active Active
- 2018-04-18 US US16/613,497 patent/US11182950B2/en active Active
- 2018-04-18 WO PCT/JP2018/015961 patent/WO2018216402A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010175329A (ja) * | 2009-01-28 | 2010-08-12 | Mitsubishi Electric Corp | 車載情報装置 |
CN103150009A (zh) * | 2011-07-28 | 2013-06-12 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN104471616A (zh) * | 2012-07-25 | 2015-03-25 | 索尼公司 | 信息处理设备以及程序 |
US20140368426A1 (en) * | 2013-06-13 | 2014-12-18 | Nintendo Co., Ltd. | Image processing system, image processing apparatus, storage medium having stored therein image processing program, and image processing method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113778070A (zh) * | 2020-07-17 | 2021-12-10 | 北京京东振世信息技术有限公司 | 机器人的控制方法和装置 |
CN113778070B (zh) * | 2020-07-17 | 2024-04-19 | 北京京东振世信息技术有限公司 | 机器人的控制方法和装置 |
CN113082700A (zh) * | 2021-04-15 | 2021-07-09 | 网易(杭州)网络有限公司 | 信息交互方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
US11182950B2 (en) | 2021-11-23 |
CN110651304B (zh) | 2024-05-24 |
WO2018216402A1 (ja) | 2018-11-29 |
JP7040521B2 (ja) | 2022-03-23 |
JPWO2018216402A1 (ja) | 2020-05-21 |
US20210158605A1 (en) | 2021-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5914739B1 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
WO2016157677A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20160128119A (ko) | 이동 단말기 및 이의 제어방법 | |
WO2017033777A1 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
CN110651304B (zh) | 信息处理装置、信息处理方法以及程序 | |
JP6275891B1 (ja) | 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 | |
CN112616048B (zh) | Ar眼镜及其显示方法和***、图像处理方法及设备 | |
WO2015095507A1 (en) | Location-based system for sharing augmented reality content | |
US20190347864A1 (en) | Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression | |
JP6121496B2 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
JP2023065528A (ja) | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム | |
JP2023095862A (ja) | プログラム及び情報処理方法 | |
WO2022091832A1 (ja) | 情報処理装置、情報処理システム、情報処理方法、および情報処理端末 | |
JP6919568B2 (ja) | 情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラム | |
US20230260235A1 (en) | Information processing apparatus, information processing method, and information processing system | |
JP2017097854A (ja) | プログラム、記録媒体、コンテンツ提供装置及び制御方法 | |
US20240104862A1 (en) | Spatially aware playback for extended reality content | |
JP2019083029A (ja) | 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置 | |
JP2018190380A (ja) | 仮想空間の立体視映像を提供するためのプログラム、システム、及び方法 | |
WO2023248832A1 (ja) | 遠隔視認システム、現地撮像システム | |
JP7392723B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2024064230A1 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
CN116521044A (zh) | 车载显示屏的控制方法和装置、介质和计算机设备 | |
JP2018120587A (ja) | 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |