CN107615227A - 显示装置、信息处理***以及控制方法 - Google Patents

显示装置、信息处理***以及控制方法 Download PDF

Info

Publication number
CN107615227A
CN107615227A CN201680028918.4A CN201680028918A CN107615227A CN 107615227 A CN107615227 A CN 107615227A CN 201680028918 A CN201680028918 A CN 201680028918A CN 107615227 A CN107615227 A CN 107615227A
Authority
CN
China
Prior art keywords
distribution
display
visual field
grouped
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680028918.4A
Other languages
English (en)
Other versions
CN107615227B (zh
Inventor
石川博隆
塚原翼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN107615227A publication Critical patent/CN107615227A/zh
Application granted granted Critical
Publication of CN107615227B publication Critical patent/CN107615227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明的目的是提供能够为多个对象提供简单且高可见度的信息的显示装置、以及使用该显示装置的信息处理***和控制方法。根据本技术的实施方式的显示装置包括控制单元和显示单元。控制单元对分布在用户附近的现实空间或者虚拟空间中的多个对象进行分组,并且生成显示分布分组的多个对象的区域的分布显示。显示单元在用户的视野中呈现分布显示。

Description

显示装置、信息处理***以及控制方法
技术领域
本技术涉及能够对显示在用于显示的视野中的多个图像分组的显示装置、使用该显示装置的信息处理***、以及控制方法。
背景技术
已知称为增强现实(AR)的技术,其中,现实空间或者其图像额外提供有对应图像。根据这个技术,例如,与现实空间中的对象相关联的图像可以叠加的方式显示在对象上。
同时,在附加信息显示在一个视野中的情况下,可覆盖那些条附加信息。在这方面,专利文献1描述了一种信息处理装置,该信息处理装置被配置为显示除了图像中的多个对象之外的其层次信息在层次结构的顶部的对象的附加信息,或者根据对象的优先级显示附加信息。
现有技术文献
专利文献
专利文献1:特开第2011-81556号公报
发明内容
技术问题
然而,在专利文献1中描述的技术中,在显示其层次信息在层次的顶部的对象的附加信息的情况下,必须获取对象的层次信息。进一步,在相同技术中,在根据对象的优先级显示附加信息的情况下,必须获取用于确定对象的优先级的信息。
换言之,在不能获取有关对象的详细信息的情况下,不可以应用以上技术。因此,存在对能够以更简单的方式呈现有关多个对象的必要信息的技术的需要。
鉴于如上所述的情况,本技术的目标是提供能够提供关于多个对象的简单且高可见度的信息的一种显示装置、使用该显示装置的信息处理***、以及控制方法。
问题的解决方案
为了实现如上所述的目标,根据本技术的一个实施方式的显示装置包括控制单元和显示单元。
控制单元对分布在用户周围的现实空间或者虚拟空间中的多个对象进行分组(group)并且生成分布显示,该分布显示用以显示分布有被分组的多个对象的区域。
显示单元在用户的视野中呈现分布显示。
根据如上所述的配置,分布显示可以表示分组对象的分布。因此,可以提供有关多个对象的简单且高可见度的信息。
控制单元可在分布有被分组的多个对象的区域附近生产分布显示。
因此,可以通过分布显示的布置表示分布对象的区域。
进一步地,控制单元可生成具有与分布有被分组的多个对象的区域的形状相关联形状的分布显示。
因此,可以通过分布显示的形状表示分布对象的区域。
在这种情况下,控制单元可生成具有表示多个对象的偏离分布的形状的分布显示。
因此,可以通过分布显示的形状表示对象的偏离分布。
控制单元可生成具有多个对象可视的透射率的分布显示。
因此,还可以直观识别多个对象,并且可以提高视野中的可见度。
控制单元可生成使得基于分布对象的密度改变色度、亮度和饱和度中的至少任一个的分布显示。
例如,控制单元可生成分布显示,使得被分组的多个对象的密度较高的区域具有较高亮度的色调或者较低亮度的色调。
因此,分布显示可以表示多个对象的密度。
进一步地,控制单元可通过使用概率密度函数生成分布显示,该概率密度函数使用表示视野中的被分组的多个对象各自的位置的坐标作为变量。
例如,概率密度函数可以是高斯函数。
因此,可以足够表示对象的分布。
特别地,控制单元可导出概率密度函数并且生成在视野中的区域上重叠的分布显示,其中,当所得出的概率密度函数通过变量积分时对象的分布概率具有预定值。
因此,根据对象的分布概率,可以更充分地表示对象的分布。
进一步地,控制单元可对分布在视野中的多个对象以外的具有关联附加信息的多个对象进行分组合。
因此,可以生成具有关联属性等附加信息的对象的分布显示。
控制单元可将分布在视野中的多个对象以外的形成预定基准或者更大的密度的多个对象进行分组。
因此,可以防止AR图标等以拥塞的方式布置。
进一步地,控制单元可被配置为能够对包括多个对象的分组执行绘制处理的第一模式与对被分组的多个对象中的每个执行绘制处理的第二模式之间切换。
因此,根据需要,详细信息可以提供至每一个对象。
在这种情况下,当确定视野中的被分组的多个对象的密度是预定基准或者更大时,控制单元可选择第一模式。
因此,可以防止AR图标等以拥塞的方式布置。
当确定用户正在观察分布显示时,控制单元可被配置为从第一模式切换至第二模式。
例如,当确定分布显示被显示在视野的中心时,控制单元可确定用户正在观察分布显示。
因此,基于用户的意图可以提供有关被分组的多个对象中的每个的详细信息。
当确定视野中的分布显示的面积的比例大于预定比例时,控制单元可将分布显示减少至预定比例或者更小。
因此,可以呈现具有相当于视野的尺寸的形状并且具有高可见度的分布显示。
显示单元可被配置为用户可佩戴的。
因此,显示装置可以被配置为可佩戴的显示器。
根据本技术的另一实施方式的信息处理***包括控制装置和显示装置。
控制装置被配置为能够存储有关分布在用户周围的现实空间或者虚拟空间中的多个对象的信息并且输出有关多个对象的信息。
显示装置包括控制单元和显示单元。
控制单元对多个对象进行分组并且生成分布显示,该分布显示用以显示分布有被分组的多个对象的区域。
显示单元在用户的视野中呈现分布显示。
根据本技术的又一实施方式的控制方法包括以下步骤:对分布在用户周围的现实空间或者虚拟空间中的多个对象进行分组;生成分布显示,该分布显示用以显示分布有被分组的多个对象的区域;以及在用户的视野中呈现分布显示。
本发明的优势效果
如上所述,根据本技术,可以提供了能够提供有关多个对象的具有简单且高可见度的信息的显示装置、使用该显示装置的信息处理***、以及控制方法。
应注意,本文中所描述的效果不必被限定并且可产生本公开内容中描述的任何一种效果。
附图说明
[图1]是示出了根据本技术的第一实施方式的增强现实(AR)***(信息处理***)的配置的示意图。
[图2]是示出了AR***的头戴式显示器(HMD)(显示装置)的视野的实例的示图。
[图3]是示出了AR***的配置的框图。
[图4]是用于描述HMD的控制器的功能配置的HMD的框图。
[图5]是用于描述圆柱坐标和视野的示意图。
[图6]是示出了圆柱坐标上的视野的圆柱坐标的发展图。
[图7]是用于描述从圆柱坐标至视野(局部坐标)的转换法的示图。
[图8]是示出了AR***中的处理流程的流程图。
[图9]是示出了图8中示出的绘制分布显示和AR图标的处理流程的流程图。
[图10]是示出了在执行绘制处理之前的视野的示图。
[图11]图11是示出了在第一模式下执行绘制处理的视野的示图。
[图12]是示出了在第二模式下执行绘制处理的视野的示图。
[图13]是示出了高斯函数的实例的曲线,其中,垂直轴表示x,并且水平轴表示分布概率ψ(x)。
[图14]是示出了分布显示的另一实例的示图。
[图15]是示出了分布显示的又一实例的示图。
[图16]是示出了分布显示的又一实例的示图。
[图17]是示意性地示出了根据第一实施方式的参考实例的视野的示图。
[图18]是示意性地示出了根据第一实施方式的参考实例的视野的示图。
[图19]是示意性地示出了根据第一实施方式的另一参考实例的视野的示图。
[图20]是示出了通过处理第一实施方式的应用例1中描述的应用程序的处理所呈现的视野的实例的示图。
[图21]是示出了通过处理第一实施方式的应用例2中描述的应用程序的处理所呈现的视野的实例的示图。
[图22]是示出了通过处理第一实施方式的应用例3中描述的应用程序的处理所呈现的视野的实例的示图。
[图23]是示出了通过处理第一实施方式的应用例4中描述的应用程序的处理所呈现的视野的实例的示图。
[图24]是示出了根据变形例1-1的视野的实例的示图。
[图25]是示出了根据变形例1-2的视野的实例的示图。
[图26]是示出了根据变形例1-4的第二模式下的视野的实例的示图。
[图27]是示出了根据变形例1-5的模式切换的实例的视野的示图。
[图28]是示出了根据变形例1-6的视野的实例的示图。
[图29]是示出了根据变形例1-8的视野的实例的示图。
[图30]是根据本技术的第二实施方式用于描述控制器的功能配置的HMD的框图。
[图31]是示出了控制器的操作的实例的流程图。
[图32]是用于描述视野的视角的示图。
具体实施方式
下文中,将参考附图描述根据本技术的实施方式。
<第一实施方式>
[AR***的示意性配置]
图1是示出了根据本技术的第一实施方式的增强现实(AR)***(信息处理***)的配置的示意图。
在附图中,X轴方向和Z轴方向表示彼此垂直的水平方向,并且Y轴方向表示垂直轴线方向。XYZ正交坐标系表示用户所属的现实空间中的坐标系。X轴的箭头表示用户的右方,并且Y轴的箭头表示用户的向下方向。进一步地,Z轴的箭头表示用户的前向。
如图1所示,AR***100包括头戴式显示器(HMD)10、便携式信息终端30和AR服务器40。
AR服务器40是互联网50上的服务器装置。AR服务器40存储有关随后待描述的对象的信息并且在这个实施方式中用作“控制装置”。
便携式信息终端30通常是智能电话并且由诸如移动电话、平板终端、个人电脑(PC)、平板电脑或者PDA(个人数字助理)的信息处理装置组成。
便携式信息终端30可以通过GPS(全球定位***)功能获取用户的当前位置。进一步地,便携式信息终端30经由互联网50连接至AR服务器40并且从AR服务器40获取有关AR显示处理等的信息。另外,便携式信息终端30通过诸如蓝牙(注册商标)的短程无线通信***连接至控制器20并且可以将有关AR显示处理等的信息以及有关用户的当前位置的信息发送至控制器20。
HMD 10包括被配置为具有眼镜形状的透视显示器的显示单元11以及控制器20并且在这个实施方式中用作“显示装置”。应注意,图1示意性地示出了HMD 10的形状。
控制器20基于用户的输入操作控制HMD 10的操作。控制器20利用符合预定标准的线缆连接至显示单元11并且基于从便携式信息终端30获取的信息执行处理。
因此,HMD 10可以经由透视显示器向佩戴HMD 10的用户提供将与分布在现实空间中的对象相关联的图像叠加到对象上的视野。在下文中,与对象相关联的图像被称为AR图标。
应注意,在本文中使用的“分布在现实空间中的对象”可以是现实空间中的对象,或者可以是不在现实空间中的但是被显示为叠加在现实空间上的虚拟对象。
[AR***的功能的概要]
图2是示出了HMD 10的视野V的实例的示图。
视野V形成在透视显示器上。在附图的实例中,现实空间中的两个建筑物以透视方式被显示。假设包括在一个建筑物中的两个商店和包括在另一建筑物中的两个商店为对象。例如,如那些附图所示,使用AR技术,可以以叠加的方式在现实空间中的对象上显示表示附加信息的AR图标B。
如图2所示,根据这个实施方式,四个商店被分组,并且为被分组的多个对象显示分布显示D。分布显示D具有与分布有被分组的多个对象的区域的形状相关联的形状,并且显示在分布那些对象的区域附近。进一步地,例如,AR图标B不为每个对象显示的,而是为如上所述的分组显示的。
以此方式,根据分布显示D,直观地呈现了多个对象的分布。
图3是示出了AR***100的配置的框图。
在下文中,将参考图3描述AR***100的元件。
[AR服务器的配置]
如图3所示,AR服务器40包括CPU 401、存储器402和网络通信单元403。例如,AR服务器40被配置为能够存储有关分布在用户周围的现实空间中的多个对象的信息并且输出有关多个对象的信息。尽管在附图中未示出,但是根据需要AR服务器40可具有输入装置、显示装置、扬声器等配置。
CPU 401控制AR服务器40的整个操作。
存储器402包括ROM(只读存储器)、RAM(随机存取存储器)、或者诸如HDD(硬盘驱动器)或闪速存储器(SSD;固态存储器)的非易失性存储器并且存储通过CPU 401执行AR服务器40的控制的程序、各个参数以及其他必需数据。
网络通信单元403经由互联网50与便携式信息终端30通信。通信方法不受具体限制,并且可以是使用用于以太网(注册商标)的NIC(网络接口卡)的有线通信或者使用诸如WiFi(无线保真)的无线LAN(IEEE802.11等)或者使用用于移动通信的3G或4G网络的无线通信。
进一步地,存储器402保存对象数据库404。
对象数据库404为每个对象存储诸如对象的属性或者对象的位置的信息。进一步地,对象数据库404可以是包括具有相同属性的对象的数据库的集合。
有关新对象的信息通过经由互联网50连接至AR服务器40的便携式信息终端30、另一便携式信息终端、信息处理装置等被适当添加至并且登记到对象数据库404中。
[便携式信息终端的配置]
如图3所示,便携式信息终端30包括CPU 301、存储器302、网络通信单元303、短程通信单元304、GPS通信单元305、配备有触摸面板的显示单元306以及内部电源307。
CPU 301控制便携式信息终端30的整个操作。
存储器302包括ROM、RAM、非易失性存储器等,并且存储通过CPU 301执行便携式信息终端30的控制的应用程序、各个参数、要发送至控制器20的有关对象的信息、以及其他必需数据。
网络通信单元303通过使用诸如WiFi(无线保真)的无线LAN(IEEE802.11等)或者使用用于移动通信的3G或4G网络与AR服务器40等通信。便携式信息终端30经由网络通信单元303从AR服务器40下载要发送至控制器20的有关对象的信息并且将该信息存储在存储器302中。
短程通信单元304通过使用诸如蓝牙(注册商标)或者红外通信的短程通信***与控制器20或者另一便携式信息终端通信。
GPS通信单元305从GPS卫星接收信号以获取携带便携式信息终端30的用户的当前位置。
显示单元306例如由LCD(液晶显示器)或者OELD(有机场致发光显示器)组成并且显示各种菜单、应用的GUI等。通常,显示单元306配备有触摸面板并且能够接收用户的触摸操作。
内部电源307供应驱动便携式信息终端30所需的电力。
[HMD的配置]
如图1和图3所示,HMD 10包括显示单元11、检测单元12和控制器20。
(显示单元)
显示单元11被配置为能够在用户的视野中呈现分布显示并且被配置为可佩戴在用户的头上。显示单元11呈现通过视野看到的现实空间并且还以叠加方式在这个现实空间中显示AR图标。显示单元11包括第一显示面111R和第二显示面111L、第一图像生成单元112R和第二图像生成单元112L、以及支架113。
第一显示面111R和第二显示面111L由透明的光学元件组成,它们能够将现实空间(外部视野)分别提供至用户U的右眼和左眼。
第一图像生成单元112R和第二图像生成单元112L被配置为能够生成分别经由第一显示面111R和第二显示面111L向用户U呈现的图像。
支架113具有能够支撑显示面111R和111L以及图像生成单元112R和112L并且可佩戴在用户的头上的适当形状,使得第一显示面111R和第二显示面111L分别面向用户U的右眼和左眼。
如上所述配置的显示单元11被配置为能够向用户U提供其中预定图像(或者虚拟图像)经由显示面111R和111L叠加到现实空间中的视野V。
(检测单元)
检测单元12可以检测显示单元11的姿势的变化。在这个实施方式中,检测单元12被配置为分别检测关于X轴、Y轴和Z轴的变化。
检测单元12可以由诸如角速度传感器或者加速度传感器的运动传感器组成或者由它们的组合组成。在这种情况下,检测单元12可以由其中角速度传感器和加速度传感器各自布置在三个轴线方向上或者可以根据相应的轴使用不同的传感器的传感器单元组成。例如,从角速度传感器输出的整数值可以用于显示单元11的姿势变化、变化方向、变化量等。
进一步地,为了检测显示单元11关于垂直轴(Z轴)的方向,可以使用地磁传感器。可替换地,可以结合使用地磁传感器和以上提及的运动传感器。这能够高度精确地检测方向或者姿势的变化。
检测单元12被布置在显示单元11的适当位置处。检测单元12的位置不受具体限制。例如,检测单元12可以布置在图像生成单元112R和112L中的一个上,或者布置在支架113的一部分处。
(控制器)
控制器20用作HMD 10的控制单元,并且对分布在用户周围的现实空间或者虚拟空间中的多个对象进行分组以生成分布显示。在下文中,将描述对象分布在现实空间中的实例,而是如随后将描述的对象可以分布在虚拟空间中。
如图3所示,控制器20包括CPU 201、存储器202、通信单元203、输入操作单元204和内部电源205。
CPU 201控制控制器20的整个操作。存储器202包括ROM、RAM等并且存储通过CPU201执行的控制器20的控制的程序、各种参数、有关对象的信息、以及其他必需数据。通信单元203形成与便携式信息终端30短程通信的接口。
输入操作单元204通过用户的操作控制显示在HMD 10上的图像。输入操作单元204可由机械开关和/或触摸传感器组成。
内部电源205供应驱动HMD 10所需的电力。
HMD 10可进一步包括声音输出单元,诸如,扬声器、照相机等。在这种情况下,声音输出单元和照相机通常设置至显示单元11。另外,控制器20可设置有显示所述显示单元11等的输入操作屏幕的显示装置。在这种情况下,输入操作单元204可以由设置到显示装置的触摸面板构成。
[控制器的功能配置]
图4是用于描述控制器的功能配置的HMD 10的框图。
如附图所示,控制器20包括视野设置单元21、对象信息管理单元22、对象提取单元23、对象分布计算单元24、分组管理单元25、模式切换单元26、分布显示生成单元27、以及AR图标显示处理单元28。这些元件主要根据存储在存储器202中的应用程序通过CPU 201执行。在下文中,将描述这些元件。
(视野设置单元)
视野设置单元21基于显示单元11的姿势设置视野的范围,显示单元11的姿势由检测单元12的检测结果来计算。在这个实施方式中,当视野设置单元21设置视野的范围时,使用关于垂直轴Az围绕用户U的虚拟圆柱坐标C0。
图5是用于描述圆柱坐标C0和视野V的示意图。
如图所示,圆柱坐标C0位于具有用户U(显示单元11)的位置处的垂直轴Az并且指定虚拟环形表面上的位置(被布置在距垂直轴Az的距离(半径)R的位置处)的坐标系中。圆柱坐标C0在圆周方向具有坐标轴(θ)并且在高度方向具有坐标轴(h)。圆周方向上的坐标轴(θ)表示关于垂直轴的角度,其中,向北方向是0°。高度方向上的坐标轴(h)表示向上和向下方向上的角度,其中,用户U在水平方向上的视线Lh作为基准。坐标轴(θ)将向东方向设置为正方向,并且坐标轴(h)将俯角设置为正方向并且将仰角设置为反方向。可以可选地设置圆柱坐标C0的半径R和高度H。应注意,通过其指定垂直轴Az的用户U的位置通过由便携式信息终端30获取的用户U的位置来指定。
如附图所示,视野设置单元21基于检测单元12的输出计算显示单元11的姿势的变化,并且确定在圆柱坐标C0上属于用户U的视野V的区域。由θ和h的范围指定在圆柱坐标C0上属于视野V的区域。视野V根据用户U的姿势的变化在圆柱坐标C0上移动,并且基于检测单元12的输出计算移动方向或者它的移动量。
图6是圆柱坐标C0的发展图,示出了圆柱坐标C0上的视野V。附图中的参考符号Oc表示圆柱坐标C0的起点。
视野V具有大致矩形形状。例如,圆周方向上的视野V的范围由以下表达式(1)表示。
θv1≤θv≤θv2… (1)
同时,高度方向上的视野V的范围由以下表达式(2)表示。
hv1≤hv≤hv2… (2)
另外,视野V具有xy坐标(局部坐标),其中,左上角是起点OP。x轴是从起点OP在水平方向上延伸的轴。y轴是从起点OP在垂直方向上延伸的轴。随后将描述其细节。
(对象信息管理单元)
对象信息管理单元22经由通信单元203从便携式信息终端30获取有关预定对象的信息并且管理所获取的对象的信息。例如,如随后将描述的,可以将对象信息管理单元22获取对象的时间设置为确定当前位置改变预定距离或者更大的时间。
在这个实施方式中,对象信息管理单元22可以经由便携式信息终端30从对象数据库404获取多个对象的信息。
对象的信息例如包括诸如对象属性、对象姓名以及对象位置的信息。有关对象位置的信息通常包括对象的绝对位置(纬度、经度等)的信息。
(对象提取单元)
对象提取单元23基于视野设置单元21的处理结果提出除了其信息被获取的对象之外的分布在视野V中的对象。
首先,对象提取单元23基于对象的绝对位置和用户的当前位置计算对象在圆柱坐标C0上的坐标(θa、ha)。可以从便携式信息终端30获取用户的当前位置。
对象提取单元23可以提取其坐标(θa,ha)被包括在圆柱坐标C0中的视野V的范围(表达式(1)和(2)的范围)内的对象。
再次返回参考图5,将描述对象在圆柱坐标C0中的坐标(θa,ha)。
对象A1至A4在现实空间中,并且通常位于离用户U比圆柱坐标C0的半径R还远的位置处。因此,如附图所示,对象A1至A4在圆柱坐标C0中的每个位置可以通过观察对象A1至A4中的每一个的用户的视线L与圆柱坐标C0之间的相交位置指定。对象A1至A4在圆柱坐标C0中的位置分别由圆柱坐标C0上的坐标(θa,ha)表示。
应注意,在附图中的实例中,对象A1至A4中的每一个的中心位置与每个相交位置匹配,但是不限于此。对象的外周的一部分(例如,四个角的一部分)可以与相交位置匹配。可替换地,可以使对象A1至A4的位置对应于与相交位置分离的可选位置。
(对象分布计算单元)
对象分布计算单元24计算提取对象的分布。
对象分布计算单元24可以执行将确定为在视野V中显示的每个对象的位置(θa,ha)转换为视野V中的局部坐标(xa,ya)的处理,以便计算对象在视野V中的分布。
图7的A和B是用于描述从圆柱坐标C0至视野V(局部坐标)的转换法的示图。
如图7的A中所示,圆柱坐标C0上的视野V的参考点的坐标被假设为(θv,hv),并且定位在视野V中的对象A的参考点的坐标被假设为(θa,ha)。视野V和对象A的参考点可设置在任一点处,并且在这个实例中,参考点可设置在具有矩形形状的视野V和对象A的左上角处。αv[°]是圆柱坐标中的视野V的宽度角,并且它的值根据显示单元11的设计或规范来确定。
对象分布计算单元24将圆柱坐标系(θ,h)转换为局部坐标系(x,y),从而确定对象A在视野V中的位置。如图7的B中所示,假设视野V在局部坐标系中的高度和宽度是Hv和Wv,并且对象A在局部坐标系(x,y)中的参考点的坐标是(xa,ya),则给出以下转换表达式。
xa=(θa-θv)·Wv/αv… (3)
ya=(ha-hv)·Hv/100… (4)
因此,对象分布计算单元24可以基于如上所述的转换表达式计算每个对象在视野V中的坐标(xa,ya)。
(组管理单元)
组管理单元25对分布在用户周围的现实空间中的多个对象进行分组并且还管理这个组的信息。例如,要分组的对象可以是在视野V的方向上分布的对象。例如,组的信息包括诸如从对象信息管理单元22获取的包括在该组中的对象的数量和对象的共同属性的信息。
组管理单元25基于预定条件对多个对象进行分组。预定条件的实例包括视野V中多个对象的密度以及对象的属性的共同性。
进一步地,当组管理单元25确定视野V中的组对象的密度被减少为小于预定基准时,例如,因为用户接近对象,因此组管理单元25还可以重新构造分组。
(模式切换单元)
模式切换单元26被配置为能够在对包括多个对象的组执行绘制处理的第一模式与对被分组的多个对象中的每个执行绘制处理的第二模式之间切换。例如,本文中描述的“对组的绘制处理”是指对组绘制分布显示的处理或者绘制显示组的附加信息的AR图标的处理。例如,“对每个组对象的绘制处理”是指绘制显示每个对象的附加信息的AR图标的处理。
模式切换单元26基于预定条件在第一模式与第二模式之间切换。例如,当确定对应于模式切换的用户的操作由输入操作单元204接收到时,模式切换单元26在第一模式与第二模式之间切换。
(分布显示生成单元)
分布显示生成单元27生成显示分布有被分组的多个对象的区域的分布显示。在这个实施方式中,分布显示生成具有与分布有被分组的多个对象的区域的形状相关联的形状的分布显示,并且在分布那些对象的区域附近显示。
例如,分布显示生成单元27可以通过使用概率密度函数生成分布显示,该概率密度函数使用表示被分组的多个对象中的每个在视野中的位置的坐标(xa,ya)作为变量。随后将描述其细节。
分布显示生成单元27可在第一模式和第二模式中任何一模式下生成分布显示或者可以仅在第一模式下生成分布显示。
(AR图标显示处理单元)
AR图标显示处理单元28执行显示提供分布在视野V中的对象的附加信息的AR图标的处理。AR图标是显示对象A1至A4的附加信息的图像并且可以是包括字符、图片等的图像或者可以是直观显示图像。进一步地,AR图标可以是二维图像或者三维图像。另外,AR图标的形状可以是矩形、圆形或者另一几何形状并且可以根据AR图标的类型进行适当设置。
AR图标显示处理单元28在第二模式下显示被分组的多个对象中的每个的AR图标。
例如,AR图标显示处理单元28可以在第一模式下为该组显示一个AR图标。在这种情况下,AR图标可以显示属于该组的对象的数量、属于该组的多个对象的共同属性等。
AR图标显示处理单元28可以基于对象的分布在视野V的预定区域中显示AR图标。例如,AR图标显示处理单元28可在与每个对象的位置(观察对象的用户的视线L与圆柱坐标C0之间的相交位置)分离预定距离的位置处显示AR图标。可替换地,AR图标显示处理单元28可计算对象或者分布显示的区域并且在该区域附近显示AR图标。
[AR***的操作的实例]
(获取对象信息的处理)
图8的A是示出了在控制器20中获取对象信息的处理的流程的流程图。在这个操作实例中,当用户的当前位置改变例如50m或者更大时,控制器20执行获取对象信息的处理。
应注意,在附图中,通过便携式信息终端30执行ST101至ST104的处理。进一步地,通过AR服务器40执行ST201至ST203的处理,并且通过HMD 10的控制器20执行ST301的处理。
首先,便携式信息终端30的CPU 301确定是否满足用于获取AR显示候选的信息的条件(ST101)。具体地,CPU 301可基于从GPS通信单元305获取的当前位置的信息确定用户的当前位置是否改变了50m或者更大。进一步地,除了或者代替以上,CPU 301可确定是否从服务器40接收到AR显示候选的状态改变的通知。
当确定满足用于获取AR显示候选的条件时(ST101中的是的),网络通信单元303在CPU 301的控制下将从GPS通信单元305获取的当前位置发送至AR服务器40(ST102)。
AR服务器40的网络通信单元403在CPU 401的控制下接收从便携式信息终端30发送的当前位置(ST201)。随后,CPU 401从对象数据库404获取对应于所获取的当前位置的对象的信息(ST202)。然后网络通信单元403在CPU 401的控制下将获取的对象的信息发送至便携式信息终端30(ST203)。
便携式信息终端30的网络通信单元303在CPU 301的控制下获取从AR服务器40发送的对象的信息(ST103)。随后,短程通信单元304在CPU 301的控制下将获取的对象的信息发送至控制器20(ST104)。
最终,控制器20的通信单元203在CPU 201的控制下接收从便携式信息终端30发送的对象的信息,并且CPU 201保存存储器202中的信息(ST301)。
因此,控制器202的对象信息管理单元22可以获取包括在对象数据库404中的多个对象的信息。
同时,控制器20使用获取的对象的信息在预定时间执行绘制处理。在下文中,将描述通过用作操作的主体的控制器20的CPU 201的绘制处理的概要。
(控制器的绘制处理)
图8的B是示出了控制器的绘制处理的流程的流程图。
首先,CPU 201确定绘制时间是否到达1/30sec。
当确定绘制时间到达时(ST401中的是的),CPU 201获取检测单元12的检测结果(ST402)。
随后,CPU 201从存储器202获取对象的信息(ST403)。具体地,CPU 201(对象信息管理单元22)获取包括在每个数据库中的多个对象,这在图8的A中的ST301中示出。
随后,CPU 201通过与存储器202协作执行绘制分布显示和AR图标的处理(ST404)。因此,显示单元11可以从视野V输出绘制处理的显示结果。
在下文中,将描述绘制分布显示和AR图标的处理的细节。
(绘制分布显示和AR图标的处理)
图9是示出了控制器20的绘制分布显示和AR图标的处理的流程的流程图。在此,假设CPU 201根据存储在存储器202中的就餐地点搜索应用程序来执行处理。
首先,视野设置单元21基于显示单元11的姿势设置视野V的范围,这由检测单元12的检测结果来计算(ST501)。视野V的范围使用圆柱坐标C0由表达式(1)和(2)来表示。
随后,对象提取单元23基于视野设置单元21的处理结果确定是否存在分布在视野V中的对象(ST502)。当确定存在对象时(ST502中为是),对象提取单元23提取分布在视野V中的对象(ST503)。
至于具体处理,如参考图5所描述的,对象提取单元23基于通过GPS通信单元305获取的当前位置的信息以及每个对象的绝对位置计算每个对象在圆柱坐标C0上的坐标(θa,ha)。
然后对象提取单元23确定在圆柱坐标C0中是否存在具有包括在视野V的范围(表达式(1)和(2)的范围)内的坐标(θa,ha)的对象(ST502)。当确定存在对象时,对象提取单元23提取包括在该范围内的对象的所有坐标(θa,ha)(ST503)。
图10是示出了在执行绘制处理之前的视野V的示图。
在这个附图中示出的实例中,对象提取单元23提取就餐地点A11、就餐地点A12、就餐地点A13和就餐地点A14、以及建筑物A21、建筑物A22、建筑物A23、以及十字路口A31。
随后对象分布计算单元24计算分布在视野V中的对象的分布(ST503)。如使用图9所描述的,对象分布计算单元24从圆柱坐标C0上的坐标(θa,ha)计算提取的视野V内的对象的局部坐标(xa,ya)。
在图10中示出的实例中,对象A11至A14在局部坐标中的位置被分别计算为局部坐标(xa11,ya11)、(xa12,ya12)、(xa13,ya13)和(xa14,ya14)。
随后,组管理单元25将分布在视野V中的多个对象分组(ST504)。
在图10中示出的实例中,组管理单元25对视野V中的四个对象A11至A14分组为组G10,这四个对象A11至A14具有“就餐地点”的关联附加信息。在这种情况下,关联附加信息是对象的属性。应注意,在这个实例中,操作组管理单元25未对建筑物A21、建筑物A22、建筑物A23和十字路口A31分组。
随后,模式切换单元26确定是否设置为第一模式(ST505)。在这个实施方式中,模式切换换单元26可以鉴于开始处理时的模式以及对应于经由输入操作单元204的模式切换的用户的输入操作的存在与否来确定当前模式。
当确定设置第一模式时(ST505中的否定),分布显示生成单元27生成分布显示。分布显示具有与分布有被分组的多个对象的区域的形状相关联的形状,并且在分布那些对象的区域附近显示(ST506)。因此,控制器20控制显示单元11,使得分布显示被呈现给用户。
随后,AR图标显示处理单元28为分布在视野V中的组G1、建筑物A21、建筑物A22、建筑物A23和十字路口A31处理显示AR图标的处理(ST507)。
图11是示出了在第一模式下在其上执行绘制处理的视野V的示图。
如图所示,分布显示D10以叠加的方式显示在被分组的多个对象A11至A14上。
例如,AR图标显示处理单元28计算分布显示D10的区域并且在沿着分布显示D10的上部的位置处显示与组G10相关联的AR图标B10。
在AR图标B10中,如图所示可显示商店的数量,或者可显示与包括在组等中的对象共有的属性。进一步地,在不存在所有对象共有的属性但是存在统计上显著的属性的情况下,可以显示该属性。
如图所示,AR图标显示处理单元28在适当位置处显示分别与建筑物A21、建筑物A22、建筑物A23和十字路口A31相关联的AR图标B21、B22、B23、B24和B31。如图所示,例如,可以在AR图标B21、B22、B23、B24和B31中显示建筑物和十字路口的名称。
同时,当在ST505中确定没有设置第一模式时(ST505中为否),AR图标显示处理单元28确定第二模式并且为相应的被分组的对象执行显示AR图标的处理(ST507)。
图11是示出了在第二模式下在其上执行绘制处理的视野V的示图。
如图所示,AR图标显示处理单元28可以生成并显示与相应的被分组的对象A11至A14相关联的AR图标B11、B12、B13和B14。如图所示,那些AR图标B11至B14可以显示相应对象的商店名称等。
进一步地,AR图标显示处理单元28可以调节AR图标的位置使得AR图标B11至B14不会彼此重叠。
如上所述,根据操作的这个实例,在第一模式中可以关于被分组的多个对象显示分布显示,并且在第二模式下可以分开并显示被分组的多个对象。
随后,将描述生成分布显示的详细处理。
(生成分布显示的处理)
在这个实施方式中,分布显示生成单元27可以通过使用概率密度函数生成分布显示,该概率密度函数使用表示视野中的被分组的多个对象中的每个的位置的坐标作为变量。例如,概率密度函数可以是高斯函数。
图13是示出了高斯函数的实例的曲线,其中,垂直轴表示x,并且水平轴表示分布概率ψ(x)。附图中示出的高斯函数是作为高斯函数中的一个的正态分布函数并且由以下表达式(5)表示。
在下文中,利用图10中示出的对象A11至A14的实例,将描述导出正态分布函数ψ(x)的方法。
首先,分布显示生成单元27从局部坐标上的相应对象A11至A14的x(xa11、xa12、xa13、xa14)的值计算平均值μ和标准偏差σ。从而将算出的μ和σ代入到表达式(5)中,以便导出x轴方向上的正态分布函数ψ(x)。
ψ(xa)的值表示当xa用作概率密度变量时的相对似然,即,表示在包括xa的分钟间隔中的对象的虚拟密度。
在此,对象的密度指的是表示对象的阻塞水平的程度。具体地,对象的密度是每单位区域包括的对象数量的概念(实际密度)或者表示视野中的对象的位置的坐标的离散度。
在图10中示出的实例中,对象的坐标被离散分布,并且计算实际密度是不现实的。鉴于此,在该实例中假设对象的密度由离散度(σ2)的值指定。
进一步地,参考图13,作为σ2,即,离散度越小,曲线的弯曲越陡,并且在约平均值μ的ψ的值越大。以这种方式,曲线还示出了离散度与密度具有相关性。
同时,分布显示生成单元27类似地导出y轴方向的正态分布函数ψ(y)。换言之,分布显示生成单元27从局部坐标上的相应对象A11至A14的y(ya11、ya12、ya13、ya14)的值计算平均值μ和标准偏差σ并且获得轴线方向上的正态分布函数ψ(y)。
然后分布显示生成单元27生成靠近视野中的区域显示的分布显示,其中,当导出的ψ(x)和ψ(y)各自由变量积分时对象的分布概率(存在概率)具有预定值或者更大。
例如,对象的分布概率可以通过相对于变量x在预定范围内对概率密度函数ψ(x)积分而导出。从而,获得对应于预定分布概率的积分范围[xd1,xd2]、[yd1,yd2],并且因此可以提取上述区域。
例如,当变量是x时,积分范围可以指定为以下表达式(6)的范围。
[xd1,xd2]=[μ-kσ,μ+kσ](k>0)… (6)
根据表达式(6),不管曲线的轮廓可以仅通过k的值指定分布概率。
例如,当k=0.6745代入到表达式(6)中时,ψ(x)的积分结果是0.5,并且对象在通过表达式(6)表示的间隔内的分布概率是50%。类似地,例如,当k=1被代入时,对象在通过表达式(6)表示的间隔中的分布概率是68.27%。以这种方式,当设定表达式(6)的k值时,可以导出其中对象的分布概率具有预定值的x(和y)的范围。
应注意,除了导出上述积分范围的实例之外,例如,分布显示生成单元27可提取对应于具有预定值或者更大的ψ(x)和ψ(y)的变量x和y的范围,并且生成靠近对应于那些范围的视野中的区域显示的分布显示。
如图11所示,分布显示是在x和y的提取范围中叠加的图形。利用这种分布显示,可以通过形状表示多个对象的分布。
进一步地,例如,尽管分布显示可以是矩形,但是如图所示,所有或者一部分外周可以由平滑曲线形成。
另外,分布显示生成单元27可以生成多个对象可视的透射率的分布显示。因此,可以生成像雾或者云覆盖对象表示的分布显示。
(分布显示产生实施例1)
图14是示出了分布显示的另一实例的示图。
如图所示,分布显示生成单元27可基于表达式(6)的ψ值或者k值的范围在分布显示中改变色度、亮度和饱和度中的至少任一个。例如,在分布显示中,具有较大值ψ的区域,即,具有较高密度的区域可以被配置为具有较高亮度的色调或者较低亮度的色调。可替换地,可根据ψ值改变色度。
因此,分布显示生成单元27可以生成基于被分组的多个对象的密度而改变色调的分布显示。
进一步地,如图所示,可以逐步地改变或者连续改变分布显示的色调。
(分布显示生成实施例2)
图15是示出了分布显示的又一实例的示图。
如图所示,在存在多个组的情况下,分布显示生成单元27可以为每一个组生成分布显示。
在附图中示出的实例中,组G20包括具有餐馆属性的对象,并且组G30包括具有便利商店属性的对象。分布显示D20和D30分别叠加在那些组上。进一步地,AR图标B10和B20分别添加至组G20和G30。
因此,即使在具有不同属性的多个对象分布在视野中或者多个对象的分布偏离的情况下,也可以将合适的分布显示呈现给用户。
(分布显示生成实施例3)
图16是示出了分布显示的又一实例的示图。附图中的参考符号A41至A44表示对象。
在组包括充满对象的多个区域的情况下,当使用一个概率密度函数时,不能获得示出对象的分布的合适的分布显示。
鉴于此,分布显示生成单元27可以生成具有表示组中的对象的偏离分布的形状的分布显示D40。
更具体地,分布显示生成单元27可确定除了被分组的多个对象之外是否存在各自包括其密度是预定基准或者更大的多个对象的小的组。当确定存在小的组时,分布显示生成单元27可以为每个小的组导出概率密度函数,该概率密度函数使用表示属于每个小的组的视野中的每个对象的位置的坐标作为变量,并且可以通过使用通过导出的概率密度函数的总和获得的概率密度函数生成分布显示。
在这种情况下,与随后描述的变形例1-1类似,分布显示生成单元27可确定除了被分组的多个对象之外是否存在各自包括其离散度具有预定值或者更小的多个对象的小的组。
因此,如图所示,可以生成具有对应于对象的分布的形状的分布显示。
[该实施方式的作用和效果]
如上所述,根据这个实施方式,当多个对象被分组,并且生成靠近分布对象的区域显示的分布显示时,可以允许视觉上识别视野V的用户直观理解对象的分布。因此,即使当在视野V中存在多个对象时,可以以简单类型提供信息并且可以提高可见度。
例如,当用户经由视野观察现实空间时,在通过利用字符等显示对象的内容的AR图标提供信息中,不能充分地识别AR图标的内容。进一步地,当视野中的AR图标的比例较大时,会阻碍现实空间上的观察,并且当用户观察AR图标时,会分散对现实空间的关注。在下文中,将描述具体实例。
图17和图18各自示意性地示出了根据这个实施方式的参考实例的视野的示图。
在图17和图18中示出的每个视野V'中,三个对象(未示出)被布置在区域S中,并且显示与这三个对象相关联的AR图标B'1、B'2和B'3。
在图17的A中示出的视野V'中,AR图标B'1、B'2和B'3重叠显示,因此用户不能掌握AR图标B'2和B'3的内容。
鉴于此,在图17的B中示出的视野V'中,AR图标B'1、B'2和B'3被显示为彼此不重叠。在这种情况下,AR图标B'1、B'2和B'3在视野V'的比例变高。因此,当用户想要观察现实空间中的对象等时,AR图标B'1、B'2和B'3可以叠加在该对象上并且会阻碍用户观察对象。进一步地,根据该控制方法,存在与AR图标B'1、B'2和B'3相关联的对象的分布或者AR图标与对象之间的对应关系变得不清楚的风险。
在图17的C中示出的视野V'中,对象以及与之相关联的AR图标B'1、B'2和B'3通过相应线被连接,并且它们之间的对应关系清楚并且对象的布置也清楚。同时,当用户想要观察现实空间中的对象等时,AR图标B'1、B'2和B'3的存在依然会阻碍用户观察对象。
在图18中示出的视野V'中,AR图标B'1、B'2和B'3以预定时间切换。在这种情况下,如果不能充分保证切换时间,则用户不能够视觉上识别AR图标B'1、B'2和B'3。同时,为了在视觉上识别所有AR图标B'1、B'2和B'3,必须在某个时间段连续观察AR图标。
根据这个实施方式中的第一模式,可以消除这些问题。
换言之,根据这个实施方式中的第一模式,因为分布显示以重叠方式显示在多个对象上,因此不必显示对应于每一个对象的AR图标。因此,AR显示在视野中的比例降低,并且不阻碍对现实空间的观察。另外,因为分布显示可以通过形状等显示对象的分布,因此分布显示可以设置有具有渗透性的配置。因此,可以更加改善现实空间的可见度。
进一步地,因为分布显示可以通过形状或者色调表示多个对象的分布或者密度,因此可以允许用户以直观和简单方式掌握对象的存在及其分布状态。因此,用户可以通过分布显示在短时间段内掌握有关对象的最少信息。
另外,因为用户可以在不观察的情况下通过分布显示模糊掌握对象的分布等,因此可以保持对现实空间的关注。
除了以上之外,在这个实施方式中,因为可以将第一模式切换至第二模式,所以根据需要用户可以获取对象的更详细的信息。
图19是示意性地示出了根据这个实施方式的另一参考实例的视野的示图。
在图19的中示出的视野V'中,显示了与包括诸如就餐地点的商店的建筑物A'4相关联的AR图标B'41。当用户靠近这个建筑物A'4时,如图19的B中所示,显示了作为低阶信息的显示诸如就餐地点的商店的名称的AR图标B'42和B'43。换言之,图19中示出的实例被配置为如下:在当显示相应对象时AR图标被拥挤或者覆盖的情况下,显示有关高阶层次结构的信息的AR图标B'41;并且随着AR图标的拥挤度减轻,显示有关低阶层次结构的信息的AR图标B'42和B'43。
在这种情况下,控制器20需要获取有关对象的层次结构的信息,并且必须制定对象的层次结构。
根据这个实施方式,即使在对象的层次结构的信息不充分的情况下,例如,在AR服务器40中最新登记的对象等,该对象也可以是分组的目标。因此,可以迅速地提供更多对象的信息,并且可以缓和用于制定层次结构的处理量。
[AR***的应用例]
在上述操作的实例中,已经描述了AR***100(控制器20)应用于就餐地点搜索应用程序(在下文中,缩写为应用)的实例,而是这个实施方式中的AR***100可以应用于另一应用。
(应用例1)
例如,AR***100可以应用于拥挤点搜索应用。假设拥挤点搜索应用可以实时地将待在外面的人集中的地方呈现给用户。在这种情况下,对象是待在外面的人。
例如,AR服务器40作为对象数据库404存储有关待在外面的人的群体的数据库。AR服务器40例如从多个人的便携式信息终端获取每个人的当前位置以及那个人的注册家庭的位置信息并且计算与每个人的家庭的距离。进一步地,AR服务器40获取通过安装在每个人的便携式信息终端中的行为分析程序等分析的每个人的行为分析结果。AR服务器40基于获取的多条信息确定每个人是否都待在外面。进一步地,与每个人相关联的当前位置和待在外面的状况被存储在有关待在外面的人的群体的数据库中。
控制器20从AR服务器40经由便携式信息终端30获取有关待在外面的人的信息。对象提取单元23然后提取分布在视野V中的待在外面的人,并且对象分布计算单元24计算那些人的分布。随后,组管理单元25对待在外面的人分组,并且分布显示生成单元27生成分布显示。例如,分布显示生成单元27可根据密度具有不同的色调。
图20是示出了通过这个应用的处理呈现的视野V的实例的示图。
在附图中示出的视野V中,呈现了某个事件地点,并且显示了分布显示D50。以这种方式,根据这个实施方式即使当不可以在视野V中视觉上识别对象(个人)时,也可以在那些对象被分布的区域中显示分布显示D50。
例如,在附图中示出的实例中,通过AR图标B50呈现作为“某些游戏爱好者”的用户的属性的信息以及到该组的距离的信息。
以这种方式,在分组个人的预定属性之间存在统计上显著的属性的情况下,AR图标显示处理单元28可以将这种属性显示为AR图标B50。进一步地,AR图标显示处理单元28可显示除了属性之外的从佩戴HMD 10的用户至该组的距离。在这种情况下,到该组的距离可以是从佩戴HMD 10是用户到分组个人的距离的平均距离。
因此,佩戴HMD 10的用户可以容易地搜索存在许多人的地方或者存在与同样在用户首次等访问的事件地点中的用户具有共同爱好的许多用户的地点。另外,基于用户的目的,在避开人群时用户可以行动。
进一步地,例如,如果用户先前注册有关“某些游戏爱好者”的信息,则组管理单元25可以对具有“某些游戏爱好者”的注册属性的人分组。这可以向用户提供更有效的信息。
(应用例2)
例如,AR***100可以应用于摄影点搜索应用。假设当从用户观看时摄影点搜索应用可以呈现适用于摄影的地点的方向或者距离。在这种情况下,对象是用于摄影的地点。
例如,AR服务器40将摄影点数据库存储为对象数据库404。通过数字照相机或者便携式信息终端拍摄的图像数据(在下文中,称为图片数据)被上传至互联网50上的照片共享网站、互联网50上的博客等。AR服务器40获取作为元数据被添加至那些图片数据段的摄影位置信息。例如,摄影位置信息通过包括GPS通信单元305的摄影设备在摄影时获取。AR服务器40将获取的摄影位置信息保存为摄影点数据库。
控制器20从AR服务器40经由便携式信息终端30获取摄影位置信息。然后对象提取单元23提取分布在视野V中的摄影点,并且对象分布计算单元24计算那些摄影点的分布。随后,组管理单元25对那些摄影点分组,并且分布显示生成单元27生成分布显示。例如,分布显示生成单元27可根据密度具有不同的色调。
图21是示出了通过这个应用的处理呈现的视野V的实例的示图。
在附图中示出的视野V中,显示表示摄影点分布的分布显示D60。以上分布显示D60,通过AR图标B60呈现了表示摄影点中的主题内容“樱花”的信息、以及到该点的距离的信息。例如,可以通过图片数据的图像分析获得表示摄影点中的主题内容的信息。
这使用户能够掌握摄影点的方向或者距离、摄影点的流行程度等。
另外,在除了提取的摄影点之外的摄影点中的摄影季节之中存在统计上显著的季节的情况下,组管理单元25可以对接近于显著的摄影季节的时刻处理的摄影点分组。可以从添加至图片数据的元数据确定摄影季节。
例如,参考图21的实例,假设由于摄影区域具有樱花作为主题的摄影季节主要集中在3月末至4月初。在这种情况下,当在4月初执行处理时,控制器20可以对具有樱花作为主题的成像点分组并且可以生成附图中示出的分布显示D60。同时,当在8月执行处理时,控制器20不对具有樱花作为主题的成像点分组并且不生成分布显示D60。
这使用户能够掌握适用于摄影的现实的摄影点。
(应用例3)
例如,AR***100可以应用于游览点引导应用。假设当从用户观看时游览点引导应用可以呈现靠近当前位置的游览点的方向或者距离。在这种情况下,对象是游览点。
例如,AR服务器40将游览点数据库存储为对象数据库404。AR服务器40获取上传至由市政当局创建的主页的信息、旅游相关内容等以及上传至博客的信息作为游览点的信息。
控制器20从AR服务器40经由便携式信息终端30获取游览点的信息。然后对象提取单元23提取分布在视野V中的游览点,并且对象分布计算单元24计算那些游览点的分布。随后,组管理单元25对那些游览点分组,并且分布显示生成单元27生成分布显示。例如,分布显示生成单元27可根据密度具有不同的色调。
图22是示出了通过这个应用的处理呈现的视野V的实例的示图。
在附图中示出的视野V中,显示了表示游览点的分布的分布显示D70和D80。以上分布显示D70和D80,分别显示了AR图标B70和B80。在AR图标B70和B80中,分别呈现了表示游览点的属性的信息“寺庙”、以及到该点的距离的信息。
这使用户能够掌握游览点的方向或者距离、游览点的集中度等。
应注意,在多个游览点的属性之间存在统计上显著的属性的情况下,AR图标显示处理单元28可以显示属性作为AR图标。参考图22,例如,在组管理单元25对形成预定密度的寺庙的大门、主要寺庙等组合为游览点的情况下,AR图标显示处理单元28可以将寺庙的大门、主要寺庙等共有的属性“寺庙”显示为统计上显著的属性。
另外,在提取的游览点的每一个中具有适用于游览的季节的情况下,组管理单元25可以对接近于该季节的时间中处理的游览点分组。
这使用户能够掌握适用于游览季节的游览点。
(应用例4)
例如,AR***100可以应用于交通堵塞信息提供应用。交通堵塞信息提供应用可以实时地向用户呈现存在交通堵塞的地点。在这种情况下,该对象是汽车。
例如,AR服务器40将交通堵塞信息数据库存储为对象数据库404。AR服务器40通过使用例如由汽车发出的行驶信息、安装在公路上用于监测汽车流的***、或者驾驶员便携式信息终端获取以低速行驶的汽车的分布信息。
控制器20从AR服务器40经由便携式信息终端30获取汽车的分布信息。然后对象提取单元23提取分布在视野V中的以低速行驶的汽车,并且对象分布计算单元24计算这些汽车的分布。随后,组管理单元25对那些提取的汽车分组,并且分布显示生成单元27生成分布显示。例如,分布显示生成单元27可根据密度具有不同的色调。
图23是示出了通过这个应用的处理呈现的视野V的实例的示图。
在附图中示出的视野V中,显示了表示以低速行驶的汽车的分布的分布显示D90和D100。在分布显示D90和D100上方,分别显示了AR图标B90和B100。在AR图标B90和B100中,分别呈现了“交通堵塞”的信息以及到达开始交通堵塞的位置的距离的信息。
这使用户能够掌握存在交通堵塞的位置的方向或距离或者交通堵塞的程度,以避开存在交通堵塞的这种位置。
(其他应用例)
进一步地,AR***100还可以应用于在停车场搜索空白空间的应用。在这种情况下,控制器20可以通过交通堵塞信息提供应用的类似处理在某个停车场中的汽车的分布上生成分布显示。这使用户能够掌握停车场中的汽车的填充分布并且容易地找出空白空间。
[变形例]
在下文中,将描述这个实施方式的变形例。应注意,在以下变形例中,与上述实施方式中的那些配置相似的配置由相同的参考符号表示并且将省略它们的描述。
(变形例1-1)
以上实施方式已经描述了组管理单元25对具有关联属性的附加信息等的多个对象分组,但是对于该分组的条件不限于此。
例如,组管理单元25可对除了分布在视野中的多个对象之外的构成预定基准或者更大密度的多个对象分组。
在这种情况下,当导出概率密度函数时,组管理单元25可以对离散度具有预定值或者更小的多个对象分组,概率密度函数使用表示视野中的每个对象的位置的坐标(xa,ya)作为变量。
另外,在这个变形例中,组管理单元25可以基于分布在视野中的多个对象的密度重组分组。
图24的A和B是示出了视野V的实例并且示出了对象A111至A114是包括在一个建筑物中的两个餐馆A111和A112以及包括在另一建筑物中的两个咖啡馆A113和A114的实例的示图。
在图24的A中,四个对象A111至A114集中在视野V的窄范围内。四个对象A111至A114被分组到一个组G110,并且显示分布显示D110。
同时,如图24的B中所示,在用户靠近那些建筑物并且减轻对象的密度的情况下,四个对象A111至A114的分布的离散度大于基准值。在这种情况下,组理单元25搜索其分布的离散度具有基准值或者更小的对象的集合。如图所示,两个餐馆A111和A112以及两个咖啡馆A113和A114分布被重组为组G120和组G130。另外,分布显示生成单元27为相应的组G120和G130生成分布显示D120和D130。
因此,根据这个变形例,可以生成对应于密度的更合适的分布显示并且改善视野的可见度。
(变形例1-2)
分布显示生成单元27和AR图标显示处理单元28可以执行防止显示生成的AR图标或者分布显示的一部分的处理。
例如,图25的A示出了分布显示生成单元27和AR图标显示处理单元28为多种货物商店生成分布显示和AR图标的实例。在视野V中,显示了显示餐馆的分布的分布显示D140和D150以及显示多种货物商店的分布的分布显示D160、以及分别与它们对应的AR图标B140、B150和160。
例如,当用户搜索就餐地点时,多种货物商店的重要性低。
鉴于此,如图25的B中所示,分布显示生成单元27和AR图标显示处理单元28可通过过滤处理移除具有除了诸如就餐地点的预定属性之外的属性的AR图标和分布显示。
可基于用户的输入操作执行AR图标和分布显示的移除或者可通过应用自动执行AR图标和分布显示的移除。
这可以以更简单的类型实现提供最小信息。
(变形例1-3)
例如,对象提取单元23仅可提取具有预定属性的对象。
这可以降低控制器20中的处理量。
(变形例1-4)
上述实施方式已经描述了在第二模式下未生成分布显示的实例,但是本技术不限于此。同样在第二模式下,可以为被分组的多个对象生成分布显示。
图26是示出了在第二模式下视野V的实例的示图。如图所示,针对组显示AR图标B170和分布显示D170。另外,还显示了对应于组中的相应对象的AR图标B171、B172、B173和B174。
这可以示出在第二模式下也存在组。
(变形例1-5)
上述实施方式已经描述了当确定通过输入操作单元204接收对应于模式切换的用户的操作时模式切换单元26在第一模式与第二模式之间切换,但是本技术不限于此。
例如,当确定用户正在观察分布显示时,模式切换单元26可被配置为从第一模式切换至第二模式。
更具体地,当确定随后描述的分布显示被显示在视野V的中心时,模式切换单元26可确定用户正在观察分布显示。
图27是示出了通过模式切换单元26的模式切换的实例的视野V的示图。附图中的参考符号Ov表示视野V的中心。
首先,如图27的A中所示,在第一模式下,分布显示D170被显示在偏离中心Ov的区域中。
当用户改变头部(即,显示单元11(头跟踪))的方位时,圆柱坐标C0中的视野V中的θ的范围也改变。
因此,如图27的B中所示,分布显示D170被显示在中心Ov处,并且模式切换单元26从第一模式切换至第二模式。
如图27的C中所示,显示了呈现包括在组中的对象的信息的AR图标B171、B172、B173和B174。
人们认为当用户旨在获取组的详细信息时,用户在观察该组。因此,在这个变形例中,当正在观察该组时,可以使用用户的自然移动执行至第二模式的切换。
应注意,模式切换单元26可被配置为在分布显示D170被显示在中心Ov之后的预设时间段过去之后从第一模式切换至第二模式。
可替换地,模式切换单元26可利用安装在便携式信息终端30中的行为识别引擎、安装至显示单元11的视线检测***等确定用户是否正在观察视野V。
(变形例1-6)
如模式切换处理的另一实例,当确定视野V中的被分组的多个对象的密度是预定基准或者更小时,模式切换单元26可切换到第二模式。
在这个变形例中,例如,当用户靠近现实空间中的对象时,视野V中的对象的分布的离散度变大并且密度降低,以便可以执行到第二模式的切换。
图28的A和B是示出了对象是四个就餐地点的视野V的实例的示图。
图28的A示出了四个对象A111至A114的密度大于预定基准并且保持第一模式的实例。例如,在变形例1-1中可以将离散度的值应用为密度的基准。在附图中示出的实例中,针对四个组合对象A111至A114显示分布显示D110和AR图标B110。
图28的B示出了四个对象A111至A114的密度是预定基准或者更小的实例,并且执行至第二模式的切换。在附图中示出的实例中,针对四个对象A111至A114分别显示AR图标B111、B112、B113和B114。
在此,在对象的密度降低的情况下,对象A111至A114被分布在视野V中的较宽区域中。因此,容易保证为相应对象显示AR图标B111至B114的空间。因此,根据这个变形例,在保持视野V中的AR图标的可见度的同时可以执行模式之间的切换。
(变形例1-7)
上述实施方式已经描述了分布显示生成单元27通过使用表达式(5)表示的正态分布函数生成分布显示。然而,可以使用通过以下表达式(6)表示的另一高斯函数。
同样通过表达式(6),可以获得图13中示出的钟形函数,并且可以生成与上述实施方式的分布显示相似的分布显示。
(变形例1-8)
可替换地,例如,分布显示生成单元27可以在不使用概率密度函数的情况下生成以下分布显示。
图29是示出了分布显示的另一实例的示图。
如图所示,例如,分布显示D180可由以每个对象的坐标位置作为中心的多个圆圈D181至D184形成。一个圆圈的尺寸不受具体限制,并且例如,可以是与另一组合对象的圆圈重叠的尺寸。例如,可将圆圈配置为使得随着佩戴显示单元11的用户与对象之间的距离越小,直径越大。
进一步地,在分布显示D180中,多个圆圈彼此重叠的区域可具有较低亮度的色调。
进一步地,如图所示,可将多个圆圈整合以形成一个分布显示。这可以强调该组。
同样利用这种分布显示,可以通过形状和布置表示对象的分布状态。
可替换地,在存在要分组的许多对象的情况下,分布显示可被配置为对应于一个对象的点的集合。同样利用这个配置,可以通过深色调表示在分布显示中具有高密度对象的区域,因为点被画出以便彼此重叠,以致可以基于被分组的多个对象的密度改变色调。
(变形例1-9)
控制器20不可具有能够在第一模式和第二模式之间切换的配置,但是具有仅具有上述第一模式的配置。
<第二实施方式>
图30是根据本技术的第二实施方式的用于描述控制器的功能配置的HMD的框图。
根据这个实施方式的HMD 10A包括显示单元11和控制器20A,并且控制器20A的功能配置与第一实施方式的功能配置不同。应注意,控制器20的硬件配置与图3中示出的控制器20的硬件配置相似,并且因此将省略其描述。
应注意,在以下变形例中,与上述实施方式的配置相似的配置将由相同的参考符号表示,并且将省略它的描述。
如图30所示,控制器20A包括视野设置单元21、对象信息管理单元22、对象提取单元23、对象分布计算单元24、组管理单元25、模式切换单元26、分布显示生成单元27、AR图标显示处理单元28、以及分布显示调节单元29。
当确定视野中的分布显示的面积的比例大于第一比例(预定比例)时,分布显示调节单元29可以将分布显示减少至第一比例或者更小。
另外,当确定视野中的分布显示的面积的比例小于第二比例时,分布显示调节单元29可以将分布显示增加至第二比例或者更大。假设第二比例小于第一比例。
图31是示出了分布显示调节单元29的操作的实例的流程图。
分布显示调节单元29在生成分布显示之后计算视野中的分布显示的面积的比例(ST601)。
随后,分布显示调节单元29确定所计算的面积的比例是否大于第一比例(ST602)。
当确定所计算的面积的比例大于第一比例时(ST602中为是),分布显示调节单元29执行将分布显示减少至第一比例或者更小的处理(ST603)。
同时,当确定所计算的面积的比例是第一比例或者更小时(ST602中为否),分布显示调节单元29确定所计算的面积的比例是否小于第二比例(ST604)。
当确定所计算的面积的比例小于第二比例时(ST604中为是),分布显示调节单元29执行将分布显示增加至第二比例或者更大的处理(ST605)。
进一步地,当确定所计算的面积的比例是第二比例或者更大时(ST604中为否),分布显示调节单元29在没有执行分布显示的减小或者增加的情况下终止该处理。
分布显示调节单元29可以通过使用小于例如实际计算值的离散度(即,σ2)的值为使用高斯函数生成的分布显示减少分布显示。类似地,分布显示调节单元29可以通过使用值比实际计算值大的离散度增加分布显示。
例如,分布显示调节单元29可以在使用图8B已经描述的在每1/30sec的绘制时间执行绘制分布显示和AR图标的处理之后执行连续调节分布显示的处理。可替换地,分布显示调节单元29可以在不同于上述绘制时间的预定时间执行调节分布显示的处理。
将描述通过分布显示调节单元29调节分布显示的基准。
可以通过显示单元11的视野V的视角适当地设置第一比例和第二比例。
图32的A和B是用于描述视野V的视角的示图。图32的A示出了圆周方向(θ方向)上的视角α,并且图32的B示出了高度方向(h方向)上的视角β。
如图32的A中所示,视角α可以定义为视野V在圆柱坐标C0中的圆周方向(θ方向)上的范围并且使用如下表达式(1):α=θv2-θv1进行定义。
同时,如图32的B中所示,视角β表示用户U从圆柱坐标C0上的视野V的下端hv2至上端hv1观看的角度的范围并且可以由表达式(7)进行定义。
Β=2×tan-1((hv2-hv1)/2R)… (7)
在此,在视角α是20°并且视角β是10°的情况下,例如,第一比例可以设置为50%,并且第二比例可以设置为10%。
进一步地,例如,相对于用户的视野,其中视角α是40°并且视角β是20°的视野V被配置为相对大于视角α是20°并且视角β是10°的视野V。在这种情况下,例如,第一比例可以设置为30%,并且第二比例可以设置为5%。不管视野V的尺寸,这可以呈现高可见度的分布显示。
进一步地,还可以适当地调节减少或者增加分布显示的比例。例如,分布显示调节单元29可将该比例减少至第一比例或者将该比例增加至第二比例。
视野V的视角与第一和第二比例的值之间的关系可存储在例如AR服务器40的存储器202中,或者通过用于执行生成分布显示的处理的应用程序确定。
可替换地,可为每个HMD 10确定第一和第二比例。
如上所述,根据这个实施方式,可以进一步改善分布显示的可见度。
在上文中,描述了本技术的实施方式。然而,本技术不限于上述实施方式,并且在没有偏离本技术的大意的情况下当然可以做出各种修改。
尽管上述实施方式已经描述了AR***包括AR服务器、便携式信息终端、控制器和HMD,但是本技术不限于此。
例如,AR***可被配置为不包括便携式信息终端并且被配置为使得AR服务器和控制器互相直接通信。
进一步地,控制器可以整体配置有HMD或者由便携式信息终端组成。可替换地,控制器可由多个装置例如,AR服务器和便携式信息终端组成。
另外,在操作的上述实例中,当用户的当前位置改变时从AR服务器获取对象的必需信息,但是本技术不限于此。
例如,控制器(HMD)或者便携式信息终端在它们激活时可以从AR服务器统一获取AR显示处理和触觉反馈处理所需的对象的信息,并且将该信息保存在存储器中。
例如,上述实施方式已经描述了具有经由显示面111R和111L呈现图像的配置的HMD的实例,但是例如本技术也适用于视网膜投射型HMD。
进一步地,如HMD的实例,已经描述了包括透射型显示器的实例。然而,例如,HMD可包括非透射型显示器。在这种情况下,对象可以不是分布在现实空间中的对象,但是分布在虚拟空间中的对象可显示在非透射型显示器上。例如,虚拟空间可以是通过由AR服务器等提供的游戏应用在用户周围建立的虚拟空间。
另外,尽管已经描述了本技术应用于HMD的实例,但是例如本技术也适用于接触透镜型可佩带的显示器或者可佩带在手腕、手臂或者颈状上的可佩带的显示器。
进一步地,上述实施方式已经描述了靠近分布对象的区域生成分布显示的实例,但是本技术不限于此。例如,在对象被布置在视野外部的上侧上的情况下,HMD的控制器可显示视野的上侧上的分布显示。
可替换地,不管分布对象的区域的形状,分布显示的形状可以是预定形状,诸如,其中心在对象的分布中心处的椭圆形或者圆形。
进一步地,上述实施方式已经描述了基于多个被分组的对象的密度改变色调的实例,其中,为具有多个被分组的对象的较高密度的区域生成具有较高亮度的色调的分布显示。然而,本技术不限于此。例如,HMD的控制器可为具有多个组合对象的较高密度的区域生成具有较低亮度的色调的分布显示。
另外,HMD的控制器可基于例如多个被分组的对象的密度分布生成内部色调分布或者亮度分布被改变的分布显示。例如,控制器可以生成充满商店的区域用白色表示并且其他区域用灰色表示的分布显示。
可替换地,HMD的控制器还可以基于多个组合对象的密度分布生成其形状被改变的分布显示。这使控制器能够从例如生成的分布显示删除存在几个对象或者没有对象的区域中的一部分分布显示。
注意,本技术还可以具有以下配置。
(1)一种显示装置,包括:
控制单元,对分布在用户周围的现实空间或者虚拟空间中的多个对象进行分组并且生成分布显示,分布显示用以显示分布有被分组的多个对象的区域;以及
显示单元,在用户的视野中呈现分布显示。
(2)根据项(1)所述的显示装置,其中
控制单元生成分布有被分组的多个对象的区域附近的分布显示。
(3)根据项(1)或者(2)所述的显示装置,其中
控制单元生成具有与分布有被分组的多个对象的区域的形状相关联的形状的分布显示。
(4)根据项(3)所述的显示装置,其中
控制单元生成具有表示多个对象的偏离分布的形状的分布显示。
(5)根据项(1)至(4)中任一项所述的显示装置,其中
控制单元生成具有多个对象可视的透射率的分布显示。
(6)根据项(1)到(5)中任一项所述的显示装置,其中
控制单元生成分布显示,使得基于被分组的多个对象的密度改变色度、亮度和饱和度中的至少任一个。
(7)根据项(6)所述的显示装置,其中
控制单元生成分布显示,使得被分组的多个对象的密度较高的区域具有较高亮度的色调或者较低亮度的色调。
(8)根据项(1)至(7)中的任一项所述的显示装置,其中
控制单元通过使用概率密度函数生成分布显示,所述概率密度函数使用表示视野中的被分组的多个对象各自的位置的坐标作为变量。
(9)根据项(8)所述的显示装置,其中
控制单元导出概率密度函数并且生成在视野中的区域上重叠的分布显示,其中,当所得出的概率密度函数通过变量积分时,对象的分布概率具有预定值。
(10)根据项(8)或者(9)所述的显示装置,其中
概率密度函数是高斯函数。
(11)根据项(1)至(10)中任一项所述的显示装置,其中
控制单元将分布在视野中的多个对象以外的具有关联附加信息的多个对象分组。
(12)根据项(1)至(10)中任一项所述的显示装置,其中
控制单元将分布在视野中的多个对象以外的形成预定基准或者更大的密度的多个对象分组。
(13)根据项(1)至(12)中任一项所述的显示装置,其中
控制单元被配置为能够对包括多个对象的分组执行绘制处理的第一模式与对被分组的多个对象中的每个执行绘制处理的第二模式之间切换。
(14)根据项(13)所述的显示装置,其中
当确定视野中的被分组的多个对象的密度是预定基准或者更大时,控制单元选择第一模式。
(15)根据项(13)所述的显示装置,其中
当确定用户在观察分布显示时,控制单元从第一模式切换至第二模式。
(16)根据项(15)所述的显示装置,其中
当确定分布显示在视野的中心处叠加时,控制单元确定用户正在观察分布显示。
(17)根据项(1)至(16)中任一项所述的显示装置,其中
当确定视野中的分布显示的面积的比例大于预定比例时,控制单元将分布显示减少至预定比例或者更小。
(18)根据项(1)至(17)中任一项所述的显示装置,其中
显示单元被配置为用户能够佩戴。
(19)一种信息处理***,包括:
控制装置,能够存储有关分布在用户周围的现实空间或者虚拟空间中的多个对象的信息并且输出有关多个对象的信息;以及
显示装置,包括
控制单元,对多个对象分组并且生成分布显示,所述分布显示用以显示分布有被分组的多个对象的区域,以及
显示单元,在用户的视野中呈现分布显示。
(20)一种控制方法,包括:
对分布在用户周围的现实空间或者虚拟空间中的多个对象分组;
生成分布显示,该分布显示用以显示分布有被分组的多个对象的区域;以及
在用户的视野中呈现分布显示。
符号说明
10、10A HMD(显示装置)
11 显示单元
20、20A 控制器
40 AR服务器(控制装置)
100 AR***(信息处理***)。

Claims (20)

1.一种显示装置,包括:
控制单元,对分布在用户周围的现实空间或者虚拟空间中的多个对象进行分组,并且生成分布显示,所述分布显示用以显示分布有被分组的所述多个对象的区域;以及
显示单元,在所述用户的视野中呈现所述分布显示。
2.根据权利要求1所述的显示装置,其中
所述控制单元在分布有被分组的所述多个对象的所述区域附近生成所述分布显示。
3.根据权利要求1所述的显示装置,其中
所述控制单元生成具有与分布有被分组的所述多个对象的所述区域的形状相关联的形状的所述分布显示。
4.根据权利要求3所述的显示装置,其中
所述控制单元生成具有表示所述多个对象的偏离分布的形状的所述分布显示。
5.根据权利要求1所述的显示装置,其中
所述控制单元生成具有所述多个对象可视的透射率的所述分布显示。
6.根据权利要求1所述的显示装置,其中
所述控制单元生成所述分布显示,使得基于被分组的所述多个对象的密度改变色度、亮度和饱和度中的至少任一个。
7.根据权利要求6所述的显示装置,其中
所述控制单元生成所述分布显示,使得被分组的所述多个对象的密度较高的区域具有较高亮度的色调或者较低亮度的色调。
8.根据权利要求1所述的显示装置,其中
所述控制单元通过使用概率密度函数生成所述分布显示,所述概率密度函数使用表示所述视野中的被分组的所述多个对象各自的位置的坐标作为变量。
9.根据权利要求8所述的显示装置,其中
所述控制单元导出所述概率密度函数并且生成在所述视野中的区域上叠加的所述分布显示,其中,当所导出的概率密度函数通过所述变量积分时,对象的分布概率具有预定值。
10.根据权利要求8所述的显示装置,其中
所述概率密度函数是高斯函数。
11.根据权利要求1所述的显示装置,其中
所述控制单元对分布在所述视野中的多个对象以外的具有关联附加信息的多个对象进行分组。
12.根据权利要求1所述的显示装置,其中
所述控制单元对分布在所述视野中的多个对象以外的形成预定基准或者更大的密度的多个对象进行分组。
13.根据权利要求1所述的显示装置,其中
所述控制单元被配置为能够在对包括所述多个对象的分组执行绘制处理的第一模式与对被分组的所述多个对象中的每个执行绘制处理的第二模式之间切换。
14.根据权利要求13所述的显示装置,其中
当确定所述视野中的被分组的所述多个对象的密度是预定基准或者更大时,所述控制单元选择所述第一模式。
15.根据权利要求13所述的显示装置,其中
当确定所述用户正在观察所述分布显示时,所述控制单元从所述第一模式切换至所述第二模式。
16.根据权利要求15所述的显示装置,其中
当确定所述分布显示被显示在所述视野的中心时,所述控制单元确定所述用户正在观察所述分布显示。
17.根据权利要求1所述的显示装置,其中
当确定所述视野中的所述分布显示的面积的比例大于预定比例时,所述控制单元将所述分布显示减少至所述预定比例或者更小。
18.根据权利要求1所述的显示装置,其中
所述显示单元被配置为所述用户能够佩戴。
19.一种信息处理***,包括:
控制装置,能够存储有关分布在用户周围的现实空间或者虚拟空间中的多个对象的信息并且输出有关所述多个对象的所述信息;以及
显示装置,包括
控制单元,对所述多个对象进行分组并且生成分布显示,所述分布显示用以显示分布有被分组的所述多个对象的区域,以及
显示单元,在所述用户的视野中呈现所述分布显示。
20.一种控制方法,包括:
对分布在用户周围的现实空间或者虚拟空间中的多个对象进行分组;
生成分布显示,所述分布显示用以显示分布有被分组的所述多个对象的区域;以及
在所述用户的视野中呈现所述分布显示。
CN201680028918.4A 2015-05-26 2016-04-05 显示装置、信息处理***以及控制方法 Active CN107615227B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015106767A JP6344311B2 (ja) 2015-05-26 2015-05-26 表示装置、情報処理システム及び制御方法
JP2015-106767 2015-05-26
PCT/JP2016/001912 WO2016189791A1 (ja) 2015-05-26 2016-04-05 表示装置、情報処理システム及び制御方法

Publications (2)

Publication Number Publication Date
CN107615227A true CN107615227A (zh) 2018-01-19
CN107615227B CN107615227B (zh) 2021-08-27

Family

ID=57392648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680028918.4A Active CN107615227B (zh) 2015-05-26 2016-04-05 显示装置、信息处理***以及控制方法

Country Status (6)

Country Link
US (1) US10878629B2 (zh)
EP (1) EP3306456A4 (zh)
JP (1) JP6344311B2 (zh)
CN (1) CN107615227B (zh)
DE (1) DE112016002350T5 (zh)
WO (1) WO2016189791A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109582134A (zh) * 2018-11-09 2019-04-05 北京小米移动软件有限公司 信息显示的方法、装置及显示设备
CN110888522A (zh) * 2018-09-07 2020-03-17 财团法人工业技术研究院 多重目标物信息显示方法及装置
TWI823740B (zh) * 2022-01-05 2023-11-21 財團法人工業技術研究院 主動式互動導覽系統以及主動式互動導覽方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6742760B2 (ja) * 2016-02-29 2020-08-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
EP3438789A4 (en) * 2016-03-29 2019-03-27 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2017187708A1 (ja) * 2016-04-26 2017-11-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
WO2018020661A1 (ja) * 2016-07-29 2018-02-01 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
JP2019114078A (ja) * 2017-12-25 2019-07-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7110738B2 (ja) * 2018-06-05 2022-08-02 大日本印刷株式会社 情報処理装置、プログラム及び情報処理システム
US11878698B2 (en) * 2019-04-12 2024-01-23 Mitsubishi Electric Corporation Display control device, display control method, and storage medium storing display control program
WO2020236171A1 (en) * 2019-05-22 2020-11-26 Google Llc Methods, systems, and media for object grouping and manipulation in immersive environments
US11470017B2 (en) * 2019-07-30 2022-10-11 At&T Intellectual Property I, L.P. Immersive reality component management via a reduced competition core network component
US11176751B2 (en) * 2020-03-17 2021-11-16 Snap Inc. Geospatial image surfacing and selection
KR20220114336A (ko) * 2021-02-08 2022-08-17 현대자동차주식회사 사용자 단말 및 그 제어 방법

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119297A (ja) * 2004-10-20 2006-05-11 Olympus Corp 情報端末装置
CN100426206C (zh) * 2003-09-24 2008-10-15 诺基亚公司 改善大物体在小显示器上的显示
CN101551732A (zh) * 2009-03-24 2009-10-07 上海水晶石信息技术有限公司 带有交互功能的增强现实的方法及其***
US20100023878A1 (en) * 2008-07-23 2010-01-28 Yahoo! Inc. Virtual notes in a reality overlay
CN101826129A (zh) * 2010-04-17 2010-09-08 中山大学 基于增强现实的虚拟测量原理及方法
JP2010238098A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、情報提示システム及び端末画面表示方法
US20110161875A1 (en) * 2009-12-29 2011-06-30 Nokia Corporation Method and apparatus for decluttering a mapping display
CN102473324A (zh) * 2009-08-18 2012-05-23 Metaio有限公司 用于在真实环境中表示虚拟信息的方法
CN102495947A (zh) * 2011-11-15 2012-06-13 中国计量科学研究院 一种基于虚拟现实技术的表达和分析不确定度的方法
CN102929391A (zh) * 2012-10-23 2013-02-13 中国石油化工股份有限公司 增强现实的分布式控制***人机交互设备及方法
CN103221953A (zh) * 2010-09-23 2013-07-24 诺基亚公司 在增强现实中用于分组内容的方法,装置和计算机程序产品
CN103370732A (zh) * 2011-02-23 2013-10-23 株式会社Ntt都科摩 对象显示装置、对象显示方法和对象显示程序
CN104049927A (zh) * 2013-03-13 2014-09-17 本田技研工业株式会社 用于左转安全提示的增强现实平视显示器(hud)
CN104331155A (zh) * 2014-10-27 2015-02-04 北京理工大学 一种利用电刺激实现触觉再现装置
CN104335155A (zh) * 2013-02-22 2015-02-04 索尼公司 头戴式显示***、头戴式显示器以及头戴式显示器的控制程序
JP2015072607A (ja) * 2013-10-03 2015-04-16 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN104571532A (zh) * 2015-02-04 2015-04-29 网易有道信息技术(北京)有限公司 一种实现增强现实或虚拟现实的方法及装置
CN104813339A (zh) * 2012-09-12 2015-07-29 威智伦富智堡公司 用于检测视频中的对象的方法、设备和***

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7574409B2 (en) * 2004-11-04 2009-08-11 Vericept Corporation Method, apparatus, and system for clustering and classification
US20070097143A1 (en) * 2005-10-28 2007-05-03 Mutsuya Ii Application of variable opacity (image alpha) to power and probability distributions superimposed on cartographic displays
US8165808B2 (en) * 2007-07-17 2012-04-24 Yahoo! Inc. Techniques for representing location information
US8339399B2 (en) * 2007-10-31 2012-12-25 Microsoft Corporation Declustering point-of-interest icons
JP2011081556A (ja) 2009-10-06 2011-04-21 Sony Corp 情報処理装置、情報処理方法、プログラムおよびサーバ
JP5651386B2 (ja) * 2010-06-23 2015-01-14 ソフトバンクモバイル株式会社 眼鏡型表示装置
JP5597837B2 (ja) * 2010-09-08 2014-10-01 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、及び、画像生成装置
KR101266198B1 (ko) * 2010-10-19 2013-05-21 주식회사 팬택 증강현실 객체정보의 가시성을 높이는 디스플레이 장치 및 디스플레이 방법
KR101350033B1 (ko) * 2010-12-13 2014-01-14 주식회사 팬택 증강 현실 제공 단말기 및 방법
US9600933B2 (en) * 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US9672049B2 (en) * 2011-09-22 2017-06-06 Qualcomm Incorporated Dynamic and configurable user interface
WO2013128078A1 (en) * 2012-02-29 2013-09-06 Nokia Corporation Method and apparatus for rendering items in a user interface
US9087412B2 (en) * 2011-09-26 2015-07-21 Nokia Technologies Oy Method and apparatus for grouping and de-overlapping items in a user interface
US20140053099A1 (en) * 2012-08-14 2014-02-20 Layar Bv User Initiated Discovery of Content Through an Augmented Reality Service Provisioning System
EP2888876A4 (en) * 2012-08-27 2016-04-20 Empire Technology Dev Llc GENERATION OF EXEMPLARY EXTENDED REALITY
US20140074395A1 (en) * 2012-09-13 2014-03-13 Michael Brown Method of displaying points of interest and related portable electronic device
EP3779895A1 (en) * 2012-12-21 2021-02-17 Apple Inc. Method for representing virtual information in a real environment
EP4099136A1 (en) * 2013-02-22 2022-12-07 Sony Group Corporation Head- mounted display and image display device
US10229415B2 (en) * 2013-03-05 2019-03-12 Google Llc Computing devices and methods for identifying geographic areas that satisfy a set of multiple different criteria
EP3004803B1 (en) * 2013-06-07 2021-05-05 Nokia Technologies Oy A method and apparatus for self-adaptively visualizing location based digital information
JP5705279B2 (ja) * 2013-08-27 2015-04-22 ヤフー株式会社 位置特定サーバ、位置特定方法および位置特定プログラム
US9582516B2 (en) * 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US20150262428A1 (en) * 2014-03-17 2015-09-17 Qualcomm Incorporated Hierarchical clustering for view management augmented reality
US10564714B2 (en) * 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
CN105096375B (zh) * 2014-05-09 2020-03-13 三星电子株式会社 图像处理方法和设备
US11232466B2 (en) * 2015-01-29 2022-01-25 Affectomatics Ltd. Recommendation for experiences based on measurements of affective response that are backed by assurances
US9652896B1 (en) * 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
CA3018758A1 (en) * 2016-03-31 2017-10-05 Magic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
JP7130368B2 (ja) * 2017-01-13 2022-09-05 キヤノン株式会社 情報処理装置および情報処理システム

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100426206C (zh) * 2003-09-24 2008-10-15 诺基亚公司 改善大物体在小显示器上的显示
JP2006119297A (ja) * 2004-10-20 2006-05-11 Olympus Corp 情報端末装置
US20100023878A1 (en) * 2008-07-23 2010-01-28 Yahoo! Inc. Virtual notes in a reality overlay
CN101551732A (zh) * 2009-03-24 2009-10-07 上海水晶石信息技术有限公司 带有交互功能的增强现实的方法及其***
JP2010238098A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、情報提示システム及び端末画面表示方法
CN102473324A (zh) * 2009-08-18 2012-05-23 Metaio有限公司 用于在真实环境中表示虚拟信息的方法
US20110161875A1 (en) * 2009-12-29 2011-06-30 Nokia Corporation Method and apparatus for decluttering a mapping display
CN101826129A (zh) * 2010-04-17 2010-09-08 中山大学 基于增强现实的虚拟测量原理及方法
CN103221953A (zh) * 2010-09-23 2013-07-24 诺基亚公司 在增强现实中用于分组内容的方法,装置和计算机程序产品
CN103370732A (zh) * 2011-02-23 2013-10-23 株式会社Ntt都科摩 对象显示装置、对象显示方法和对象显示程序
CN102495947A (zh) * 2011-11-15 2012-06-13 中国计量科学研究院 一种基于虚拟现实技术的表达和分析不确定度的方法
CN104813339A (zh) * 2012-09-12 2015-07-29 威智伦富智堡公司 用于检测视频中的对象的方法、设备和***
CN102929391A (zh) * 2012-10-23 2013-02-13 中国石油化工股份有限公司 增强现实的分布式控制***人机交互设备及方法
CN104335155A (zh) * 2013-02-22 2015-02-04 索尼公司 头戴式显示***、头戴式显示器以及头戴式显示器的控制程序
CN104049927A (zh) * 2013-03-13 2014-09-17 本田技研工业株式会社 用于左转安全提示的增强现实平视显示器(hud)
JP2015072607A (ja) * 2013-10-03 2015-04-16 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN104331155A (zh) * 2014-10-27 2015-02-04 北京理工大学 一种利用电刺激实现触觉再现装置
CN104571532A (zh) * 2015-02-04 2015-04-29 网易有道信息技术(北京)有限公司 一种实现增强现实或虚拟现实的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
温泉 等: "面向协同制造的分布式对象与虚拟设计环境研究", 《通信学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110888522A (zh) * 2018-09-07 2020-03-17 财团法人工业技术研究院 多重目标物信息显示方法及装置
TWI691891B (zh) * 2018-09-07 2020-04-21 財團法人工業技術研究院 多重目標物資訊顯示方法及裝置
US10755456B2 (en) 2018-09-07 2020-08-25 Industrial Technology Research Institute Method and apparatus for displaying information of multiple objects
CN110888522B (zh) * 2018-09-07 2023-06-27 财团法人工业技术研究院 多重目标物信息显示方法及装置
CN109582134A (zh) * 2018-11-09 2019-04-05 北京小米移动软件有限公司 信息显示的方法、装置及显示设备
US10931926B2 (en) 2018-11-09 2021-02-23 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for information display, and display device
CN109582134B (zh) * 2018-11-09 2021-07-23 北京小米移动软件有限公司 信息显示的方法、装置及显示设备
TWI823740B (zh) * 2022-01-05 2023-11-21 財團法人工業技術研究院 主動式互動導覽系統以及主動式互動導覽方法

Also Published As

Publication number Publication date
CN107615227B (zh) 2021-08-27
JP6344311B2 (ja) 2018-06-20
JP2016218981A (ja) 2016-12-22
US20180144552A1 (en) 2018-05-24
DE112016002350T5 (de) 2018-04-05
EP3306456A1 (en) 2018-04-11
US10878629B2 (en) 2020-12-29
EP3306456A4 (en) 2019-01-09
WO2016189791A1 (ja) 2016-12-01

Similar Documents

Publication Publication Date Title
CN107615227A (zh) 显示装置、信息处理***以及控制方法
De Abreu et al. Look around you: Saliency maps for omnidirectional images in VR applications
US10055890B2 (en) Augmented reality for wireless mobile devices
CN111010882B (zh) 在基于地图的社交媒体平台上的位置隐私关联
US9275079B2 (en) Method and apparatus for semantic association of images with augmentation data
US9244940B1 (en) Navigation paths for panorama
US10217287B2 (en) Method and apparatus for generating a search pattern for an incident scene
US10127705B2 (en) Method and apparatus for dynamic geofence searching of an incident scene
US20150248783A1 (en) System and method for processing displayable content tagged with geo-location data for augmented reality modes of viewing
US10147399B1 (en) Adaptive fiducials for image match recognition and tracking
KR20180005168A (ko) 로컬화 영역 설명 파일에 대한 프라이버시-민감 질의
US20150032771A1 (en) System and method for sharing geo-localized information in a social network environment
JP2010152884A (ja) 画像認識アルゴリズム、それを用いて目標画像を識別する方法、および、携帯用電子装置へ送信するデータを選択する方法
CN106164838B (zh) 信息显示方法和信息显示终端
CN102958114B (zh) 访问增强现实用户上下文的方法
US20180005425A1 (en) System and Method for Displaying Geographic Imagery
US20150169186A1 (en) Method and apparatus for surfacing content during image sharing
US20160307041A1 (en) Determination of a Filtered Map Interaction Descriptor
JP2014134919A (ja) 表示装置及び表示方法
US20180231785A1 (en) Augmented reality monitoring of border control systems
Freeman et al. Completeness of Digital Accessible Knowledge of the Birds of Western Africa and Priorities for Survey and Inventory
CN105045836B (zh) 一种目标物信息的检索方法及装置
CN112527116A (zh) 一种基于ar技术的大屏幕地图展示***
JP2006071770A (ja) 重畳型画像観察装置
JP2006071746A (ja) 重畳型画像観察装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant