CN104076920A - 信息处理设备、信息处理方法及存储介质 - Google Patents
信息处理设备、信息处理方法及存储介质 Download PDFInfo
- Publication number
- CN104076920A CN104076920A CN201410106817.7A CN201410106817A CN104076920A CN 104076920 A CN104076920 A CN 104076920A CN 201410106817 A CN201410106817 A CN 201410106817A CN 104076920 A CN104076920 A CN 104076920A
- Authority
- CN
- China
- Prior art keywords
- gyro
- messaging device
- unit
- motion state
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
提供了一种信息处理设备、信息处理方法及存储介质,该信息处理设备包括:获取单元,被配置成获取真实对象的运动状态;以及显示控制单元,被配置成根据所获取的运动状态显示虚拟对象。
Description
相关申请的交叉引用
本申请要求2013年3月28日提交的日本优先权专利申请JP2013-068038的权益,其全部内容通过引用合并到本文中。
技术领域
本公开涉及信息处理设备、信息处理方法以及存储介质。
背景技术
近年来,图像识别技术的进步使得可以识别包括在从摄像设备输入的图像中的真实对象(例如,对象如标志牌或建筑物)的位置和姿态。称为AR(增强现实)的技术已知为这样的对象识别的应用示例。
通过使用AR技术,可以将与包括在真实空间的图像中的真实对象相关联的虚拟对象(例如,广告信息、导航信息或游戏信息)添加到真实对象。在JP3841806B中公开了这样的AR技术的示例。
发明内容
然而,当不管真实对象的运动状态而以固定状态显示虚拟对象时,可能难以直观了解真实对象的运动状态。
因此,期望显示虚拟对象,以使得可以直观了解真实对象的运动状态。
根据本公开的实施方式,提供了一种信息处理设备,该信息处理设备包括:获取单元,被配置成获取真实对象的运动状态;以及显示控制单元,被配置成根据所获取的运动状态显示虚拟对象。
根据本公开的实施方式,提供了一种信息处理方法,该信息处理方法包括获取真实对象的运动状态以及根据所获取的运动状态显示虚拟对象。
根据本公开的实施方式,提供了一种存储有程序的非暂态计算机可读存储介质,该程序使得计算机执行:获取真实对象的运动状态;以及根据所获取的运动状态显示虚拟对象。
根据上述本公开的实施方式,提供了可以显示虚拟对象以使得可以直观了解真实对象的运动状态的信息处理设备、信息处理方法和存储介质。
附图说明
图1是用于说明根据本公开的第一实施方式的信息处理设备的概要的图;
图2是示出了根据该实施方式的信息处理设备的画面的示例的图;
图3是示出了根据该实施方式的信息处理设备的配置的框图;
图4是用于说明与根据该实施方式的信息处理设备中的运动状态的推断有关的处理的图;
图5是示出了根据该实施方式的信息处理设备的画面的示例的图;
图6是示出了根据该实施方式的信息处理设备的一系列操作的示例的流程图;
图7是示出了根据本实施方式的变型的信息处理设备的配置的框图;
图8是示出了根据本实施方式的变型的传感器单元的配置的框图;
图9是用于说明根据本公开的第二实施方式的信息处理设备的概要的图;
图10是示出了根据该实施方式的信息处理设备的画面的示例的图;
图11是示出了根据该实施方式的信息处理设备的配置的框图;
图12是示出了本实施方式中为检测目标的真实对象的配置的框图;
图13是用于说明根据该实施方式的信息处理设备的另一模式的图;
图14是示出了又一模式下的根据该实施方式的信息处理设备的画面的示例的图;
图15是示出了根据该实施方式的信息处理设备的一系列操作的示例的流程图;
图16是示出了再一模式下的根据该实施方式的信息处理设备的画面的示例的图;
图17是用于说明根据本公开的第三实施方式的信息处理设备的概要的图;
图18是示出了根据该实施方式的信息处理设备的画面的示例的图;
图19是示出了根据该实施方式的信息处理设备的配置的框图;
图20是用于说明根据该实施方式的信息处理设备的另一模式的图;
图21是示出了又一模式下的根据该实施方式的信息处理设备的画面的示例的图;
图22是示出了根据该实施方式的信息处理设备的一系列操作的示例的流程图;以及
图23是示出了硬件配置示例的说明图。
具体实施方式
在下文中,将参照附图详细描述本公开的优选实施方式。注意,在该说明书和附图中,具有基本上相同的功能和结构的结构元件使用相同的参考标号表示,并且省略了这些结构元件的重复说明。
注意,将按下面的顺序给出描述。
1.第一实施方式
1.1.概要
1.2.配置
1.3.处理
1.4.变型
1.5.结论
2.第二实施方式
2.1.概要
2.2.配置
2.3.处理
2.4.结论
3.第三实施方式
3.1.概要
3.2.配置
3.3.处理
3.4.结论
4.硬件配置示例
〈1.第一实施方式〉
[1.1.概要]
将参照图1和图2描述根据本公开的第一实施方式的信息处理设备10的概要。首先,参照图1。图1是用于说明根据本公开的第一实施方式的每个信息处理设备10的概要的图,并且示出了其中信息处理设备10应用于陀螺旋转游戏的示例。
在图1示出的游戏的示例中,多个用户使他们各自的陀螺20在舞台90上旋转,并且在没有被从舞台90弹掉的情况下,在用户的陀螺20之间相互比赛以获得较长的旋转持续时间,其中陀螺20是真实对象,舞台90是真实对象。每个用户使相应的陀螺20在舞台90上旋转,并且通过使用包括摄像单元101和显示单元109的相应的信息处理设备10观察陀螺20的运动。具体地,信息处理设备10的示例包括智能手机、移动电话、PDA(个人数字助理)和移动游戏机。
在下文中,陀螺20a和信息处理设备10a分别等同于用户Ua的陀螺20和信息处理设备10。同样,陀螺20b和信息处理设备10b分别等同于用户Ub的陀螺20和信息处理设备10。当不特别彼此区分时,陀螺20a和陀螺20b每个简称为“陀螺20”。同样,当不特别彼此区分时,信息处理设备10a和信息处理设备10b每个简称为“信息处理设备10”。
信息处理设备10从由摄像单元101拍摄的图像(在下文中称为“拍摄图像”)中检测每个陀螺20,并且基于拍摄图像计算陀螺20的运动状态。信息处理设备10以如下方式显示虚拟对象,该方式使得根据所计算的运动状态将虚拟对象叠加到拍摄图像中的陀螺20上。注意,将在后面连同信息处理设备10的配置一起单独描述信息处理设备10通过其识别舞台90以及陀螺20a和20b的机制。
在此,参照图2。图2是示出了根据本实施方式的信息处理设备10的画面的示例的图。在图2的示例中,信息处理设备10与拍摄图像中的陀螺20a相关联地采用预定角色的形式显示虚拟对象v22a。同样,信息处理设备10与拍摄图像中的陀螺20b相关联地采用预定角色的形式显示虚拟对象v22b。
另外,信息处理设备10计算旋转速度作为陀螺20a和20b中的每个的运动状态,并且显示具有其中陀螺20a和20b的旋转速度分别被比作虚拟对象v22a和v22b的生命点的虚拟对象v24a和v24b。具体地,信息处理设备10以下面的方式显示虚拟对象v24a。当由于空气阻力或与舞台90碰触而使得陀螺20a的旋转速度降低时,陀螺20a的生命点随着旋转速度的降低而降低。此时,信息处理设备10可以以如下方式控制虚拟对象v22a的显示,该方式使得示出为虚拟对象v22a的角色随着陀螺20a的旋转速度的降低而变得疲倦。
信息处理设备10还可以基于陀螺20a和20b的运动状态推断陀螺20a和20b的随后的运动,并且可以根据推断结果改变与陀螺20a和20b相关联的虚拟对象的显示。在具体示例中,信息处理设备10可以以下面的方式控制显示。当推断陀螺20a和20b相互接近或碰撞时,采用角色形式的虚拟对象v22a和v22b每个呈现防御碰撞的姿态。
如上所述,根据本实施方式的信息处理设备10获取根据物理定律变化的真实对象的运动状态,并且根据所获取的运动状态改变虚拟对象的显示。这使得用户能够直观了解真实对象的运动状态。下面将描述根据本实施方式的信息处理设备10的细节。
[1.2.配置]
将参照图3描述根据本实施方式的信息处理设备10的配置。图3是示出了根据本实施方式的信息处理设备10的配置的示例的框图。注意,下面将通过采用如下情况作为示例来描述信息处理设备10的部件:在图1和图2中示出的陀螺旋转游戏中,在拍摄图像中检测作为真实对象的每个陀螺20并且以如下方式显示虚拟对象,该方式使得虚拟对象被叠加到所检测到的陀螺20上。
如图3所示,根据本实施方式的信息处理设备10包括摄像单元101、位置计算单元102、内容控制单元103、显示控制单元104、操纵单元105、运动状态获取单元106和显示单元109。
摄像单元101每隔预定帧拍摄图像。摄像单元101向位置计算单元102和运动状态获取单元106顺序输出拍摄的图像。
位置计算单元102从摄像单元101顺序获取拍摄图像。位置计算单元102检测从摄像单元101获取的每个拍摄图像中的作为真实对象的每个陀螺20。具体地,陀螺20预先设置有标记。位置计算单元102检测设置在陀螺20上的标记,从而可以识别陀螺20的位置和姿态。注意,在该说明书中,术语“标记”通常表示具有已知图案且存在于真实空间中的某个对象。换言之,标记可以包括:真实对象;真实对象的一部分;数字、符号、字符串或每个示出在真实对象的表面上的图案;显示在显示器上的图像等。尽管存在如下情况:术语“标记”以狭义的含义表示为某个应用准备的特殊对象,但根据本公开的实施方式的技术不限于这样的情况。下面总结位置计算单元102通过其检测陀螺20的方法的具体示例。
位置计算单元102通过将基于从摄像单元101所获取的拍摄图像所确定的特征量与针对作为检测目标的每个真实对象预先存储的特征量进行对照来识别包括在拍摄图像中的标记。
更具体地,位置计算单元102根据特征量确定方法比如SIFT(尺度不变特征变换)方法或随机蕨(Ferns)方法确定拍摄图像中的真实对象的特征量,并且将所确定的特征量与真实对象的特征量进行对照。然后,位置计算单元102识别:用于标识与最与拍摄图像中的真实对象的特征量匹配的特征量相关联的标记的信息(标记码);以及拍摄图像中的标记的位置和姿态。
在此,位置计算单元102使用包括每个真实对象的特征量数据和用于标识真实对象的信息的特征量词典,但是只要位置计算单元102可以读取该特征量词典,在何处存储该特征量词典不受限制。真实对象的特征量数据可以是根据SIFT方法或随机Ferns方法通过用于学习真实对象的图像确定的例如一组特征量。
位置计算单元102识别用作拍摄图像中的参考(在下文中,称为“参考对象”)的预定对象,并且识别每个陀螺20相对于所识别的参考对象的位置(在下文中,称为“相对位置”)。在具体示例中,位置计算单元102可以基于陀螺20的检测结果使用陀螺20的一个作为参考对象,并且可以识别其它陀螺20的相对位置。例如,位置计算单元102使用陀螺20a和20b中的陀螺20a作为参考对象,从而可以识别陀螺20b相对于陀螺20a的相对位置。
舞台90也可以设置有标记。在舞台90设置有标记的情况下,位置计算单元102检测拍摄图像中的舞台90上的标记,从而基于所检测到的标记的位置识别舞台90的位置。以这种方式识别舞台90的位置,从而位置计算单元102可以例如通过使用舞台90作为参考对象来识别陀螺20a和20b的位置。
位置计算单元102向内容控制单元103顺序输出从摄像单元101获取的每个拍摄图像、参考对象的位置信息以及表示每个陀螺20相对于参考对象的相对位置的位置信息。从而,内容控制单元103可以通过使用参考对象的位置信息作为参考来识别陀螺20之间的相对位置关系。
位置计算单元102还可以计算用于将拍摄图像中的对象的尺寸转换成真实空间中的尺寸的比例,并且可以将该比例通知内容控制单元103。在具体示例中,位置计算单元102识别拍摄图像中的其尺寸在真实空间中已知的对象,并且测量拍摄图像中的所识别的对象的尺寸。具有真实空间中已知的尺寸的对象的示例包括陀螺20和设置在舞台90上的标记。
位置计算单元102可以基于尺寸测量结果计算用于将拍摄图像中的对象的尺寸转换成真实空间中的尺寸的比例。如上所述,位置计算单元102计算比例并且将该比例通知内容控制单元103,从而内容控制单元103可以基于拍摄图像中的陀螺20之间的距离和所通知的比例来计算真实空间中的陀螺20之间的距离。
运动状态获取单元106从摄像单元101顺序获取拍摄图像。运动状态获取单元106检测每个所获取的拍摄图像中的每个目标真实对象。注意,运动状态获取单元106可以通过使用与由位置计算单元102使用的方法相同的方法检测拍摄图像中的真实对象,或可以从位置计算单元102获得检测结果。
运动状态获取单元106通过对从摄像单元101获取的拍摄图像执行图像分析还计算每个陀螺20的运动状态。在具体示例中,运动状态获取单元106可以计算动量、动量变化或运动方向变化作为运动状态。
例如,运动状态获取单元106可以基于多个时间序列拍摄图像(多帧)计算陀螺20的旋转速度。具体地,用于计算旋转速度的标记在旋转方向上预先提供给陀螺20的一部分。运动状态获取单元106对多个时间序列拍摄图像执行图像分析,从而检测每个拍摄图像中的用于计算旋转速度的标记。运动状态获取单元106可以对多个图像中检测到的标记进行计数,并且可以基于拍摄图像的数量与所计数的标记的数量之间的比率来计算陀螺20的旋转速度。注意,上述方法是一个示例,而方法并不受限制,只要可以基于从摄像单元101获取的拍摄图像计算陀螺20的旋转速度即可。
运动状态获取单元106还可以基于多个时间序列拍摄图像(多个帧)计算陀螺20的平移速度。具体地,运动状态获取单元106对多个时间序列拍摄图像执行图像分析,并且测量拍摄图像中的陀螺20的位置变化。运动状态获取单元106可以基于所测量的陀螺20的位置变化来计算陀螺20的平移速度。此时,所计算的平移速度不一定是在真实空间中具有绝对值的速度。例如,运动状态获取单元106可以基于拍摄图像中的陀螺20的尺寸计算相对平移速度。注意,运动状态获取单元106可以基于拍摄图像中的其尺寸在真实空间中已知的对象比如陀螺20的尺寸来计算陀螺20在真实空间中的速度作为绝对值。上述方法是一个示例,而方法并不受限制,只要可以基于从摄像单元101获取的拍摄图像计算陀螺20的平移速度即可。
运动状态获取单元106还可以基于多个时间序列拍摄图像(多个帧)计算陀螺20的运动方向。具体地,运动状态获取单元106可以通过对多个时间序列拍摄图像执行图像分析来识别陀螺20在拍摄图像中的位置的变化方向。
运动状态获取单元106每隔预定定时(实时)计算每个陀螺20的运动状态,并且向内容控制单元103通知表示所计算的陀螺20的运动状态(例如,旋转速度、平移速度或运动方向)的信息。
注意,上述运动状态是一个示例,并且只要可以计算运动状态的变化,则真实对象的运动状态的类型或计算方法不受限制,运动状态是动量、动量变化或运动方向变化。在图3中的示例的描述中,位置计算单元102和运动状态获取单元106是单独的部件,但是位置计算单元102和运动状态获取单元106可以放在一起成为一个部件。
内容控制单元103基于由位置计算单元102和运动状态获取单元106通知的陀螺20的位置和运动状态,生成要与相应陀螺20相关联的虚拟对象。
内容控制单元103从位置计算单元102顺序获取:由摄像单元101拍摄的图像;参考对象的位置信息;以及表示每个陀螺20相对于参考对象的相对位置的位置信息。在具体示例中,内容控制单元103使用多个陀螺20中的一个作为参考对象,从而获取表示其它陀螺20相对于作为参考对象的陀螺20的相对位置的位置信息。在另一示例中,内容控制单元103可以使用设置在真实对象如不是陀螺20的舞台90上的标记作为参考对象,从而可以从位置计算单元102获取表示每个陀螺20相对于作为参考对象的标记的相对位置的位置信息。
内容控制单元103基于参考对象的位置信息和表示每个陀螺20相对于参考对象的相对位置的位置信息来识别每个陀螺20在每个获取的拍摄图像中的位置以及陀螺20之间的相对位置关系(即、方向或距离)。
注意,内容控制单元103可以从位置计算单元102获取表示用于将每个拍摄图像中的对象的尺寸转换成真实空间中的尺寸的比例的信息。在这种情况下,内容控制单元103可以基于表示陀螺20的相对位置的位置信息并基于所获取的比例将拍摄图像中的陀螺20之间的距离转换成真实空间中的距离。
内容控制单元103还从运动状态获取单元106获取表示每个陀螺20的运动状态(例如,旋转速度、平移速度和运动方向)的信息。
内容控制单元103生成与陀螺20相对应的虚拟对象,并且基于相应的陀螺20的位置和运动状态识别每个生成的虚拟对象的显示位置和显示模式。内容控制单元103通过其识别虚拟对象的显示位置和显示模式的处理的示例将参照图2来描述。
例如,内容控制单元103基于陀螺20a和陀螺20b在拍摄图像中的位置,来确定分别与陀螺20a和20b相对应的虚拟对象v22a和v22b的显示位置。
内容控制单元103还基于表示陀螺20a和20b的相对位置的位置信息计算陀螺20b相对于陀螺20a的取向。内容控制单元103调节虚拟对象v22a的取向以使得由虚拟对象v22a表示的角色可以面对所计算的方向,即,面对陀螺20b。同样适用于虚拟对象v22b。注意,上述逻辑是一个示例,并且用于识别虚拟对象v22a的取向的逻辑不限于上述。例如,如果除了陀螺20a之外两个或更多个陀螺20存在,则内容控制单元103可以调节虚拟对象v22a的取向以使得虚拟对象v22a可以面对陀螺20中的最靠近陀螺20a的一个。
在图2的示例中,游戏继续进行,其中陀螺20的旋转速度被比作陀螺20的生命点。为此,内容控制单元103基于陀螺20a的旋转速度计算陀螺20a的生命点,并且基于计算结果生成将生命点可视化的虚拟对象v24a。同样,内容控制单元103基于陀螺20b的旋转速度生成虚拟对象v24b。注意,内容控制单元103可以确定所生成的虚拟对象v24a和v24b在拍摄图像中的位置作为预定位置,或可以基于虚拟对象v22a和v22b的位置确定该位置。
内容控制单元103还可以根据所计算的生命点改变虚拟对象v22a和v22b的显示模式。例如,内容控制单元103可以以如下方式控制虚拟对象v22a的显示,该方式使得由虚拟对象v22a表示的角色随着基于陀螺20a的旋转速度所计算的生命点的降低而变得疲倦。
内容控制单元103还可以根据陀螺20a和20b之间的相对位置关系改变虚拟对象的显示模式。在具体示例中,内容控制单元103可以根据陀螺20a和20b之间的距离改变虚拟对象v22a和v22b的显示模式。例如,当陀螺20a和20b之间的距离变得等于或低于阈值时,内容控制单元103可以以如下方式改变虚拟对象v22a和v22b的显示模式,该方式使得由虚拟对象v22a和v22b表示的角色呈现防御的姿态。
内容控制单元103还可以基于陀螺20的位置和运动状态推断每个陀螺20的运动,并且可以基于推断结果控制相应的虚拟对象的显示。例如,图4是用于说明与由内容控制单元103执行的运动状态推断有关的处理的图,并且示出了推断陀螺20a和20b的运动的轨迹的示例,从而根据推断结果改变虚拟对象v22a和v22b的显示模式。
例如,内容控制单元103基于直到某个定时的信息的变化来计算陀螺20a运动直到该某个定时的轨迹r21a,该信息表示陀螺20a的位置、平移速度和运动方向。内容控制单元103可以基于所计算的轨迹r21a以及在某个定时有效的陀螺20a的位置、平移速度和运动方向来计算陀螺20a的随后的轨迹r23a。在具体示例中,内容控制单元103可以基于陀螺20a的位置、平移速度和运动方向来推断陀螺20a的圆周运动或直线轨迹,由此可以基于推断结果计算随后的轨迹(即,轨迹r23a)。同样,内容控制单元基于表示陀螺20b的位置、平移速度和运动方向的信息的变化,计算陀螺20b运动直到某个定时的轨迹r21b。内容控制单元103可以基于所计算的轨迹r21b以及在某个定时有效的陀螺20b的位置、平移速度和运动方向来计算陀螺20b的随后的轨迹r23b。
内容控制单元103基于所计算的轨迹r23a和r23b推断陀螺20a和20b是否将要彼此碰撞。当推断陀螺20a和陀螺20b要彼此碰撞时,内容控制单元103可以改变虚拟对象v22a和v22b的显示模式以使得由虚拟对象v22a和v22b表示的角色可以呈现进攻的姿态。内容控制单元103还可以依赖于陀螺20a和20b是否已经随之彼此碰撞来改变虚拟对象v22a和v22b的显示模式。例如,当陀螺20a和20b没有随之彼此碰撞时,内容控制单元103可以改变虚拟对象v22a和v22b的显示模式,以查看由虚拟对象v22a和v22b表示的角色的进攻的失败。
如上所示,内容控制单元103可以基于陀螺20的位置和运动状态推断每个陀螺20的未来运动,并且基于推断结果控制相应的虚拟对象的显示。
内容控制单元103向显示控制单元104输出从位置计算单元102获取的每个拍摄图像以及所生成的虚拟对象的控制信息。注意,控制信息包括用于将虚拟对象显示为拍摄图像中的图像的显示信息以及表示要显示虚拟对象的位置的信息。
显示控制单元104从内容控制单元103获取拍摄图像和虚拟对象的控制信息。显示控制单元104基于所获取的控制信息以叠加的方式显示拍摄图像中的虚拟对象。显示控制单元104在显示单元109上显示包括以叠加方式显示的虚拟对象的拍摄图像。显示单元109是包括LCD(液晶显示器)、OLED(有机发光二极管)等的显示模块。
操纵单元105是用于操纵信息处理设备10的输入模块,并且包括触摸面板、按钮等。操纵单元105向内容控制单元103通知表示通过用户的输入操纵的内容的控制信息。内容控制单元103基于由操纵单元105通知的控制信息来识别通过用户的输入操纵的内容。从而,内容控制单元103可以基于来自操纵单元105的控制信息切换例如与虚拟对象生成或显示控制有关的处理的开始和终止。这样的配置使得信息处理设备10能够根据操纵单元105的输入操纵控制例如游戏的开始和终止。
注意,内容控制单元103可以依赖于操纵信息处理设备10的用户的类型适当地改变要以叠加方式显示在拍摄图像上的虚拟内容。在具体示例中,内容控制单元103可以依赖于操纵信息处理设备10的用户是否是游戏的玩家之一来适当地改变要以叠加方式显示在拍摄图像中的虚拟内容。在这种情况下,当用户是游戏的玩家之一时,内容控制单元103可以显示与用户相对应的真实对象的详细信息(例如,表示运动状态的信息),并且不必须显示其它真实对象的详细信息。当用户不是游戏的玩家时,内容控制单元103可以显示所有真实对象的详细信息。注意,例如,可以通过在游戏开始之前使用操纵单元105指定操纵信息处理设备10的用户是否是游戏的玩家。
在此之前已经通过使用陀螺旋转游戏描述了基于陀螺的旋转速度控制虚拟对象的显示的示例。然而,只要可以基于真实对象的运动状态控制虚拟对象的显示,则虚拟对象的显示的控制不限于前面所提到的示例。例如,图5是示出了信息处理设备10的画面的示例,并且示出了其中悠悠球20是真实对象的示例。
如图5所示,当根据本实施方式的信息处理设备10应用于例如悠悠球时,信息处理设备10可以将悠悠球技巧识别为作为真实对象的悠悠球20的运动的图案,即作为悠悠球20的位置和运动方向的变化。信息处理设备10可以根据悠悠球技巧在显示单元109上显示悠悠球20的轨迹作为虚拟对象v25。信息处理设备10可以获取悠悠球20的位置和运动方向的变化作为运动状态,然后根据所获取的悠悠球20的位置和运动方向的变化以叠加方式显示虚拟对象v27,虚拟对象v27强调悠悠球20的运动。信息处理设备10还可以基于悠悠球20的位置和运动方向的变化来确定预定的悠悠球技巧是否成功,并且可以基于确定结果以如下方式显示虚拟对象v29,该方式使得识别技巧是否成功。
[1.3.处理]
参照图6,将通过采用图1和图2中示出的陀螺旋转游戏作为示例描述根据本实施方式的信息处理设备的一系列操作。图6是示出了根据本实施方式的信息处理设备的一系列操作的示例的流程图。
(步骤S103)
当用户使各自的真实对象陀螺20在舞台90上旋转时,真实对象陀螺20分别开始运动。
(步骤S105)
接下来,当每个用户通过使用包括摄像单元101和显示单元109的相应的信息处理设备10开始陀螺20和舞台90的观察时,位置计算单元102从摄像单元101获取拍摄图像。位置计算单元102通过检测从摄像单元101获取的每个拍摄图像中的设置在陀螺20上的标记来识别每个陀螺20的位置和姿态。
位置计算单元102识别拍摄图像中的预定参考对象,并且识别陀螺20相对于所识别的参考对象的相对位置。例如,位置计算单元102在拍摄图像中检测其图像被拍摄的舞台90上的标记,从而基于所检测到的标记的位置识别舞台90的位置。位置计算单元102通过使用所识别的舞台90作为参考对象来识别每个陀螺20的位置。
位置计算单元102向内容控制单元103顺序输出从摄像单元101获取的拍摄图像、参考对象的位置信息以及表示陀螺20相对于参考对象的相对位置的位置信息。
(步骤S107)
内容控制单元103从位置计算单元102获取由摄像单元101拍摄的图像、参考对象的位置信息以及表示陀螺20相对于参考对象的相对位置的位置信息。
基于参考对象的位置信息以及表示陀螺20相对于参考对象的相对位置的位置信息,内容控制单元103识别所获取的拍摄图像中的陀螺20的位置以及陀螺20之间的相对位置关系(即,方向和距离)。
内容控制单元103向显示控制单元104输出从位置计算单元102获取的拍摄图像和所生成的虚拟对象的控制信息。
显示控制单元104从内容控制单元103获取拍摄图像和虚拟对象的控制信息。显示控制单元104基于所获取的控制信息以叠加方式在拍摄图像中显示虚拟对象。这使得真实对象陀螺20以及与陀螺20相对应的虚拟对象要显示在信息处理设备10的显示单元109上。
(步骤S109)
以这种方式,相应的用户的信息处理设备10以前面所提到的方式识别陀螺20和舞台90的标记(步骤S109中的否)。
(步骤S111)
在每个用户的信息处理设备10完成陀螺20和舞台90的标记的识别之后(步骤S109中为是),信息处理设备10开始陀螺20的运动状态的获取。
具体地,摄像单元101每隔预定帧拍摄图像。摄像单元101向位置计算单元102和运动状态获取单元106顺序输出拍摄图像。
(步骤S113)
位置计算单元102基于从摄像单元101获取的拍摄图像顺序识别参考对象的位置信息以及每个陀螺20相对于参考对象的相对位置。位置计算单元102向内容控制单元103顺序输出拍摄图像、所识别的参考对象的位置信息以及表示陀螺20相对于参考对象的相对位置的位置信息。
运动状态获取单元106从摄像单元101顺序获取拍摄图像。运动状态获取单元106根据所获取的拍摄图像检测检测目标真实对象。注意,运动状态获取单元106可以通过使用与由位置计算单元102使用的方法相同的方法检测拍摄图像中的每个真实对象,或可以从位置计算单元102获得检测结果。
运动状态获取单元106还通过对从摄像单元101获取的拍摄图像执行图像分析来计算陀螺20的运动状态。
例如,运动状态获取单元106可以基于多个时间序列拍摄图像(多个帧)计算陀螺20的旋转速度。具体地,运动状态获取单元106对多个时间序列拍摄图像执行图像分析,从而检测用于计算每个拍摄图像中的旋转速度的标记。运动状态获取单元106可以对多个图像中检测到的标记进行计数,并且可以基于拍摄图像的数量与所计数的标记的数量之间的比率来计算陀螺20的旋转速度。
运动状态获取单元106还可以基于多个时间序列拍摄图像(多个帧)计算陀螺20的平移速度。具体地,运动状态获取单元106对多个时间序列拍摄图像执行图像分析,并且测量陀螺20在拍摄图像中的位置变化。运动状态获取单元106可以基于所测量的陀螺20的位置变化来计算陀螺20的平移速度。
运动状态获取单元106还可以基于多个时间序列拍摄图像(多个帧)计算陀螺20的运动方向。具体地,运动状态获取单元106可以通过对多个时间序列拍摄图像执行图像分析来识别陀螺20的位置在拍摄图像中的变化方向。
运动状态获取单元106每隔预定定时(实时)计算每个陀螺20的运动状态,并且向内容控制单元103通知表示陀螺20的所计算的运动状态(例如,旋转速度、平移速度或运动方向)的信息。
(步骤S115)
内容控制单元103从位置计算单元102顺序获取:由摄像单元101拍摄的图像;参考对象的位置信息;以及表示每个陀螺20相对于参考对象的相对位置的位置信息。
内容控制单元103基于参考对象的位置信息以及表示每个陀螺20相对于参考对象的相对位置的位置信息,来识别每个陀螺20在每个获取的拍摄图像中的位置以及陀螺20之间的相对位置关系(即,方向或距离)。
内容控制单元103还从运动状态获取单元106获取陀螺20的运动状态(例如,旋转速度、平移速度和运动方向)。
内容控制单元103基于陀螺20的位置和运动状态推断每个陀螺20的运动。例如,内容控制单元103基于直到某个定时的信息变化、表示陀螺20a的位置、平移速度和运动方向的信息,来计算陀螺20a运动直到该某个定时的轨迹r21a。内容控制单元103可以基于所计算的轨迹r21a和在某个时刻有效的陀螺20a的位置、平移速度和运动方向来计算陀螺20a的随后的轨迹r23a。
(步骤S117)
内容控制单元103生成与陀螺20相对应的虚拟对象,并且基于相应的陀螺20的位置和运动状态识别每个所生成的虚拟对象的显示位置和显示模式。在此,参照图2。
例如,内容控制单元103基于陀螺20a和20b在拍摄图像中的位置,来确定分别与陀螺20a和20b相对应的虚拟对象v22a和v22b的显示位置。
内容控制单元103还可以基于表示陀螺20a和20b的相对位置的位置信息来计算陀螺20b相对于陀螺20a的取向,并且可以调节由虚拟对象v22a和v22b表示的角色的取向。
内容控制单元103可以基于陀螺20a和20b的旋转速度计算陀螺20a和20b的生命点,并且可以生成使生命点可视化的虚拟对象v24a和v24b。内容控制单元103还可以根据所计算的生命点改变虚拟对象v24a和v24b的显示模式。
另外,内容控制单元103还可以基于相应的陀螺20的运动的推断结果来控制虚拟对象的显示。例如,当推断陀螺20a和20b要彼此碰撞时,内容控制单元103可以改变虚拟对象v22a和v22b的显示模式,以使得由虚拟对象v22a和v22b表示的角色可以呈现进攻的状态。
(步骤S119)
信息处理设备10重复步骤S113至步骤S117中示出的一系列处理,直到满足终止游戏的预定条件为止。
(步骤S121)
当满足终止游戏的条件时(步骤S119中为是),信息处理设备10停止每个陀螺20的运动状态的获取以终止一系列处理。
如上所述,根据本实施方式的信息处理设备10基于由摄像单元101拍摄的图像计算作为真实对象的陀螺20的运动状态,并且根据所计算的运动状态控制相应的虚拟对象的显示。这样的配置使得根据本实施方式的信息处理设备10能够显示虚拟对象,以使得可以直观了解真实对象的运动状态。
[1.4.变型]
接下来,给出根据第一实施方式的变型的信息处理设备10的描述。根据前面提到的实施方式的信息处理设备10包括运动状态获取单元106,运动状态获取单元106被配置成基于由摄像单元101拍摄的图像计算每个真实对象的运动状态,并且根据由运动状态获取单元106所计算的运动状态控制虚拟对象的显示。相反,根据本变型的信息处理设备12通过使用传感器获取作为检测对象的每个真实对象20的运动状态,并且根据从传感器获取的运动状态控制虚拟对象的显示。下面参照图7和图8给出根据该变型的信息处理设备12的配置的描述,重点在于与上述实施方式不同的部分。对于以与上述实施方式相同的方式操作的部件,省略了详细的描述。
首先,参照图7。图7是示出了根据变型的信息处理设备12的配置的框图。如图7所示,信息处理设备12与前面提到的信息处理设备10的不同之处在于:信息处理设备12包括运动状态获取单元108替代运动状态获取单元106,运动状态获取单元108被配置成基于拍摄图像计算运动状态。运动状态获取单元108通过通信单元107从下文待描述的传感器单元22获取真实对象20的运动状态。将描述传感器单元22的配置以及运动状态获取单元108的操作。
在此,参照图8。图8是示出了被配置成获取真实对象20的运动状态的传感器单元22的配置的框图。传感器单元22包括传感器201、传感器信息分析单元203和通信单元205。
传感器201检测真实对象20的运动状态。可以根据检测目标的运动状态或检测方法将任意适当的传感器选择为传感器201。传感器201的具体示例包括加速度传感器、陀螺仪传感器(角速度传感器)、光学传感器和磁性传感器。
例如,为了检测真实对象20的旋转速度,陀螺仪传感器可以用作传感器201。为了检测真实对象20的平移速度或运动方向,加速度传感器可以用作传感器201。为了通过使用如上所述的陀螺仪传感器或加速度传感器检测真实对象20的旋转速度、平移速度或运动方向,可以向检测目标真实对象20提供传感器单元22。
传感器信息分析单元203从传感器201获取检测结果,并且分析所获取的检测结果,从而计算真实对象20的运动状态。传感器信息分析单元203将所计算的真实对象20的运动状态连同用于标识真实对象20的标识信息输出至通信单元205。
通信单元205是用于如下的通信模块:从传感器信息分析单元203获取真实对象20的标识信息和表示运动状态的信息;以及将标识信息和运动状态信息发送至每个信息处理设备12。通信单元205事先与信息处理设备12建立通信,从而将从传感器信息分析单元203获取的信息顺序发送至已经与通信单元205建立通信的每个信息处理设备12。
在此,再次参照图7。通信单元107是用于将信息发送至每个传感器单元22的通信单元205和从每个传感器单元22的通信单元205接收信息的通信模块。通过通信单元107将从通信单元205发送的信息通知给运动状态获取单元108。
运动状态获取单元108从相应的传感器单元22获取表示每个真实对象20的运动状态的信息。此时,基于来自传感器单元22的与表示运动状态的信息相关联地通知的标识信息,运动状态获取单元108识别获取其运动状态的真实对象。运动状态获取单元108通过通信单元107将从传感器单元22获取的表示运动状态的信息与获取其运动状态的真实对象20的标识信息相关联地输出至内容控制单元103。
以这种方式,内容控制单元103可以识别每个真实对象20的运动状态。注意,后续处理与根据前面提到的实施方式的信息处理设备10中的处理相同,从而将省略详细的描述。
注意,上面提到的传感器201是一个示例,并且只要传感器信息分析单元203可以基于通过传感器201的检测结果获取真实对象20的运动状态,则传感器201的类型不限于上述示例。
另外,如果可以单独检测每个真实对象20的运动状态,依赖于传感器201的类型,可以将传感器单元22设置在真实对象20上,或可以将其设置在除了真实对象20上的位置之外的位置处(例如,在舞台90上)。例如,可以通过使用光学传感器或磁性传感器作为传感器201来检测真实对象20的平移速度或运动方向。在这种情况下,例如,可以将传感器单元22设置在舞台90上。
以这种方式,根据该变型的信息处理设备12通过使用各种传感器中的任何传感器识别真实对象20的运动状态。这使得信息处理设备12能够检测例如难以仅在图像处理中检测到的更精细的运动状态并且根据检测结果显示虚拟对象。
[1.5.结论]
根据本实施方式的信息处理设备10获取作为检测目标的每个真实对象(例如,陀螺20)的运动状态,并且根据所获取的运动状态控制虚拟对象的显示。这样的配置使得用户能够基于虚拟对象的显示模式直观了解真实对象的运动状态。
〈2.第二实施方式〉
[2.1.概述]
接下来,将描述根据本公开的第二实施方式的信息处理设备30。在第一实施方式中,至此已经描述了将每个真实对象的运动状态可视化的示例。在第二实施方式中,给出可以提供直观操纵感觉以控制每个真实对象20的运动状态的信息处理设备30的描述。首先,在根据本实施方式的信息处理设备30的描述之前,将整理出本实施方式中的难点。
近年来,已经提出了各种传感视频游戏。作为这样的传感视频游戏,已知其中例如通过使用操纵终端的位置或姿态直接操纵作为操纵目标的真实对象的运动的传感视频游戏。
然而,在游戏如在陀螺开始旋转之后根据物理定律如空气阻力或摩擦而继续进行的陀螺旋转,直接操纵真实对象的运动的***可能不满足游戏的本来目的。
因此,在第二实施方式中,期望提供可以根据物理规则如陀螺旋转在游戏进行中提供更直观的操纵感觉的信息处理设备30。
在此,将参照图和图10描述根据本实施方式的信息处理设备30的概要。首先,参照图9。图9是用于说明根据本公开的第二实施方式的信息处理设备30的概要的图,并且示出了其中信息处理设备30应用于陀螺旋转游戏的情况的示例。
在图9示出的游戏的示例中,多个用户使他们各自的陀螺40在舞台90上旋转,并且在没有从舞台90弹掉的情况下,在用户的陀螺40之间相互比赛以获得较长的旋转持续时间,陀螺40为真实对象,舞台90为真实对象。
在下文中,陀螺40a和信息处理设备30a分别等同于用户Ua的陀螺40和信息处理设备30。同样,陀螺40b和信息处理设备30b分别等同于用户Ub的陀螺40和信息处理设备30。当不特别彼此区分时,陀螺40a和陀螺40b每个简称为“陀螺40”。同样,当不特别彼此区分时,信息处理设备30a和信息处理设备30b每个简称为“信息处理设备30”。
每个陀螺40包括驱动单元409,驱动单元409被配置成改变陀螺40的运动(例如,旋转速度)。信息处理设备30被配置成根据陀螺40与信息处理设备30之间的事先相关联的相对位置关系来控制陀螺40的驱动单元409。
每个用户使他的/她的陀螺40在舞台90上旋转,并且通过操纵信息处理设备30控制陀螺40的运动,同时经由包括摄像单元301和显示单元309的信息处理设备30观察陀螺40的运动。
此时,信息处理设备30根据陀螺40与信息处理设备30之间的相对位置关系来控制陀螺40的驱动单元409,陀螺40为控制目标。在具体示例中,用户操纵他的/她的信息处理设备30,以使得他的/她的陀螺40显示在画面的中心。在这种情况下,信息处理设备30控制驱动单元409,以使得例如摄像单元301的光轴与控制目标陀螺40之间的较长的距离L1引起较高的空气阻力或摩擦系数,从而难以继续旋转。具体地,信息处理设备30可以控制陀螺40的驱动单元409,以使得空气阻力或摩擦系数在陀螺40移出画面时比陀螺40捕捉在画面内时较高。这使得信息处理设备30在用户继续将他的/她的陀螺40捕捉在由用户操纵的信息处理设备30的画面中心上时能够舞台有利地玩这个游戏。
另外,信息处理设备30还可以根据舞台90与信息处理设备30之间的相对位置关系控制陀螺40的驱动单元409。在具体示例中,信息处理设备30可以以如下方式控制驱动单元409,该方式使得陀螺40的重心的位置根据摄像单元301的光轴与舞台90的仰角θ1垂直变化。在具体示例中,信息处理设备30可以控制驱动单元409,以使得例如较小的仰角θ1引起陀螺40较低的重心。同时,在这种情况下,可以调整标记的位置,以使得较小的仰角θ1可以使得容易错过用于识别陀螺40的标记的视域。这可以以下面的方式上演游戏。较小的仰角θ1导致较低的重心,从而用户可以有利地玩这个游戏。然而,难以在画面内捕获该标记。当标记移出画面时,运动不利地影响用户。
信息处理设备30还可以包括操纵单元305比如触摸面板,并且可以基于从操纵单元305输入的用户操纵改变陀螺40的运动状态。例如,当用户轻敲他的/她的显示在信息处理设备30的显示单元309上的陀螺40时,信息处理设备30可以改变轻敲的陀螺40的旋转速度。
另外,如在第一实施方式中,信息处理设备30可以获取其他陀螺40的运动状态,并且可以将所获取的运动状态可视化和显示在显示单元309上。注意,在下文中将连同信息处理设备30的配置描述信息处理设备30通过其识别控制目标陀螺40并且控制其运动的机制。
在此,参照图10。图10是示出了根据本实施方式的信息处理设备30的画面的示例的图。在图10中的示例中,信息处理设备30以如下方式显示用作用于说明游戏的规则或进展的引导的虚拟对象v45和v47,该方式使得将虚拟对象v45和v47叠加到由摄像单元301拍摄的图像上。为了便利用户操纵,信息处理设备30还可以以如下方式显示用作引导的虚拟对象v43,该方式使得将虚拟对象v43叠加在拍摄图像上。
在作为具体示例的图10中的示例中,信息处理设备30控制陀螺40的驱动单元409,以使得当用户努力继续将他的/她的陀螺40捕捉在他的/她的自己的信息处理设备30的显示单元309的中心上时控制目标陀螺40可以继续较长时间旋转。在这种情况下,信息处理设备30显示消息“将陀螺捕捉在画面中心”作为用于说明显示在显示单元309上的画面上的规则的引导v45。此时,信息处理设备30显示表示画面的中心的虚拟对象v43作为用于方便陀螺40的用户操纵的引导v43。
信息处理设备30还可以依赖于控制目标陀螺40的状态来显示引导v47。在具体的示例中,当陀螺40离画面的中心(换言之,摄像单元301的光轴)预定的或较长的距离时(或当陀螺40没有被捕捉在画面内时),信息处理设备30可以显示虚拟对象v47作为用于通知用户情形的引导。例如,在图10中的示例中,信息处理设备30显示消息“警告”作为虚拟对象v47。
另外,信息处理设备30可以获取控制目标陀螺40与信息处理设备30之间的以及舞台90与信息处理设备30之间的相对位置关系,并且可以显示虚拟对象v41作为将所获取的位置信息可视化的显示信息。例如,在图10中的示例中,信息处理设备30将摄像单元301的光轴与控制目标陀螺40之间的距离L1以及摄像单元301的光轴与舞台90的仰角θ1可视化并显示为虚拟对象v41a。信息处理设备30还可以将基于距离L1和仰角θ1所计算的空气阻力或摩擦力(摩擦系数)可视化和显示为虚拟对象v41a。信息处理设备30还可以将虚拟对象v41b显示为将相应的陀螺40的用户而非控制目标陀螺40可视化的显示信息。
如上所述,根据本实施方式的信息处理设备30根据信息处理设备30与控制目标陀螺40之间的位置关系以及信息处理设备30与舞台90之间的位置关系控制陀螺40的运动。使用这样的配置,可以在根据物理定律的游戏比如陀螺旋转进行中提供比直接操纵目标真实对象的情况中的操纵感觉更直观的操纵感觉。在下文中,将描述根据本实施方式的信息处理设备30的细节。
[2.2.配置]
将参照图11和图12描述根据本实施方式的信息处理设备30的配置。图11是示出了根据本实施方式的信息处理设备30的配置的示例的框图。图12是示出了本实施方式中的作为相应信息处理设备30的控制目标的每个真实对象40(例如,陀螺40)的配置的框图。注意,将在下文中通过采用其中通过在图9和图10中示出的陀螺旋转游戏中使用信息处理设备30操纵作为真实对象的陀螺40的情形作为示例来描述根据本实施方式的信息处理设备30。
如图11中所示,根据本实施方式的信息处理设备30包括摄像单元301、位置计算单元302、内容控制单元303、显示控制单元304、操纵单元305、通信单元307和显示单元309。如图12中所示,每个真实对象40包括通信单元405、控制单元407和驱动单元409。
注意,图11中的摄像单元301和位置计算单元302分别对应于第一实施方式的变型(参见图7)中的摄像单元101和位置计算单元102。为此,下面给出了根据本实施方式的信息处理设备30的描述,重点在于不同于根据第一实施方式的变型的信息处理设备12的部分。对于以与上述实施方式中的方式相同的方式操作的部件,省略了详细的描述。省略了与信息处理设备12中的配置相同的配置的详细的描述。
摄像单元301每隔预定帧拍摄图像,并且将拍摄图像顺序地输出至位置计算单元302。
位置计算单元302从摄像单元301顺序获取拍摄图像,并且根据所获取的拍摄图像检测陀螺40,陀螺40每个为真实对象的示例。注意,位置计算单元302与根据第一实施方式的变型的位置计算单元102类似地根据拍摄图像检测每个陀螺40。
位置计算单元302从拍摄图像中识别用作预定参考的参考对象,并且识别陀螺40相对于参考对象的位置。
位置计算单元302将从摄像单元301获取的每个拍摄图像、参考对象的位置信息以及表示每个陀螺40相对于参考对象的位置的位置信息顺序输出至内容控制单元303。这使得内容控制单元303能够基于参考对象的位置信息来识别陀螺40之间的相对位置关系。
另外,舞台90设置有标记。位置计算单元302可以检测在拍摄图像中拍摄的舞台90上的标记,从而基于所检测到的标记的位置和取向识别舞台90在拍摄图像中的位置和取向。位置计算单元302向内容控制单元303顺序通知所识别的舞台90的位置信息(即,位置和取向)。注意,位置计算单元302可以向内容控制单元303通知所识别的舞台90的位置信息作为参考对象的位置。
操纵单元305是操纵装置如触摸面板。当接收到来自用户的输入操纵时,操纵单元305将表示来自用户的输入的内容的控制信息输出至内容控制单元303。例如,当为触摸面板时,操纵单元305基于通过用户的输入操纵将表示触摸的位置和模式(例如,轻敲或滑动)的控制信息输出至内容控制单元303。
内容控制单元303基于由位置计算单元302通知的每个陀螺40的位置,识别信息处理设备30与控制目标陀螺40之间的相对位置关系。同样,内容控制单元303基于由位置计算单元302通知的舞台90的位置和取向,识别信息处理设备30与舞台90之间的相对位置关系。下面将描述内容控制单元303的细节。
内容控制单元303从位置计算单元302顺序获取由摄像单元301拍摄的每个图像、参考对象的位置信息以及表示每个陀螺40相对于参考对象的位置的位置信息。内容控制单元302还顺序获取舞台90的位置信息。注意,内容控制单元303可以获取舞台90的位置信息作为参考对象的位置信息。
内容控制单元303基于参考对象的位置信息以及表示每个陀螺40相对于参考对象的位置的位置信息,来识别拍摄图像中的每个陀螺40的所获取的位置以及陀螺40之间的相对位置关系(即,方向或距离)。
内容控制单元303还基于拍摄图像中的每个陀螺40的位置以及舞台90的位置和取向来计算信息处理设备30、控制目标陀螺40和舞台90中的至少两个之间的相对位置。在下文中,将参照图9描述其中内容控制单元303计算信息处理设备30、控制目标陀螺40和舞台90中的至少两个之间的相对位置的处理的示例。
例如,内容控制单元303可以基于拍摄图像中的控制目标陀螺40的位置和尺寸计算摄像单元301的光轴与控制目标陀螺40之间的距离L1。具体地,内容控制单元303可以基于拍摄图像中的陀螺40的尺寸计算拍摄图像与真实空间之间的距离差异的比例。内容控制单元303可以基于所计算的比例将拍摄图像的中心(即,光轴的位置)与陀螺40之间的距离转换成真实空间中的距离。
内容控制单元303还可以基于舞台90的位置和取向,计算信息处理设备30的摄像单元301相对于舞台90的取向、即摄像单元301的光轴的仰角θ1。在另一示例中,信息处理设备30可以设置有陀螺仪传感器,并且内容控制单元303可以基于陀螺仪传感器的感测结果计算摄像单元301的光轴的仰角θ1。在这种情况下,仰角θ1是与真实空间中的水平面的仰角。
注意,离光轴的距离L1和仰角θ1是示例,并且只要可以计算表示信息处理设备30、控制目标陀螺40和舞台90中的至少两个之间的相对位置的信息,信息的类型或其计算方法不受限制。注意,下面假定内容控制单元303已经计算了离光轴的距离L1和仰角θ1给出描述。
内容控制单元303基于所计算的离光轴的距离L1计算要提供给控制目标陀螺40的空气阻力和摩擦。注意,根据距离L1要提供多大空气阻力和摩擦可以确定并且存储在内容控制单元303中。内容控制单元303基于所计算的空气阻力和摩擦,计算驱动下文要描述的驱动单元409的量。注意,后面将连同驱动单元409一起描述用于提供与控制目标陀螺40的空气阻力和摩擦的驱动单元409的类型和控制驱动单元409的方法的细节。
另外,内容控制单元303基于所计算的仰角θ1计算控制目标陀螺40的重心的高度。注意,仰角θ1与重心的高度之间的关系可以预先确定并且存储在内容控制单元303中。内容控制单元303基于所计算的重心的高度计算驱动驱动单元409的量。
另外,内容控制单元303可以基于输入至操纵单元305的用户操纵改变驱动驱动单元409的量。例如,内容控制单元303可以根据用户操纵改变陀螺40的旋转速度。注意,用户操纵的内容与旋转速度的变化之间的关系可以预先确定并且存储在内容控制单元303中。内容控制单元303基于所计算的旋转速度的变化来计算驱动驱动单元409的量。
内容控制单元303通过通信单元307向控制目标陀螺40通知作为驱动目标的相应驱动单元409的标识信息和所计算的驱动量。通信单元307是用于将信息发送至相应的真实对象40的每个通信单元405和从相应的真实对象40的每个通信单元405接收信息的通信模块。
另外,内容控制单元303基于信息处理设备30、每个陀螺40和舞台90之间的位置关系生成每个陀螺40的虚拟对象,并且识别虚拟对象的显示位置和显示模式。在下文中,将参照图10描述其中内容控制单元303识别每个虚拟对象的显示位置和显示模式的处理的示例。
例如,内容控制单元303可以将表示信息处理设备30、每个陀螺40和舞台90之间的位置关系的信息(例如,离光轴的距离L1和仰角θ1)可视化,从而生成虚拟对象v41a作为显示信息。在这种情况下,内容控制单元303可以基于控制目标陀螺40的位置信息确定所生成的虚拟对象v41a的显示位置。内容控制单元303还可以基于陀螺40的识别结果识别操纵相应陀螺40的用户,将所识别的用户可视化,并且生成虚拟对象v41b作为显示信息。在这种情况下,内容控制单元303可以基于相应陀螺40的位置信息确定所生成的虚拟对象v41b的显示位置。
内容控制单元303还可以依赖于游戏的进展状态生成虚拟对象v45和v47用作引导。内容控制单元303还可以在开始游戏之后生成虚拟对象v43用作引导,并且可以保持其中当进行游戏时显示虚拟对象v43的状态。
内容控制单元303向显示控制单元304输出:从位置计算单元302获取的拍摄图像;以及所生成的虚拟对象的控制信息。注意,控制信息包括用于将每个虚拟对象显示为拍摄图像中的图像的显示信息以及表示显示虚拟对象的位置的信息。注意,显示控制单元304和显示单元309与第一实施方式中的显示控制单元104和显示单元109同样地操作,从而省略其详细的描述。
接下来,将参照图12描述真实对象40(例如,陀螺40)的配置。
通信单元405通过通信单元307从信息处理设备30接收并且向控制单元407输出从内容控制单元303发送的驱动目标驱动单元409的标识信息和所计算的驱动量。控制单元407基于从信息处理设备30获取的标识信息来识别驱动目标驱动单元409,并且基于所获取的驱动量来驱动所识别的驱动单元409,从而控制陀螺40的运动。下面总结了陀螺40的运动、驱动单元409的类型以及其控制方法之间的关系。
例如,可以提供驱动单元409,以使得陀螺40的轴的地面接触面积是可变的。在这种情况下,控制单元407可以通过改变轴的直径来控制地面接触面积。随着轴的地面接触面积增大,轴与地面平面(例如,舞台90)之间的摩擦力增大。即,控制单元407控制轴的地面接触面积,从而控制摩擦量。
另外,被配置成在陀螺40的旋转方向上施加空气制动的可变翼可以被提供为驱动单元409以在陀螺40的旋转方向上延伸。在这种情况下,控制单元407控制可变翼的打开或关闭程度,从而控制空气阻力的量。
为了控制重心的高度,例如,可以将其位置在陀螺40的轴方向上可变化的主轴(spindle)提供为驱动单元409。在这种情况下,控制单元407控制主轴的位置,从而可以控制陀螺40的重心的高度。
另外,可以以如下方式将马达提供为驱动单元409,该方式使得陀螺40的旋转速度增大或衰减。在这种情况下,控制单元407控制马达的旋转量,从而可以控制陀螺40的旋转速度。注意,可以通过使用马达控制陀螺40的旋转速度来模拟空气阻力和摩擦的影响。
注意,已经通过采用陀螺旋转游戏作为示例给出了描述,但只要可以基于信息处理设备30、真实对象40和舞台90中的至少两个之间的相对位置来控制真实对象40的运动,目标真实对象40的运动的控制不限于前面提到的示例。例如,图13是用于说明根据本实施方式的信息处理设备30的另一模式的图,并且示出了其中将信息处理设备30应用于赛车游戏的情况。在这种情况下,假定每个真实对象40和舞台90分别是车体和跑道,信息处理设备30可以计算离摄像单元301的光轴的距离L1以及仰角θ1,并且可以基于计算结果控制车体40的运动。
在此,参照图14。图14是示出了另一模式下的根据本实施方式的信息处理设备的画面的示例的图,并且示出了图13中示出的赛车游戏的操纵画面的示例。在这种情况下,信息处理设备30可以将虚拟对象v41a显示为将摄像单元301的光轴与作为控制目标的车体40之间的距离L1以及摄像单元301的光轴对于舞台90的仰角θ1可视化的显示信息。信息处理设备30可以将虚拟对象v41b显示为将相应的车体40的用户而非控制目标车体40可视化的显示信息。
另外,如在图10中示出的陀螺旋转游戏的示例,用作引导的虚拟对象v45和v47以及用作引导的虚拟对象v43可以以叠加方式显示在每个拍摄图像中。
[2.3.处理]
将参照图15描述根据本实施方式的信息处理设备的一系列操作。图15是示出了根据本实施方式的信息处理设备的一系列操作的示例的流程图。
(步骤S201)
信息处理设备30的通信单元307建立与控制目标陀螺40的通信单元405的通信。随后,来自信息处理设备30的信息通过已建立的通信路径发送至陀螺40。
(步骤S203)
当每个用户将作为真实对象的他的/她的陀螺40在舞台90上旋转时,真实对象陀螺40开始运动。
(步骤S205)
接下来,用户通过使用包括摄像单元301和显示单元309的相应的信息处理设备30开始观察陀螺40和舞台90,位置计算单元302从摄像单元301获取每个拍摄图像。位置计算单元302从摄像单元获取的拍摄图像中检测每个陀螺40上设置的标记,从而识别陀螺40的位置和姿态。
位置计算单元302从拍摄图像中识别预定的参考对象,并且识别陀螺40相对于所识别的参考对象的位置。例如,位置计算单元302检测拍摄图像中所拍摄的舞台90上的标记,从而基于所检测到的标记的位置识别舞台90的位置。位置计算单元302通过使用所识别的舞台90作为参考对象识别每个陀螺40的位置。
位置计算单元302向内容控制单元303顺序输出从摄像单元301获取的每个拍摄图像、参考对象的位置信息以及表示每个陀螺40相对于参考对象的位置的位置信息。
(步骤S209)
以这种方式,每个用户的信息处理设备30识别陀螺40和舞台90的标记(步骤S209中为否)。
(步骤S211)
在每个用户的信息处理设备30完成陀螺40和舞台90上的标记的识别之后(步骤S209中为是),信息处理设备30开始信息处理设备30、控制目标陀螺40和舞台90之间的相对位置关系的获取。
(步骤S213)
位置计算单元302从摄像单元301顺序获取每个拍摄图像,并且从所获取的拍摄图像中检测作为真实对象的每个陀螺40。注意,位置计算单元302与根据第一实施方式的变型的位置计算单元102一样,从拍摄图像中检测陀螺40。
位置计算单元302识别拍摄图像中预定为参考的参考对象,并且识别每个陀螺40相对于所识别的参考对象的位置。
位置计算单元302向内容控制单元303顺序输出从摄像单元301所获取的拍摄图像、参考对象的位置信息以及表示每个陀螺40相对于参考对象的位置的位置信息。
位置计算单元302还可以检测拍摄图像中所拍摄的舞台90上的标记,从而基于所检测到的标记的位置和取向来识别拍摄图像中的舞台90的位置和取向。位置计算单元302向内容控制单元303顺序通知所识别的舞台90的位置信息(即,位置和取向)。注意,位置计算单元302可以向内容控制单元303通知所识别的舞台90的位置信息作为参考对象的位置。
(步骤S215)
内容控制单元303从位置计算单元302顺序获取由摄像单元301拍摄的每个图像、参考对象的位置信息以及表示每个陀螺40相对于参考对象的位置的位置信息。内容控制单元303还顺序获取舞台90的位置信息。注意,内容控制单元303可以获取舞台90的位置信息作为参考对象的位置信息。
内容控制单元303基于参考对象的位置信息以及表示每个陀螺40相对于参考对象的位置的位置信息,来识别所获取的拍摄图像中的陀螺40的位置以及陀螺40之间的相对位置关系(即,方向和距离)。
内容控制单元303还基于拍摄图像中的每个陀螺40的位置以及舞台90的位置和取向,计算信息处理设备30、控制目标陀螺40和舞台90中的至少两个之间的相对位置。
例如,内容控制单元303可以基于拍摄图像中的控制目标陀螺40的位置和尺寸,计算摄像单元301的光轴与控制目标陀螺40之间的距离L1。
内容控制单元303基于所计算的离光轴的距离L1计算要提供给内容控制陀螺40的空气阻力和摩擦。注意,要根据距离L1提供多大空气阻力和摩擦可以预先确定和存储在内容控制单元303中。内容控制单元303基于所计算的空气阻力和摩擦计算驱动下文要描述的驱动单元409的量。
内容控制单元303还可以基于舞台90的位置和取向,计算信息处理设备30的摄像单元301相对于舞台90的取向、即摄像单元301的光轴的仰角θ1。
内容控制单元303基于所计算的仰角θ1计算控制目标陀螺40的重心的高度。内容控制单元303基于所计算的重心的高度计算驱动驱动单元409的量。
另外,内容控制单元303可以基于输入至操纵单元305的用户操纵改变驱动驱动单元409的量。例如,内容控制单元303可以根据用户操纵改变陀螺40的旋转速度。内容控制单元303基于所计算的旋转速度的变化计算驱动驱动单元409的量。
内容控制单元303通过通信单元307向控制目标陀螺40通知作为驱动目标的相应的驱动单元409的标识信息和所计算的驱动量。
通信单元405通过通信单元307从信息处理设备30接收并且向控制单元407输出从内容控制单元303发送的驱动目标驱动单元409的标识信息以及所计算的驱动量。内容控制单元407基于从信息处理设备30获取的标识信息识别驱动目标驱动单元409,并且基于所获取的驱动量驱动所识别的驱动单元409,从而控制陀螺40的运动。
(步骤S219)
信息处理设备30重复步骤S213至S215中示出的一系列处理直到满足用于终止游戏的预定条件为止(步骤S219中为否)。
(步骤S221)
当满足用于终止游戏的条件时(步骤S219中为是),信息处理设备30停止信息处理设备30、控制目标陀螺40和舞台90之间的相对位置关系的获取,以终止一系列处理。
如上所述,根据本实施方式的信息处理设备30根据信息处理设备30、控制目标陀螺40和舞台90之间的位置关系控制控制目标陀螺40的运动。使用这样的配置,可以在根据物理定律的游戏进行比如陀螺旋转中提供比直接操纵目标真实对象的情况更直观的操纵感觉。
注意,上面提到的根据第二实施方式的信息处理设备30可以与根据第一实施方式的信息处理设备10(或根据第一实施方式中的变型的信息处理设备12)组合,从而可以基于根据信息处理设备30的操纵变化的相应的陀螺40的运动状态显示每个虚拟对象。例如,图16是示出了另一模式下的根据本实施方式的信息处理设备的画面的示例的图,并且示出了如下情况的示例:以被叠加在图10中示出的显示画面上的方式显示根据陀螺40的运动状态的虚拟对象。
具体地,根据第一实施方式的运动状态获取单元106可以添加至根据第二实施方式的信息处理设备30,从而基于拍摄图像从摄像单元301获取每个陀螺40的运动状态。在另一示例中,根据第一实施方式的变型的传感器单元22和运动状态获取单元108可以添加至根据第二实施方式的信息处理设备30,从而基于传感器201的检测结果获取陀螺40的运动状态。
内容控制单元303可以基于所获取的运动状态生成采用角色形式的虚拟对象v22a和v22b。内容控制单元303还可以生成或控制分别表示虚拟对象v22a和v22b的生命点的虚拟对象v24a和v24b。在又一示例中,内容控制单元303可以生成虚拟对象作为将所获取的运动状态可视化的显示信息。
如上所述,第一实施方式和第二实施方式可以相互组合,从而信息处理设备30可以根据信息处理设备30的操纵将每个陀螺40的不断变化的运动状态呈现为虚拟对象。使用这样的配置,用户可以通过操纵信息处理设备30来控制控制目标陀螺40的运动,并且可以基于所显示的虚拟对象的显示模式识别在控制下变化的陀螺40的运动状态。
[2.4.结论]
如上所述,根据本实施方式的信息处理设备30根据信息处理设备30、控制目标陀螺40和舞台90之间的位置关系控制相应的陀螺40的驱动单元409,从而模拟空气阻力和摩擦对陀螺40的影响。使用这样的配置,可以在根据物理定律的游戏进行比如陀螺旋转中提供比直接操纵目标真实对象的情况更直观的操纵感觉。
〈3.第三实施方式〉
[3.1.概要]
接下来,将描述根据本公开的第三实施方式的信息处理设备50。前面提到的根据第二实施方式的信息处理设备30根据真实空间中的真实对象、信息处理设备和舞台之间的相对位置关系控制真实对象的运动。可替代地,控制目标可以是虚拟空间中的虚拟对象来代替真实对象。在第三实施方式中,给出其中通过使用虚拟对象作为控制目标并模拟物理定律比如空气阻力和摩擦力对虚拟对象的影响来控制虚拟对象的运动的情况的描述。
在下文中,将参照图17和图18描述根据本公开的第三实施方式的信息处理设备50的概要。首先,参照图17。图17是用于说明根据本公开的第三实施方式的信息处理设备50的概要的图,并且示出了其中信息处理设备50应用于陀螺旋转游戏的情况的示例。
在图17中示出的游戏的示例中,多个用户中的每个用户通过使用包括摄像单元501和显示单元509的相应的信息处理设备50观察作为虚拟空间中的虚拟对象的舞台v90和陀螺v60。用户以与第二实施方式中的方式相同的方式操纵信息处理设备50,从而控制相应的陀螺v60在虚拟空间中的运动。
此时,信息处理设备50检测用作由摄像单元501拍摄的每个图像中的参考的标记,并且基于拍摄图像中的标记的位置、取向和尺寸计算舞台v90、陀螺v60和信息处理设备50在虚拟空间中的相对位置。信息处理设备50基于相对位置以与第二实施方式中的方式相同的方式计算:摄像单元501的光轴与作为虚拟空间中的控制目标的相应的陀螺v60之间的距离L2;以及摄像单元501的光轴与舞台v90的仰角θ2。然后,信息处理设备50基于离光轴的距离L2和仰角θ2计算控制目标陀螺v60的运动,并且控制虚拟对象陀螺v60的显示位置和显示模式。
在此,参照图18。图18是示出了根据本实施方式的信息处理设备50的画面的示例的图。信息处理设备50基于陀螺v60之间的位置关系、所计算的离光轴的距离L2和所计算的仰角θ2,识别每个陀螺v60的显示位置和显示模式。然后信息处理设备50以叠加方式在拍摄图像中显示陀螺v60。例如,在图18中的示例中,信息处理设备50以叠加方式在拍摄图像中显示陀螺v60a和v60b。
信息处理设备50还可以获取控制目标陀螺v60与信息处理设备50之间的相对位置关系以及舞台v90与信息处理设备50之间的相对位置关系,然后可以将虚拟对象v41a显示为将所获取的位置关系可视化的显示信息。例如,在图18中的示例中,信息处理设备50将摄像单元501的光轴与控制目标陀螺v60之间的距离L2以及摄像单元501的光轴对于舞台v90的仰角θ2可视化和显示为虚拟对象v41a。信息处理设备50还可以将虚拟对象v41b显示为将相应的陀螺v60的用户而非控制目标陀螺v60可视化的显示信息。
如上所述,根据本实施方式的信息处理设备50根据虚拟空间中的信息处理设备50、陀螺v60和舞台v90之间的位置关系,控制相应陀螺v60的运动。使用这样的配置,作为真实对象的每个陀螺40显示为相应的虚拟对象v60,从而在不使用作为真实对象的示例的陀螺40的情况下,可以实现与第二实施方式中的游戏相同的游戏。在下文中,将描述根据本实施方式的信息处理设备50的细节。
[3.2.配置]
将参照图19描述根据本实施方式的信息处理设备50的配置。图19是示出了根据本实施方式的信息处理设备50的配置的框图。注意,在下文中可以通过采用如下情况作为示例来描述根据本实施方式的信息处理设备50:通过使用图17和图18中示出的陀螺旋转游戏中的信息处理设备50操纵作为虚拟对象的相应的陀螺v60。
如图19所示,根据本实施方式的信息处理设备50包括摄像单元501、位置计算单元502、内容控制单元503、显示控制单元504、操纵单元505和显示单元509。
摄像单元501每隔预定帧拍摄图像,并且向位置计算单元502顺序输出每个拍摄图像。
位置计算单元502从摄像单元501顺序获取每个拍摄图像。位置计算单元502检测从摄像单元501获取的拍摄图像中的标记,基于标记生成虚拟对象比如陀螺v60。注意,位置计算单元502与根据第一实施方式的位置计算单元102一样检测标记。
位置计算单元502向内容控制单元503顺序输出从摄像单元501获取的拍摄图像以及表示每个所检测的标记的位置的位置信息。
内容控制单元503从位置计算单元502顺序获取由摄像单元501拍摄的图像以及表示所检测的标记的位置的位置信息。
内容控制单元503基于拍摄图像中的所获取的标记的位置、方向和尺寸,识别虚拟空间中的信息处理设备50相对于标记的位置的位置和取向。
内容控制单元503还生成由相应用户操纵的相应信息处理设备50的虚拟对象陀螺v60,并且将陀螺v60与相应的信息处理设备50相关联。此时,内容控制单元503识别要作为内容控制单元503的控制目标的多个陀螺v60中的一个。内容控制单元503还生成作为其他虚拟对象的舞台v90。
内容控制单元503识别每个生成的陀螺v60和舞台v90在虚拟空间中相对于标记的位置的位置。
当从例如操纵单元505接收预定的操纵时,内容控制单元503开始所生成的陀螺v60的运动。
内容控制单元503基于陀螺v60之间的相对位置以及每个陀螺v60与舞台v90之间的相对位置,计算每个陀螺v60的运动状态(例如,运动方向、平移速度和旋转速度),并且控制相应的陀螺v60的运动。
在具体示例中,内容控制单元503基于陀螺v60之间的相对位置确定多个陀螺v60是否彼此接触。当陀螺v60彼此接触时,内容控制单元503可以基于陀螺v60的接触方向计算在接触之后要展示的每个陀螺v60的运动方向。内容控制单元503还可以基于在接触之前展示的陀螺v60的平移速度和旋转速度,计算要在接触之后展示的陀螺v60的平移速度和旋转速度。
内容控制单元503还可以基于陀螺v60和舞台v90之间的相对位置确定陀螺v60中的任何一个陀螺是否与例如舞台v90的侧壁接触。当陀螺v60与舞台v90的侧壁接触时,内容控制单元503可以基于陀螺v60与舞台v90的侧壁接触的方向计算在接触之后要展示的陀螺v60的运动方向。内容控制单元503还可以基于接触之前展示的陀螺v60的平移速度和旋转速度,计算要在接触之后展示的陀螺v60的平移速度和旋转速度。
内容控制单元503还以与根据第二实施方式的信息处理设备30中的方式相同的方式计算虚拟空间中的信息处理设备50、控制目标陀螺v60和舞台v90中的至少两个之间的相对位置。内容控制单元503基于所计算的相对位置控制控制目标陀螺v60的运动。
在具体示例中,内容控制单元503可以基于虚拟空间中的信息处理设备50的位置和取向以及控制目标陀螺v60的位置,计算摄像单元501的光轴与控制目标陀螺v60之间的距离L2。
内容控制单元503还可以基于虚拟空间中的信息处理设备50的位置和取向以及舞台v90的位置和方向,计算摄像单元501的光轴与舞台v90的仰角θ2。信息处理设备50还可以包括陀螺仪传感器,从而内容控制单元503还可以基于陀螺仪传感器的检测结果计算摄像单元501的光轴的仰角θ2。在这种情况下,仰角θ2是与真实空间中的水平平面的仰角。
注意,上述的离光轴的距离L2和仰角θ2是示例,并且只要可以计算表示信息处理设备50、控制目标陀螺v60和舞台v90中的至少两个之间的相对位置的信息,信息的类型及其计算方法不受限制。注意,下面假定内容控制单元503已经计算了离光轴的距离L2和仰角θ2来给出描述。
内容控制单元503基于信息处理设备50、控制目标陀螺v60和舞台v90之间的相对位置,计算用于改变陀螺v60的运动状态的物理量(例如,摩擦和空气阻力)。
在具体示例中,内容控制单元503可以基于所计算的离光轴的距离L2计算要提供至控制目标陀螺v60的空气阻力和摩擦。内容控制单元503可以基于所计算的仰角θ2计算控制目标陀螺v60的重心的高度。内容控制单元503可以根据通过操纵单元505执行的用户操纵计算陀螺v60的旋转速度的变化。注意,可以以与根据第二实施方式的信息处理设备30中的方式相同的方式计算上述摩擦、空气阻力和旋转速度的变化。
内容控制单元503根据所计算的物理量改变陀螺v60的运动状态。
如上所述,内容控制单元503基于从位置计算单元502顺序获取的拍摄图像和标记的位置信息,识别信息处理设备50、陀螺v60和舞台v90之间的相对位置。然后,内容控制单元503基于所识别的信息处理设备50、陀螺v60和舞台v90之间的相对位置来控制相应的陀螺v60的运动。内容控制单元503顺序重复上述信息处理设备50、陀螺v60和舞台v90之间的相对位置的识别以及上述陀螺v60的运动的控制。
在此,参照图18。如图18所示,内容控制单元503可以生成将表示与相应陀螺v60和舞台v90的位置关系的信息(例如,离光轴的距离L2和仰角θ2)可视化的虚拟对象v41a。内容控制单元503还可以生成虚拟对象v41b作为将操纵相应的陀螺v60的其它用户可视化的显示信息。
内容控制单元503可以依赖游戏的进展状态生成用作引导的虚拟对象v45和v47。内容控制单元503可以被配置成当游戏开始时生成用作引导的虚拟对象v43,并且当继续游戏时保持显示虚拟对象v43的状态。注意,可以以与根据第二实施方式的内容控制单元303相同的方式生成和控制虚拟对象v43、v45和v47。
内容控制单元503向显示控制单元504输出顺序获取的每个拍摄图像、表示虚拟空间中的信息处理设备50的位置和取向的信息以及相应的虚拟对象的控制信息。注意,控制信息包括:用于将每个虚拟对象显示为拍摄图像中的图像的显示信息;以及表示虚拟对象在虚拟空间中的位置和取向的信息。
显示控制单元504从内容控制单元503获取拍摄图像、表示虚拟空间中的信息处理设备50的位置和取向的信息以及虚拟对象的控制信息。显示控制单元504基于表示虚拟空间中的信息处理设备50的位置和取向的信息以及虚拟对象的控制信息,识别信息处理设备50和每个虚拟对象之间的相对位置。显示控制单元504基于所识别的相应的相对位置来识别虚拟对象在拍摄图像中的位置和取向,并且基于所识别的位置和取向在拍摄图像中以叠加方式显示虚拟对象。显示控制单元504将包括以叠加方式显示的虚拟对象的拍摄图像显示在显示单元509上。
注意,内容控制单元顺序识别每个陀螺v60的运动状态。因此,内容控制单元503可以生成相应的虚拟对象作为将v60的运动状态(例如,旋转速度、平移速度或运动方向)可视化的显示信息。
注意,信息处理设备50可以分别计算每个陀螺v60在虚拟空间中的位置和取向以及舞台v90的位置和取向,并且然后相互发送和接收所计算的信息。在另一示例中,多个信息处理设备50中的一个可以计算信息处理设备50、陀螺v60和舞台v90之间的相对位置信息,然后可以控制陀螺v60的运动。在又一示例中,服务器可以与信息处理设备50分离地提供,可以基于从每个信息处理设备50通知的每个拍摄图像计算信息处理设备50、陀螺v60和舞台v90之间的相对位置关系,然后可以控制陀螺v60的运动。注意,根据第一实施方式和第二实施方式的信息处理设备可以如上所述配置。换言之,在第一实施方式中,可以由相互协作的多个信息处理终端或可以由任何一个信息处理终端或服务器执行与每个真实对象的位置和运动状态的计算有关的处理。在第二实施方式中,可以由相互协作的多个信息处理终端或由任何一个信息处理终端或服务器控制每个真实对象的运动。
注意,已经通过采用陀螺旋转游戏作为示例给出了描述,只要可以基于信息处理设备50、控制目标虚拟对象v60和舞台v90中的至少两个之间的相对位置来控制控制目标虚拟对象v60的运动,虚拟对象v60的运动的控制不限于前面提到的示例。例如,图20是用于说明根据本实施方式的信息处理设备50的另一模式的图,并且示出了其中信息处理设备50应用于赛车游戏的情况。在这种情况下,假定虚拟对象v60和舞台v90分别是车体和跑道,信息处理设备50可以计算离摄像单元501的光轴的距离L2和仰角θ2,并且可以基于计算结果控制相应的车体v60的运动。
在此,参照图21。图21是示出了另一模式下的根据本实施方式的信息处理设备的画面的示例的图,并且示出了用于操纵图20中示出的赛车游戏的画面的示例。在这种情况下,信息处理设备50可以显示:虚拟对象v41a作为将摄像单元501的光轴与要作为控制目标的车体v60之间的距离L2可视化的显示信息;以及摄像单元501的光轴与舞台v90的仰角θ2。信息处理设备50还可以将虚拟对象v41b显示为将相应的车体v60的用户而非控制目标车体v60可视化的显示信息。
与图18中示出的陀螺旋转游戏的示例一样,用作引导的虚拟对象v45和v47以及用作引导的虚拟对象v43可以以叠加方式显示在拍摄图像中。
根据第三实施方式的信息处理设备50可以与根据第一实施方式和根据第二实施方式的信息处理设备组合。在将信息处理设备50应用于陀螺旋转游戏的具体示例中,每个信息处理终端可以在游戏的开始时使用真实对象陀螺作为控制目标,然后可以在真实对象陀螺停止之后使用虚拟对象。在这种情况下,信息处理设备可以根据真实对象陀螺与虚拟对象之间的相对位置控制真实对象陀螺和虚拟对象陀螺的运动。当如图2中示出的显示例如角色的生命点时,信息处理设备还可以通过向真实对象和虚拟对象分配生命点(例如,通过五十五十划分生命点)来进行舞台显示。
[3.3.处理]
将参照图22描述根据本实施方式的信息处理设备的一系列操作。图22是示出了根据本实施方式的信息处理设备的一系列操作的示例的流程图。
(步骤S305)
当每个用户通过使用包括摄像单元501和显示单元509的相应的信息处理设备50拍摄基于其生成虚拟对象的标记时,位置计算单元502从摄像单元501获取的拍摄图像中检测基于其生成虚拟对象的标记。
位置计算单元502向内容控制单元503顺序输出从摄像单元501获取的拍摄图像以及表示每个检测到的标记的位置的位置信息。
(步骤S307)
内容控制单元503从位置计算单元502顺序获取由摄像单元501拍摄的图像以及表示所检测的标记的位置的位置信息。
内容控制单元503基于所获取的拍摄图像中的标记的位置、取向和尺寸,识别信息处理设备50在虚拟空间中相对于标记的位置的位置和取向。
另外,内容控制单元503生成由相应用户操纵的每个信息处理设备50的虚拟对象陀螺v60,并且将陀螺v60与相应的不同的信息处理设备50相关联。此时,内容控制单元503识别要作为内容控制单元503的控制目标的陀螺v60中的一个。内容控制单元503还生成作为虚拟对象的舞台v90。
(步骤S309)
以这种方式,相应用户的信息处理设备50识别基于其生成虚拟对象的标记(步骤S309中为否)。
(步骤S311)
在每个用户的信息处理设备50完成标记的识别之后(步骤S309中为是),信息处理设备50开始生成和控制虚拟对象。具体地,内容控制单元503基于标记的位置识别每个生成的陀螺v60和舞台v90在虚拟空间中的位置。当从操纵单元505接收例如预定操纵时,内容控制单元503开始每个生成的陀螺v60的运动。
(步骤S313)
例如,内容控制单元503可以基于虚拟空间中的信息处理设备50的位置和取向以及控制目标陀螺v60的位置,计算摄像单元501的光轴与控制目标陀螺v60之间的距离L2。
内容控制单元503还可以基于虚拟空间中的信息处理设备50的位置和取向以及舞台v90的位置和取向,计算摄像单元501的光轴对于舞台v90的仰角θ2。另外,信息处理设备50可以设置有陀螺仪传感器,从而内容控制单元503可以基于陀螺仪传感器的检测结果计算摄像单元501的光轴的仰角θ2。在这种情况下,仰角θ2可以是与真实空间中的水平面的仰角。
(步骤S315)
内容控制单元503基于信息处理设备50、控制目标陀螺v60和舞台v90之间的相对位置,计算用于改变陀螺v60的运动状态的物理量(例如,摩擦和空气阻力)。
在具体示例中,内容控制单元503可以基于所计算的离光轴的距离L2计算要提供至控制目标陀螺v60的空气阻力和摩擦。内容控制单元503可以基于所计算的仰角θ2计算控制目标陀螺v60的重心的高度。内容控制单元503还可以根据通过操纵单元505的用户操纵计算陀螺v60的旋转速度的变化。注意,上述摩擦、空气阻力和旋转速度的变化可以以与根据第二实施方式的信息处理设备30中的方式相同的方式来计算。
内容控制单元503基于所计算的物理量改变相应的陀螺v60的运动状态。
如上所述,内容控制单元503基于从位置计算单元502顺序获取的拍摄图像以及标记的位置信息,识别虚拟空间中的信息处理设备50、陀螺v60和舞台v90之间的相对位置。然后,内容控制单元503基于所识别的信息处理设备50、陀螺v60和舞台v90之间的相对位置控制相应的陀螺v60的运动。
内容控制单元503向显示控制单元504输出顺序获取的拍摄图像、表示虚拟空间中的信息处理设备的位置和取向的信息以及相应的虚拟对象的控制信息。注意,控制信息包括:用于将每个虚拟对象显示为拍摄图像中的图像的显示信息;以及表示虚拟空间中的虚拟对象的位置和取向的信息。
显示控制单元504从内容控制单元503获取拍摄图像、表示虚拟空间中的信息处理设备50的位置和取向的信息以及虚拟对象的控制信息。显示控制单元504基于表示虚拟空间中的信息处理设备50的位置和取向的信息以及虚拟对象的控制信息,识别信息处理设备50与虚拟对象之间的相对位置。显示控制单元504基于相应的所识别的相对位置来识别虚拟对象在拍摄图像中的位置和取向,并且基于所识别的位置和取向在拍摄图像中以叠加方式显示虚拟对象。显示控制单元504将包括以叠加方式显示的虚拟对象的拍摄图像显示在显示单元609上。
(步骤S319)
内容控制单元503顺序重复:信息处理设备50、陀螺v60和舞台v90之间的相对位置的识别;以及上述陀螺v60的运动的控制,直到满足用于终止游戏的预定条件为止(步骤S319中为否)。
(步骤S321)
当满足用于终止游戏的条件时(步骤S319中为是),停止虚拟对象的生成和控制,并且终止一系列处理。
[3.4.结论]
如上所述,信息处理设备50根据虚拟空间中的信息处理设备50、陀螺v60、舞台v90之间的位置关系来控制相应的陀螺v60的运动。使用这样的配置,将作为真实对象的每个陀螺40显示为相应的虚拟对象v60,从而可以在不使用作为真实对象的陀螺40的情况下,实现与第二实施方式中的游戏相同的游戏。
〈4.硬件配置示例〉
当软件与下面待描述的并且用作信息处理设备10、30、50中的任何一个的信息处理设备800的硬件协作时,实现通过根据本公开的第一实施方式至第三实施方式的上述信息处理设备10、30和50的信息处理。将参照图23描述信息处理设备800的硬件配置的示例。图23是示出了信息处理设备800的硬件配置示例的框图。
信息处理设备800包括例如GPS天线821、GPS处理单元823、通信天线825、通信处理单元827、地磁传感器829、加速度传感器831、陀螺仪传感器833、气压传感器835、摄像单元837、CPU(中心处理单元)839、ROM(只读存储器)841、RAM(随机存取存储器)843、操纵单元847、显示单元849、解码器851、扬声器853、编码器855、麦克风857和存储单元859。
GPS天线821是从定位卫星接收信号的天线的示例。GPS天线821可以从多个GPS卫星接收GPS信号,并且将所接收的GPS信号输入至GPS处理单元823。
GPS处理单元823是基于从定位卫星接收的信号计算位置信息的计算单元的示例。GPS处理单元823基于从GPS天线821输入的多个GPS信号计算表示当前位置的信息,并且输出所计算的位置信息。具体地,GPS处理单元823根据GPS卫星的轨道数据计算每个GPS卫星的位置,并且基于GPS信号的传输时间与GPS信号的接收时间之间的差异时间计算从GPS卫星到信息处理设备的距离。GPS处理单元823可以基于所计算的每个GPS卫星的位置以及从GPS卫星到信息处理设备的距离计算当前的三维位置。注意,在此使用的GPS卫星的轨道数据可以包括在例如GPS信号中。可替代地,GPS卫星的轨道数据可以通过通信天线825从外部服务器获取。
通信天线825是具有通过例如移动通信网络或无线LAN(局域网)通信网络接收通信信号的功能的天线。通信天线825可以给通信处理单元827提供所接收的信号。
通信处理单元827具有对由通信天线825提供的信号执行各种信号处理的功能。通信处理单元827可以给CPU839提供根据由通信天线825提供的模拟信号生成的数字信号。
地磁传感器829是检测地磁作为电压值的传感器。地磁传感器829可以是检测X轴、Y轴和Z轴的方向中的地磁的三轴地磁传感器。地磁传感器829可以给CPU839提供所检测到的地磁数据。
加速度传感器831是检测加速度作为电压值的传感器。加速度传感器831可以是检测X轴、Y轴和Z轴的方向中的加速度的三轴加速度传感器。加速度传感器831可以给CPU839提供所检测到的加速度数据。
陀螺仪传感器可以是检测对象的角度或角速度的一种仪器,并且可以是检测围绕Y轴和Z轴中的每个的旋转角度的变化的速度(角速度)作为电压值的三轴陀螺仪传感器。陀螺仪传感器833可以给CPU839提供角速度数据。
气压传感器835是检测周围气压作为电压值的传感器。气压传感器835可以以预定采样频率检测气压,并且给CPU839提供所检测到的气压数据。
摄像单元837具有在CPU839的控制下通过镜头拍摄静止图像或移动图像的功能。摄像单元837可以将所拍摄的图像存储在存储单元859中。
CPU839用作算术处理单元和控制器装置,并且根据程序控制信息处理设备800的全部操作。CPU839可以是微处理器,并且可以根据各种程序实现各种功能。
ROM841可以在其中存储由CPU839使用的程序、操作参数等。RAM843可以临时存储运行CPU839时所使用的参数、在运行程序时适当变化的参数等。
操纵单元847具有为用户生成输入信号以执行预定操纵的功能。操纵单元847可以包括:为用户提供以输入信息的输入单元如触摸传感器、鼠标、键盘、按钮、麦克风、开关或手柄;以及基于来自用户的输入生成输入信号并且将该信号输出至CPU839的输入控制电路等。
显示单元849是输出装置的示例,并且可以是显示装置如LCD(液晶显示器)装置、OLED(有机发光二极管)显示装置等。显示单元849可以通过显示画面向用户提供信息。
解码器851具有在CPU839的控制下对所输入的数据执行解码、模拟转换等的功能。解码器851对通过例如通信天线825和通信处理单元827输入的音频数据执行解码、模拟转换等,并且将音频信号输出至扬声器853。扬声器853可以基于由解码器851提供的音频信号输出音频。
编码器855具有在CPU839的控制下对所输入的数据执行数字转换、编码等的功能。编码器855可以对从麦克风857输入的音频信号执行数字转换、编码等,并且输出音频数据。麦克风857可以收集音频,并且输出音频作为音频信号。
存储单元859是用于数据存储的装置,并且可以包括:存储介质;将数据记录在存储介质中的记录装置;从存储介质中读取数据的阅读器装置;删除记录在存储介质中的数据的删除装置;等等。在此,下列可以用作存储介质:非易失性存储器如闪存、MRAM(磁阻随机存取存储器)、FeRAM(铁电随机存取存储器)、PRAM(相变随机存取存储器)和EEPROM(电可擦除可编程只读存储器);磁记录介质如HDD(硬盘驱动器);等等。
例如,上面提到的显示单元可以是HMD(头戴式显示器)。例如,当不透明HMD用作显示单元时,拍摄图像不一定必须显示在显示单元上。在这种情况下,显示单元可以将虚拟对象叠加在真实空间的图像上而不是拍摄图像上。
还可以生成用于使得包括CPU、ROM、RAM等的内置在计算机中的硬件发挥(exert)等同于上述信息处理设备的配置中的这些功能的功能的程序。还可以提供其中记录有程序的计算机可读存储介质。
本技术领域的技术人员应当理解,依赖于设计要求和其它因素,可以出现各种变型、组合、子组合和改变,只要它们在所附权利要求或其等同物的范围内即可。
另外,本技术还可以如下配置。
(1)一种信息处理设备,包括:
获取单元,被配置成获取真实对象的运动状态;以及
显示控制单元,被配置成根据所获取的运动状态显示虚拟对象。
(2)根据(1)所述的信息处理设备,其中,所述获取单元基于由摄像单元拍摄的图像获取所述运动状态。
(3)根据(1)所述的信息处理设备,其中,所述获取单元基于由传感器检测的传感器数据获取所述运动状态。
(4)根据(3)所述的信息处理设备,其中,所述传感器被提供给所述真实对象。
(5)根据(1)至(4)中的任意一项所述的信息处理设备,还包括动作控制单元,被配置成根据摄像单元与所述真实对象之间的相对位置关系来改变所述真实对象的所述运动状态。
(6)根据(5)所述的信息处理设备,其中,所述动作控制单元根据所述摄像单元的光轴与所述真实对象之间的距离来改变所述运动状态。
(7)根据(5)所述的信息处理设备,其中,所述动作控制单元根据用于显示所述虚拟对象的参考与所述摄像单元之间的相对位置关系来改变所述运动状态。
(8)根据(1)至(7)中的任意一项所述的信息处理设备,其中,所述显示控制单元基于所获取的所述运动状态推断所述运动状态的变化,并且基于推断结果显示所述虚拟对象。
(9)根据(1)至(7)中的任意一项所述的信息处理设备,其中,所述显示控制单元基于所获取的所述运动状态推断所述真实对象的位置的变化,并且基于推断结果显示所述虚拟对象。
(10)根据(1)至(9)中的任意一项所述的信息处理设备,
其中,所述获取单元获取多个所述真实对象的运动状态;以及
其中,所述显示控制单元根据所获取的所述多个真实对象的运动状态显示所述虚拟对象。
(11)根据(10)所述的信息处理设备,其中,所述显示控制单元根据所获取的所述多个真实对象的运动状态推断所述多个真实对象的相对位置关系,并且基于推断结果显示所述虚拟对象。
(12)根据(1)至(11)中的任意一项所述的信息处理设备,其中,所述获取单元获取所述真实对象的运动的变化作为所述运动状态。
(13)根据(1)至(11)中的任意一项所述的信息处理设备,其中,所述获取单元获取所述真实对象的运动方向的变化作为所述运动状态。
(14)根据(1)至(13)中的任意一项所述的信息处理设备,其中,所述显示控制单元相对于从由摄像单元拍摄的图像识别的参考来显示所述虚拟对象。
(15)一种信息处理方法,包括:
获取真实对象的运动状态;以及
根据所获取的运动状态显示虚拟对象。
(16)一种存储有程序的非暂态计算机可读存储介质,所述程序使得计算机执行:
获取真实对象的运动状态;以及
根据所获取的运动状态显示虚拟对象。
Claims (16)
1.一种信息处理设备,包括:
获取单元,被配置成获取真实对象的运动状态;以及
显示控制单元,被配置成根据所获取的运动状态显示虚拟对象。
2.根据权利要求1所述的信息处理设备,其中,所述获取单元基于由摄像单元拍摄的图像获取所述运动状态。
3.根据权利要求1所述的信息处理设备,其中,所述获取单元基于由传感器检测的传感器数据获取所述运动状态。
4.根据权利要求3所述的信息处理设备,其中,所述传感器被提供给所述真实对象。
5.根据权利要求1所述的信息处理设备,还包括动作控制单元,被配置成根据摄像单元与所述真实对象之间的相对位置关系来改变所述真实对象的所述运动状态。
6.根据权利要求5所述的信息处理设备,其中,所述动作控制单元根据所述摄像单元的光轴与所述真实对象之间的距离来改变所述运动状态。
7.根据权利要求5所述的信息处理设备,其中,所述动作控制单元根据用于显示所述虚拟对象的参考与所述摄像单元之间的相对位置关系来改变所述运动状态。
8.根据权利要求1所述的信息处理设备,其中,所述显示控制单元基于所获取的所述运动状态推断所述运动状态的变化,并且基于推断结果显示所述虚拟对象。
9.根据权利要求1所述的信息处理设备,其中,所述显示控制单元基于所获取的所述运动状态推断所述真实对象的位置的变化,并且基于推断结果显示所述虚拟对象。
10.根据权利要求1所述的信息处理设备,
其中,所述获取单元获取多个所述真实对象的运动状态;以及
其中,所述显示控制单元根据所获取的所述多个真实对象的运动状态显示所述虚拟对象。
11.根据权利要求10所述的信息处理设备,其中,所述显示控制单元根据所获取的所述多个真实对象的运动状态推断所述多个真实对象的相对位置关系,并且基于推断结果显示所述虚拟对象。
12.根据权利要求1所述的信息处理设备,其中,所述获取单元获取所述真实对象的运动的变化作为所述运动状态。
13.根据权利要求1所述的信息处理设备,其中,所述获取单元获取所述真实对象的运动方向的变化作为所述运动状态。
14.根据权利要求1所述的信息处理设备,其中,所述显示控制单元相对于从由摄像单元拍摄的图像识别的参考来显示所述虚拟对象。
15.一种信息处理方法,包括:
获取真实对象的运动状态;以及
根据所获取的运动状态显示虚拟对象。
16.一种存储有程序的非暂态计算机可读存储介质,所述程序使得计算机执行:
获取真实对象的运动状态;以及
根据所获取的运动状态显示虚拟对象。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-068038 | 2013-03-28 | ||
JP2013068038A JP2014191688A (ja) | 2013-03-28 | 2013-03-28 | 情報処理装置、情報処理方法、及び、記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104076920A true CN104076920A (zh) | 2014-10-01 |
CN104076920B CN104076920B (zh) | 2018-01-26 |
Family
ID=51598232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410106817.7A Active CN104076920B (zh) | 2013-03-28 | 2014-03-21 | 信息处理设备、信息处理方法及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9552653B2 (zh) |
JP (1) | JP2014191688A (zh) |
CN (1) | CN104076920B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109847368A (zh) * | 2019-03-25 | 2019-06-07 | 网易(杭州)网络有限公司 | 信息处理方法及装置、存储介质、电子设备 |
CN110569006A (zh) * | 2018-06-05 | 2019-12-13 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
CN110737414A (zh) * | 2018-07-20 | 2020-01-31 | 广东虚拟现实科技有限公司 | 交互显示方法、装置、终端设备及存储介质 |
CN111801146A (zh) * | 2018-02-28 | 2020-10-20 | 科乐美数码娱乐株式会社 | 信息处理装置、记录介质、头戴式显示器及信息处理*** |
CN111857335A (zh) * | 2020-07-09 | 2020-10-30 | 北京市商汤科技开发有限公司 | 虚拟对象的驱动方法、装置、显示设备和存储介质 |
CN113396443A (zh) * | 2019-02-01 | 2021-09-14 | 斯纳普公司 | 增强现实*** |
US12033253B2 (en) | 2017-04-20 | 2024-07-09 | Snap Inc. | Augmented reality typography personalization system |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102206060B1 (ko) * | 2013-11-19 | 2021-01-21 | 삼성전자주식회사 | 전자 장치의 효과 디스플레이 방법 및 그 전자 장치 |
US20230176807A1 (en) * | 2014-02-11 | 2023-06-08 | Mentor Acquisition One, Llc | Spatial location presentation in head worn computing |
JP5756581B1 (ja) * | 2015-03-31 | 2015-07-29 | 株式会社タカラトミー | 情報ロガー装置 |
JP2017054185A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | 情報処理装置、情報処理方法及び情報処理プログラム |
WO2018162985A1 (en) * | 2017-03-10 | 2018-09-13 | Zyetric Augmented Reality Limited | Interactive augmented reality |
US10347030B2 (en) | 2017-05-15 | 2019-07-09 | Envisics Ltd | Adjusting depth of augmented reality content on a heads up display |
WO2019116689A1 (ja) * | 2017-12-15 | 2019-06-20 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6805375B2 (ja) * | 2020-01-10 | 2020-12-23 | 株式会社東芝 | 情報処理装置、情報処理方法及び情報処理プログラム |
GB2606165B (en) * | 2021-04-27 | 2024-01-10 | Sony Interactive Entertainment Inc | Content generation system and method |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001337724A (ja) * | 2000-05-30 | 2001-12-07 | Sakura Gomme Kk | 自動走行機械及び自動走行機械の走行制限システム |
CN1695765A (zh) * | 2004-05-12 | 2005-11-16 | 李明 | 虚拟碰撞娱乐*** |
US20060287085A1 (en) * | 2002-07-27 | 2006-12-21 | Xiadong Mao | Inertially trackable hand-held controller |
CN101479782A (zh) * | 2006-05-04 | 2009-07-08 | 美国索尼电脑娱乐公司 | 多输入游戏控制混合器 |
CN101804813A (zh) * | 2010-02-04 | 2010-08-18 | 南京航空航天大学 | 一种基于图像传感器的辅助驾驶装置及其工作方法 |
CN101926658A (zh) * | 2003-12-16 | 2010-12-29 | 株式会社日立医药 | 超声波体动检测利用装置 |
CN1923326B (zh) * | 2005-09-01 | 2011-06-08 | 任天堂株式会社 | 信息处理*** |
US7991220B2 (en) * | 2004-09-01 | 2011-08-02 | Sony Computer Entertainment Inc. | Augmented reality game system using identification information to display a virtual object in association with a position of a real object |
CN102266672A (zh) * | 2010-03-11 | 2011-12-07 | 鹦鹉股份有限公司 | 一种远程控制无人驾驶飞机、尤其是旋翼无人驾驶飞机的方法和装置 |
TW201205502A (en) * | 2010-07-23 | 2012-02-01 | Hon Hai Prec Ind Co Ltd | Detection device and detection method |
CN102553232A (zh) * | 2010-12-07 | 2012-07-11 | 鼎亿数码科技(上海)有限公司 | 人体姿态捕捉装置及其实现方法 |
CN102685382A (zh) * | 2011-03-18 | 2012-09-19 | 安尼株式会社 | 图像处理装置和方法、及移动体防碰撞装置 |
CN102750118A (zh) * | 2011-04-08 | 2012-10-24 | 索尼公司 | 显示控制设备、显示控制方法和程序 |
CN102750079A (zh) * | 2011-03-31 | 2012-10-24 | 索尼公司 | 终端设备、对象控制方法以及程序 |
CN102999702A (zh) * | 2012-11-28 | 2013-03-27 | 广州代代星电子科技有限公司 | 可用于体感游戏的平板电脑以及实现体感游戏的方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4068234B2 (ja) * | 1998-10-05 | 2008-03-26 | 株式会社東芝 | 超音波診断装置 |
US6596795B2 (en) * | 2001-08-21 | 2003-07-22 | Milliken & Company | Low-color vanillin-based ultraviolet absorbers and methods of making thereof |
US7391409B2 (en) * | 2002-07-27 | 2008-06-24 | Sony Computer Entertainment America Inc. | Method and system for applying gearing effects to multi-channel mixed input |
US20060007308A1 (en) * | 2004-07-12 | 2006-01-12 | Ide Curtis E | Environmentally aware, intelligent surveillance device |
JP3841806B2 (ja) | 2004-09-01 | 2006-11-08 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置および画像処理方法 |
JP4979313B2 (ja) * | 2006-09-13 | 2012-07-18 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
JP4569613B2 (ja) | 2007-09-19 | 2010-10-27 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
JP2011008601A (ja) * | 2009-06-26 | 2011-01-13 | Sony Computer Entertainment Inc | 情報処理装置および情報処理方法 |
JP5254906B2 (ja) * | 2009-08-27 | 2013-08-07 | 京セラ株式会社 | 電子機器 |
US8520901B2 (en) * | 2010-06-11 | 2013-08-27 | Namco Bandai Games Inc. | Image generation system, image generation method, and information storage medium |
KR101923723B1 (ko) * | 2012-09-17 | 2018-11-29 | 한국전자통신연구원 | 사용자 간 상호작용이 가능한 메타버스 공간을 제공하기 위한 메타버스 클라이언트 단말 및 방법 |
-
2013
- 2013-03-28 JP JP2013068038A patent/JP2014191688A/ja active Pending
-
2014
- 2014-01-31 US US14/169,622 patent/US9552653B2/en active Active
- 2014-03-21 CN CN201410106817.7A patent/CN104076920B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001337724A (ja) * | 2000-05-30 | 2001-12-07 | Sakura Gomme Kk | 自動走行機械及び自動走行機械の走行制限システム |
US20060287085A1 (en) * | 2002-07-27 | 2006-12-21 | Xiadong Mao | Inertially trackable hand-held controller |
CN101926658A (zh) * | 2003-12-16 | 2010-12-29 | 株式会社日立医药 | 超声波体动检测利用装置 |
CN1695765A (zh) * | 2004-05-12 | 2005-11-16 | 李明 | 虚拟碰撞娱乐*** |
US7991220B2 (en) * | 2004-09-01 | 2011-08-02 | Sony Computer Entertainment Inc. | Augmented reality game system using identification information to display a virtual object in association with a position of a real object |
CN1923326B (zh) * | 2005-09-01 | 2011-06-08 | 任天堂株式会社 | 信息处理*** |
CN101479782A (zh) * | 2006-05-04 | 2009-07-08 | 美国索尼电脑娱乐公司 | 多输入游戏控制混合器 |
CN101804813A (zh) * | 2010-02-04 | 2010-08-18 | 南京航空航天大学 | 一种基于图像传感器的辅助驾驶装置及其工作方法 |
CN102266672A (zh) * | 2010-03-11 | 2011-12-07 | 鹦鹉股份有限公司 | 一种远程控制无人驾驶飞机、尤其是旋翼无人驾驶飞机的方法和装置 |
TW201205502A (en) * | 2010-07-23 | 2012-02-01 | Hon Hai Prec Ind Co Ltd | Detection device and detection method |
CN102553232A (zh) * | 2010-12-07 | 2012-07-11 | 鼎亿数码科技(上海)有限公司 | 人体姿态捕捉装置及其实现方法 |
CN102685382A (zh) * | 2011-03-18 | 2012-09-19 | 安尼株式会社 | 图像处理装置和方法、及移动体防碰撞装置 |
CN102750079A (zh) * | 2011-03-31 | 2012-10-24 | 索尼公司 | 终端设备、对象控制方法以及程序 |
CN102750118A (zh) * | 2011-04-08 | 2012-10-24 | 索尼公司 | 显示控制设备、显示控制方法和程序 |
CN102999702A (zh) * | 2012-11-28 | 2013-03-27 | 广州代代星电子科技有限公司 | 可用于体感游戏的平板电脑以及实现体感游戏的方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12033253B2 (en) | 2017-04-20 | 2024-07-09 | Snap Inc. | Augmented reality typography personalization system |
CN111801146A (zh) * | 2018-02-28 | 2020-10-20 | 科乐美数码娱乐株式会社 | 信息处理装置、记录介质、头戴式显示器及信息处理*** |
CN110569006A (zh) * | 2018-06-05 | 2019-12-13 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
CN110569006B (zh) * | 2018-06-05 | 2023-12-19 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
CN110737414A (zh) * | 2018-07-20 | 2020-01-31 | 广东虚拟现实科技有限公司 | 交互显示方法、装置、终端设备及存储介质 |
CN110737414B (zh) * | 2018-07-20 | 2021-05-11 | 广东虚拟现实科技有限公司 | 交互显示方法、装置、终端设备及存储介质 |
CN113396443A (zh) * | 2019-02-01 | 2021-09-14 | 斯纳普公司 | 增强现实*** |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
CN109847368A (zh) * | 2019-03-25 | 2019-06-07 | 网易(杭州)网络有限公司 | 信息处理方法及装置、存储介质、电子设备 |
CN111857335A (zh) * | 2020-07-09 | 2020-10-30 | 北京市商汤科技开发有限公司 | 虚拟对象的驱动方法、装置、显示设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN104076920B (zh) | 2018-01-26 |
JP2014191688A (ja) | 2014-10-06 |
US9552653B2 (en) | 2017-01-24 |
US20140292810A1 (en) | 2014-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104076920A (zh) | 信息处理设备、信息处理方法及存储介质 | |
US10137374B2 (en) | Method for an augmented reality character to maintain and exhibit awareness of an observer | |
CN110119815B (zh) | 模型训练方法、装置、存储介质及设备 | |
KR102038638B1 (ko) | 가상 현실에서 핸드 헬드 디바이스를 트랙킹하는 시스템 | |
US10671842B2 (en) | Methods of determining handedness for virtual controllers | |
EP2354893B1 (en) | Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation | |
CN102265242B (zh) | 在移动设备上使用运动处理来控制和访问内容 | |
US8376854B2 (en) | Around device interaction for controlling an electronic device, for controlling a computer game and for user verification | |
JP6062621B2 (ja) | 物理モデルに基づくジェスチャ認識 | |
US9144744B2 (en) | Locating and orienting device in space | |
WO2014204330A1 (en) | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements | |
CN111373349A (zh) | 增强现实环境中的导航 | |
Arsenault et al. | Gesture recognition using Markov Systems and wearable wireless inertial sensors | |
Keir et al. | Gesture-recognition with non-referenced tracking | |
TW201118662A (en) | Trace-generating systems and methods thereof | |
US10551195B2 (en) | Portable device with improved sensor position change detection | |
CN114341773A (zh) | 用于自适应增强现实锚点生成的方法和装置 | |
Bi et al. | Ramt: Real-time attitude and motion tracking for mobile devices in moving vehicle | |
Arsenault et al. | Quaternion based gesture recognition using worn inertial sensors in a motion tracking system | |
WO2019235009A1 (ja) | 筆記具側装置 | |
CN116251343A (zh) | 基于投掷动作的体感游戏方法 | |
WO2019235008A1 (ja) | 送受信システム | |
CN117180744A (zh) | 基于棒状体感控制器的游戏操作方法 | |
CN116650952A (zh) | 基于函数拟合实现的体感滑雪游戏方法 | |
CN116889729A (zh) | 基于函数拟合的体感拳击游戏方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |