CN102981605A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN102981605A
CN102981605A CN2012101777456A CN201210177745A CN102981605A CN 102981605 A CN102981605 A CN 102981605A CN 2012101777456 A CN2012101777456 A CN 2012101777456A CN 201210177745 A CN201210177745 A CN 201210177745A CN 102981605 A CN102981605 A CN 102981605A
Authority
CN
China
Prior art keywords
space
signal conditioning
conditioning package
display unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012101777456A
Other languages
English (en)
Other versions
CN102981605B (zh
Inventor
野田卓郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102981605A publication Critical patent/CN102981605A/zh
Application granted granted Critical
Publication of CN102981605B publication Critical patent/CN102981605B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Air Conditioning Control Device (AREA)

Abstract

本公开涉及一种信息处理装置、一种信息处理方法以及一种编码有程序的非暂态计算机可读介质。根据本公开的信息处理装置包括:传感器,被配置成检测空间中的对象;以及显示控制单元,被配置成控制显示单元以显示参考对象,使得该参考对象呈现为位于空间中。

Description

信息处理装置、信息处理方法和程序
相关申请的交叉引用
本申请基于2011年6月7日提交日本专利局的日本在先专利申请JP2011-127389并且要求其优先权,该申请的整体内容通过引用合并于此。
技术领域
本公开涉及一种信息处理装置、一种信息处理方法以及一种存储在非暂态计算机可读介质上的程序。
背景技术
目前,许多信息处理装置安装有触摸面板,用于用户通过直接触摸屏幕来操作显示屏幕中显示的对象。触摸面板的使用使得用户能够执行直观操作,并且具有如下优点:不熟悉键盘或小键盘的操作用户能够容易地操作装置。
对于该技术,日本专利申请公布第2010-157189号公开了一种光学触摸面板,用户能够在不直接用手指触摸的情况下操作该光学触摸面板。
发明内容
如上文所述,通过安装日本专利申请公布第2010-157189号中描述的光学触摸面板,可以在不直接触摸触摸面板的情况下执行手势操作输入。
然而,在空间中执行操作输入而不直接触摸触摸面板(如手势操作输入)的情况下,用户发现难于感知可操作的空间区域。
考虑到前文,本公开提出了一种信息处理装置、一种信息处理方法以及一种存储在非暂态计算机可读介质上的程序,它们是新型的和改进的并且能够表示其中检测操作的空间区域。
因此,本发明广泛地包括一种装置、一种方法和一种编码有使处理器执行所述方法的程序的非暂态计算机可读介质。在一个实施例中,该装置包括:传感器,被配置成检测空间中的对象;以及显示控制单元,被配置成控制显示单元以显示参考对象,使得该参考对象呈现为位于空间中。
在另一实施例中,根据本公开的信息处理方法包括:检测空间中的对象;以及控制显示单元以显示参考对象,使得该参考对象呈现为位于空间中。
如上文所述,根据本公开,可以表示其中检测操作的空间区域。
附图说明
图1是用于说明根据本实施例的信息处理装置10的概况的视图;
图2是根据本实施例的信息处理装置10的配置框图;
图3是用于说明根据本实施例的相机17的设定的示意性横截面视图;
图4是示出根据本实施例的信息处理装置10的空间区域S的视图;
图5是示出根据本实施例的由操作输入单元15设定的空间区域S的示意性横截面视图;
图6是用于说明表示示例1的透视图;
图7是用于说明表示示例2的透视图;
图8是用于说明表示示例3的透视图;
图9是用于说明表示示例4的状态过渡视图;
图10是用于说明表示示例4的另一示例的视图;以及
图11是是用于说明表示示例5的透视图。
具体实施方式
在下文中,将参照附图详细描述本发明的优选实施例。注意,在本说明书和附图中,具有基本上相同的功能和结构的结构元件标有相同的附图标记,并且省略了这些结构元件的重复说明。
根据本公开的一个实施例,提供了一种装置,包括:传感器,被配置成检测空间中的对象;以及显示控制单元,被配置成控制显示单元以显示参考对象,使得该参考对象呈现为位于空间中。
根据本公开的另一实施例,提供了一种方法,包括:检测空间中的对象;以及控制显示单元以显示参考对象,使得该参考对象呈现为位于空间中。
将以如下顺序进行说明。
1.根据本实施例的信息处理装置的概况
2.根据本实施例的信息处理装置的细节
2-1.信息处理装置的配置
2-2.空间区域的表示示例
3.结论
如上文所述,本说明书中说明的技术由下文描述的“1.根据本实施例的信息处理装置的概况”和“2.根据本实施例的信息处理装置的细节”中描述的本实施例实施。本说明书中说明的信息处理装置10和信息处理装置20包括:
A:操作检测单元(19),其检测空间中的操作;以及
B:显示控制单元(11),其通过立体对象表示其中操作检测单元检测到空间中的操作的空间区域。
<1.根据本实施例的信息处理装置的概况>
首先,参照图1说明根据本公开的一个实施例的信息处理装置10的概况。图1是用于说明根据本实施例的信息处理装置10的概况的视图。如图1中所示,信息处理装置10包括显示单元13和相机17。
根据本实施例的信息处理装置10提供了用户能够三维地和视觉地识别的立体对象。作为用于观看立体对象的***,使得用户能够观看具有视差的左眼对象L和右眼对象R的双眼视差***正在变得普遍。作为这种双眼视差***,广泛地存在两种类型的***,包括使用眼镜的眼镜***和不使用眼镜的裸眼***。裸眼***包括:双凸透屏***,其通过布置桶状细微透镜(双凸透镜)来分离左眼对象L和右眼对象R的光路;以及视差屏障***,其通过纵向细缝(视差屏障)来分离左眼对象L和右眼对象R的光路。
作为示例,根据本实施例的信息处理装置10通过使用户借助于裸眼***观看双眼视差图像来提供立体对象。图1示出了显示单元13中的左眼对象L和右眼对象R,并且在这些对象前方示出了用户感知的立体对象30。信息处理装置10根据空间中的用户操作控制立体对象30的显示。
根据本实施例的信息处理装置10中包括的相机17对显示单元13的附近区域进行拍摄。信息处理装置10基于相机17拍摄的图像检测空间中的用户操作。
信息处理装置10可以使用与显示单元13集成的操作所输入单元15来检测空间中的用户操作。替选地,信息处理装置10可以使用操作输入单元15和相机17来检测空间中的用户操作,或者可以使用多个相机和其他传感器来检测用户操作。
根据上述信息处理装置10,通过在显示单元13中显示照片的二维图像,可以例如根据在空间中检测到的用户操作来切换所显示的照片的二维图像。信息处理装置10还可以通过在显示单元13中显示诸如图标和缩略图的待操作的立体对象,来控制与空间中待检测的对象的选择操作对应的显示的内容。
然而,由于一般的信息处理装置没有向用户传送其中可以检测用户操作的空间区域的手段,因此用户发现难于识别空间区域和在空间区域中执行适当的操作。
根据本公开的信息处理装置10通过使用立体对象来表示其中能够检测用户操作的空间区域。该配置使得用户能够清楚地识别其中信息处理装置10能够检测用户操作的空间区域。
上文说明了根据本公开的信息处理装置10的概述。接下来,将参照附图说明根据本公开的信息处理装置10的细节。
<2.根据本实施例的信息处理装置的细节>
[2-1.信息处理装置的配置]
图2是根据本实施例的信息处理装置10的配置框图。如图2中所示,信息处理装置10包括显示控制单元11、显示单元13、操作输入单元15、相机17和检测单元19。下文说明了每个配置。
显示控制单元11具有生成将显示在显示单元13中的图像的功能。例如,显示控制单元11生成具有视差的双眼图像,并且将所生成的双眼图像输出到显示单元13。
根据本实施例的显示控制单元11通过立体对象表示其中检测用户操作的空间区域。具体地,显示控制单元11控制显示,使得在空间区域中感知立体对象。显示控制单元11从存储单元(未示出)或检测单元19获取空间区域的三维坐标信息并且确定空间区域的范围。
立体对象基于用户的位置生成失真或者位置偏差。因此,显示控制单元11基于例如用户的脸的位置,执行表示空间区域的立体对象的显示控制。例如,基于拍摄位于显示单元13前方的用户的脸的相机(未示出)所拍摄的图像,检测用户的脸的位置。在[2-2.空间区域的表示示例]中详细说明了根据立体对象的空间区域的表示示例。
显示单元13显示从显示控制单元11输出的数据。例如,显示单元13通过显示具有视差的双眼图像来三维地显示对象。三维显示的对象可以是照片或视频,或者可以是操作按钮或图标的图像。在空间区域的表面部分处或内部感知根据本实施例的显示单元13三维显示的对象,并且该对象可以是表示空间区域的微粒或波纹形效果。
显示单元13可以是诸如液晶显示器(LCD)或有机电致发光(EL)显示器的显示装置。
操作输入单元15接收用户的操作指令,并且将操作的操作内容输出到检测单元19。除了针对对象的操作之外,用户的操作指令还包括手势操作的操作指令。当操作输入单元15由检测空间中的用户操作的接近传感器实现时,操作输入单元15输出接近传感器的检测结果作为操作内容。操作输入单元15可以是与显示单元13集成设置的接近触摸面板。
相机17是检测空间中的用户操作并且将所拍摄的图像输入到检测单元19的图像传感器。相机17被设定为具有拍摄方向,使得相机17可以拍摄显示单元13的附近区域。相机17的拍摄方向的设定信息可以存储在存储单元(未示出)中,作为指示其中检测用户操作的空间区域的信息。
参照图3说明相机17的详细设定示例。图3是用于说明根据本实施例的相机17的设定的示意性横截面视图。如图3中所示,例如,相机17被设定为使得相机17从下方拍摄显示单元13前方的空间。通过该布置,相机17可以在拍摄区域A中拍摄空间中的用户操作。相机17可以安装在信息处理装置10中或者可以设置在外部。
尽管如图3中所示相机17的拍摄区域A在z方向上的宽度在显示单元13在y方向上的每个位置处不同,但是根据本实施例的信息处理装置10可以如图4中所示调整其中能够检测用户操作的三维空间区域S。
图4是示出根据本实施例的信息处理装置10的空间区域S的视图。如图4中所示,信息处理装置10可以将其中在z方向上距显示单元13的距离在显示单元13的整个表面上相同的空间设定为其中能够检测用户操作的空间区域S。例如,通过设置多个相机17可以设定这样的空间区域S。
上述空间区域S还可以由与显示单元13集成的操作所输入单元15设定。图5是示出由操作输入单元15设定的空间区域S的示意性横截面视图。如图5中所示,例如,当操作输入单元15是与显示单元13集成设置的接近触摸面板时,空间区域S在z方向上的宽度在显示单元13在y方向上的每个位置处相同。
信息处理装置10还可以使用相机17和操作输入单元15两者,来设定图4中所示的空间区域S。
检测单元19是基于从操作输入单元15输入的操作内容(例如,接近传感器的检测结果)或者基于从相机17输入的所拍摄的图像来检测空间中的用户操作的操作检测单元。根据本实施例的检测单元19可以在其中能够检测用户操作的空间区域S中检测诸如用户的手的操作物体的输入,并且可以检测操作物体的三维位置。
检测单元19例如基于相机17拍摄的拍摄图像来检测操作物体的三维位置。具体地,检测单元19根据所拍摄的图像检测诸如用户的手形和指尖的操作物体,基于在所拍摄的图像中检测到的操作物体的XY坐标和尺寸来将检测到的操作物体转换成三维坐标,并且检测操作物体的三维位置。
操作物体的三维位置的检测不限于基于拍摄图像的情况。例如,检测单元19可以基于从操作输入单元15输入的操作内容检测操作物体的三维位置。具体地,检测单元19基于来自由接近传感器等实现的操作输入单元15的操作内容(例如,接近传感器的检测结果),检测操作物体的三维位置。
上文已详细说明了根据本实施例的信息处理装置10的配置。接下来,参照附图说明显示控制单元11的空间区域S的表示示例。
[2-2.空间区域的表示示例]
(表示示例1)
在表示示例1中,通过显示空间区域S以使得可以在进入空间区域S的操作物体的外周处感知立体对象,来表示空间区域S。通过该布置,用户可以通过实际上将手设定为接近空间区域S来识别空间区域S。下文参照图6说明了表示示例1。
图6是用于说明表示示例1的透视图。如图6中所示,当检测单元19检测到用户的手进入空间区域S时,显示控制单元11三维地显示微粒32,使得在用户的手的外周处感知微粒32。基于从检测单元19输出的操作物体的三维坐标来确定用户的手的外周。
微粒32的三维显示位置可以散布在空间区域S内部和外部。根据如上文所述的该配置,用户可以基于微粒32的出现,识别手的位置在空间区域S中。作为另一示例,微粒32可以仅在空间区域S中三维显示。根据该配置,用户可以基于微粒32的出现识别手的位置在空间区域S中,并且还可以识别空间区域S中的手的外周处的区域。这样,在前后两者的示例中,用户都可以基于微粒32的出现识别手的位置在空间区域S中。因此,微粒32用作表示空间区域S的立体对象。
显示控制单元11还可以在检测到用户的手时在恒定时段中三维地显示微粒32,并且随后仅在用户的手平移到空间区域S的表面部分附近时三维地显示微粒32。此外,显示控制单元11还可以总是或者在其中用户的手在空间区域S中的时段期间在每个恒定的时间三维地显示微粒32。
通过该布置,用户可以通过在显示单元13的外周处在空间中操作,直观地掌握空间区域S的表面部分或内部。
(表示示例2)
在表示示例2中,通过显示空间区域S以使得当手进入空间区域S时能够在空间区域S的表面部分处感知立体对象,来表示空间区域S的边界。通过该布置,用户可以通过实际将手设定成接近空间区域S来识别空间区域S的表面。下文参照图7说明了表示示例2。
图7是用于说明表示示例2的透视图。如图7中所示,当检测单元19检测到用户的手进入空间区域S时,显示控制单元11在空间区域S的表面部分处三维地显示波纹形效果34,该波纹形效果34被感知为波从用户的手的外周散开。
根据如上文所述的该配置,由于用户可以基于波纹形效果34的出现来识别空间区域S的界面,因此波纹形效果34用作表示空间区域S的立体对象。
显示控制单元11还可以在检测到用户的手时在恒定时段中三维地显示波纹形效果34,并且随后仅在用户的手平移到空间区域S的表面部分附近时三维地显示波纹形效果34。此外,显示控制单元11还可以总是或者在其中用户的手在空间区域S的表面部分处的时段期间在每个恒定的时间三维地显示波纹形效果34。
通过该布置,用户可以通过在显示单元13的外周处在空间中操作,直观地掌握空间区域S的界面。
(表示示例3)
在表示示例3中,通过显示空间区域S以使得在空间区域S的表面部分处自动地感知立体对象,来表示空间区域S的边界。下文参照图8说明了表示示例3。
图8是用于说明表示示例3的透视图。如图8中所示,显示控制单元11在空间区域S的表面部分处三维地显示水表面效果35。显示控制单元11可以总是或者在每个恒定的时间三维地显示水表面效果35直至检测到用户操作,或者可以在接通信息处理装置10的电源时或者在信息处理装置10中启动空间中的操作输入功能时三维地显示水表面效果35。
根据如上文所述的该配置,由于用户可以基于水表面效果35的自动出现来识别空间区域S的界面,因此水表面效果35用作表示空间区域S的立体对象。
通过该布置,由于在预定的定时由立体对象自动地表示空间区域S,因此用户可以在不实际执行空间中的操作的情况下直观地掌握空间区域S的界面。
(表示示例4)
在表示示例4中,当选择能够在空间区域S中直接操作的立体对象时,通过在立体对象的外周处三维地显示微粒来反馈选择操作。通过该布置,用户可以在视觉上识别用户已在空间区域S中选择立体对象。下文参照图9说明了表示示例4。
图9是用于说明表示示例4的状态过渡视图。如图9中的左侧到中间处所示,当检测单元19检测到用户的手进入空间区域S中时,显示控制单元11三维地显示微粒32,使得在用户的手的外周处感知微粒32。
按照与上述表示示例1中的方式相似的方式,微粒32可以被三维显示成散布在空间区域S内部和外部,或者仅散布在空间区域S中。在任一情况下,由于用户可以基于微粒32的出现来识别手的位置在空间区域S中,因此微粒32用作表示空间区域S的立体对象。
此外,如图9中的右侧所示,用户的手平移到立体对象36的外周,并且待选择的立体对象36被选择。当检测单元19检测到的操作物体(在该情况下是用户的手)的三维位置与用户感知的立体对象36的位置匹配时,显示控制单元11确定立体对象36被选择。如上文所述,基于用户的位置在三维对象中出现失真或位置偏差。因此,显示控制单元11基于用户的脸的拍摄图像来识别用户的脸的位置,并且根据用户的脸的位置控制三维对象的显示。
当用户以这种方式选择立体对象36时,显示控制单元11进一步在立体对象36的外周处显示所选择的微粒38。
根据如上文所述的该配置,用户可以基于所选择的微粒38的出现来识别在手处已选择了待操作的立体对象36。
作为另一示例,显示控制单元11可以在用户选择立体对象36时仅三维地显示所选择的微粒38。图10是用于说明表示示例4的该另一示例的视图。如图10中所示,当用户选择立体对象36时,显示控制单元11在所选择的立体对象36的外周处三维地显示所选择的微粒38。
根据如上文所述的该配置,当选择待操作的立体对象36时,用户可以基于仅出现所选择的微粒38来更清楚地识别选择操作的反馈。
(表示示例5)
在表示示例5中,由用户的检测触发的立体对象表示空间区域S。通过该布置,可以避免由于在用户不存在期间显示立体对象引起的浪费的功耗。下文参照图11说明了表示示例5。
图11是用于说明表示示例5的透视图。通过在根据上文所述的实施例的信息处理装置10中设置相机23作为检测用户的传感器,获得了图11中所示的信息处理装置20。检测用户的传感器不限于相机23,并且可以是例如红外传感器。
如图11中的左侧所示,相机23拍摄信息处理装置20的前方。如图11中的右侧所示,当相机23检测到人时,显示控制单元11在空间区域S的表面部分处三维地显示波纹形效果34。
在图11中,尽管在表面部分处显示波纹形效果34作为表示空间区域S的界面的立体对象,但是表示空间区域S的界面的三维显示不限于波纹形效果34,并且可以是例如图8中示出的水表面效果35。
<3.结论>
如上文所述,基于根据本公开的实施例的信息处理装置10,可以通过由立体对象表示其中检测用户操作的空间区域S,使得用户能够识别空间区域S。
本领域技术人员应当理解,在所附权利要求及其等同物的范围内,可以根据设计需要和其他因素进行各种修改、组合、子组合和变更。
例如,表示空间区域的对象不限于上文所述的表示示例1至表示示例5中所示的图像。例如,可以布置成使得当手进入空间区域时,三维地显示被感知以使得光从手散开的对象。
通过组合表示示例1至表示示例5获得的表示示例也包括在本公开的技术范围内。
在上述实施例中,尽管利用通过平板计算机实现信息处理装置10的示例说明了根据本公开的信息处理装置10,但是本技术不限于该示例。例如,根据本公开的信息处理装置10可以是控制装置,其主要具有参照图2说明的显示控制单元11和检测单元19。在该情况下,该控制装置控制主要具有显示单元13和操作输入单元15的显示装置。此外,这种显示装置在外部设置有相机17。具有这种控制装置和这种显示装置的信息处理***也包括在本技术中。
根据本公开的信息处理装置可以是头戴式显示器。在该情况下,头戴式显示器中包括的相机拍摄空间中的用户操作。可以布置成使得头戴式显示器中包括的显示控制单元三维地显示对象,使得在其中检测用户操作的空间区域中感知该对象。
此外,根据上文所述的实施例的信息处理装置10和信息处理装置20的配置也可以由诸如中央处理单元(CPU)、只读存储器(ROM)和随机存取存储器(RAM)的硬件配置实现。
此外,还可以制备呈现与根据上文所述的实施例的信息处理装置10和信息处理装置20的配置的功能相同的功能的计算机程序。还提供了存储该计算机程序的非暂态记录介质。记录介质的示例包括磁盘、光盘、磁光盘和闪速存储器。此外,计算机程序可以例如经由网络分送,而不使用记录介质。
此外,还可以如下配置本技术。
(1)一种装置,包括:
传感器,被配置成检测空间中的对象;以及
显示控制单元,被配置成控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
(2)根据(1)的装置,进一步包括:
所述显示单元,被配置成显示图像。
(3)根据(1)或(2)的装置,其中所述传感器检测与所述显示单元的表面相邻的空间中的对象。
(4)根据(1)或(2)的装置,其中所述显示控制单元控制所述显示单元以将波纹图像显示为所述参考对象。
(5)根据(1)、(2)或(4)中任一个的装置,其中所述显示控制单元控制所述显示单元以将多个微粒的图像显示为所述参考对象。
(6)根据(1)、(2)、(4)或(5)中任一个的装置,其中所述显示控制单元控制所述显示单元以在空间中的固定位置显示所述参考对象。
(7)根据(1)、(2)或(4)至(6)中任一个的装置,其中所述显示控制单元控制所述显示单元以在空间的外表面处显示参考对象。
(8)根据(1)、(2)或(4)至(7)中任一个的装置,其中所述显示控制单元控制所述显示单元以在所述传感器检测到的对象的位置处显示所述参考对象。
(9)根据(1)、(2)或(4)至(8)中任一个的装置,其中所述显示控制单元控制所述显示单元以在对象选择的图像的位置处显示所述参考对象。
(10)根据(1)、(2)或(4)至(9)中任一个的装置,其中所述显示控制单元控制所述显示单元使得在所述传感器未检测到任何对象的情况下,没有图像显示在所述显示单元中。
(11)根据(1)、(2)或(4)至(10)中任一个的装置,其中所述传感器包括至少一个红外相机。
(12)根据(1)、(2)或(4)至(11)中任一个的装置,其中所述传感器检测作为用户的身体一部分的操作物体。
(13)根据(1)、(2)或(4)至(12)中任一个的装置,其中所述参考对象是位于对象的操作位置处的立体对象。
(14)一种方法,包括:
检测空间中的对象;以及
控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
(15)一种编码有程序的非暂态计算机可读介质,所述程序在加载在处理器上时使所述处理器执行包括如下步骤的方法:
检测空间中的对象;以及
控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
此外,还可以如下配置本技术。
(1)一种信息处理装置,包括:
操作检测单元,检测空间中的操作;以及
显示控制单元,其通过立体对象表示其中所述操作检测单元检测空间中的操作的空间区域。
(2)根据(1)的信息处理装置,其中
所述显示控制单元进行显示,使得在所述空间区域中检测到的操作的操作位置的外周处感知所述立体对象。
(3)根据(1)或(2)的信息处理装置,其中
所述显示控制单元进行显示,使得在所述空间区域的表面部分处感知所述立体对象。
(4)根据(1)至(3)中任一项的信息处理装置,其中
所述显示控制单元进行显示,使得当通过所述操作检测单元在所述空间区域中选择对象时,在所述对象的外周处感知所述立体对象。
(5)根据(1)至(4)中任一项的信息处理装置,其中
所述信息处理装置包括:
用户检测单元,检测用户,以及
当所述用户检测单元检测到用户时,所述显示控制单元通过所述立体对象表示所述空间区域。
(6)根据(1)至(5)中任一项的信息处理装置,其中
所述显示控制单元在每个恒定的时间表示所述立体对象。
(7)一种信息处理方法,包括:
检测空间中的操作;以及
通过立体对象表示其中所述检测步骤检测空间中的操作的空间区域。
(8)一种程序,使计算机执行如下处理:
检测空间中的操作的处理;以及
通过立体对象表示其中所述检测处理检测空间中的操作的空间区域的处理。
(9)根据(8)的程序,其中
所述程序使计算机执行显示处理,使得在所述空间区域中检测到的操作的操作位置的外周处感知所述立体对象。
(10)根据(8)或(9)的程序,其中
所述程序使计算机执行显示处理,使得在所述空间区域的表面部分处感知所述立体对象。
(11)根据(8)至(10)中任一项的信息处理装置,其中
所述程序使计算机执行显示处理,使得当检测到在所述空间区域中选择对象的操作时,在所述对象的外周处感知所述立体对象。
(12)根据(8)至(11)中任一项的信息处理装置,其中
所述程序使计算机执行如下处理:
检测用户的处理;以及
当检测到用户时通过所述立体对象表示所述空间区域的处理。
(13)根据(8)至(12)中任一项的信息处理装置,其中所述程序使计算机执行显示所述立体对象的处理使得在每个恒定的时间表示所述空间区域。

Claims (15)

1.一种信息处理装置,包括:
传感器,被配置成检测空间中的对象;以及
显示控制单元,被配置成控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
2.根据权利要求1所述的信息处理装置,进一步包括:
所述显示单元,被配置成显示图像。
3.根据权利要求2所述的信息处理装置,其中所述传感器检测与所述显示单元的表面相邻的空间中的对象。
4.根据权利要求1所述的信息处理装置,其中所述显示控制单元控制所述显示单元以将波纹图像显示为所述参考对象。
5.根据权利要求1所述的信息处理装置,其中所述显示控制单元控制所述显示单元以将多个微粒的图像显示为所述参考对象。
6.根据权利要求1所述的信息处理装置,其中所述显示控制单元控制所述显示单元以在空间中的固定位置显示所述参考对象。
7.根据权利要求1所述的信息处理装置,其中所述显示控制单元控制所述显示单元以在空间的外表面处显示参考对象。
8.根据权利要求1所述的信息处理装置,其中所述显示控制单元控制所述显示单元以在所述传感器检测到的对象的位置处显示所述参考对象。
9.根据权利要求1所述的信息处理装置,其中所述显示控制单元控制所述显示单元以在对象选择的图像的位置处显示所述参考对象。
10.根据权利要求1所述的信息处理装置,其中所述显示控制单元控制所述显示单元使得在所述传感器未检测到任何对象的情况下,没有图像显示在所述显示单元中。
11.根据权利要求1所述的信息处理装置,其中所述传感器包括至少一个红外相机。
12.根据权利要求1所述的信息处理装置,其中所述传感器检测作为用户的身体一部分的操作物体。
13.根据权利要求1所述的信息处理装置,其中所述参考对象是位于对象的操作位置处的立体对象。
14.一种信息处理方法,包括:
检测空间中的对象;以及
控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
15.一种编码有程序的非暂态计算机可读介质,所述程序在加载在处理器上时使所述处理器执行包括如下步骤的方法:
检测空间中的对象;以及
控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
CN201210177745.6A 2011-06-07 2012-05-31 信息处理装置、信息处理方法和程序 Expired - Fee Related CN102981605B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-127389 2011-06-07
JP2011127389A JP5926500B2 (ja) 2011-06-07 2011-06-07 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
CN102981605A true CN102981605A (zh) 2013-03-20
CN102981605B CN102981605B (zh) 2017-12-15

Family

ID=46149193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210177745.6A Expired - Fee Related CN102981605B (zh) 2011-06-07 2012-05-31 信息处理装置、信息处理方法和程序

Country Status (6)

Country Link
US (1) US9766796B2 (zh)
EP (1) EP2533133A1 (zh)
JP (1) JP5926500B2 (zh)
CN (1) CN102981605B (zh)
BR (1) BR102012013209A2 (zh)
IN (1) IN2012DE01675A (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6596883B2 (ja) * 2015-03-31 2019-10-30 ソニー株式会社 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
AU2017223313A1 (en) * 2016-02-26 2018-09-20 The Coca-Cola Company Touchless control graphical user interface
US10298921B1 (en) 2018-02-27 2019-05-21 Looking Glass Factory, Inc. Superstereoscopic display with enhanced off-angle separation
WO2021237065A1 (en) 2020-05-21 2021-11-25 Looking Glass Factory, Inc. System and method for holographic image display
US11415728B2 (en) 2020-05-27 2022-08-16 Looking Glass Factory, Inc. System and method for holographic displays
WO2021262860A1 (en) 2020-06-23 2021-12-30 Looking Glass Factory, Inc. System and method for holographic communication
WO2022119940A1 (en) 2020-12-01 2022-06-09 Looking Glass Factory, Inc. System and method for processing three dimensional images

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535210B1 (en) * 1995-06-07 2003-03-18 Geovector Corp. Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP2002099921A (ja) * 2000-09-21 2002-04-05 Canon Inc 画像処理装置及び画像処理方法並びに記憶媒体
JP3631151B2 (ja) * 2000-11-30 2005-03-23 キヤノン株式会社 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US6753847B2 (en) * 2002-01-25 2004-06-22 Silicon Graphics, Inc. Three dimensional volumetric display input and output configurations
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP2005196530A (ja) * 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法
US8334837B2 (en) * 2004-11-10 2012-12-18 Nokia Corporation Method for displaying approached interaction areas
US7834847B2 (en) 2005-12-01 2010-11-16 Navisense Method and system for activating a touchless control
JP5174684B2 (ja) * 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US8230367B2 (en) * 2007-09-14 2012-07-24 Intellectual Ventures Holding 67 Llc Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
US20090102603A1 (en) 2007-10-19 2009-04-23 Fein Gene S Method and apparatus for providing authentication with a user interface system
JP4793422B2 (ja) * 2008-10-10 2011-10-12 ソニー株式会社 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム
US8147900B2 (en) * 2008-12-08 2012-04-03 Pitney Bowes Inc. Multiple color fluorescence security imprint
JP2010157189A (ja) 2009-01-05 2010-07-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
JP2011081453A (ja) 2009-10-02 2011-04-21 Toshiba Corp 映像再生装置及び映像再生方法
JP2011081480A (ja) 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
US8970478B2 (en) * 2009-10-14 2015-03-03 Nokia Corporation Autostereoscopic rendering and display apparatus
JP5275956B2 (ja) * 2009-10-15 2013-08-28 株式会社ジャパンディスプレイウェスト 情報入力装置、情報入力プログラムおよび電子機器
JP5382582B2 (ja) 2009-12-21 2014-01-08 元旦ビューティ工業株式会社 外設部材の取付構造
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
WO2011123833A1 (en) * 2010-04-01 2011-10-06 Yanntek, Inc. Immersive multimedia terminal
FR2959576A1 (fr) * 2010-05-03 2011-11-04 Thomson Licensing Procede d’affichage d’un menu de reglage et dispositif correspondant
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
KR101758163B1 (ko) * 2010-12-31 2017-07-14 엘지전자 주식회사 이동 단말기 및 그의 홀로그램 제어방법
KR101766332B1 (ko) * 2011-01-27 2017-08-08 삼성전자주식회사 복수의 컨텐츠 레이어를 디스플레이하는 3d 모바일 기기 및 그 디스플레이 방법
US9110512B2 (en) * 2011-03-31 2015-08-18 Smart Technologies Ulc Interactive input system having a 3D input space

Also Published As

Publication number Publication date
CN102981605B (zh) 2017-12-15
JP5926500B2 (ja) 2016-05-25
US20120313896A1 (en) 2012-12-13
IN2012DE01675A (zh) 2015-09-25
US9766796B2 (en) 2017-09-19
JP2012256104A (ja) 2012-12-27
EP2533133A1 (en) 2012-12-12
BR102012013209A2 (pt) 2013-11-12

Similar Documents

Publication Publication Date Title
CN102981605A (zh) 信息处理装置、信息处理方法和程序
CN105511846B (zh) 电子设备和显示控制方法
US8970478B2 (en) Autostereoscopic rendering and display apparatus
EP2638461B1 (en) Apparatus and method for user input for controlling displayed information
JP5830987B2 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
US10777005B2 (en) Smart tools and workspaces for do-it-yourself tasks
KR100974894B1 (ko) 멀티 적외선 카메라 방식의 3차원 공간 터치 장치
US20170243389A1 (en) Device and method for signalling a successful gesture input
JP2019501747A5 (zh)
CN103998970A (zh) 头戴式显示器和信息显示设备
WO2013180651A1 (en) Intelligent mirror cum display solution
JP2012248066A (ja) 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
US9411511B1 (en) Three-dimensional display devices with out-of-screen virtual keyboards
CN104054044A (zh) 显示装置及显示控制程序
CN105593789A (zh) 显示装置及其控制方法
US20140176501A1 (en) Non-touch control system
JP2010277372A (ja) 映像表示システムおよび映像表示方法
CN103995579B (zh) 具有使用者识别能力的多视角显示***及其操作方法
CN103348306A (zh) 交互式显示
JP2012103980A5 (zh)
CN205901836U (zh) 一种基于虚拟现实技术的投影手机
CN104378621A (zh) 立体场景处理方法及装置
JP6686319B2 (ja) 画像投影装置及び画像表示システム
KR101770711B1 (ko) 다시점 모니터를 채용한 지능형 쇼케이스
CN105204796B (zh) 一种信息处理方法及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171215

CF01 Termination of patent right due to non-payment of annual fee