CN105247466B - 显示控制装置,显示控制方法和记录介质 - Google Patents

显示控制装置,显示控制方法和记录介质 Download PDF

Info

Publication number
CN105247466B
CN105247466B CN201480025709.5A CN201480025709A CN105247466B CN 105247466 B CN105247466 B CN 105247466B CN 201480025709 A CN201480025709 A CN 201480025709A CN 105247466 B CN105247466 B CN 105247466B
Authority
CN
China
Prior art keywords
unit
orientation
display control
control unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480025709.5A
Other languages
English (en)
Other versions
CN105247466A (zh
Inventor
古贺康之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN105247466A publication Critical patent/CN105247466A/zh
Application granted granted Critical
Publication of CN105247466B publication Critical patent/CN105247466B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明的目的是提供一种允许用户容易地滚动内容的技术。提供了一种显示控制装置,其包括:第一获取单元,其配置为用于获取由第一检测单元所检测的显示单元的方位;以及显示控制单元,其配置为用于在所述显示单元处显示内容。所述显示控制单元根据所述显示单元的方位来滚动所述内容。

Description

显示控制装置,显示控制方法和记录介质
相关申请的交叉引用
本申请要求2013年5月15日提交的日本优先权专利申请JP 2013-102885的权益,其全部内容通过引用并入此处。
技术领域
本公开涉及显示控制装置、显示控制方法和记录介质。
背景技术
近年来,已经开发出一种作为安装在用户头上的显示器的头戴式显示器(HeadMounted Display,HMD)。假设无论用户头部方位如何而将固定内容在安装于用户头上的HMD处显示,也假设内容可以基于用户头部方位而变化。例如,公开了一种基于用户头部方位而将指定内容显示在HMD处的技术(例如参见专利文献1)。
引用列表
专利文献
专利文献1:JP 2013-12024 A
发明内容
技术问题
然而,期望的是实现一种能够允许用户容易地滚动内容的技术。
技术方案
按照本公开,提供了一种显示控制装置,其包括:第一获取单元,其用于获取由第一检测单元所检测的显示单元的方位;以及显示控制单元,其用于在所述显示单元处显示内容。所述显示控制单元按照所述显示单元的方位滚动内容。
此外,按照本公开,提供了一种显示控制方法,其包括:获取由第一检测单元所检测的显示单元的方位;在所述显示单元处显示内容;以及按照所述显示单元的方位滚动内容。
这里提供了一种其中记录有程序的计算机可读记录介质,所述程序可以使得计算机用作显示控制装置,所述显示控制装置包括:第一获取单元,其用于获取由第一检测单元所检测的显示单元的方位;以及显示控制单元,其用于在显示单元处显示内容。所述显示控制单元按照所述显示单元的方位滚动内容。
有益效果
如上所述,按照本公开,能够提供一种技术以允许用户容易地滚动内容。
附图说明
图1是图示了按照本公开的实施方式的信息处理***的概况的图。
图2是图示了按照本公开的实施方式的信息处理***的功能的配置示例的图。
图3是图示在第一示例中内容滚动的示例的图。
图4是图示在第一示例中停止滚动的示例的图。
图5是图示在第一示例中用于选择内容的操作的示例的图。
图6是图示了在第一示例中选择结果画面被显示为选中内容的结果的示例的图。
图7是图示了在第一示例中显示从选择结果画面返回到先前画面的操作的示例的图。
图8是图示了在第一示例中显示从选择结果画面返回到先前画面的示例的图。
图9是图示了第一示例中显示控制装置的操作流程的流程图。
图10是图示了在第二示例中移动焦点的示例的图。
图11是图示了在第二示例中选择对象的示例的图。
图12是图示了在第二示例中选择结果画面被显示为被选中对象的结果的示例的图。
图13是图示了在第二示例中显示从选择结果画面返回到对象显示的示例的图。
图14图示了在第二示例中的显示控制装置的操作流程的流程图。
图15是图示了在第三示例中内容滚动的示例的图。
图16是图示了在第三示例中的显示控制装置的操作流程的流程图。
图17是图示了第一示例和第三示例的变型例的图。
图18是图示了根据本公开的实施方式的显示控制装置的硬件配置示例的图。
具体实施方式
下面将参考附图详细地描述本公开的优选实施方式。应当注意:在说明书和附图中,具有实质上相同功能和结构的结构元件用相同的附图标记表示,并且省略这些结构元件的重复说明。
此外,在本说明书和附图中,具有实质上相同功能和结构的结构元件在一些情况下通过在相同的附图标记后面设置不同的字母来加以区分。然而,在不需要区分多个具有实质上相同功能和结构的结构元件的情况下,这样的结构元件就用相同的附图标记来表示。
此外,按照下列各项来描述“具体实施方式”。
⒈实施方式
1-1.信息处理***的概况
1-2.信息处理***的功能的配置示例
1-3.信息处理***的功能的细节
1-4.硬件配置示例
2.结论
⒈实施方式
首先描述本公开的实施方式。
[1-1.信息处理***的概况]
首先,描述根据本公开的实施方式的信息处理***1的配置示例。图1是图示了按照本公开的实施方式的信息处理***1的概况的图。如图1所示,信息处理***1包括显示控制装置10、显示单元150和终端170。
显示单元150具有根据从显示控制装置10以无线或有线方式所提供的控制信号而显示画面50的功能。在显示单元150处显示的画面50的类型不受具体限制。如图1所示,主要假定一种情况,在这种情况中,显示单元150是安装在用户U头上的头戴式显示器(HMD)。HMD的类型不受具体限制,并且HMD可以是透射型HMD或非透射型HMD。
终端170是用户U所使用的终端。终端170的类型不受具体限制,并且终端170可以是摄像机、智能电话或个人数字助手(PDA)。或者,终端170可以是个人电脑(PC)、移动电话、移动音乐播放装置、移动图象处理装置或移动游戏设备。
显示控制装置10具有在显示单元150处显示画面50的功能。画面50可以包括如图1所示的内容C1~C7或包括将要在后面描述的对象。内容的数量不受具体限制。此外,内容的类型不受具体限制,并且如图1所示,内容可以是图像(例如静止图像和活动图像)或者可以是文本数据。应当注意,虽然在图1所示的示例中显示控制装置10配置为与显示单元150分离,显示控制装置10可以与显示单元150集成在一起。
在本说明书中,将主要描述允许用户U以此方式容易地滚动内容以在显示单元150处显示的技术。
上面已经描述了根据本公开的实施方式的信息处理***1的概况。
[1-2.信息处理***的功能的配置示例]
下面描述根据本公开的实施方式的信息处理***1的功能的配置示例。图2是图示按照本公开的实施方式的信息处理***1的功能的配置示例的图。如图2所示,根据本公开的实施方式显示控制装置10包括控制单元110、存储单元120、第一输入单元131和第二输入单元132。
控制单元110例如对应于诸如中央处理单元(CPU)的处理器。控制单元110通过执行存储在存储单元120或其他的存储媒体中的程序而实现控制单元110的各种功能。控制单元110包括第一获取单元111、第二获取单元112和显示控制单元113。下面将要描述这些各个功用块的功能。
存储单元120使用半导体存储器或诸如硬盘的存储介质存储用于操作控制单元110的程序。此外,例如,存储单元120也会存储由程序使用的各种数据(诸如例如内容和对象)。应当注意,虽然在图2所示的示例中存储单元120与显示控制装置10集成为一体,但是存储单元120也可以配置为与显示控制装置10分离。
如上所述,显示单元150以无线或有线方式连接至显示控制装置10。显示单元150包括第一检测单元151,并且终端170包括第二检测单元171。第一检测单元151具有检测显示单元150的方位的功能。由第一检测单元151所检测的显示单元150的方位经由第一输入单元131输入至控制单元110。同时,第二检测单元171具有检测终端170的方位的功能。由第二检测单元171所检测的终端170的方位经由第二输入单元132被输入至控制单元110。
第一检测单元151检测显示单元150的方位。例如,第一检测单元151可以包括地磁传感器,并且使用地磁传感器测量在显示单元150的坐标系中指示地磁方位的地磁数据。地磁数据可以用于例如显示单元150所面对的方向(在水平方向的方位)。此外,第一检测单元151可以包括加速度传感器,并且使用加速度传感器测量施加于显示单元150的加速度。加速度例如可以用于显示单元150的倾斜(在垂直方向的方位)。
此外,第一检测单元151可以包括陀螺仪传感器,并且使用陀螺仪传感器测量显示单元150的旋转角速度,并且将角速度检测为显示单元150的方位的变化率。通过这种方式所检测的显示单元150的方位的变化率可以用于在第一检测单元151处检测显示单元150的方位。应当注意,虽然在图2所示的示例中第一检测单元151与显示单元150集成为一体,但是第一检测单元151也可以配置为与显示单元150分离。
第二检测单元171检测终端170的方位。例如,第二检测单元171可以包括地磁传感器,并且使用地磁传感器测量在终端170的坐标系中指示地磁方位的地磁数据。地磁数据可以用于例如终端170所面对的方向(在水平方向的方位)。此外,第二检测单元171可以包括加速度传感器,使用加速度传感器测量施加于终端170的加速度,并且基于加速度检测终端170的方位的变化。加速度例如可以用于终端170的倾斜(在垂直方向的方位)。
此外,第二检测单元171可以包括陀螺仪传感器,使用陀螺仪传感器测量终端170的旋转角速度,并且将角速度检测为终端170的方位的变化率。通过这种方式所检测的终端170的方位的变化率可以用于在第二检测单元171处检测终端170的方位。应当注意,虽然在图2所示的示例中第二检测单元171与终端170集成为一体,但是第二检测单元171也可以配置为与终端170分离。
上面已经描述了根据本公开的实施方式的信息处理***1的功能的配置示例。
[1-3.信息处理***的功能的细节]
下面描述根据本公开的实施方式的信息处理***1的功能的细节。首先,将要参照图3~图9描述第一示例。图3是图示了在第一示例中内容滚动的示例的图。如图3所示,用户在其头上佩戴显示单元150,并且用其身体的一部分(例如手)持有终端170。显示控制单元113在显示单元150处显示画面50-A1。画面50-A1包括内容C1~C7。
第一获取单元111获得由第一检测单元151所检测的显示单元的方位u。而且,第二获取单元112获得由第二检测单元171所检测的终端的方位t。这里,显示控制单元113根据显示单元的方位u滚动内容。通过这种方法可以允许用户容易地滚动内容。而且,用户可以直观地滚动内容。
终端的方位t也可以被显示控制单元113使用。在这样的情况下,例如,显示控制单元113可以根据终端的方位t执行预定的控制。通过这种方法,例如,因为也可以使用终端的方位t,即使难以调整显示单元的方位u,可以通过利用终端的方位t进行输入。难以调整显示单元的方位u的可能的例子包括用户难以长时间将他的头部的方位保持为固定方位。例如,显示控制单元113可以根据显示单元的方位u和终端的方位t之间的关系滚动内容。
当显示单元的方位u和终端的方位t之间的关系可以是任何关系时,作为一个示例,显示控制单元113可以根据相对于显示单元的方位u的终端的方位t滚动内容。更具体地,显示控制单元113可以在与相对于显示单元的方位u的终端的方位t相反的方位上滚动内容。图3图示了从用户观看时相对于显示单元的方位u的终端的方位t是向左的情况。此时,显示控制单元113为了使用户容易地观看画面50-A1的左侧,可以向着与左边相反的右边滚动内容。
内容的滚动速度不受具体限制,并且例如,显示控制单元113可以根据显示单元的方位u和终端的方位t之间的角度差控制内容的滚动速度。更具体地,显示控制单元113可以为了显示单元的方位u和终端的方位t之间较大的角度差增加内容的滚动速度。该控制允许用户直观地调整内容的滚动速度。
应当注意,虽然上面的说明书中已经描述了由第二获取单元112所获得的终端的方位t被显示控制单元113使用的情况,但是也可以用一些类型的基准方位来代替终端的方位t。例如,显示控制单元113可以根据相对于基准方位的显示单元的方位u来滚动内容。更具体地,显示控制单元113可以在与相对于基准方位的显示单元的方位u相反的方位上滚动内容。基准方位由用户预先设置,或者由控制单元110来设置。
这里,当显示单元的方位u与终端的方位t相匹配的时候,或者当方位下降在预定范围内时,显示控制单元113必须仅仅停止内容的滚动。图4是图示在第一示例中停止滚动的情况的示例的图。参照图4,因为内容滚动之后显示单元的方位u与终端的方位t相匹配,显示控制单元显示包括内容C4~C10的画面50-A2,并且在画面50-A2被显示的状态下停止内容的滚动。
而且,虽然在图4所示的示例中,焦点位于内容C4~C10中的中央的内容C7上,但是焦点被放置处的内容不受具体限制。在这个状态下,例如,当用户对终端170执行预定的操作时,显示控制单元113可以选择焦点被放置处的内容。虽然该预定的操作不受具体限制,但是该预定的操作可以包括用户轻敲终端170的操作。
图5是图示在第一示例中用于选择内容C7的操作的示例的图。参照图5,在焦点被放置于内容C7上的状态下,当用户轻敲终端170时,显示控制单元113选择焦点被放置处的内容C7。在内容C7被选中之后,显示控制单元113对内容C7执行任何控制。例如,作为内容C7被选中的结果,可以显示包括放大的内容C7的选择结果画面。
图6是图示了在第一示例中选择结果画面50-A3被显示为被选中的内容C7的结果的情况的示例。参照图6,显示控制单元113在显示单元150处显示包括放大的内容C7的选择结果画面50-A3。而且,例如,在显示选择结果画面50-A3的状态下,当用户在终端170上执行预定的操作时,显示控制单元113可以将该画面返回至先前画面。虽然该预定的操作不受具体限制,但是该预定的操作可以包括用户长时间保持按下终端170上的按钮的操作。
图7是图示了在第一示例中显示从选择结果画面50-A3返回到先前画面50-A2的操作的示例的图。以及,图8是图示了在第一示例中显示从选择结果画面50-A3返回到先前画面50-A2的情况的示例的图。参照图7和图8,在放大的内容C7被显示的状态下,当用户长时间保持按下终端170上的按钮时,显示控制单元113在显示单元150处显示先前画面50-A2。
图9是图示了第一示例中的显示控制装置10的操作流程的流程图。
应当注意,图9所示的示例仅仅是第一示例中的显示控制装置10的操作流程的示例。因此,在第一示例中的显示控制装置10的操作流程不限于图9所示的示例。
如图9所示,当显示单元的方位u由第一检测单元151检测时,显示单元的方位u经由第一输入单元131输入至控制单元110,并且显示单元的方位u被第一获取单元111获得(S11)。随后,当终端的方位t由第二检测单元171检测时,终端的方位t经由第二输入单元132输入至控制单元110,并且显示单元的方位u由第二获取单元112获得(S12)。
显示控制单元113根据相对于显示单元的方位u的终端的方位t来滚动内容。应当注意,在S13的操作完成之后,控制单元110可以再次返回至S11的操作,或可以结束操作。上面已经描述了第一示例。
下面将要参照图10~图14描述第二示例。图10是图示了第二示例中移动焦点的情况的示例的图。如图10所示,用户在其头上佩戴显示单元150,并且用其身体的一部分(例如手)持有终端170。显示控制单元113在显示单元150处显示画面50-B1。画面50-B1包括对象B1~B4。
第一获取单元111获得由第一检测单元151所检测的显示单元的方位u。而且,第二获取单元112获得由第二检测单元171所检测的终端的方位t。这里,显示控制单元113根据终端的方位t移动焦点。通过这种方法,用户可以容易地移动焦点。
显示单元的方位u也可以被显示控制单元113使用。在这样的情况下,例如,显示控制单元113可以根据显示单元的方位u执行预定的控制。通过这种方法,例如,因为也可以使用终端的方位t,可以增加由用户输入的操作的变化。例如,显示控制单元113可以根据显示单元的方位u和终端的方位t之间的关系来移动焦点。
当显示单元的方位u和终端的方位t之间的关系可以是任何关系时,作为一个示例,显示控制单元113可以根据相对于显示单元的方位u的终端的方位t移动焦点。更具体地,显示控制单元113可以根据相对于显示单元的方位u的终端的方位t的方位来移动焦点。图10图示了从用户观看时相对于显示单元的方位u的终端的方位t是向左的情况。此时,显示控制单元113可以将焦点移动至画面50-B1的左上区域的对象B1的位置。
应当注意,虽然上面的说明书中已经描述了由第一获取单元111所获得的显示单元的方位u被显示控制单元113使用的情况,但是也可以使用一些类型的基准方位来代替显示单元的方位u。例如,显示控制单元113可以根据相对于基准方位的终端的方位t来移动焦点。更具体地,显示控制单元113可以根据相对于基准方位的终端的方位t来移动焦点。基准方位由用户预先设置,或者由控制单元110来设置。
例如,在焦点被放置于对象B1的位置上的状态下,当用户在终端170上执行预定的操作,显示控制单元113可以选择焦点被放置处的对象。该预定的操作不受具体限制,并且可以包括用户轻敲终端170的操作。
图11是图示了在第二示例中选择对象B1的情况的示例的图。参照图11,在焦点被放置于对象B1上的状态下,当用户轻敲终端170时,显示控制单元113选择焦点被放置处的对象B1。在对象B1被选中之后,显示控制单元113可以对对象B1执行任何控制。例如,作为对象B1被选中的结果,可以显示包括对应于对象B1的内容的选择结果画面。
图12是图示了在第二示例中选择结果画面50-B2被显示为被选中的对象B1的结果的情况的示例的图。参照图12,显示控制单元113在显示单元150处显示包括对应于对象B1的内容C11的选择结果画面50-B2。而且,例如,在显示选择结果画面50-B2的状态下,当用户在终端170上执行预定的操作时,显示控制单元113可以将该画面返回至先前画面。该预定的操作不受具体限制,并且可以包括用户长时间保持按下终端170上的按钮的操作。
图13是图示了在第二示例中显示从选择结果画面50-B2返回至先前画面50-B1的情况的示例的图。参照图12和图13,在对应于对象B1的内容C11被显示的状态下,当用户长时间保持按下终端170上的按钮时,显示控制单元113显示先前画面50-B1。
图14是图示了第二示例中的显示控制装置10的操作流程的流程图。应当注意,图14所示的示例仅仅是第二示例中的显示控制装置10的操作流程的示例。因此,在第二示例中的显示控制装置10的操作流程不限于图14所示的示例。
如图14所示,当显示单元的方位u由第一检测单元151检测时,显示单元的方位u经由第一输入单元131输入至控制单元110,并且显示单元的方位u被第一获取单元111获得(S21)。随后,当终端的方位t由第二检测单元171检测时,终端的方位t经由第二输入单元132输入至控制单元110,并且显示单元的方位u由第二获取单元112获得(S22)。
显示控制单元113可以根据相对于显示单元的方位u的终端的方位t来选择对象(S23)。应当注意,在S23的操作完成之后,控制单元110可以再次返回至S21的操作,或可以结束操作。上面已经描述了第二示例。
随后,将要参照图15和图16描述第三示例。图15是图示在第三示例中焦点移动的情况的示例的图。如图15所示,用户在其头上佩戴显示单元150,并且用其身体的一部分(例如手)持有终端160。显示控制单元113在显示单元150处显示画面50-C1。画面50-C1包括内容C1~C7和对象B1~B4。
第一获取单元111获得由第一检测单元151所检测的显示单元的方位u。而且,第二获取单元112获得由第二检测单元171所检测的终端的方位t。这里,显示控制单元113根据显示单元的方位u来滚动内容。而且,显示控制单元113根据终端的方位t来选择对象。通过这种方法,可以容易地滚动内容并且容易地选择对象。
例如,显示控制单元113可以根据相对于基准方位的显示单元的方位u来滚动内容。更具体地,显示控制单元113可以在与相对于基准方位的显示单元的方位u相反的方位上滚动内容。基准方位由用户预先设置,或者由控制单元110来设置。
以相似的方式,例如,显示控制单元113可以根据相对于基准方位的终端的方位t来选择对象。更具体地,显示控制单元113可以根据相对于基准方位的方位t来选择对象。基准方位由用户预先设置,或者由控制单元110来设置。
图16是图示了第三示例中的显示控制装置10的操作流程的流程图。应当注意,图16所示的示例仅仅是第三示例中的显示控制装置10的操作流程的示例。因此,在第三示例中的显示控制装置10的操作流程不限于图16所示的示例。
如图16所示,当显示单元的方位u由第一检测单元151检测时,显示单元的方位u经由第一输入单元131输入至控制单元110,并且显示单元的方位u被第一获取单元111获得(S31)。随后,当终端的方位t由第二检测单元171检测时,终端的方位t经由第二输入单元132输入至控制单元110,并且显示单元的方位u由第二获取单元112获得(S32)。
这里,显示控制单元113根据显示单元的方位u来滚动内容(S33)。而且,显示控制单元113根据终端的方位t来选择对象(S34)。应当注意,在S34的操作完成之后,控制单元110可以再次返回至S31的操作,或可以结束操作。上面已经描述了第三示例。
在第一示例和第三示例中,已经描述了显示控制单元113根据显示单元的方位u来滚动内容的情况。然而,可以假定用户为了除了滚动内容的目的之外的目的而试图改变显示单元150的方位。因此,显示控制单元113可以基于用户是否输入预定的操作而决定是否滚动内容。虽然在下面描述的情况下预定的操作是触摸操作,但是该预定的操作可以是任何操作。
图17是图示了第一示例和第三示例的变型例的图。如图17所示,用户在其头上佩戴显示单元150,并且用其身体的一部分(例如手)持有终端170。显示控制单元113在显示单元150处显示画面50-D1。画面50-D1包括内容C1~C7。
第一获取单元111获得由第一检测单元151所检测的显示单元的方位u。而且,第二获取单元112获得由第二检测单元171所检测的终端的方位t。这里,如画面50-D1所示,在用户没有输入触摸操作期间,显示控制单元113可以决定不滚动该内容。同时,如画面50-D2所示,在用户输入触摸操作期间,显示控制单元113可以决定滚动该内容。
应当注意,在用户没有输入触摸操作期间所执行的操作可以与用户输入触摸操作期间所执行的操作进行替换。亦即,在用户输入触摸操作期间显示控制单元113可以决定不滚动内容,而在用户没有输入触摸操作期间显示控制单元113可以决定滚动内容。
而且,在第二示例和第三示例中,已经描述了显示控制单元113根据终端的方位t选择对象的示例。然而,可以假定用户为了除了选择对象的目的之外的目的而试图改变终端170的方位。因此,显示控制单元113可以基于用户是否输入预定的操作而决定是否选择对象。
例如,显示控制单元113可以在用户未输入触摸操作期间决定不选择对象。同时,显示控制单元113可以在用户输入触摸操作期间决定选择对象。
应当注意,在用户输入触摸操作期间所执行的操作可以与用户没有输入触摸操作期间所执行的操作进行替换。亦即,在用户输入触摸操作期间显示控制单元113可以决定不选择对象,而在用户没有输入触摸操作期间显示控制单元113可以决定选择对象。
上面已经描述了根据本公开的实施方式的信息处理***1的功能的细节。
[1-4.硬件配置示例]
随后,将要描述根据本公开的实施方式的显示控制装置10的硬件配置示例。图18是图示了根据本公开的实施方式的显示控制装置10的硬件配置示例的图。然而,图18所示的硬件配置示例仅仅是显示控制装置10的硬件配置的示例。因此,显示控制装置10的硬件配置不限于图18所示的示例。
如图18所示,显示控制装置10包括中央处理单元(CPU)901、只读存储器(ROM)902、随机存取存储器(RAM)903、输入装置908、输出装置910、存储装置911和驱动器912。
用作计算处理装置和控制装置的CPU 901基于各种程序控制显示控制装置10的全部操作。而且,CPU 901可以是微处理器。ROM 902存储CPU 901所使用的程序、计算参数等等。RAM 903临时存储在CPU 901的执行期间所使用的程序和在该执行期间恰当地变化的参数。这些单元通过主线彼此连接,该主线由CPU总线等等配置而成。
输入装置908接收由第一检测单元151所检测的显示单元150的方位和由第二检测单元171所检测的终端170的方位的输入。在输入装置908处接收到的显示单元150的方位和终端170的方位被输入到CPU 901。而且,输入装置908可以接收由第一检测单元151所检测的显示单元150的方位的变化量和由第二检测单元171所检测的终端170的方位的变化量的输入,并且将该变化量输出至CPU 901。
输出装置910提供输出数据至显示单元150。例如,输出装置910在CPU901的控制下提供显示数据至显示单元150。如果显示单元150由音频输出装置配置而成,输出装置910在CPU 901的控制下提供音频数据至显示单元150。
存储装置911是用于储存数据的装置,该装置被配置为显示控制装置10中的存储单元120的示例。存储装置911也可以包括存储介质、将数据记录在该存储介质上的记录装置、从该存储介质读取数据的读取装置、删除记录在该存储介质上的数据的删除装置等等。存储装置911存储由CPU 901执行的程序和各种数据。
驱动器912是存储介质读取器/写入器,其可以内嵌到显示控制装置10中或者在外部连接到显示控制装置10。驱动器912读取记录在可移除存储介质71上的信息,所述可移除存储介质71诸如所安装的磁盘、光盘、磁光盘或半导体存储器,并且输出所读取的信息至RAM 903。而且,驱动器912也可以将信息写入至可移除存储介质71。
上面描述了根据本公开的实施方式的显示控制装置10的硬件配置示例。
《2.结论》
如上所述,根据本公开的实施方式,提供了一种显示控制装置10,其包括第一获取单元111,配置为用于获取由第一检测单元151所检测的显示单元150的方位;以及显示控制单元113,配置为用于在显示单元150处显示内容,其中,显示控制单元113根据显示单元150的方位滚动内容。根据这个配置,可以提供一种允许用户容易地滚动内容的技术。
应当注意,虽然已经参照附图描述了本公开的优选实施方式的细节,但是本公开的技术范围并不限于这些示例。本领域的技术人员应该理解的是,根据设计要求及其他因素,可以想到各种改变、组合、子组合和变更,它们都在所附的权利要求书或其等同物的范围内。
而且,和上述显示控制装置10中所包括的单元实现相同的功能的程序还可以重建计算机中所包括的硬件,诸如CPU、ROM和RAM。另外,还可以提供在上面记录有该程序的计算机可读记录介质。
另外,本技术还可以配置如下:
(1)一种显示控制装置,其包括:
第一获取单元,其配置为用于获取由第一检测单元所检测的显示单元的方位;以及
显示控制单元,其配置为用于在所述显示单元处显示内容,
其中,所述显示控制单元根据所述显示单元的方位来滚动所述内容。
(2)根据(1)的显示控制装置,还包括:
第二获取单元,其配置为用于获取由第二检测单元所检测的终端的方位,
其中,所述显示控制单元根据所述终端的方位来执行预定的控制。
(3)根据(2)的显示控制装置,
其中,所述显示控制单元根据所述显示单元的方位和所述终端的方位之间的关系来滚动所述内容。
(4)根据(3)的显示控制装置,
其中,所述显示控制单元根据相对于所述显示单元的方位的所述终端的方位来滚动所述内容。
(5)根据(4)的显示控制装置,
其中,所述显示控制单元根据所述显示单元的方位和所述终端的方位之间的角度差来控制所述内容的滚动速度。
(6)根据(2)~(5)中的任一项的显示控制装置,
其中,所述显示控制单元根据所述显示单元的方位滚动所述内容,并且基于所述终端的方位来选择对象。
(7)根据(1)~(6)中的任一项的显示控制装置,
其中,所述显示控制单元可以基于用户是否输入预定的操作而决定是否滚动所述内容。
(8)一种显示控制方法,其包括:
获取由第一检测单元所检测的显示单元的方位;
在所述显示单元处显示内容;以及
根据所述显示单元的所述方位滚动所述内容。
(9)一种计算机可读记录介质,其中记录有程序,所述程序使得计算机用作显示控制装置,所述显示控制装置包括:
第一获取单元,其配置为用于获取由第一检测单元所检测的显示单元的方位;以及
显示控制单元,其配置为用于在所述显示单元处显示内容,
其中,所述显示控制单元根据所述显示单元的所述方位滚动所述内容。
附图标记列表
1 信息处理***
10 显示控制装置
110 控制单元
111 第一获取单元
112 第二获取单元
113 显示控制单元
120 存储单元
131 第一输入单元
132 第二输入单元
150 显示单元
151 第一检测单元
170 终端
171 第二检测单元
B1~B4 对象
C1~C11 内容

Claims (6)

1.一种显示控制装置,其包括:
第一获取单元,其配置为用于获取由第一检测单元所检测的显示单元的方位;
第二获取单元,其配置为用于获取由第二检测单元所检测的终端的方位;以及
显示控制单元,其配置为用于在所述显示单元处显示内容,
其中,所述显示控制单元根据所述显示单元的方位来滚动所述内容,
其中,当所述显示控制装置的用户向所述终端输入预定操作时,所述显示控制单元根据所述显示单元的方位和所述终端的方位之间的关系来滚动所述内容,以及
其中,当所述用户未向所述终端输入所述预定操作时,所述显示控制单元不滚动所述内容,
其中,所述显示单元是所述终端之外的头戴式显示器。
2.根据权利要求1的显示控制装置,
其中,所述显示控制单元根据相对于所述显示单元的方位的所述终端的方位来滚动所述内容。
3.根据权利要求2的显示控制装置,
其中,所述显示控制单元根据所述显示单元的方位和所述终端的方位之间的角度差来控制所述内容的滚动速度。
4.根据权利要求1的显示控制装置,
其中,所述显示控制单元根据所述显示单元的方位滚动所述内容,并且基于所述终端的方位来选择对象。
5.一种显示控制方法,其包括:
获取由第一检测单元所检测的显示单元的方位;
获取由第二检测单元所检测的终端的方位;
在所述显示单元处显示内容;以及
根据所述显示单元的所述方位滚动所述内容,
其中,当显示控制装置的用户向所述终端输入预定操作时,根据所述显示单元的方位和所述终端的方位之间的关系来滚动所述内容,以及
其中,当所述用户未向所述终端输入所述预定操作时,不滚动所述内容,
其中,所述显示单元是所述终端之外的头戴式显示器。
6.一种计算机可读记录介质,其中记录有程序,所述程序使得计算机用作显示控制装置,所述显示控制装置包括:
第一获取单元,其配置为用于获取由第一检测单元所检测的显示单元的方位:
第二获取单元,其配置为用于获取由第二检测单元所检测的终端的方位;以及
显示控制单元,其配置为用于在所述显示单元处显示内容,
其中,所述显示控制单元根据所述显示单元的所述方位滚动所述内容,
其中,当所述显示控制装置的用户向所述终端输入预定操作时,所述显示控制单元根据所述显示单元的方位和所述终端的方位之间的关系来滚动所述内容,以及
其中,当所述用户未向所述终端输入所述预定操作时,所述显示控制单元不滚动所述内容,
其中,所述显示单元是所述终端之外的头戴式显示器。
CN201480025709.5A 2013-05-15 2014-03-18 显示控制装置,显示控制方法和记录介质 Active CN105247466B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013102885 2013-05-15
JP2013-102885 2013-05-15
PCT/JP2014/057412 WO2014185146A1 (ja) 2013-05-15 2014-03-18 表示制御装置、表示制御方法および記録媒体

Publications (2)

Publication Number Publication Date
CN105247466A CN105247466A (zh) 2016-01-13
CN105247466B true CN105247466B (zh) 2019-07-26

Family

ID=51898131

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480025709.5A Active CN105247466B (zh) 2013-05-15 2014-03-18 显示控制装置,显示控制方法和记录介质

Country Status (5)

Country Link
US (2) US9940009B2 (zh)
EP (1) EP2998849A4 (zh)
JP (1) JP6308214B2 (zh)
CN (1) CN105247466B (zh)
WO (1) WO2014185146A1 (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3001407A4 (en) * 2013-05-21 2017-01-25 Sony Corporation Display control device, display control method, and recording medium
US10451874B2 (en) * 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
JP6459516B2 (ja) * 2015-01-06 2019-01-30 セイコーエプソン株式会社 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法
KR20170124593A (ko) * 2015-03-20 2017-11-10 후아웨이 테크놀러지 컴퍼니 리미티드 지능형 상호작용 방법, 장비 및 시스템
GB2543019A (en) * 2015-07-23 2017-04-12 Muzaffar Saj Virtual reality headset user input system
US11010972B2 (en) * 2015-12-11 2021-05-18 Google Llc Context sensitive user interface activation in an augmented and/or virtual reality environment
US10509487B2 (en) * 2016-05-11 2019-12-17 Google Llc Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment
US10722800B2 (en) 2016-05-16 2020-07-28 Google Llc Co-presence handling in virtual reality
WO2017201162A1 (en) * 2016-05-17 2017-11-23 Google Llc Virtual/augmented reality input device
JP2018037034A (ja) * 2016-09-02 2018-03-08 株式会社タカラトミー 情報処理システム
JP2018101019A (ja) * 2016-12-19 2018-06-28 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
EP3542252B1 (en) * 2017-08-10 2023-08-02 Google LLC Context-sensitive hand interaction
CN112585564A (zh) 2018-06-21 2021-03-30 奇跃公司 用于为头戴式图像显示设备提供输入的方法和装置
JP2021119431A (ja) * 2020-01-30 2021-08-12 セイコーエプソン株式会社 表示システム、コントローラー、表示システムの制御方法およびプログラム
CN116457745A (zh) 2020-10-27 2023-07-18 富士胶片株式会社 显示控制装置、显示控制方法及显示控制程序

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021914A (ja) * 2007-07-13 2009-01-29 Sony Corp 撮像表示システム、撮像表示装置、撮像表示装置の制御方法
CN102012739A (zh) * 2009-09-07 2011-04-13 索尼公司 信息显示装置、信息显示方法及程序
JP2013012024A (ja) * 2011-06-29 2013-01-17 Olympus Corp 情報処理システム、携帯電子機器、プログラム及び情報記憶媒体

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795498A (ja) * 1993-09-24 1995-04-07 Sony Corp 眼鏡型ディスプレイ
US6624824B1 (en) * 1996-04-30 2003-09-23 Sun Microsystems, Inc. Tilt-scrolling on the sunpad
AU2001233019A1 (en) 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
JP2003280785A (ja) 2002-03-26 2003-10-02 Sony Corp 画像表示処理装置、および画像表示処理方法、並びにコンピュータ・プログラム
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US20090040308A1 (en) 2007-01-15 2009-02-12 Igor Temovskiy Image orientation correction method and system
US9770611B2 (en) * 2007-05-03 2017-09-26 3M Innovative Properties Company Maintenance-free anti-fog respirator
KR20100035924A (ko) * 2008-09-29 2010-04-07 삼성전자주식회사 디스플레이장치 및 외부입력장치를 가지는 디스플레이 시스템과 그 제어 방법
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
JP2011082781A (ja) 2009-10-07 2011-04-21 Nikon Corp ヘッドマウントディスプレイ装置
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
US20120064951A1 (en) 2010-09-13 2012-03-15 Sony Ericsson Mobile Communications Ab Hands-Free Control of Mobile Communication Device Based on Head Movement
US8706170B2 (en) * 2010-09-20 2014-04-22 Kopin Corporation Miniature communications gateway for head mounted display
KR101823148B1 (ko) * 2010-12-30 2018-01-30 주식회사 알티캐스트 휴대 단말기 및 이를 이용한 디스플레이 장치에서의 출력 화면 제어 방법
US20120188148A1 (en) * 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System
EP2485119A3 (en) * 2011-02-02 2012-12-12 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
JP5718078B2 (ja) 2011-02-04 2015-05-13 光精工株式会社 閉塞鍛造装置および閉塞鍛造方法
JP5757791B2 (ja) 2011-06-03 2015-07-29 オリンパス株式会社 入力システム、頭部装着型表示装置、情報端末装置及びプログラム
US9285592B2 (en) * 2011-08-18 2016-03-15 Google Inc. Wearable device with input and output structures
US9201625B2 (en) * 2012-06-22 2015-12-01 Nokia Technologies Oy Method and apparatus for augmenting an index generated by a near eye display
CN104604239B (zh) * 2012-09-04 2019-03-22 西娜媒体有限公司 用于视频***的增强现实
US10528135B2 (en) * 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
US9213403B1 (en) * 2013-03-27 2015-12-15 Google Inc. Methods to pan, zoom, crop, and proportionally move on a head mountable display
WO2014188798A1 (ja) * 2013-05-21 2014-11-27 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
TW201447737A (zh) * 2013-06-13 2014-12-16 Compal Electronics Inc 顯示裝置操作方法及系統
US9383818B2 (en) * 2013-12-27 2016-07-05 Google Technology Holdings LLC Method and system for tilt-based actuation
KR102302876B1 (ko) * 2014-06-23 2021-09-17 삼성전자주식회사 생체 전극 및 이를 이용한 생체 신호 처리 장치 및 방법
KR102227087B1 (ko) * 2014-07-08 2021-03-12 엘지전자 주식회사 글래스 타입 단말기 및 그것의 제어방법
JP6525010B2 (ja) * 2014-08-05 2019-06-05 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
US9910504B2 (en) * 2014-08-21 2018-03-06 Samsung Electronics Co., Ltd. Sensor based UI in HMD incorporating light turning element
KR102183212B1 (ko) * 2014-11-18 2020-11-25 삼성전자주식회사 화면 제어 방법 및 그 방법을 처리하는 전자 장치
KR20160133328A (ko) * 2015-05-12 2016-11-22 삼성전자주식회사 웨어러블 디바이스를 이용한 원격 제어 방법 및 장치
US20160378204A1 (en) * 2015-06-24 2016-12-29 Google Inc. System for tracking a handheld device in an augmented and/or virtual reality environment
US10101803B2 (en) * 2015-08-26 2018-10-16 Google Llc Dynamic switching and merging of head, gesture and touch input in virtual reality
JP5944600B1 (ja) * 2015-08-28 2016-07-05 株式会社タカラトミー 頭部装着型ディスプレイを備えた情報処理装置
US10591728B2 (en) * 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
KR20170126295A (ko) * 2016-05-09 2017-11-17 엘지전자 주식회사 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
US10198874B2 (en) * 2016-05-13 2019-02-05 Google Llc Methods and apparatus to align components in virtual reality environments
KR20180002255A (ko) * 2016-06-29 2018-01-08 엘지전자 주식회사 글래스 타입의 이동 단말기
KR102593344B1 (ko) * 2016-07-06 2023-10-25 삼성전자주식회사 전자 장치, 웨어러블 장치 및 전자 장치의 화면 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021914A (ja) * 2007-07-13 2009-01-29 Sony Corp 撮像表示システム、撮像表示装置、撮像表示装置の制御方法
CN102012739A (zh) * 2009-09-07 2011-04-13 索尼公司 信息显示装置、信息显示方法及程序
JP2013012024A (ja) * 2011-06-29 2013-01-17 Olympus Corp 情報処理システム、携帯電子機器、プログラム及び情報記憶媒体

Also Published As

Publication number Publication date
US20180181273A1 (en) 2018-06-28
JPWO2014185146A1 (ja) 2017-02-23
CN105247466A (zh) 2016-01-13
JP6308214B2 (ja) 2018-04-11
US9940009B2 (en) 2018-04-10
EP2998849A4 (en) 2017-01-25
EP2998849A1 (en) 2016-03-23
US20160085403A1 (en) 2016-03-24
WO2014185146A1 (ja) 2014-11-20

Similar Documents

Publication Publication Date Title
CN105247466B (zh) 显示控制装置,显示控制方法和记录介质
US9632314B2 (en) Head mounted display device displaying thumbnail image and method of controlling the same
US9851894B2 (en) Display control device, display control method, and program
JP5962547B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20130211923A1 (en) Sensor-based interactive advertisement
CN109308205A (zh) 应用程序的显示适配方法、装置、设备及存储介质
CN102804258B (zh) 图像处理设备、图像处理方法及程序
CN102792255A (zh) 图像处理设备、图像处理方法和程序
US20130211924A1 (en) System and method for generating sensor-based advertisements
CN105210009B (zh) 显示控制装置、显示控制方法和记录介质
US20120284671A1 (en) Systems and methods for interface mangement
CN105474070B (zh) 头戴式显示设备及其控制方法
CN104813220A (zh) 视频显示装置和显示视频的方法
CN102467236A (zh) 指示受理装置和指示受理方法
JP2014093034A (ja) 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
CN114600449B (zh) 记录装置、播放装置、***、记录方法、播放方法、存储介质
CN104166553A (zh) 一种显示方法及电子设备
WO2010041557A1 (ja) 表示装置、表示方法、情報記録媒体、ならびに、プログラム
US20160210269A1 (en) Content display synchronized for tracked e-reading progress
CN105320280A (zh) 一种信息处理方法和电子设备
JP6152888B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
US10055395B2 (en) Method for editing object with motion input and electronic device thereof
CN102402281A (zh) 信息处理装置、程序及信息处理方法
US20130211908A1 (en) System and method for tracking interactive events associated with distribution of sensor-based advertisements
US11372533B2 (en) Display method and display device in portable terminal

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant