WO2013046942A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2013046942A1
WO2013046942A1 PCT/JP2012/070137 JP2012070137W WO2013046942A1 WO 2013046942 A1 WO2013046942 A1 WO 2013046942A1 JP 2012070137 W JP2012070137 W JP 2012070137W WO 2013046942 A1 WO2013046942 A1 WO 2013046942A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
display
display area
displayed
display device
Prior art date
Application number
PCT/JP2012/070137
Other languages
English (en)
French (fr)
Inventor
村山 貴彦
青木 宏之
聖二 菅原
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to US14/347,220 priority Critical patent/US9395814B2/en
Publication of WO2013046942A1 publication Critical patent/WO2013046942A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present invention relates to a display device for displaying information, a display method, and a program.
  • display devices In recent years, various kinds of information are displayed on electronic devices (hereinafter referred to as display devices) equipped with a display for displaying information.
  • display devices a display device that is composed of a plurality of thin display media and can be used like a book is also considered (see, for example, Patent Document 1).
  • the display in order to view information related to the information displayed on the display, the display is switched and the information is input / searched as a search key and displayed by connecting to a search site or the like. Or manually or visually searching for information displayed on other display media. Therefore, there is a problem that it takes time and effort.
  • An object of the present invention is to provide a display device, a display method, and a program that solve the above-described problems.
  • the display device of the present invention includes: Multiple display areas, Of the plurality of display areas, information displayed in the first display area is determined, and related information related to the determined information is displayed in a second display area other than the first display area. And a control unit.
  • the display method of the present invention includes: A display method for displaying information in a plurality of display areas, A process of determining information displayed in the first display area among the plurality of display areas; A process of displaying related information related to the determined information in a second display area other than the first display area is performed.
  • the program of the present invention is A program for causing a display device having a plurality of display areas to execute, A procedure for determining information displayed in the first display area among the plurality of display areas; A procedure for displaying related information related to the determined information in a second display area other than the first display area is executed.
  • information related to displayed information can be easily displayed.
  • FIG. 1st Embodiment of the display apparatus of this invention It is a figure which shows an example of the information memorize
  • FIG. 5 is a flowchart for explaining processing when the detection unit shown in FIG. 4 detects an operator's blink among the display methods in the display device shown in FIG. 4. It is a figure which shows the other example of a display when information and related information are displayed on the display apparatus which is the external appearance shape shown in FIG.
  • FIG. 1 is a diagram showing a first embodiment of a display device of the present invention.
  • the display device 100 in this embodiment is provided with a plurality of display areas 110-1 to 110-3, a control unit 120, a detection unit 130, and a storage unit 140.
  • a control unit 120 controls the display device 100 to control the display device 100.
  • a detection unit 130 controls the display device 100 to detect the presence of the display device 100.
  • a storage unit 140 stores information.
  • FIG. 1 only the components related to the present invention among the components included in the display device 100 are shown. Further, in FIG. 1, a case where there are three display areas is shown as an example, but two, four or more may be used.
  • Display areas 110-1 to 110-3 display information such as images and characters. Further, the display areas 110-1 to 110-3 may be areas that are physically arranged on one display. The display areas 110-1 to 110-3 may be physically separated from each other. Further, the display areas 110-1 to 110-3 may be display media such as electronic paper superimposed on each other.
  • the detection unit 130 detects the direction and movement of the line of sight of the operator who operates the display device 100. In addition, the detection unit 130 detects a predetermined blink operation (continuous blink within a predetermined time or a state in which the eyes are closed for a predetermined time or more) of an operator who operates the display device 100.
  • This method for detecting the direction, movement, and blinking of the line of sight may use a dedicated function generally provided in a camera or the like, and is not particularly defined here.
  • the control unit 120 displays information in the display areas 110-1 to 110-3.
  • the control unit 120 determines information displayed in any one of the display areas 110-1 to 110-3 (hereinafter referred to as a first display area). This determination method is to determine what information is displayed at the position in the line-of-sight direction from the detection result of the detection unit 130. For example, the coordinates indicating the position in the line-of-sight direction are compared with the coordinates indicating the display position of each piece of information in the currently displayed image, and information in which the coordinates match is determined. Further, the control unit 120 displays related information related to the determined information in a display area other than the first display area (hereinafter referred to as a second display area).
  • control unit 120 determines information displayed in the direction of the line of sight when the detection unit 130 detects that the movement of the line of sight has stopped from the information displayed in the first display area. In addition, the control unit 120 displays related information related to the determined information in the second display area.
  • control unit 120 determines information displayed in the direction of the line of sight when the detection unit 130 detects the blink of the operator among the information displayed in the first display area. In addition, the control unit 120 displays related information related to the determined information in the second display area. At this time, the direction of the line of sight to be detected may be the direction of the line of sight immediately before the detection unit 130 detects blinking, or may be the direction of the line of sight immediately after detecting blinking.
  • control unit 120 reads related information related to the determined information from the storage unit 140 and displays the related information in the second display area.
  • the storage unit 140 stores information displayed in the first display area and related information related to the information displayed in the first display area in association with each other.
  • FIG. 2 is a diagram illustrating an example of information stored in the storage unit 140 illustrated in FIG.
  • information and related information related to the information are stored in association with each other as shown in FIG. These are acquired in advance from the outside and stored in the storage unit 140.
  • information “A” and related information “A ′” and “A ′′” are stored in association with each other. This indicates that when the information determined by the control unit 120 is “A”, the information that the control unit 120 displays in the second display area is “A ′” and “A ′′”. Further, information “B” and related information “B ′” and “B” ”are stored in association with each other. This indicates that when the information determined by the control unit 120 is “B”, the information that the control unit 120 displays in the second display area is “B ′” and “B” ”. In addition, information “C” and related information “C ′” are stored in association with each other. This indicates that when the information determined by the control unit 120 is “C”, the information that the control unit 120 displays in the second display area is “C ′”.
  • FIG. 3 is a diagram showing another example of information stored in the storage unit shown in FIG.
  • the storage unit 140 shown in FIG. 1 stores information and related information related to the information in association with each other.
  • “related information 1” is related information related to the information
  • “related information 2” is related information related to “related information 1”.
  • related information related to information is stored hierarchically. These are acquired in advance from the outside and stored in the storage unit 140.
  • information “A”, related information 1 “A ′”, and related information 2 “a ′” are stored in association with each other. This indicates that when the information determined by the control unit 120 is “A”, the information that the control unit 120 displays in the second display area is “A ′” and “a ′”.
  • information “B”, related information 1 “B ′”, and related information 2 “b ′” are stored in association with each other. This indicates that when the information determined by the control unit 120 is “B”, the information that the control unit 120 displays in the second display area is “B ′” and “b ′”.
  • information “C”, related information 1 “C ′”, and related information 2 “c ′” are stored in association with each other. This indicates that when the information determined by the control unit 120 is “C”, the information that the control unit 120 displays in the second display area is “C ′” and “c ′”.
  • FIG. 4 is a diagram showing a second embodiment of the display device of the present invention.
  • the display device 101 includes a plurality of display areas 110-1 to 110-3, a control unit 121, a detection unit 130, and a communication unit 150.
  • FIG. 4 shows only the components related to the present invention among the components included in the display device 101. Further, in FIG. 4, a case where there are three display areas is shown as an example, but two, four, or more may be used.
  • the display areas 110-1 to 110-3 are the same as those shown in FIG.
  • the detection unit 130 is the same as that shown in FIG.
  • the control unit 121 does not read out related information related to the determined information from the storage unit 140 as in the first embodiment, but instead of a predetermined server connected to the display device 101 via the communication unit 150. And is displayed in the second display area. In this acquisition, related information may be searched at a search site or the like using the determined information as a search key, and the related information may be acquired from a server storing the searched related information.
  • the other functions of the control unit 121 are the same as the functions of the control unit 120 shown in FIG.
  • the communication unit 150 communicates with a predetermined server connected to the display device 101.
  • the predetermined server is a communication device arranged at a site connected to a general communication network and stores various information.
  • the server with which the communication unit 150 communicates is not limited to one server, and may be a plurality of servers according to information.
  • the display device 100 illustrated in FIG. 1 will be described as an example.
  • FIG. 5 is a diagram showing a first example of the appearance of the display device 100 shown in FIG.
  • three display areas 110-1 to 110-3 are arranged on one display.
  • the boundary between the display area 110-1, the display area 110-2, and the display area 110-3 (shown by a broken line in FIG. 5) is only required to be recognized by an operator who operates the display device 100. not regulated.
  • it may be a field for displaying input text and a field for displaying conversion candidates, which are displayed on a display when inputting the text of an e-mail on a mobile terminal.
  • the detection unit 130 is disposed at a position where the line of sight of the operator who operates the display device 100 can be detected.
  • FIG. 6 is a diagram showing a second example of the appearance of the display device 100 shown in FIG. FIG. 6 shows an example in which the display area 110-3 shown in FIG. 1 is not provided.
  • the display device 100 shown in FIG. 1 has a display (display unit) including display areas divided into a display area 110-1 and a display area 110-2.
  • the display area 110-1 and the display area 110-2 may be arranged in the same casing as shown in FIG.
  • the display area 110-1 and the display area 110-2 are respectively arranged in different housings connected by hinges (a plurality of display media). May be.
  • the detection unit 130 is disposed at a position where the line of sight of the operator who operates the display device 100 can be detected.
  • FIG. 7 is a diagram showing a third example of the appearance of the display device 100 shown in FIG.
  • the display device 100 shown in FIG. 1 is an electronic paper in which three display areas 110-1 to 110-3 are physically separated and overlapped with each other, like a book page. One side is fixed by a holding part 160.
  • the display areas 110-1 to 110-3 may be other than electronic paper.
  • the detection unit 130 is disposed at a position where the line of sight of the operator who operates the display device 100 can be detected.
  • the detection unit 130 is arranged at a position as shown in FIG. In some cases, the line of sight of the operator who operates the display device 100 cannot be detected. Therefore, it is necessary to arrange the detection unit 130 at a position where the line of sight of the operator who operates can be detected even if the display area is turned.
  • the control unit 120 recognizes the display area arranged in the foreground among the plurality of display areas as the first display area.
  • a mechanism for detecting whether or not the display area is turned like a book page is provided in the holding unit 160.
  • the mechanism may be used.
  • an optical sensor is provided on each display surface side of the display areas 110-1 to 110-3, and the display area in which the optical sensor that detects light is provided is disposed at the forefront. The display area may be identified.
  • FIG. 8 is a flowchart for explaining processing when the detection unit 130 shown in FIG. 1 detects that the movement of the line of sight stops in the display method in the display device 100 shown in FIG.
  • the control unit 120 in the display area 110-1 Information displayed in the direction of the line of sight is determined.
  • control unit 120 searches and reads related information related to the information from the storage unit 140 using the determined information as a search key.
  • step 4 the control unit 120 displays the related information read from the storage unit 140 in the display areas 110-2 and 110-3 that are the second display areas.
  • FIG. 9 is a diagram showing a display example when information and related information are displayed on the display device 100 having the appearance shown in FIG.
  • the storage unit 140 stores the association between the information illustrated in FIG. 2 and the related information, and the information determined by the control unit 120 is “A” as an example.
  • FIG. 9 shows the case where the related information “A ′” is displayed in the display area 110-2 and the related information “A” ”is displayed in the display area 110-3.
  • the related information “A ′′” may be displayed in 2
  • the related information “A ′” may be displayed in the display area 110-3.
  • control unit 120 may display the position of the line-of-sight direction detected by the detection unit 130 in an identifiable manner on the display area 110-1. For example, as shown in FIG. 9, the control unit 120 displays “A” surrounded by a broken line, colors “A”, or changes the character color of “A” to other information characters. A color different from the color may be used. Needless to say, the information may be an image such as a picture or a picture instead of the characters shown in FIG.
  • the detection unit detects that the line of sight has stopped among the information displayed in the display area 110-1 that is the first display area. If the control unit 120 determines that the information displayed at the position detected by 130 is “A”, “A ′” that is the related information 1 of “A” stored in the storage unit 140 and the related information 2 “A ′” is displayed in the display areas 110-2 and 110-3, which are the second display areas.
  • FIG. 10 is a diagram showing a display example when information and related information are displayed on the display device 100 having the external shape shown in FIG.
  • the storage unit 140 stores the association between the information illustrated in FIG. 2 and the related information, and the information determined by the control unit 120 is “A” as an example.
  • the information displayed in the display area 110-1 as the first display area is “A”.
  • "A '" which is related information of "A” stored in the storage unit 140, is displayed in the second display area 110-2.
  • the control unit 120 may display the position of the line-of-sight direction detected by the detection unit 130 in an identifiable manner on the display area 110-1. For example, as shown in FIG. 10, the control unit 120 displays “A” surrounded by a broken line, colors “A”, or changes the character color of “A” to other information characters. A color different from the color may be used.
  • the information may be an image such as a photograph or a picture instead of the characters shown in FIG.
  • FIG. 11 is a diagram showing a display example when information and related information are displayed on the display device 100 having the appearance shape shown in FIG.
  • the storage unit 140 stores the association between the information illustrated in FIG. 2 and the related information, and the information determined by the control unit 120 is “A” as an example.
  • FIG. 11 shows a case where the related information “A ′” is displayed in the display area 110-2 and the related information “A” ”is displayed in the display area 110-3.
  • the related information “A ′′” may be displayed in 2
  • the related information “A ′” may be displayed in the display area 110-3.
  • control unit 120 may display the position of the line-of-sight direction detected by the detection unit 130 in an identifiable manner on the display area 110-1. For example, as shown in FIG. 11, the control unit 120 displays “A” surrounded by a broken line, colors “A”, or changes the character color of “A” to other information characters. A color different from the color may be used.
  • the information may be an image such as a picture or a picture instead of the characters shown in FIG.
  • the detection unit detects that the line of sight has stopped among the information displayed in the display area 110-1 that is the first display area. If the control unit 120 determines that the information displayed at the position detected by 130 is “A”, “A ′” that is the related information 1 of “A” stored in the storage unit 140 and the related information 2 “A ′” is displayed in the display areas 110-2 and 110-3, which are the second display areas.
  • FIG. 12 is a flowchart for explaining a process when the detection unit 130 shown in FIG. 1 detects an operator's blink among the display methods in the display device 100 shown in FIG.
  • the control unit 120 detects the line of sight within the display area 110-1 at step 12. Determine the information displayed in the direction.
  • control unit 120 searches the storage unit 140 for related information related to the information using the determined information as a search key and reads it out.
  • step 14 the control unit 120 displays the related information read from the storage unit 140 in the display areas 110-2 and 110-3 that are the second display areas.
  • the display state at this time is the same as that shown in FIGS.
  • FIG. 13 is a flowchart for explaining processing when the detection unit 130 shown in FIG. 4 detects that the movement of the line of sight has stopped among the display methods in the display device 101 shown in FIG.
  • step 21 when the detection unit 130 detects that the movement of the line of sight of the operator who operates the display device 101 has stopped, in step 22, the control unit 121 in the display area 110-1 Information displayed in the direction of the line of sight is determined.
  • step 23 the control unit 121 acquires related information related to the determined information from the predetermined server via the communication unit 150.
  • the method of acquiring related information is as described above.
  • step 24 the control unit 120 displays the related information acquired via the communication unit 150 in the display areas 110-2 and 110-3 that are the second display areas.
  • the display state at this time is the same as that shown in FIGS.
  • FIG. 14 is a flowchart for explaining processing when the detection unit 130 shown in FIG. 4 detects the blink of the operator in the display method in the display device 101 shown in FIG.
  • the control unit 121 detects the line of sight within the display area 110-1 at step 32. Determine the information displayed in the direction.
  • step 33 the control unit 121 acquires related information related to the determined information from a predetermined server via the communication unit 150.
  • the method of acquiring related information is as described above.
  • step 34 the control unit 120 displays the related information acquired via the communication unit 150 in the display areas 110-2 and 110-3 that are the second display areas.
  • the display state at this time is the same as that shown in FIGS.
  • the related information stored in the storage unit 140 is read in parallel with each other as illustrated in FIG.
  • the related information or hierarchical related information as shown in FIG. 3 is acquired and displayed.
  • the same processing may be performed on information displayed at the position in the direction of the line of sight of the operator detected by the detection unit 130.
  • the control unit 120 displays related information related to information displayed at the position in the line of sight. It may be displayed in the second display area in conjunction with the movement of the line of sight.
  • FIG. 15 is a diagram showing another example of the display when information and related information are displayed on the display device 100 having the appearance shown in FIG.
  • the storage unit 140 stores the association between the information illustrated in FIG. 2 and the related information, and the line-of-sight direction detected by the detection unit 130 is “from” the position where “A” is displayed.
  • the case where it moved to the position where "B" is displayed is mentioned as an example.
  • the line of sight detected by the detection unit 130 is moving, and the direction is “A”.
  • “A” and “B” are determined by the control unit 120, and the related information of “A” stored in the storage unit 140 is used.
  • “B ′”, which is related information of “A ′” and “B”, is displayed in the display areas 110-2 and 110-3, which are the second display areas.
  • FIG. 15 shows the case where the related information “A ′” is displayed in the display area 110-2 and the related information “B ′” is displayed in the display area 110-3.
  • the related information “B ′” may be displayed in 2, and the related information “A ′” may be displayed in the display area 110-3. Further, the control unit 120 may display the position of the line-of-sight direction detected by the detection unit 130 in an identifiable manner on the display area 110-1. For example, as illustrated in FIG. 15, the control unit 120 may display “A” in a square or “B” in a circle.
  • control unit 120 displays “A ′” in the display area 110-2 and “A” ”in the display area 110-3, and then a predetermined time has elapsed. Then, “B ′” may be displayed in the display area 110-2 and “B ′′” may be displayed in the display area 110-3.
  • the operator selects information, as described above, it may be performed by a method using an operation unit such as a general touch panel or an input key in addition to the line of sight and blinking.
  • an operation unit such as a general touch panel or an input key in addition to the line of sight and blinking.
  • the display devices 100 and 101 can be applied to devices such as mobile phones, mobile terminals, tablet-type and notebook-type PCs (Personal Computers), smartphones, PDAs (Personal Digital Assistants), game machines, and electronic books. It is.
  • each component provided in the display devices 100 and 101 described above may be performed by a logic circuit that is produced according to the purpose.
  • a computer program (hereinafter referred to as a program) in which processing contents are described as a procedure is recorded on a recording medium readable by the display devices 100 and 101, and the program recorded on the recording medium is stored in the display devices 100 and 101. It may be read and executed.
  • Recording media that can be read by the display devices 100 and 101 include transferable recording media such as a floppy (registered trademark) disk, a magneto-optical disk, a DVD, and a CD, as well as a ROM built in the display devices 100 and 101, It refers to a memory such as a RAM or an HDD.
  • the program recorded on the recording medium is read by the control units 120 and 121 provided in the display devices 100 and 101, and the same processing as described above is performed under the control of the control units 120 and 121.
  • the control units 120 and 121 operate as a computer that executes a program read from a recording medium on which the program is recorded.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 制御部(120)が、情報を表示する表示領域(110-1)~(110-3)のうち、第1の表示領域に表示されている情報を判別し、その判別した情報に関連する関連情報を、第1の表示領域以外の第2の表示領域に表示させる。

Description

表示装置
 本発明は、情報を表示する表示装置、表示方法およびプログラムに関する。
 近年、情報を表示するディスプレイが搭載された電子機器(以下、表示装置と称する)には、多種多様な情報が表示される。このような表示装置の中には、複数の薄い表示媒体から構成され、書籍のように利用することができるものも考えられている(例えば、特許文献1参照。)。
特開2003-58081号公報
 しかしながら、上述した技術においては、ディスプレイに表示された情報に関連する情報を見るには、その表示を切り替えて、検索用サイト等に接続してその情報を検索キーとして入力・検索して表示させたり、他の表示媒体に表示されている情報を手動・目視で探したりしなければならない。そのため、その手間がかかってしまうという問題点がある。
 本発明の目的は、上述した課題を解決する表示装置、表示方法およびプログラムを提供することである。
 本発明の表示装置は、
 複数の表示領域と、
 前記複数の表示領域のうち、第1の表示領域に表示されている情報を判別し、該判別した情報に関連する関連情報を、前記第1の表示領域以外の第2の表示領域に表示させる制御部とを有する。
 また、本発明の表示方法は、
 複数の表示領域に情報を表示させる表示方法であって、
 前記複数の表示領域のうち、第1の表示領域に表示されている情報を判別する処理と、
 前記判別した情報に関連する関連情報を前記第1の表示領域以外の第2の表示領域に表示させる処理とを行う。
 また、本発明のプログラムは、
 複数の表示領域を具備する表示装置に実行させるためのプログラムであって、
 前記複数の表示領域のうち、第1の表示領域に表示されている情報を判別する手順と、
 前記判別した情報に関連する関連情報を、前記第1の表示領域以外の第2の表示領域に表示させる手順を実行させる。
 以上説明したように、本発明においては、表示されている情報に関連する情報を容易に表示させることができる。
本発明の表示装置の第1の実施の形態を示す図である。 図1に示した記憶部に記憶されている情報の一例を示す図である。 図1に示した記憶部に記憶されている情報の他の例を示す図である。 本発明の表示装置の第2の実施の形態を示す図である。 図1に示した表示装置の外観の第1の例を示す図である。 図1に示した表示装置の外観の第2の例を示す図である。 図1に示した表示装置の外観の第3の例を示す図である。 図1に示した表示装置における表示方法のうち、図1に示した検知部が視線の動きが止まったことを検知したときの処理を説明するためのフローチャートである。 図5に示した外観形状である表示装置に情報および関連情報が表示されたときの表示例を示す図である。 図6に示した外観形状である表示装置に情報および関連情報が表示されたときの表示例を示す図である。 図7に示した外観形状である表示装置に情報および関連情報が表示されたときの表示例を示す図である。 図1に示した表示装置における表示方法のうち、図1に示した検知部が操作者のまばたきを検知したときの処理を説明するためのフローチャートである。 図4に示した表示装置における表示方法のうち、図4に示した検知部が視線の動きが止まったことを検知したときの処理を説明するためのフローチャートである。 図4に示した表示装置における表示方法のうち、図4に示した検知部が操作者のまばたきを検知したときの処理を説明するためのフローチャートである。 図7に示した外観形状である表示装置に情報および関連情報が表示されたときの表示の他の例を示す図である。
 以下に、本発明の実施の形態について図面を参照して説明する。
 図1は、本発明の表示装置の第1の実施の形態を示す図である。
 本形態における表示装置100には図1に示すように、複数の表示領域110-1~110-3と、制御部120と、検知部130と、記憶部140とが設けられている。なお、図1においては、表示装置100が具備する構成要素のうち、本発明に関わるもののみを示した。また、図1において、表示領域が3つである場合を例に挙げて示しているが、2つ、もしくは4つ以上であっても良い。
 表示領域110-1~110-3は、画像や文字等の情報を表示する。また、表示領域110-1~110-3は、物理的に1つのディプレイ上に配置される領域であっても良い。また、表示領域110-1~110-3は、互いに物理的に分離されているものであっても良い。また、表示領域110-1~110-3は、互いに重ね合わされた電子ペーパー等の表示媒体であっても良い。
 検知部130は、表示装置100を操作する操作者の視線の方向・動きを検知する。また、検知部130は、表示装置100を操作する操作者の所定のまばたき動作(所定の時間内の連続まばたきや、所定の時間以上目をつぶった状態)を検知する。この視線の方向・動き・まばたきの検知方法は、一般的にカメラ等に具備された専用の機能を用いるものであっても良く、ここでは特に規定しない。
 制御部120は、情報を表示領域110-1~110-3に表示させる。また、制御部120は、表示領域110-1~110-3のうちのいずれかの表示領域(以下、第1の表示領域と称する)に表示されている情報を判別する。この判別方法は、検知部130の検知の結果から、その視線方向の位置に表示されている情報が何であるかを判別するものである。例えば、その視線方向の位置を示す座標と、現在表示している画像の中の情報それぞれの表示位置を示す座標とを比較し、その座標が一致した情報を判別する。また、制御部120は、判別した情報に関連する関連情報を、第1の表示領域以外の表示領域(以下、第2の表示領域と称する)に表示させる。
 また、制御部120は、第1の表示領域に表示されている情報のうち、検知部130が視線の動きが止まったことを検知したときの視線の方向に表示されている情報を判別する。また、制御部120は、判別した情報に関連する関連情報を第2の表示領域に表示させる。
 また、制御部120は、第1の表示領域に表示されている情報のうち、検知部130が操作者のまばたきを検知したときの視線の方向に表示されている情報を判別する。また、制御部120は、判別した情報に関連する関連情報を第2の表示領域に表示させる。このとき、検知する視線の方向は、検知部130がまばたきを検知する直前の視線の方向であっても良いし、まばたきを検知した直後の視線の方向であっても良い。
 また、制御部120は、判別した情報に関する関連情報を、記憶部140から読み出して第2の表示領域に表示させる。
 記憶部140は、第1の表示領域に表示されている情報と、第1の表示領域に表示されている情報に関連する関連情報とを対応付けて記憶する。
 図2は、図1に示した記憶部140に記憶されている情報の一例を示す図である。
 図1に示した記憶部140には図2に示すように、情報と、その情報と関連する関連情報とが対応付けられて記憶されている。これらは、外部からあらかじめ取得され、記憶部140に記憶されているものである。
 例えば、図2に示すように、情報「A」と関連情報「A’」および「A”」とが対応付けられて記憶されている。これは、制御部120が判別した情報が「A」である場合、制御部120が第2の表示領域に表示させる情報は、「A’」および「A”」であることを示している。また、情報「B」と関連情報「B’」および「B”」とが対応付けられて記憶されている。これは、制御部120が判別した情報が「B」である場合、制御部120が第2の表示領域に表示させる情報は、「B’」および「B”」であることを示している。また、情報「C」と関連情報「C’」とが対応付けられて記憶されている。これは、制御部120が判別した情報が「C」である場合、制御部120が第2の表示領域に表示させる情報は、「C’」であることを示している。
 図3は、図1に示した記憶部に記憶されている情報の他の例を示す図である。
 図1に示した記憶部140には図3に示すように、情報と、その情報と関連する関連情報とが対応付けられて記憶されている。ここで、「関連情報1」は、その情報と関連する関連情報であり、「関連情報2」は、「関連情報1」と関連する関連情報である。このように、情報と関連する関連情報を階層的に記憶するものである。これらは、外部からあらかじめ取得され、記憶部140に記憶されているものである。
 例えば、図3に示すように、情報「A」と関連情報1「A’」と関連情報2「a’」とが対応付けられて記憶されている。これは、制御部120が判別した情報が「A」である場合、制御部120が第2の表示領域に表示させる情報は、「A’」および「a’」であることを示している。また、情報「B」と関連情報1「B’」と関連情報2「b’」とが対応付けられて記憶されている。これは、制御部120が判別した情報が「B」である場合、制御部120が第2の表示領域に表示させる情報は、「B’」および「b’」であることを示している。また、情報「C」と関連情報1「C’」と関連情報2「c’」とが対応付けられて記憶されている。これは、制御部120が判別した情報が「C」である場合、制御部120が第2の表示領域に表示させる情報は、「C’」および「c’」であることを示している。
 図4は、本発明の表示装置の第2の実施の形態を示す図である。
 本形態における表示装置101には図4に示すように、複数の表示領域110-1~110-3と、制御部121と、検知部130と、通信部150とが設けられている。なお、図4には、表示装置101が具備する構成要素のうち、本発明に関わるもののみを示した。また、図4において、表示領域が3つである場合を例に挙げて示しているが、2つ、もしくは4つ以上であっても良い。
 表示領域110-1~110-3は、図1に示したものと同じである。
 検知部130は、図1に示したものと同じである。
 制御部121は、判別した情報に関連する関連情報を、第1の実施の形態のように記憶部140から読み出すのではなく、通信部150を介して、表示装置101と接続された所定のサーバから取得して、第2の表示領域に表示させる。この取得では、判別した情報を検索キーとして、検索サイト等で関連情報の検索を行い、検索された関連情報が格納されているサーバからその関連情報を取得するものであっても良い。また、制御部121が具備するその他の機能については、図1に示した制御部120の機能と同じである。
 通信部150は、表示装置101と接続された所定のサーバとの間で通信を行う。この所定のサーバとは、一般的な通信ネットワークと接続されたサイトに配置されている通信装置であり、様々な情報が格納されているものである。通信部150が通信を行うサーバは、1つのサーバに限らず、情報に応じて、複数のサーバであっても良い。
 次に、本発明の表示装置の外観について説明する。以下では、図1に示した表示装置100を例に挙げて説明する。
 図5は、図1に示した表示装置100の外観の第1の例を示す図である。
 図1に示した表示装置100は図5に示すように、3つの表示領域110-1~110-3が、1つのディプレイ上に配置されている。表示領域110-1と表示領域110-2と表示領域110-3との境界(図5中、破線で示したもの)は、表示装置100を操作する操作者が認識することができれば良く、特に規定しない。例えば、携帯端末で電子メールの本文を入力する際にディスプレイに表示される、入力文章を表示する欄と変換候補を表示する欄とのようなものであっても良い。また、検知部130が、表示装置100を操作する操作者の視線を検知できるような位置に配置されている。
 図6は、図1に示した表示装置100の外観の第2の例を示す図である。なお、図6には、図1に示した表示領域110-3がない例を示した。
 図1に示した表示装置100は図6に示すように、表示領域110-1と表示領域110-2とに区分された表示領域からなるディスプレイ(表示部)を有する。このとき、表示領域110-1と表示領域110-2とは、図5に示すように、同一の筺体に配置されているものであっても良い。また、表示領域110-1と表示領域110-2とは、図6に示すように、ヒンジ等で接続された互いに異なる筐体にそれぞれ配置されている(複数の表示媒体である)ものであっても良い。また、検知部130が、表示装置100を操作する操作者の視線を検知できるような位置に配置されている。
 図7は、図1に示した表示装置100の外観の第3の例を示す図である。
 図1に示した表示装置100は図7に示すように、3つの表示領域110-1~110-3が、物理的に分離された電子ペーパーであり、互いに重ね合わされて、書籍のページのように一辺を保持部160で固定して配置されている。なお、表示領域110-1~110-3は、電子ペーパー以外のものであっても良い。また、検知部130が、表示装置100を操作する操作者の視線を検知できるような位置に配置されている。ここで、表示領域110-1がめくられた場合や、表示領域110-1および表示領域110-2がめくられた場合、図7に示すような位置に検知部130が配置されていると、表示装置100を操作する操作者の視線を検知できない場合がある。そのため、検知部130を、表示領域がめくられても操作する操作者の視線を検知できる位置に配置することが必要となる。
 なお、図7に示すような外観を持つ表示装置の場合、制御部120は、複数の表示領域のうち、最前面に配置されている表示領域を第1の表示領域として認識する。制御部120が、どの表示領域が最前面に配置されているかを識別するには、保持部160内に、表示領域が書籍のページのようにめくられたか否かを検出する機構を設けておき、その機構を用いて行っても良い。また、表示領域110-1~110-3それぞれの表示面側に光センサを設けておき、その光センサのうち、光を検知した光センサが設けられている表示領域を、最前面に配置されている表示領域であると識別するものであっても良い。
 以下に、図1に示した表示装置100における表示方法について説明する。まずは、図1に示した表示装置100における表示方法のうち、図1に示した検知部130が視線の動きが止まったことを検知したときの処理について説明する。また、ここでは、表示領域110-1を第1の表示領域とする場合を例に挙げて説明する。
 図8は、図1に示した表示装置100における表示方法のうち、図1に示した検知部130が視線の動きが止まったことを検知したときの処理を説明するためのフローチャートである。
 まず、ステップ1にて、表示装置100を操作する操作者の視線の動きが止まったことを検知部130が検知すると、ステップ2にて、制御部120が、表示領域110-1の中で、その視線の方向に表示されている情報を判別する。
 すると、ステップ3にて、制御部120が、判別した情報を検索キーとして、その情報に関連した関連情報を記憶部140から検索して読み出す。
 続いて、ステップ4にて、制御部120は、記憶部140から読み出した関連情報を、第2の表示領域である表示領域110-2,110-3に表示させる。
 図9は、図5に示した外観形状である表示装置100に情報および関連情報が表示されたときの表示例を示す図である。ここで、記憶部140には、図2に示した情報と関連情報との対応付けが記憶されており、制御部120が判別した情報が「A」である場合を例に挙げて示す。
 図9に示すように、第1の表示領域である表示領域110-1に表示されている情報のうち、視線が止まったことを検知部130が検知した位置に表示されている情報が「A」であると制御部120が判別すると、記憶部140に記憶されている「A」の関連情報である「A’」と「A”」とが第2の表示領域である表示領域110-2,110-3にそれぞれ表示される。なお、図9では、表示領域110-2に関連情報「A’」が表示され、表示領域110-3に関連情報「A”」が表示されている場合を示しているが、表示領域110-2に関連情報「A”」が表示され、表示領域110-3に関連情報「A’」が表示されても良い。また、制御部120は、表示領域110-1に、検知部130が検知した視線の方向の位置を識別可能に表示させるものであっても良い。例えば、図9に示すように、制御部120は、「A」を破線で囲んだ表示をさせたり、「A」の部分に着色をしたり、「A」の文字色を他の情報の文字色とは異なる色としたりするものであっても良い。また、情報が図9に示すような文字ではなく、写真や絵等の画像であっても良いことは言うまでもない。
 また、記憶部140に、図3に示した対応付けが記憶されている場合、第1の表示領域である表示領域110-1に表示されている情報のうち、視線が止まったことを検知部130が検知した位置に表示されている情報が「A」であると制御部120が判別すると、記憶部140に記憶されている「A」の関連情報1である「A’」と関連情報2である「a’」とが第2の表示領域である表示領域110-2,110-3にそれぞれ表示される。
 図10は、図6に示した外観形状である表示装置100に情報および関連情報が表示されたときの表示例を示す図である。ここで、記憶部140には、図2に示した情報と関連情報との対応付けが記憶されており、制御部120が判別した情報が「A」である場合を例に挙げて示す。
 図10に示すように、第1の表示領域である表示領域110-1に表示されている情報のうち、視線が止まったことを検知部130が検知した位置に表示されている情報が「A」であると制御部120が判別すると、記憶部140に記憶されている「A」の関連情報である「A’」が第2の表示領域である表示領域110-2に表示される。また、制御部120は、表示領域110-1に、検知部130が検知した視線の方向の位置を識別可能に表示させるものであっても良い。例えば、図10に示すように、制御部120は、「A」を破線で囲んだ表示をさせたり、「A」の部分に着色をしたり、「A」の文字色を他の情報の文字色とは異なる色としたりするものであっても良い。また、情報が図10に示すような文字ではなく、写真や絵等の画像であっても良いことは言うまでもない。
 ここで、表示領域110-2に「A’」が表示された状態で、操作者が視線を表示領域110-2から表示領域110-1へ移動させ、表示領域110-1に表示されている情報のうち、視線が止まったことを検知部130が検知した位置に表示されている情報が「B」であると制御部120が判別した場合の処理について説明する。この場合、「A’」の少なくとも一部を操作者が既に見たことを検知していれば、制御部120は、表示領域110-2上で「A’」の少なくとも一部を削除するか、全体を縮小表示する等して、「B」の関連情報「B’」を表示領域110-2に表示させる領域を確保し、表示領域110-2に表示させるものであっても良い。また、「A’」の少なくとも一部を操作者が既に見たことを検知していなければ、制御部120は、「B」の関連情報「B’」を表示領域110-2以外の他の表示領域(ページ)に表示させるものであっても良い。
 図11は、図7に示した外観形状である表示装置100に情報および関連情報が表示されたときの表示例を示す図である。ここで、記憶部140には、図2に示した情報と関連情報との対応付けが記憶されており、制御部120が判別した情報が「A」である場合を例に挙げて示す。
 図11に示すように、第1の表示領域である表示領域110-1に表示されている情報のうち、視線が止まったことを検知部130が検知した位置に表示されている情報が「A」であると制御部120が判別すると、記憶部140に記憶されている「A」の関連情報である「A’」と「A”」とが第2の表示領域である表示領域110-2,110-3にそれぞれ表示される。なお、図11では、表示領域110-2に関連情報「A’」が表示され、表示領域110-3に関連情報「A”」が表示されている場合を示しているが、表示領域110-2に関連情報「A”」が表示され、表示領域110-3に関連情報「A’」が表示されても良い。また、制御部120は、表示領域110-1に、検知部130が検知した視線の方向の位置を識別可能に表示させるものであっても良い。例えば、図11に示すように、制御部120は、「A」を破線で囲んだ表示をさせたり、「A」の部分に着色をしたり、「A」の文字色を他の情報の文字色とは異なる色としたりするものであっても良い。また、情報が図11に示すような文字ではなく、写真や絵等の画像であっても良いことは言うまでもない。
 また、記憶部140に、図3に示した対応付けが記憶されている場合、第1の表示領域である表示領域110-1に表示されている情報のうち、視線が止まったことを検知部130が検知した位置に表示されている情報が「A」であると制御部120が判別すると、記憶部140に記憶されている「A」の関連情報1である「A’」と関連情報2である「a’」とが第2の表示領域である表示領域110-2,110-3にそれぞれ表示される。
 次に、図1に示した表示装置100における表示方法のうち、図1に示した検知部130が操作者のまばたきを検知したときの処理について説明する。また、ここでは、表示領域110-1を第1の表示領域とする場合を例に挙げて説明する。
 図12は、図1に示した表示装置100における表示方法のうち、図1に示した検知部130が操作者のまばたきを検知したときの処理を説明するためのフローチャートである。
 まず、ステップ11にて、表示装置100を操作する操作者がまばたきをしたことを検知部130が検知すると、ステップ12にて、制御部120が、表示領域110-1の中で、その視線の方向に表示されている情報を判別する。
 すると、ステップ13にて、制御部120が、判別した情報を検索キーとして、その情報に関連した関連情報を記憶部140から検索して読み出す。
 続いて、ステップ14にて、制御部120は、記憶部140から読み出した関連情報を、第2の表示領域である表示領域110-2,110-3に表示させる。このときの表示の様子は、図9~11に示したものと同じである。
 次に、図4に示した表示装置101における表示方法のうち、図4に示した検知部130が視線の動きが止まったことを検知したときの処理について説明する。また、ここでは、表示領域110-1を第1の表示領域とする場合を例に挙げて説明する。
 図13は、図4に示した表示装置101における表示方法のうち、図4に示した検知部130が視線の動きが止まったことを検知したときの処理を説明するためのフローチャートである。
 まず、ステップ21にて、表示装置101を操作する操作者の視線の動きが止まったことを検知部130が検知すると、ステップ22にて、制御部121が、表示領域110-1の中で、その視線の方向に表示されている情報を判別する。
 すると、ステップ23にて、制御部121が、判別した情報に関連する関連情報を、通信部150を介して所定のサーバから取得する。関連情報の取得の方法は、上述した通りである。
 続いて、ステップ24にて、制御部120は、通信部150を介して取得した関連情報を、第2の表示領域である表示領域110-2,110-3に表示させる。このときの表示の様子は、図9~11に示したものと同じである。
 次に、図4に示した表示装置101における表示方法のうち、図4に示した検知部130が操作者のまばたきを検知したときの処理について説明する。また、ここでは、表示領域110-1を第1の表示領域とする場合を例に挙げて説明する。
 図14は、図4に示した表示装置101における表示方法のうち、図4に示した検知部130が操作者のまばたきを検知したときの処理を説明するためのフローチャートである。
 まず、ステップ31にて、表示装置101を操作する操作者がまばたきをしたことを検知部130が検知すると、ステップ32にて、制御部121が、表示領域110-1の中で、その視線の方向に表示されている情報を判別する。
 すると、ステップ33にて、制御部121が、判別した情報に関連する関連情報を、通信部150を介して所定のサーバから取得する。関連情報の取得の方法は、上述した通りである。
 続いて、ステップ34にて、制御部120は、通信部150を介して取得した関連情報を、第2の表示領域である表示領域110-2,110-3に表示させる。このときの表示の様子は、図9~11に示したものと同じである。
 なお、このように通信部150を介して関連情報を取得する場合であっても、記憶部140に記憶している関連情報を読み出す場合と同様に、図2に示したような互いに並列的な関連情報や、図3に示したような階層的な関連情報を取得して表示する。
 また、検知部130が検知している操作者の視線の方向の位置に表示されている情報について、同様の処理を行うものであっても良い。
 例えば、図1に示した表示装置100にて、操作者の視線の動きが止まらなくても、その視線の方向の位置に表示されている情報に関連する関連情報を、制御部120は、その視線の動きと連動して第2の表示領域に表示させるものであっても良い。
 図15は、図7に示した外観形状である表示装置100に情報および関連情報が表示されたときの表示の他の例を示す図である。ここで、記憶部140には、図2に示した情報と関連情報との対応付けが記憶されており、検知部130が検知した視線の方向が、「A」が表示されている位置から「B」が表示されている位置へ移動した場合を例に挙げて示す。
 図15に示すように、第1の表示領域である表示領域110-1に表示されている情報のうち、検知部130が検知している視線が動いており、その方向が、「A」が表示されている位置から「B」が表示されている位置へ移動すると、その「A」および「B」を制御部120が判別し、記憶部140に記憶されている「A」の関連情報である「A’」と「B」の関連情報である「B’」が第2の表示領域である表示領域110-2,110-3にそれぞれ表示される。なお、図15では、表示領域110-2に関連情報「A’」が表示され、表示領域110-3に関連情報「B’」が表示されている場合を示しているが、表示領域110-2に関連情報「B’」が表示され、表示領域110-3に関連情報「A’」が表示されても良い。また、制御部120は、表示領域110-1に、検知部130が検知した視線の方向の位置を識別可能に表示させるものであっても良い。例えば、図15に示すように、制御部120は、「A」を方形で囲んだ表示をさせたり、「B」を円で囲んだ表示をさせたりするものであっても良い。
 また、図11に示したように、制御部120は、表示領域110-2に「A’」を表示させ、表示領域110-3に「A”」を表示させた後、所定の時間が経過してから、表示領域110-2に「B’」を表示させ、表示領域110-3に「B”」を表示させるものであっても良い。
 なお、操作者が情報を選択する際、上述したように、視線やまばたきによるもの以外に、一般的なタッチパネルや入力キー等の操作部を用いた方法で行っても良い。
 このように、複数の表示領域を持つ表示装置において、1つの表示領域に表示されている情報のうち、所望の情報についての関連情報を、直観的な動作だけで、表示させることができる。
 なお、表示装置100,101は、携帯電話機、携帯端末、タブレット型やノート型のPC(Personal Computer)、スマートフォン、PDA(Personal Digital Assistants)、ゲーム機、電子書籍等の装置に適用することが可能である。
 上述した表示装置100,101に設けられた各構成要素が行う処理は、目的に応じてそれぞれ作製された論理回路で行うようにしても良い。また、処理内容を手順として記述したコンピュータプログラム(以下、プログラムと称する)を表示装置100,101にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを表示装置100,101に読み込ませ、実行するものであっても良い。表示装置100,101にて読取可能な記録媒体とは、フロッピー(登録商標)ディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、表示装置100,101に内蔵されたROM、RAM等のメモリやHDD等を指す。この記録媒体に記録されたプログラムは、表示装置100,101に設けられた制御部120,121にて読み込まれ、制御部120,121の制御によって、上述したものと同様の処理が行われる。ここで、制御部120,121は、プログラムが記録された記録媒体から読み込まれたプログラムを実行するコンピュータとして動作するものである。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2011年9月26日に出願された日本出願特願2011-208817を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (8)

  1.  複数の表示領域と、
     前記複数の表示領域のうち、第1の表示領域に表示されている情報を判別し、該判別した情報に関連する関連情報を、前記第1の表示領域以外の第2の表示領域に表示させる制御部とを有する表示装置。
  2.  請求項1に記載の表示装置において、
     当該表示装置を操作する操作者の視線の方向を検知する検知部を有し、
     前記制御部は、前記第1の表示領域に表示されている情報のうち、前記検知部が検知した視線の方向に表示されている情報を判別し、該判別した情報に関連する関連情報を前記第2の表示領域に表示させることを特徴とする表示装置。
  3.  請求項2に記載の表示装置において、
     前記検知部は、さらに前記視線の動きを検知し、
     前記制御部は、前記第1の表示領域に表示されている情報のうち、前記検知部が前記視線の動きが止まったことを検知したときの前記視線の方向に表示されている情報を判別し、該判別した情報に関連する関連情報を前記第2の表示領域に表示させることを特徴とする表示装置。
  4.  請求項2に記載の表示装置において、
     前記検知部は、さらに前記操作者の所定のまばたき動作を検知し、
     前記制御部は、前記第1の表示領域に表示されている情報のうち、前記検知部が前記まばたき動作を検知したときの前記視線の方向に表示されている情報を判別し、該判別した情報に関連する関連情報を前記第2の表示領域に表示させることを特徴とする表示装置。
  5.  請求項1から4のいずれか1項に記載の表示装置において、
     前記複数の表示領域は、それぞれが複数の表示媒体であることを特徴とする表示装置。
  6.  請求項1から5のいずれか1項に記載の表示装置において、
     あらかじめ取得された情報と、該情報に関連する関連情報とを対応付けて記憶する記憶部を有し、
     前記制御部は、前記判別した情報に関連する関連情報を、前記記憶部から読み出して、前記第2の表示領域に表示させることを特徴とする表示装置。
  7.  複数の表示領域に情報を表示させる表示方法であって、
     前記複数の表示領域のうち、第1の表示領域に表示されている情報を判別する処理と、
     前記判別した情報に関連する関連情報を前記第1の表示領域以外の第2の表示領域に表示させる処理とを行う表示方法。
  8.  複数の表示領域を具備する表示装置に、
     前記複数の表示領域のうち、第1の表示領域に表示されている情報を判別する手順と、
     前記判別した情報に関連する関連情報を、前記第1の表示領域以外の第2の表示領域に表示させる手順を実行させるためのプログラム。
PCT/JP2012/070137 2011-09-26 2012-08-08 表示装置 WO2013046942A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/347,220 US9395814B2 (en) 2011-09-26 2012-08-08 Display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011208817A JP2013069211A (ja) 2011-09-26 2011-09-26 表示装置、表示方法およびプログラム
JP2011-208817 2011-09-26

Publications (1)

Publication Number Publication Date
WO2013046942A1 true WO2013046942A1 (ja) 2013-04-04

Family

ID=47994994

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/070137 WO2013046942A1 (ja) 2011-09-26 2012-08-08 表示装置

Country Status (3)

Country Link
US (1) US9395814B2 (ja)
JP (1) JP2013069211A (ja)
WO (1) WO2013046942A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3112999A4 (en) * 2014-02-25 2017-10-25 NTT DoCoMo, Inc. Display apparatus and display method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6343889B2 (ja) * 2013-08-30 2018-06-20 コニカミノルタ株式会社 表示制御装置、表示システム、表示プログラム、表示装置
JP6395296B2 (ja) * 2014-08-25 2018-09-26 学校法人 芝浦工業大学 視聴者注目情報提供システム、並びに情報提供装置及びそのプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260773A (ja) * 1997-03-19 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法及びその装置
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2005045745A (ja) * 2003-07-25 2005-02-17 Sony Corp 画面表示装置,プログラム,および画面表示方法
JP2007141059A (ja) * 2005-11-21 2007-06-07 National Institute Of Information & Communication Technology 読書支援システム及びプログラム
JP2009157537A (ja) * 2007-12-25 2009-07-16 Fuji Xerox Co Ltd 情報処理装置、情報処理システム、および情報処理プログラム
JP2009180846A (ja) * 2008-01-30 2009-08-13 Toshiba Corp 情報処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6559971B1 (en) 1998-10-27 2003-05-06 Hewlett-Packard Development Co., L.P. Self-resizing demonstration page for a printing device
JP2003058081A (ja) 2001-08-09 2003-02-28 Casio Comput Co Ltd 電子表示装置
JP4282343B2 (ja) * 2003-02-27 2009-06-17 株式会社日本総合研究所 情報管理装置、情報管理システム、及びプログラム
TWI358028B (en) * 2007-12-25 2012-02-11 Htc Corp Electronic device capable of transferring object b
US20100182232A1 (en) * 2009-01-22 2010-07-22 Alcatel-Lucent Usa Inc. Electronic Data Input System
KR101640460B1 (ko) * 2009-03-25 2016-07-18 삼성전자 주식회사 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기
US8370762B2 (en) * 2009-04-10 2013-02-05 Cellco Partnership Mobile functional icon use in operational area in touch panel devices
JP5333068B2 (ja) * 2009-08-31 2013-11-06 ソニー株式会社 情報処理装置、表示方法及び表示プログラム
US8648880B2 (en) * 2010-06-03 2014-02-11 Sony Corporation Terminal device, display method, and application computer program product

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260773A (ja) * 1997-03-19 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法及びその装置
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2005045745A (ja) * 2003-07-25 2005-02-17 Sony Corp 画面表示装置,プログラム,および画面表示方法
JP2007141059A (ja) * 2005-11-21 2007-06-07 National Institute Of Information & Communication Technology 読書支援システム及びプログラム
JP2009157537A (ja) * 2007-12-25 2009-07-16 Fuji Xerox Co Ltd 情報処理装置、情報処理システム、および情報処理プログラム
JP2009180846A (ja) * 2008-01-30 2009-08-13 Toshiba Corp 情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3112999A4 (en) * 2014-02-25 2017-10-25 NTT DoCoMo, Inc. Display apparatus and display method

Also Published As

Publication number Publication date
US20140225828A1 (en) 2014-08-14
JP2013069211A (ja) 2013-04-18
US9395814B2 (en) 2016-07-19

Similar Documents

Publication Publication Date Title
US9583032B2 (en) Navigating content using a physical object
CN103718082B (zh) 具有集成的手指跟踪输入传感器的可穿戴式平视显示器
US8910087B2 (en) Method and electronic device capable of searching and displaying selected text
US10359905B2 (en) Collaboration with 3D data visualizations
US9339726B2 (en) Method and apparatus for modifying the presentation of information based on the visual complexity of environment information
WO2016099556A1 (en) 3d visualization
US8797317B2 (en) Mobile terminal and control method thereof
US20120284671A1 (en) Systems and methods for interface mangement
US10182141B2 (en) Apparatus and method for providing transitions between screens
JP2010176170A (ja) 表示装置、表示制御方法および表示制御プログラム
US10769200B1 (en) Result re-ranking for object recognition
CN107408100A (zh) 目光用于自动翻页
US10331340B2 (en) Device and method for receiving character input through the same
US20170285904A1 (en) Direct data transfer electronic device and method
WO2013046942A1 (ja) 表示装置
US20140247209A1 (en) Method, system, and apparatus for image projection
WO2014207303A1 (en) Methods, apparatuses, and computer program products for data transfer between wireless memory tags
JP2013218379A (ja) 表示装置及びプログラム
US9626742B2 (en) Apparatus and method for providing transitions between screens
US10809794B2 (en) 3D navigation mode
WO2013046935A1 (ja) 表示装置
US20220027626A1 (en) Finding and filtering elements of a visual scene
JP6288336B2 (ja) 情報処理装置
US20240118803A1 (en) System and method of generating digital ink notes
US20220043506A1 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12836334

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14347220

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12836334

Country of ref document: EP

Kind code of ref document: A1