WO2014034725A1 - 入力制御装置、シンクライアントシステム、入力制御方法および記録媒体 - Google Patents

入力制御装置、シンクライアントシステム、入力制御方法および記録媒体 Download PDF

Info

Publication number
WO2014034725A1
WO2014034725A1 PCT/JP2013/073009 JP2013073009W WO2014034725A1 WO 2014034725 A1 WO2014034725 A1 WO 2014034725A1 JP 2013073009 W JP2013073009 W JP 2013073009W WO 2014034725 A1 WO2014034725 A1 WO 2014034725A1
Authority
WO
WIPO (PCT)
Prior art keywords
pointer
operation target
contact
target area
coordinates
Prior art date
Application number
PCT/JP2013/073009
Other languages
English (en)
French (fr)
Inventor
康樹 門松
Original Assignee
Necシステムテクノロジー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necシステムテクノロジー株式会社 filed Critical Necシステムテクノロジー株式会社
Priority to ES13832021.3T priority Critical patent/ES2668196T3/es
Priority to KR1020157004754A priority patent/KR101709243B1/ko
Priority to US14/423,673 priority patent/US9665238B2/en
Priority to CN201380052842.5A priority patent/CN104718524B/zh
Priority to CA2883404A priority patent/CA2883404A1/en
Priority to EP13832021.3A priority patent/EP2891958B1/en
Publication of WO2014034725A1 publication Critical patent/WO2014034725A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Definitions

  • the present invention relates to an input control device, a thin client system, an input control method, and a recording medium.
  • Patent Documents 1 to 3 A technique in which a user indicates an operation target such as an icon using a pointer in a window displayed on a touch panel display is known (for example, Patent Documents 1 to 3).
  • JP2011-028524A JP 2010-102474 A Japanese Patent Laid-Open No. 11-024841
  • the pointer is displayed at or near the position where the user touches the touch panel display. For this reason, when the user designates an operation target such as an icon displayed near the outer frame of the touch panel display using a pointer, the operation target is displayed in an area close to the outer frame of the touch panel display. Need to touch. However, when the user tries to contact an area close to the outer frame of the touch panel display, particularly an area near the four corners of the square touch panel display, the user may be disturbed by the outer frame of the touch panel display and cannot touch as intended. In this case, with the techniques disclosed in Patent Documents 1 to 3, it is difficult to indicate an operation target displayed near the outer frame of the touch panel display, particularly near the four corners of the square touch panel display, using the pointer.
  • the present invention has been made in view of the above circumstances, and an input control device and a thin client that allow a user to easily designate an operation target displayed near the outer frame of a touch panel display using a pointer. It is an object to provide a system, an input control method, and a recording medium.
  • an input control device provides: A touch panel display; Image display means for displaying an image including an operation target area on the touch panel display; Storage means for storing event correspondence information indicating a correspondence between an event that occurred in each operation target area and event information for each of the operation target areas; Operation recognition means for acquiring contact coordinates indicating a position where the user touches the touch panel display; The direction of the pointer vector from the contact coordinates to the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display to the contact coordinates, and according to the increase in the size of the contact vector, Pointer display means for displaying such that the size of the pointer vector increases; It is determined whether or not the designated coordinates that are the coordinates of the position indicated by the pointer are included in any of the operation target areas, and when the designated coordinates enter any operation target area and / or any operation Event information generating means for generating event information associated with an event that has occurred in the operation target area with reference to the event
  • a thin client system provides: A thin client system comprising: an input control device including a touch panel display; and a server connected to the input control device via a network, The server Image transmission means for transmitting image information indicating an image including an operation target area to the input control device;
  • the input control device Image receiving means for receiving the image information from the server;
  • Image display means for displaying an image including the operation target area on the touch panel display based on the image information;
  • Operation recognition means for acquiring contact coordinates indicating a position where the user touches the touch panel display;
  • the direction of the pointer vector from the contact coordinates to the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display to the contact coordinates, and according to the increase in the size of the contact vector,
  • Pointer display means for displaying such that the size of the pointer vector increases;
  • Position transmitting means for transmitting position information including designated coordinates which are coordinates of a position designated by the pointer to the server;
  • With The server Storage means for storing
  • An input control method is: An image display step for displaying an image including the operation target area on the touch panel display; An operation recognition step of obtaining contact coordinates indicating a position where the user touches the touch panel display; The direction of the pointer vector from the contact coordinates to the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display to the contact coordinates, and according to the increase in the size of the contact vector, A pointer display step for displaying the pointer vector so as to increase in size; It is determined whether or not the designated coordinates that are the coordinates of the position indicated by the pointer are included in any of the operation target areas, and when the designated coordinates enter any operation target area and / or any operation target For each operation target area stored in the storage means, the event correspondence information indicating the correspondence between the event that occurred in each operation target area and the event information is stored in the operation target area.
  • An event information generation step for generating event information associated with the event, It is characterized by providing.
  • An input control method is: An image transmission step in which the server transmits image information indicating an image including the operation target area to an input control device connected to the server via a network; An image receiving step in which the input control device receives the image information from the server; An image display step in which the input control device displays an image including the operation target area on a touch panel display based on the image information; An operation recognition step in which the input control device acquires contact coordinates indicating a position where the user has touched the touch panel display; In the input control device, the direction of the pointer vector from the contact coordinates toward the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display toward the contact coordinates, and the size of the contact vector.
  • a pointer display step for displaying the pointer vector such that the size of the pointer vector increases in accordance with an increase in
  • a position transmitting step in which the input control device transmits position information including designated coordinates, which are coordinates of a position designated by the pointer, to the server;
  • a position receiving step in which the server receives the position information from the input control device;
  • the server determines whether or not the designated coordinates are included in any of the operation target areas based on the position information, and when the designated coordinates enter any operation target area and / or any
  • the operation target area is referred to event correspondence information indicating a correspondence between an event occurring in each operation target area and the event information.
  • An event information generation step for generating event information associated with the event that occurred in
  • An execution step in which the server performs processing associated with the event information with reference to processing information indicating correspondence between the event information and processing stored in the storage unit; It is characterized by providing.
  • Computer Image display means for displaying an image including an operation target area on a touch panel display;
  • Storage means for storing event correspondence information indicating a correspondence between an event that occurred in each operation target region and event information for each operation target region;
  • Operation recognition means for recognizing contact coordinates indicating a position where the user touches the touch panel display;
  • the direction of the pointer vector from the contact coordinates to the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display to the contact coordinates, and according to the increase in the size of the contact vector,
  • Pointer display means for displaying such that the size of the pointer vector increases; It is determined whether or not the designated coordinates that are the coordinates of the position indicated by the pointer are included in any of the operation target areas, and when the designated coordinates enter any operation target area and / or any operation target
  • Event information generating means for generating event information associated with an event that has occurred in the operation target area with reference to the event correspondence information when exiting from the area
  • the user can easily indicate the operation target displayed near the outer frame of the touch panel display using the pointer.
  • FIG. 10 is a diagram illustrating another display example of a pointer by the input control device according to the first embodiment.
  • FIG. 10 is a diagram illustrating another display example of a pointer by the input control device according to the first embodiment.
  • FIG. 10 is a diagram illustrating another display example of a pointer by the input control device according to the first embodiment.
  • FIG. 10 is a diagram illustrating another display example of a pointer by the input control device according to the first embodiment.
  • FIG. 10 is a diagram illustrating another display example of a pointer by the input control device according to the first embodiment.
  • 3 is a block diagram illustrating an example of a hardware configuration of the input control device according to Embodiment 1.
  • FIG. 3 is a block diagram illustrating an exemplary functional configuration of the input control device according to the first embodiment.
  • FIG. 6 is a diagram for explaining an operation in which a user uses a pointer to designate an operation target area using the input control device according to the first embodiment.
  • 3 is a flowchart illustrating an example of an operation of the input control device according to the first embodiment. It is a figure which shows the example of a display of the icon and pointer by the input control apparatus which concerns on Embodiment 2 of this invention. It is a figure which shows the other example of a display of the icon by the input control apparatus which concerns on Embodiment 2, and a pointer.
  • the input control device 1 includes a touch panel display TD. As illustrated in FIG. 1, the input control device 1 displays a pointer PO, an operation target area OB, and a window WI on the touch panel display TD.
  • event information previously associated with the event generated in the operation target area OB is generated. For example, when the user designates an arbitrary operation target area OB with the pointer PO or taps the pointer with the pointer PO, the input control device 1 detects these operations, and the operation target area OB is selected. Event information that is associated in advance with an operation to be instructed or an operation to be tapped after instructing is generated.
  • the input control device 1 acquires contact coordinates CO indicating the position on the touch panel display TD that the user is in contact with. Further, the input control device 1 executes the input control application program, and displays the pointer PO at the display position determined based on the contact coordinates CO as shown in FIG.
  • the contact coordinates CO are indicated by black circles
  • the center coordinates CE of the touch panel display TD are indicated by crosses.
  • a vector hereinafter referred to as a pointer vector CP
  • a contact vector CC from the center coordinate CE of the touch panel display TD to the contact coordinate CO are indicated by a one-dot chain line arrow. ing. Actually, a black circle, a cross, and a one-dot chain line arrow are not displayed.
  • the input control device 1 sets the pointer PO to match the direction of the pointer vector CP with the direction of the contact vector CC, and the size of the pointer vector CP is equal to the size LC of the contact vector CC. Display proportionally.
  • k is a proportionality constant greater than 1.
  • the input control device 1 displays the pointer PO as described above and the contact coordinates CO approach the outer frame of the touch panel display TD as shown in FIGS. 1 and 2, the pointer PO is automatically displayed on the touch panel display TD. Displayed near the outer frame.
  • the input control device 1 includes a control unit 11, a main storage unit 12, an external storage unit 13, a display unit 14, an operation unit 15, a timer 16, and these units. And an internal bus 10 to be connected.
  • the control unit 11 includes a CPU (Central Processing Unit) and the like, and controls each unit of the input control device 1.
  • the control unit 11 implements various functions of the input control device 1 by executing various programs such as an input control application program stored in the external storage unit 13.
  • the main storage unit 12 is composed of a RAM (Random-Access Memory) or the like, and temporarily stores various data and various programs.
  • the main storage unit 12 functions as a work area of the control unit 11 by developing a program such as an input control application program stored in the external storage unit 13.
  • the external storage unit 13 is composed of a non-volatile memory such as a flash memory, and stores various programs such as various data and input control application programs in a fixed manner.
  • the display unit 14 includes an LCD (Liquid Crystal Display) or the like, and displays an image according to the control of the control unit 11.
  • LCD Liquid Crystal Display
  • the operation unit 15 includes a touch pad or the like superimposed on the LCD constituting the display unit 14 and detects a user's contact.
  • the LCD constituting the display unit 14 and the touch pad constituting the operation unit 15 constitute a touch panel display TD.
  • the timer 16 periodically supplies the current time to the control unit 11.
  • the input control apparatus 1 having the above physical configuration functionally includes a display unit 101, an input unit 102, an operation recognition unit 103, a storage unit 104, a display control unit 105, and the like. .
  • the input control device 1 also has a moving image reproduction function and the like, but FIG. 4 mainly shows characteristic parts and does not show others.
  • the display unit 101 displays an image according to the control of the display control unit 105 described later.
  • the input unit 102 detects a user's contact and receives an input.
  • the operation recognition unit 103 acquires the physical position on the touch panel display TD touched by the user from the input unit 102.
  • the operation recognition unit 103 converts the acquired physical position into coordinates with reference to touch panel display coordinate information for converting a physical position on the touch panel display TD into coordinates stored in the storage unit 104 described later. Then, the obtained coordinates are acquired as the contact coordinates CO.
  • the operation recognition unit 103 sends the contact coordinates CO to the display control unit 105. Further, the operation recognition unit 103 acquires a contact time, which is a time during which the user has touched the touch panel display TD, based on the detection of the contact by the input unit 102.
  • the storage unit 104 stores image information, touch panel display coordinate information, event correspondence information, and processing information.
  • the image information is image information representing a pointer PO, a window WI, and the like.
  • the touch panel display coordinate information is information for converting a physical position on the touch panel display TD into coordinates.
  • the event correspondence information is information indicating a correspondence between an event occurring in each operation target area OB and the event information for each operation target area OB.
  • the processing information is information indicating correspondence between event information and processing.
  • the display control unit 105 reads image information from the storage unit 104 and causes the display unit 101 to display an image including the pointer PO, the operation target area OB, the window WI, and the like.
  • the display control unit 105 executes the input control application program, so that the direction of the pointer vector CP matches the direction of the contact vector CC based on the contact coordinates CO received from the operation recognition unit 103, and the magnitude of the contact vector CC.
  • the pointer PO is displayed so that the size of the pointer vector CP is proportional to the length LC.
  • the display control unit 105 displays the pointer PO at the contact coordinates CO received from the operation recognition unit 103 or at a position separated from the contact coordinates CO by a predetermined distance. To do.
  • the user drags the touch position while touching the touch panel display TD, thereby changing the contact coordinates CO and moving the pointer PO as shown in FIGS. 2A to 2D.
  • the display control unit 105 displays the pointer PO such that the x coordinate is greater than or equal to threshold ⁇ Xp and less than or equal to threshold Xp, and the y coordinate is greater than or equal to threshold ⁇ Yp and less than or equal to threshold Yp.
  • the display control unit 105 determines whether or not the coordinates of the position indicated by the pointer PO (hereinafter referred to as “instructed coordinates”) are included in the operation target area OB.
  • the display control unit 105 displays each operation target area for each operation target area OB stored in the storage unit 104 when the designated coordinates enter the operation target area OB and / or when the specified coordinate comes out of the operation target area OB.
  • Event information corresponding to an event occurring in the operation target area OB is generated with reference to event correspondence information indicating a correspondence between an event occurring in the OB and event information.
  • the display control unit 105 refers to the processing information indicating the correspondence between the event information and the processing stored in the storage unit 104, and executes the processing when the processing is associated with the generated event information. .
  • event information “OB1-ON” is generated when the designated coordinate enters the operation target area OB1
  • event information “OB1-OFF” is generated when the specified coordinate exits the operation target area OB1.
  • the display control unit 105 refers to the processing information stored in the storage unit 104 and executes processing corresponding to the event information “OB1-ON”.
  • the display control unit 105 reads image information representing a processing screen corresponding to the processing from the storage unit 104 and causes the display unit 101 to display the processing screen.
  • the operation recognition unit 103 may determine whether the user has tapped based on the contact time. For example, the operation recognition unit 103 determines that the user has tapped when the contact time is greater than or equal to the threshold value ⁇ and less than or equal to the threshold value ⁇ .
  • the threshold value ⁇ it is possible to prevent a contact having a short contact time that occurs when, for example, the touch panel display TD is touched without an intention of the user from operating as a tap.
  • the threshold value ⁇ when the user accidentally touches the touch panel display TD, the tap can be released by continuing to touch.
  • the operation recognizing unit 103 determines that the user has tapped, the operation recognizing unit 103 sends information indicating that the user has tapped to the display control unit 105.
  • the display control unit 105 Upon receiving information indicating that the user has tapped, the display control unit 105 generates event information “tap”, for example.
  • the display control unit 105 refers to the processing information stored in the storage unit 104 and executes processing corresponding to the event information “tap”.
  • another function unit included in the input control device 1 may refer to the processing information and execute processing corresponding to the generated event information.
  • FIG. 5 is a diagram for explaining an operation in which the user designates the operation target area OB using the pointer PO.
  • the window WI minimize button is the operation target area OB1
  • the window WI maximize button is the operation target area OB2
  • the window WI “close” button is the operation target area OB3.
  • the input control device 1 displays the operation target area OB3 that is the “close” button of the window WI in the upper right corner of the touch panel display TD as shown in FIG.
  • the user wants to operate the operation target area OB3
  • the user drags the contact position toward the upper right corner.
  • the pointer PO moves closer to the outer frame of the touch panel display TD as the contact position approaches the upper right corner of the touch panel display TD. Therefore, as shown in FIG. 5, the user can instruct the operation target area OB3 that is the “close” button of the window WI with the pointer PO without moving the finger to the position of the operation target area OB3. .
  • the display control unit 105 refers to the processing information stored in the storage unit 104 and executes processing corresponding to the combination of event information “OB3-ON” and “tap”. After execution of the process, the window WI is closed.
  • a process associated with the instruction by the pointer PO and tapping by the user is performed, such as OB3 which is a “close” button of the window WI shown in FIG.
  • OB3 which is a “close” button of the window WI shown in FIG.
  • the input control device 1 can execute various functions such as moving image reproduction.
  • the input control device 1 starts the processing shown in the flowchart of FIG. In the present embodiment, it is assumed that the input control device 1 starts the input control application program when the power is turned on.
  • step S11 When the input unit 102 detects the user's contact (step S11; YES), the operation recognition unit 103 acquires the physical position on the touch panel display TD where the input unit 102 has detected the contact, and the storage unit 104 stores the physical position. With reference to touch panel display coordinate information, the acquired physical position is converted into coordinates, and these coordinates are acquired as contact coordinates CO (step S12). The operation recognition unit 103 sends the contact coordinates CO to the display control unit 105. If the input unit 102 does not detect contact (step S11; NO), step S11 is repeated.
  • the display control unit 105 Based on the contact coordinates CO received from the operation recognition unit 103, the display control unit 105 matches the direction of the pointer vector CP with the direction of the contact vector CC, and sets the size of the contact vector CC to the magnitude LC of the pointer vector CP.
  • the display position of the pointer PO is calculated so that the size is proportional (step S13).
  • the display control unit 105 displays the pointer PO at the display position calculated in step S13 (step S14). *
  • the display control unit 105 determines whether or not the designated coordinates (the coordinates of the position designated by the pointer PO) are included in any operation target area OB (step S15).
  • the display control unit 105 stores each operation target area OB for each operation target area OB stored in the storage unit 104. Referring to event correspondence information indicating the correspondence between the event that occurred in the event and the event information, event information indicating that the designated coordinate has entered the operation target area OB is generated (step S17), and the process proceeds to step S20. .
  • step S15 When the designated coordinate comes out of an arbitrary operation target area OB (step S15; NO, step S18; YES), the display control unit 105 refers to the event correspondence information, and the designated coordinate comes out of the operation target area OB. Event information indicating this is generated (step S19), and the process proceeds to step S20.
  • step S15; YES, step S16; NO when the designated coordinates are not in any operation target area OB (step S15; YES, step S16; NO), and when the designated coordinates are not out of the operation target area OB (step S15; NO, step S18). NO), the operation recognition unit 103 determines whether or not the user has tapped at the contact coordinates CO based on the contact coordinates CO and the contact time (step S20). When the user has not tapped at the contact coordinates CO (step S20; NO), the process proceeds to step S21. On the other hand, when the user taps at the contact coordinates CO (step S20; YES), the operation recognition unit 103 sends information indicating that the user has tapped at the contact coordinates CO to the display control unit 105.
  • the display control unit 105 Upon receiving information indicating that the user has tapped at the contact coordinates CO from the operation recognition unit 103, the display control unit 105 refers to the event correspondence information and generates event information indicating that the contact coordinates CO has been tapped. (Step S22). The display control unit 105 refers to the process information and executes the process when the process is associated with the event information generated in steps S17, S19, and S22 (step S21), and step S23. Migrate to
  • steps S12 to S23 are repeated.
  • step S24 When the input unit 102 no longer detects contact (step S23; YES), it is determined whether or not the input control application program is turned off (step S24). If the input control application program is not turned off (step S24). (S24; NO), Steps S11 to S23 are repeated. When the input control application program is turned off (step S24; YES), the process is terminated.
  • the input control application program is started at the same time as the input control device 1 is turned on.
  • the start timing of the input control application program is not limited to this.
  • the input control application program according to the present embodiment exerts a great effect when the operation target area OB displayed near the outer frame of the touch panel display TD is indicated by the pointer PO. Therefore, for example, when the user touches within a predetermined range from the outer frame of the touch panel display TD, the input control application program is automatically started, and the pointer PO is set in the direction of the pointer vector CP and the direction of the contact vector CC. May be displayed, and the size of the pointer vector CP may be proportional to the size LC of the contact vector CC.
  • the pointer PO is set to a predetermined value from the contact coordinates CO or from the contact coordinates CO. It is displayed at a position separated by a distance.
  • the pointer PO is displayed so that the direction of the pointer vector CP and the direction of the contact vector CC completely coincide.
  • the display method of the pointer PO is not limited to this.
  • the touch panel display TD may be divided into a plurality of areas, and the direction of the pointer vector CP in each area may be set to a predetermined direction that radiates from the center of the touch panel display TD.
  • the contact vector CC is a vector from the center coordinate CE of the touch panel display TD to the contact coordinate CO.
  • a vector from an arbitrary reference point on the touch panel toward the contact coordinate CO may be used as the contact vector CC.
  • the input control device 1 displays the pointer PO so that the direction of the vector from the reference point toward the contact coordinate CO matches the direction of the vector from the contact coordinate CO toward the pointer PO.
  • the pointer PO is displayed such that the size of the pointer vector CP is proportional to the size LC of the contact vector CC.
  • the size of the pointer vector CP may be increased in accordance with the increase in the size LC of the contact vector CC, and the display method of the pointer PO is not limited to this.
  • the pointer PO, the size LC contact vector CC, and size LP, the relationship of the pointer vectors CP, LP k n LC n + k n-1 LC n-1 + ... + k 0 LC 0 ( formula N and k n, k n ⁇ 1 ,..., K 0 may be arbitrary constants).
  • Arbitrary constants n and k n, k n ⁇ 1 ,..., K 0 are obtained by, for example, obtaining a correlation between the size LC of the contact vector CC and the size LP of the pointer vector CP by the user.
  • the contact position in a part of the touch panel display TD for example, a square area occupying 2/3 to 4/5 of the square touch panel display TD
  • the entire area on the touch panel display TD is moved to the pointer PO. It is set to a value that can be indicated using.
  • the method for determining arbitrary constants n and k n, k n ⁇ 1 ,..., K 0 is not limited to this, and may be set as appropriate by any method.
  • the pointer PO is displayed at a position calculated with reference to the contact coordinates CO. If no user contact is detected (step S11; NO), the pointer PO may be displayed at a predetermined position. In this case, when the user's contact is detected (step S11; Yes) and the contact coordinates CO are acquired and the display position is calculated, the pointer PO is displayed at the display position.
  • the input display device 1 according to the first embodiment displays nothing on the contact coordinates CO. For this reason, the user who taps with the contact coordinates CO performs the tap in an area where nothing is displayed on the touch panel display TD. As shown in FIG. 7, the input control device 1 according to the second embodiment of the present invention displays an icon IC so that the user can intuitively perform operations such as tapping.
  • the input control device 1 acquires the contact coordinates CO indicating the position on the touch panel display TD that the user has touched.
  • the input control device 1 displays the icon IC at the contact coordinates CO as shown in FIG. 7 by executing the input control application program.
  • an image such as a window WI is displayed at the contact coordinates CO, the icon IC is displayed superimposed on this image.
  • the input control device 1 determines the display position of the pointer PO with reference to the contact coordinates CO. Specifically, as shown in FIG. 7, the input control device 1 determines that the vector (pointer vector CP) from the touch coordinate CO to the pointer PO has a direction from the center coordinate CE of the touch panel display TD to the touch coordinate CO. The pointer PO is displayed so that it matches the direction of (contact vector CC) and the magnitude of the pointer vector CP is proportional to the magnitude LC of the contact vector CC. In FIG. 7, k is a proportionality constant. Note that none of the black circles indicating the contact coordinates CO, the dashed-dotted arrows indicating the pointer vector CP and the contact vector CC, and the x marks indicating the center coordinates CE shown in FIG. 7 are actually displayed.
  • the user drags the icon IC by dragging the contact position on the touch panel display TD, and moves the pointer PO.
  • the pointer PO becomes closer to the outer frame of the touch panel display TD as the display position of the icon IC (contact coordinate CO) becomes closer.
  • the display position (contact coordinates CO) of the icon IC is closer to the outer frame of the touch panel display TD.
  • the pointer PO is no longer buried in the outer frame of the touch panel display TD.
  • the input control device 1 displays the icon IC in a translucent manner.
  • the semi-transparent display means that when the icon IC is superimposed on another image such as the window WI, the pixel is calculated and displayed so that the image on which the icon IC is superimposed is seen through the icon IC. That means.
  • the icon IC simulates a left button and a right button of a mouse, for example, as shown in FIG. Also, the user inputs an operation similar to, for example, a right click or left click of the mouse by tapping the icon IC. The user can clearly recognize the position to be tapped by visually observing the icon IC.
  • the input control device 1 according to the second embodiment has the same hardware configuration and functional configuration as the input control device 1 according to the first embodiment. However, the functions and operations of the operation recognition unit 103 and the display control unit 105 are different from those of the input control device 1 of the first embodiment. Hereinafter, this difference will be mainly described.
  • the display control unit 105 When the input control application program is activated, the display control unit 105 reads the image data of the icon IC from the storage unit 104 and causes the display unit 101 to display it on the contact coordinates CO. When an image is displayed at the contact coordinates CO, the display control unit 105 causes the icon IC to be displayed superimposed on the image. The icon IC is displayed translucently, and the back image can be seen through the icon IC, so that it does not interfere with the operation.
  • the user changes the contact coordinate CO by dragging the contact position while touching the touch panel display TD, drags the icon IC, and moves the pointer PO.
  • the display control unit 105 Based on the contact coordinates CO received from the operation recognition unit 103, the display control unit 105 matches the direction of the pointer vector CP with the direction of the contact vector CC, and the size of the pointer vector CP is equal to the size LC of the contact vector CC.
  • the pointer PO is displayed so as to be proportional.
  • the operation recognition unit 103 acquires a contact time that is a time during which the user is in contact with the touch panel display TD.
  • the operation recognition unit 103 determines whether the user has tapped the icon IC based on the contact coordinates CO and the contact time.
  • the operation recognition unit 103 sends information indicating that the user has tapped the icon IC to the display control unit 105.
  • the display control unit 105 When the display control unit 105 receives information indicating that the user has tapped the icon IC from the operation recognition unit 103, the display control unit 105 generates event information indicating that the icon IC has been tapped and issues an event.
  • FIG. 9 is a diagram for explaining the operation of pointing the operation target area OB using the pointer PO and tapping the icon IC.
  • the window WI minimize button is the operation target area OB1
  • the window WI maximize button is the operation target area OB2
  • the window WI “close” button is the operation target area OB3.
  • the operation target area OB3 which is the “close” button of the window WI is displayed in the upper right corner of the touch panel display D as shown in FIG.
  • the user drags the icon IC toward the upper right corner of the touch panel display TD.
  • the pointer PO automatically approaches the outer frame of the touch panel display TD. Therefore, as shown in FIG. 9, the user can instruct the operation target area OB3 using the pointer PO without moving the finger to the position of the operation target area OB3.
  • event information “OB3-ON” is generated.
  • event information “IC-tap” is generated.
  • the display control unit 105 refers to the processing information stored in the storage unit 104 and executes processing corresponding to the combination of event information “OB3-ON” and “IC-tap”. After the process is executed, the window WI is closed.
  • the input control device 1 according to the second embodiment has various functions such as a moving image reproduction function. In the following description, operations characteristic of the input control device 1 according to the second embodiment will be mainly described.
  • the input control device 1 starts the processing shown in the flowchart of FIG. In the present embodiment, the input control device 1 starts the input control application program when the power is turned on.
  • step S31 When the input unit 102 detects the user's contact (step S31; YES), the operation recognition unit 103 acquires the physical position on the touch panel display TD where the input unit 102 has detected the contact, and the storage unit 104 stores the physical position. The physical position is converted into coordinates with reference to the touch panel display coordinate information, and the coordinates are acquired as the contact coordinates CO and the contact time is acquired (step S32). The operation recognition unit 103 sends the contact coordinates CO and the contact time to the display control unit 105. If the input unit 102 does not detect contact (step S31; NO), step S31 is repeated.
  • the display control unit 105 Based on the contact coordinates CO received from the operation recognition unit 103, the display control unit 105 matches the direction of the pointer vector CP with the direction of the contact vector CC, and the size of the pointer vector CP is equal to the size LC of the contact vector CC.
  • the display position of the pointer PO that is proportional is calculated (step S33).
  • the display control unit 105 reads the image data of the pointer PO and the icon IC from the storage unit 104, and displays the icon IC on the contact coordinates CO and the pointer PO on the display position calculated in step S33 on the display unit 101 (step S34). ).
  • the display control unit 105 determines whether or not the designated coordinates, which are the coordinates of the position designated by the pointer PO, are included in any operation target area OB (step S35).
  • the display control unit 105 stores each operation target area OB for each operation target area OB stored in the storage unit 104. Referring to event correspondence information indicating the correspondence between the event and the event information that occurred in step 1, event information indicating that the designated coordinates have entered the operation target area OB is generated (step S37), and the process proceeds to step S40. .
  • step S35 When the designated coordinate comes out of any operation target area OB (step S35; NO, step S38; YES), the display control unit 105 refers to the event correspondence information, and the designated coordinate comes out of the operation target area OB. Event information indicating this is generated (step S39), and the process proceeds to step S40.
  • step S35; YES, step S36; NO when the designated coordinates are not included in any operation target area OB (step S35; YES, step S36; NO), and when the designated coordinates are not output from the operation target area OB (step S35; NO, step S38). NO), the operation recognition unit 103 determines whether or not the icon IC has been tapped based on the contact coordinates CO and the contact time (step S40). When the icon IC is not tapped (step S40; NO), the process proceeds to step S42. On the other hand, when the icon IC is tapped (step S40; YES), the operation recognition unit 103 sends information indicating that the user has tapped the icon IC to the display control unit 105.
  • the display control unit 105 When the display control unit 105 receives information indicating that the user has tapped the icon IC from the operation recognition unit 103, the display control unit 105 generates event information indicating that the icon IC has been tapped (step S41). The display control unit 105 refers to the process information, and if the process is associated with the event information generated in steps S37, S39, and S41, executes the process (step S42). The process proceeds to S43.
  • step S32 to step S43 are repeated.
  • step S44 When the input unit 102 no longer detects contact (step S43; YES), it is determined whether or not the input control application program is turned off (step S44). If the input control application program is not OFF (step S44; NO), steps S31 to S44 are repeated. When the input control application program is turned off (step S44; YES), the process is terminated.
  • the pointer PO automatically approaches the outer frame as the user's contact position on the touch panel display TD becomes closer to the outer frame of the touch panel display TD. Therefore, the user can easily indicate the operation target area OB displayed near the outer frame, particularly near the four corners of the square touch panel display TD, using the pointer PO. Further, by displaying an icon IC simulating a mouse, the user can intuitively perform operations such as tapping.
  • the icon IC is displayed at the contact coordinates CO.
  • the icon IC may be displayed at a position away from the contact coordinates CO by a predetermined distance.
  • you may display icon IC in a predetermined position. In this case, when the user's contact is detected (step S31; Yes) and the contact coordinates CO are acquired, an icon IC is displayed at the contact coordinates.
  • the icon IC it is determined only whether or not the user has tapped the icon IC, but it may be further determined which region of the icon IC the user has tapped. In this case, for each area of the icon IC, an event occurring in each area is associated with the event information, and a process is associated with each event information.
  • the input control device 1 according to the third embodiment has the same hardware configuration and functional configuration as the input control device 1 according to the second embodiment. However, the function and operation of the display control unit 105 are different from those of the input control device 1 of the second embodiment. Hereinafter, this difference will be mainly described.
  • the display control unit 105 executes the input control application program, so that the direction of the pointer vector CP matches the direction of the contact vector CC based on the contact coordinates CO received from the operation recognition unit 103, and the magnitude of the contact vector CC.
  • the pointer PO is displayed at a position where the size of the pointer vector CP is proportional to the length LC. Further, as shown in FIGS. 11A to 11D, the display control unit 105 displays the pointer PO so that the direction of the arrow-shaped pointer PO and the direction of the contact vector CC coincide with each other.
  • the pointer PO is displayed so that the direction in which the arrow-shaped pointer PO is directed completely coincides with the direction of the contact vector CC.
  • the direction in which the pointer PO is directed and the direction of the contact vector CC need only be substantially the same, and the display method of the pointer PO is not limited to this.
  • the touch panel display TD may be divided into a plurality of areas, and the direction in which the pointer PO is directed in each area may be set to a predetermined direction radiating from the center of the touch panel display TD.
  • the shape of the pointer PO is not limited to the arrow shape.
  • a triangular pointer PO may be displayed.
  • the input control apparatus 1 detects the contact by the user, acquires the contact coordinates CO and the contact time, calculates the display position of the pointer PO, displays the pointer PO and the icon IC, and indicates the instruction coordinates.
  • a series of processes such as determination of whether or not the area OB is included, issue of an event, and execution of the process were executed.
  • a device other than the input control device 1 may perform part of the above-described processing.
  • the thin client system 3 according to the fourth embodiment in which the input control device 1 and the server cooperate to execute the above-described series of processes will be described.
  • the thin client system 3 includes an input control device 1 and a server 2 as shown in FIG.
  • the input control device 1 has a hardware configuration similar to that of the input control device 1 of the first embodiment, and further includes a communication unit (not shown).
  • the communication unit includes a network termination device or a wireless communication device for connecting to a network, and a serial interface or a LAN (Local Area Network) interface.
  • the communication unit is connected to the server 2 via a network.
  • the input control device 1 has the same configuration as that of the input control device 1 according to the first embodiment, and further includes an image reception unit 106 and a position transmission unit 107. Further, some of the functions and operations of the display control unit 105 are also different from those of the input control device 1 of the first embodiment. Hereinafter, these differences will be mainly described.
  • the image receiving unit 106 receives image information representing images such as the window WI and the operation target area OB from the image transmitting unit 203 of the server 2.
  • the display control unit 105 causes the display unit 101 to display images such as the window WI and the operation target area OB based on the image information received by the image receiving unit 106.
  • the display control unit 105 reads the image information of the pointer PO from the storage unit 104, and displays the contact coordinate CO or the contact coordinate CO received from the operation recognition unit 103 on the display unit 101.
  • the pointer PO is displayed at a position away from the camera by a predetermined distance.
  • the display control unit 105 sets the pointer PO based on the contact coordinates CO received from the operation recognition unit 103, the direction of the pointer vector CP matches the direction of the contact vector CC, and the contact vector CC. Is displayed so that the size of the pointer vector CP is proportional to the size LC.
  • the display control unit 105 sends position information including the designated coordinates (position coordinates pointed by the pointer PO) to the position transmission unit 107.
  • the position transmission unit 107 transmits the position information received from the display control unit 105 to the position reception unit 204 of the server 2.
  • the server 2 includes an execution unit 201, a storage unit 202, an image transmission unit 203, and a position reception unit 204.
  • the execution unit 201 of the server 2 reads out image information indicating an image including the window WI and the operation target area OB from the storage unit 202, sends the image information to the image transmission unit 203, and transmits the image information to the image reception unit 106 of the input control device 1.
  • the position receiving unit 204 When the position receiving unit 204 receives position information from the position transmitting unit 107 of the input control device 1, the position receiving unit 204 sends the position information to the executing unit 201.
  • the execution unit 201 determines whether or not the designated coordinates are included in the operation target area OB based on the position information received from the position reception unit 204.
  • the execution unit 201 stores each operation target area OB stored in the storage unit 202 in each operation target area OB.
  • Event information corresponding to the event that occurred in the operation target area OB is generated by referring to the event correspondence information that indicates the correspondence between the event that occurred and the event information.
  • the execution unit 201 refers to the process information indicating the correspondence between the event information and the process stored in the storage unit 202. If the process is associated with the generated event information, the execution unit 201 executes the process.
  • the execution unit 201 reads image information indicating a processing screen corresponding to the executed process from the storage unit 202, sends the image information to the image transmission unit 203, and causes the image reception unit 106 of the input control apparatus 1 to transmit the image information.
  • the display control unit 105 causes the display unit 101 to display the processing screen based on the image information.
  • the server 2 determines whether or not the designated coordinates are included in the operation target area OB, issues an event, executes a process, and the like. For this reason, the processing load of the input control device 1 is reduced. Thereby, the cost reduction and size reduction of the input control apparatus 1 are attained.
  • the server when the server includes a display, the server display screen is displayed on the touch panel display of the input control device.
  • the touch panel display of the input control device is smaller than the display of the server, the screen is reduced and it may be difficult to operate the operation target area displayed near the outer frame of the touch panel display.
  • the thin client system 3 of the fourth embodiment when the contact position of the user on the touch panel display TD included in the input control device 1 approaches the outer frame of the touch panel display TD, the pointer PO is automatically near the outer frame. Is displayed. For this reason, even if the screen is reduced and displayed, the operation target area OB displayed near the outer frame of the touch panel display TD can be easily indicated using the pointer PO.
  • the input control device 1 transmits position information including instruction coordinates to the server 2, the server 2 determines whether or not the instruction coordinates are included in the operation target area OB, and the instruction coordinates are the operation target.
  • event information corresponding to an event occurring in the operation target area OB is generated with reference to the event correspondence information.
  • the configuration of the thin client system 3 is not limited to this.
  • event information corresponding to the event that occurred in the operation target area OB may be generated and transmitted to the server 2.
  • the server 2 refers to the processing information and executes the processing when the processing is associated with the received event information.
  • the input control device 1 and the thin client system 3 can be realized by using a normal computer system without depending on a dedicated system.
  • a computer program for executing the operations of the input control device 1 and the thin client system 3 is stored in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.) and distributed.
  • You may comprise the input control apparatus 1 and the thin client system 3 which perform the above-mentioned process by installing a computer program in a computer.
  • the computer program may be stored in a storage device included in a server device on a communication network such as the Internet, and the input control device 1 and the thin client system 3 may be configured by being downloaded by a normal computer system. .
  • the functions of the input control device 1 and the thin client system 3 are realized by sharing the OS and the application program, or by cooperation between the OS and the application program, only the application program portion is stored in a recording medium or a storage device. It may be stored.
  • the computer program may be posted on a bulletin board (BBS: Bulletin Board System) on a communication network, and the computer program may be distributed via the network.
  • BSS Bulletin Board System
  • the computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing can be executed.
  • a touch panel display A touch panel display; Image display means for displaying an image including an operation target area on the touch panel display; Storage means for storing event correspondence information indicating a correspondence between an event that occurred in each operation target area and event information for each of the operation target areas; Operation recognition means for acquiring contact coordinates indicating a position where the user touches the touch panel display; The direction of the pointer vector from the contact coordinates to the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display to the contact coordinates, and according to the increase in the size of the contact vector, Pointer display means for displaying such that the size of the pointer vector increases; It is determined whether or not the designated coordinates that are the coordinates of the position indicated by the pointer are included in any of the operation target areas, and when the designated coordinates enter any operation target area and / or any operation Event information generating means for generating event information associated with an event that has occurred in the operation target area with reference to the event correspondence information when exiting from the target area;
  • An input control device comprising
  • the operation recognizing means further acquires a contact time that is a time during which the user is in contact with the touch panel display, A determination means for determining whether the user has tapped the touch panel display based on the contact time;
  • the input control device according to appendix 1, wherein the event information generation unit generates event information indicating that the user has tapped when the determination unit determines that the user has tapped the touch panel display.
  • appendix 3 The input control device according to appendix 1 or 2, further comprising icon display means for displaying an icon at the position of the contact coordinate and changing the display position of the icon in accordance with the change of the contact coordinate.
  • Appendix 4 The input according to any one of appendices 1 to 3, wherein the pointer display unit further displays the pointer so that a direction in which the pointer points substantially coincides with a direction of the contact vector. Control device.
  • a thin client system comprising: an input control device including a touch panel display; and a server connected to the input control device via a network,
  • the server Image transmission means for transmitting image information indicating an image including an operation target area to the input control device;
  • the input control device Image receiving means for receiving the image information from the server;
  • Image display means for displaying an image including the operation target area on the touch panel display based on the image information;
  • Operation recognition means for acquiring contact coordinates indicating a position where the user touches the touch panel display;
  • the direction of the pointer vector from the contact coordinates to the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display to the contact coordinates, and according to the increase in the size of the contact vector,
  • Pointer display means for displaying such that the size of the pointer vector increases;
  • Position transmitting means for transmitting position information including designated coordinates which are coordinates of a position designated by the pointer to the server;
  • the server Storage means for storing, for each operation target
  • the direction of the pointer vector from the contact coordinates to the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display to the contact coordinates, and according to the increase in the size of the contact vector,
  • An input control method comprising:
  • An image transmission step in which the server transmits image information indicating an image including the operation target area to an input control device connected to the server via a network;
  • An image receiving step in which the input control device receives the image information from the server;
  • An image display step in which the input control device displays an image including the operation target area on a touch panel display based on the image information;
  • An operation recognition step in which the input control device acquires contact coordinates indicating a position where the user has touched the touch panel display;
  • the direction of the pointer vector from the contact coordinates toward the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display toward the contact coordinates, and the size of the contact vector.
  • a pointer display step for displaying the pointer vector such that the size of the pointer vector increases in accordance with an increase in
  • a position transmitting step in which the input control device transmits position information including designated coordinates, which are coordinates of a position designated by the pointer, to the server;
  • a position receiving step in which the server receives the position information from the input control device;
  • the server determines whether or not the designated coordinates are included in any of the operation target areas based on the position information, and when the designated coordinates enter any operation target area and / or any For each operation target area stored by the storage unit when exiting from the operation target area, the operation target area is referred to event correspondence information indicating a correspondence between an event occurring in each operation target area and the event information.
  • An event information generation step for generating event information associated with the event that occurred in
  • An execution step in which the server performs processing associated with the event information with reference to processing information indicating correspondence between the event information and processing stored in the storage unit;
  • An input control method comprising:
  • Computer Image display means for displaying an image including an operation target area on a touch panel display; Storage means for storing event correspondence information indicating a correspondence between an event that occurred in each operation target region and event information for each operation target region; Operation recognition means for recognizing contact coordinates indicating a position where the user touches the touch panel display; The direction of the pointer vector from the contact coordinates to the pointer is substantially the same as the direction of the contact vector from the reference point on the touch panel display to the contact coordinates, and according to the increase in the size of the contact vector, Pointer display means for displaying such that the size of the pointer vector increases; It is determined whether or not the designated coordinates that are the coordinates of the position indicated by the pointer are included in any of the operation target areas, and when the designated coordinates enter any operation target area and / or any operation target Event information generating means for generating event information associated with an event that has occurred in the operation target area with reference to the event correspondence information when exiting from the area; A computer-readable recording medium in which a program that

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 入力制御装置(1)の表示制御部(105)は、操作対象領域(OB)を含む画像を表示部(101)に表示させ、操作認識部(103)は、ユーザがタッチパネル(TD)に接触した位置を示す接触座標(CO)を取得する。表示制御部(105)は、接触座標(CO)からポインタ(PO)へ向かうポインタベクトル(CP)の方向が、タッチパネルディスプレイ(TD)の中心座標(CE)から接触座標へ向かう接点ベクトル(CC)の方向とほぼ一致し、接点ベクトル(CC)の大きさ(LC)の増加に応じて、ポインタベクトル(CP)の大きさが増加するようにポインタ(PO)を表示する。

Description

入力制御装置、シンクライアントシステム、入力制御方法および記録媒体
 本発明は、入力制御装置、シンクライアントシステム、入力制御方法および記録媒体に関する。
 タッチパネルディスプレイが表示するウィンドウにおいて、ユーザが、アイコンなどの操作対象を、ポインタを用いて指示する技術が知られている(例えば、特許文献1~3)。
特開2011-028524号公報 特開2010-102474号公報 特開平11-024841号公報
 特許文献1~3に開示された技術では、ポインタが、タッチパネルディスプレイにユーザが接触している位置、または、その近傍に表示される。このため、ユーザが、タッチパネルディスプレイの外枠近くに表示されたアイコンなどの操作対象を、ポインタを用いて指示する場合には、この操作対象が表示されているタッチパネルディスプレイの外枠に近い領域に接触する必要がある。ところが、ユーザが、タッチパネルディスプレイの外枠に近い領域、特に四角いタッチパネルディスプレイの四隅近くの領域に接触しようとすると、タッチパネルディスプレイの外枠に妨害されて意図通りに接触できないことがある。この場合、特許文献1~3に開示された技術では、タッチパネルディスプレイの外枠近く、特に四角いタッチパネルディスプレイの四隅近くに表示された操作対象をポインタを用いて指示するのが困難だった。
 本発明は、上記事情に鑑みてなされたものであり、ユーザが、タッチパネルディスプレイの外枠の近くに表示された操作対象を、ポインタを用いて容易に指示することができる入力制御装置、シンクライアントシステム、入力制御方法および記録媒体を提供することを目的とする。
 上記目的を達成するため、本発明の第1の観点に係る入力制御装置は、
 タッチパネルディスプレイと、
 操作対象領域を含む画像を前記タッチパネルディスプレイに表示する画像表示手段と、
 前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を記憶する記憶手段と、
 ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識手段と、
 ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示手段と、
 前記ポインタが指示する位置の座標である指示座標が、何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、前記イベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成手段と、
 を備えることを特徴とする。
 本発明の第2の観点に係るシンクライアントシステムは、
 タッチパネルディスプレイを備える入力制御装置と、前記入力制御装置にネットワークを介して接続されるサーバと、を備えるシンクライアントシステムであって、
 前記サーバは、
 操作対象領域を含む画像を示す画像情報を前記入力制御装置に送信する画像送信手段を備え、
 前記入力制御装置は、
 前記サーバから前記画像情報を受信する画像受信手段と、
 前記画像情報に基づいて、前記操作対象領域を含む画像を前記タッチパネルディスプレイに表示する画像表示手段と、
 ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識手段と、
 ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示手段と、
 前記ポインタが指示する位置の座標である指示座標を含む位置情報を前記サーバに送信する位置送信手段と、
 を備え、
 前記サーバは、
 前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報と、前記イベント情報と処理との対応を示す処理情報と、を記憶する記憶手段と、
 前記入力制御装置から前記位置情報を受信する位置受信手段と、
 前記位置情報に基づいて、前記指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、前記イベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成手段と、
 前記処理情報を参照して、前記イベント情報に対応付けられた処理を実行する実行手段と、
 を備えることを特徴とする。
 本発明の第3の観点に係る入力制御方法は、
 操作対象領域を含む画像をタッチパネルディスプレイに表示する画像表示ステップと、
 ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識ステップと、
 ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示ステップと、
 前記ポインタが指示する位置の座標である指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、記憶手段が記憶する、前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成ステップと、
 を備えることを特徴とする。
 本発明の第4の観点に係る入力制御方法は、
 サーバが、操作対象領域を含む画像を示す画像情報を、前記サーバにネットワークを介して接続された入力制御装置に送信する画像送信ステップと、
 前記入力制御装置が、前記サーバから前記画像情報を受信する画像受信ステップと、
 前記入力制御装置が、前記画像情報に基づいて、前記操作対象領域を含む画像をタッチパネルディスプレイに表示する画像表示ステップと、
 前記入力制御装置が、ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識ステップと、
 前記入力制御装置が、ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示ステップと、
 前記入力御装置が、前記ポインタが指示する位置の座標である指示座標を含む位置情報を前記サーバに送信する位置送信ステップと、
 前記サーバが、前記入力制御装置から前記位置情報を受信する位置受信ステップと、
 前記サーバが、前記位置情報に基づいて、前記指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、記憶手段が記憶する、前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成ステップと、
 前記サーバが、前記記憶手段が記憶する、前記イベント情報と処理との対応を示す処理情報を参照して、前記イベント情報に対応付けられた処理を実行する実行ステップと、
 を備えることを特徴とする。
 本発明の第5の観点に係るコンピュータ読み取り可能な記録媒体は、
 コンピュータを、
 操作対象領域を含む画像をタッチパネルディスプレイに表示する画像表示手段、
 前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を記憶する記憶手段、
 ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を認識する操作認識手段、
 ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示手段、
 前記ポインタが指示する位置の座標である指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、前記イベント対応情報を参照して、この操作対象領域に生起したイベントに対応付けられたイベント情報を生成するイベント情報生成手段、
 として機能させるプログラムを記録したことを特徴とする。
 本発明によれば、ユーザが、タッチパネルディスプレイの外枠の近くに表示された操作対象をポインタを用いて容易に指示できる。
本発明の実施の形態1に係る入力制御装置によるポインタの表示例を示す図である。 実施の形態1に係る入力制御装置によるポインタの他の表示例を示す図である。 実施の形態1に係る入力制御装置によるポインタの他の表示例を示す図である。 実施の形態1に係る入力制御装置によるポインタの他の表示例を示す図である。 実施の形態1に係る入力制御装置によるポインタの他の表示例を示す図である。 実施の形態1に係る入力制御装置のハードウェア構成の一例を示すブロック図である。 実施の形態1に係る入力制御装置の機能構成例を示すブロック図である。 ユーザが、実施の形態1に係る入力制御装置を用いて、ポインタにより操作対象領域を指示する動作を説明する図である。 実施の形態1に係る入力制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態2に係る入力制御装置によるアイコンとポインタの表示例を示す図である。 実施の形態2に係る入力制御装置によるアイコンとポインタの他の表示例を示す図である。 実施の形態2に係る入力制御装置によるアイコンとポインタの他の表示例を示す図である。 実施の形態2に係る入力制御装置によるアイコンとポインタの他の表示例を示す図である。 実施の形態2に係る入力制御装置によるアイコンとポインタの他の表示例を示す図である。 ユーザが、実施の形態2に係る入力制御装置を用いて、ポインタにより操作対象領域を指示し、タップする動作を説明する図である。 実施の形態2に係る入力制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態3に係る入力制御装置によるアイコンとポインタの表示を説明する図である。 本発明の実施の形態3に係る入力制御装置によるアイコンとポインタの表示を説明する図である。 本発明の実施の形態3に係る入力制御装置によるアイコンとポインタの表示を説明する図である。 本発明の実施の形態3に係る入力制御装置によるアイコンとポインタの表示を説明する図である。 本発明の実施の形態4に係るシンクライアントシステムの構成例を示すブロック図である。
(実施の形態1)
 以下、本発明の実施の形態に係る入力制御装置および入力制御方法を、図1に示す入力制御装置1を例に説明する。
 入力制御装置1は、タッチパネルディスプレイTDを備える。
 入力制御装置1は、図1に示すように、ポインタPOと、操作対象領域OBと、ウィンドウWIと、をタッチパネルディスプレイTDに表示する。
 任意の操作対象領域OBにおいてイベントが生起すると、この操作対象領域OBにおいて生起したイベントにあらかじめ対応付けられていたイベント情報が生成される。例えば、ユーザが、任意の操作対象領域OBを、ポインタPOで指示したり、ポインタPOで指示した上でタップしたりすると、入力制御装置1がこれらの操作を検出し、この操作対象領域OBを指示する操作、あるいは指示した上でタップする操作、にあらかじめ対応付けられていたイベント情報が生成される。
 入力制御装置1は、ユーザが接触しているタッチパネルディスプレイTD上の位置を示す接触座標COを取得する。さらに、入力制御装置1は、入力制御アプリケーションプログラムを実行し、図1に示すように、接触座標COを基準として決定した表示位置にポインタPOを表示する。
 理解を容易にするために、図1では接触座標COを黒丸で、タッチパネルディスプレイTDの中心座標CEを×印で示している。また、接触座標COからポインタPOへ向かうベクトル(以下、ポインタベクトルCPと呼ぶ)およびタッチパネルディスプレイTDの中心座標CEから接触座標COへ向かうベクトル(以下、接点ベクトルCCと呼ぶ)を一点鎖線矢印で示している。実際には、黒丸、×印、一点鎖線矢印は表示されない。
 入力制御装置1は、ポインタPOを、図1に示すように、ポインタベクトルCPの方向と接点ベクトルCCの方向とが一致し、かつ、接点ベクトルCCの大きさLCにポインタベクトルCPの大きさが比例するように表示する。図1において、kは1よりも大きい比例定数である。
 ユーザは、タッチパネルディスプレイTDに接触したまま接触する位置を移動する(ドラッグする)ことにより、図2A~図2Dに示すように、接触座標COを変化させ、接触座標COに対応するポインタPOを移動させる。
 入力制御装置1がポインタPOを上述のように表示することにより、図1、2に示すように、接触座標COがタッチパネルディスプレイTDの外枠に近づくと、ポインタPOは自動的にタッチパネルディスプレイTDの外枠近くに表示される。
 入力制御装置1は、図3に示すように、制御部11と、主記憶部12と、外部記憶部13と、表示部14と、操作部15と、タイマ16と、これらの各部を相互に接続する内部バス10と、を備える。
 制御部11はCPU(Central Processing Unit)などから構成され、入力制御装置1の各部を制御する。
 制御部11は、外部記憶部13に記憶されている、入力制御アプリケーションプログラムなどの各種プログラムを実行することにより、入力制御装置1の各種機能を実現する。
 主記憶部12はRAM(Random-Access Memory)などから構成され、各種データおよび各種プログラムを一時的に記憶する。主記憶部12は、外部記憶部13に記憶されている入力制御アプリケーションプログラムなどのプログラムが展開されることにより、制御部11の作業領域として機能する。
 外部記憶部13は、フラッシュメモリなどの不揮発性メモリから構成され、各種データや入力制御アプリケーションプログラムなどの各種プログラムを固定的に記憶する。
 表示部14は、LCD(Liquid Crystal Display)などから構成され、制御部11の制御に従って画像を表示する。
 操作部15は、表示部14を構成するLCDに重畳されたタッチパッドなどから構成され、ユーザの接触を検知する。
 表示部14を構成するLCDと、操作部15を構成するタッチパッドと、はタッチパネルディスプレイTDを構成する。
 タイマ16は、現在時刻を定期的に制御部11に供給する。
 上記物理的構成を有する入力制御装置1は、機能的には、図4に示すように、表示部101と、入力部102と、操作認識部103と、記憶部104と、表示制御部105と、を備える。なお、入力制御装置1は、動画像再生機能なども備えるが、図4では、特徴的な部分を主に示し、他を図示していない。
 表示部101は、後述する表示制御部105の制御に従って画像を表示する。
 入力部102は、ユーザの接触を検知し、入力を受け付ける。
 操作認識部103は、ユーザが接触したタッチパネルディスプレイTD上の物理的位置を入力部102から取得する。操作認識部103は、取得した物理的位置を、後述する記憶部104が記憶する、タッチパネルディスプレイTD上の物理的位置を座標へと変換するためのタッチパネルディスプレイ座標情報を参照して座標へと変換し、得られた座標を接触座標COとして取得する。操作認識部103は、接触座標COを表示制御部105に送る。
 また、操作認識部103は、入力部102による接触の検知に基づいて、ユーザがタッチパネルディスプレイTDに接触していた時間である接触時間を取得する。
 記憶部104は、画像情報と、タッチパネルディプレイ座標情報と、イベント対応情報と、処理情報と、を記憶する。
 画像情報は、ポインタPO、ウィンドウWIなどを表す画像情報である。
 タッチパネルディスプレイ座標情報は、タッチパネルディスプレイTD上の物理的位置を座標へと変換するための情報である。
 イベント対応情報は、操作対象領域OBごとに、各操作対象領域OBにおいて生起したイベントとイベント情報との対応を示す情報である。
 処理情報は、イベント情報と処理との対応を示す情報である。
 表示制御部105は、記憶部104から画像情報を読み出し、表示部101にポインタPO、操作対象領域OB、ウィンドウWIなどを含む画像を表示させる。
 表示制御部105は、入力制御アプリケーションプログラムを実行することにより、操作認識部103から受け取った接触座標COに基づいて、ポインタベクトルCPの方向が接点ベクトルCCの方向と一致し、接点ベクトルCCの大きさLCにポインタベクトルCPの大きさが比例するように、ポインタPOを表示する。
 なお、表示制御部105は、入力制御アプリケーションプログラムを実行していない場合、操作認識部103から受け取った接触座標COに、または、接触座標COから所定の距離を隔てた位置に、ポインタPOを表示する。
 ユーザは、タッチパネルディスプレイTDに接触したまま接触する位置をドラッグすることにより、図2A~図2Dに示すように、接触座標COを変化させ、ポインタPOを移動させる。
 表示制御部105は、ポインタPOを、x座標が閾値-Xp以上閾値Xp以下となり、y座標が閾値-Yp以上閾値Yp以下となるように表示する。閾値±Xp、±Ypを設定することにより、図2C、図2Dに示すように、ポインタPOがタッチパネルディスプレイTDの外枠に接して表示されている場合、たとえ接触座標COがタッチパネルディスプレイTDの外枠へさらに近づいたとしても、ポインタPOがこれ以上タッチパネルディスプレイTDの外枠に埋没することを防げる。
 表示制御部105は、ポインタPOが指示する位置の座標(以下、指示座標という)が、操作対象領域OBに含まれるか否かを判定する。
 表示制御部105は、指示座標が操作対象領域OBに入った場合、および/または、操作対象領域OBから出た場合に、記憶部104が記憶する、操作対象領域OBごとに、各操作対象領域OBにおいて生起したイベントとイベント情報との対応を示すイベント対応情報を参照して、該操作対象領域OBに生起したイベントに対応するイベント情報を生成する。
 表示制御部105は、記憶部104が記憶する、イベント情報と処理との対応を示す処理情報を参照し、生成されたイベント情報に処理が対応付けられている場合には、該処理を実行する。
 例えば、指示座標が、操作対象領域OB1に入ったとき、「OB1-ON」というイベント情報が生成され、操作対象領域OB1から出たとき、「OB1-OFF」というイベント情報が生成される。
 表示制御部105は、「OB1-ON」というイベント情報が生成された場合、記憶部104が記憶する処理情報を参照し、「OB1-ON」というイベント情報に対応する処理を実行する。同時に、表示制御部105は、当該処理に対応する処理画面を表す画像情報を記憶部104から読み出し、当該処理画面を表示部101に表示させる。
 なお、操作認識部103が接触時間を認識する構成では、操作認識部103は、接触時間に基づいて、ユーザがタップしたか否かを判定してもよい。
 例えば、操作認識部103は、接触時間が閾値α以上閾値β以下である場合に、ユーザがタップしたと判定する。閾値αを設けることにより、ユーザが操作する意図なくタッチパネルディスプレイTDに触れた場合などに生じる接触時間の短い接触をタップと判定してしまうことを防ぐことができる。また、閾値βを設けることで、ユーザが間違ってタッチパネルディスプレイTDに接触してしまったときに、接触し続けることでタップを解除することができる。
 操作認識部103は、ユーザがタップしたと判定すると、ユーザがタップしたことを示す情報を表示制御部105に送る。表示制御部105は、ユーザがタップしたことを示す情報を受け取ると、例えば、「タップ」というイベント情報を生成する。表示制御部105は、記憶部104が記憶する処理情報を参照し、「タップ」というイベント情報に対応する処理を実行する。
 なお、表示制御部105でなく、入力制御装置1が備える他の機能部が処理情報を参照し、生成されたイベント情報に対応する処理を実行してもよい。
 図5は、ユーザが、ポインタPOを用いて操作対象領域OBを指示する動作を説明する図である。
 図5の例では、ウィンドウWIの最小化ボタンが操作対象領域OB1、ウィンドウWIの最大化ボタンが操作対象領域OB2、ウィンドウWIの「閉じる」ボタンが操作対象領域OB3、である。
 ウィンドウWIが最大化された場合、入力制御装置1は、ウィンドウWIの「閉じる」ボタンである操作対象領域OB3は、図5に示すように、タッチパネルディスプレイTDの右上隅に表示される。
 ユーザは、操作対象領域OB3を操作したい場合、接触位置を右上隅方向へとドラッグする。ポインタPOは、接触位置がタッチパネルディスプレイTDの右上隅に近づくほど、タッチパネルディスプレイTDの外枠に寄っていく。このため、図5に示すように、ユーザは、指を操作対象領域OB3の位置まで移動させなくても、ポインタPOでウィンドウWIの「閉じる」ボタンである操作対象領域OB3を指示することができる。
 ユーザが、ポインタPOを用いて操作対象領域OB3を指示すると、指示座標が操作対象領域OB3に入り、「OB3-ON」というイベント情報が生成される。ユーザが操作対象領域OB3をポインタPOにより指示した状態でタップすると、「タップ」というイベント情報が生成される。表示制御部105は、記憶部104が記憶する処理情報を参照し、「OB3-ON」と「タップ」というイベント情報の組み合わせに対応する処理を実行する。当該処理の実行後、ウィンドウWIが閉じられる。
 操作対象領域OBには、図5に示す、ウィンドウWIの「閉じる」ボタンであるOB3などのように、ユーザがポインタPOにより指示して、かつ、タップすることにより対応付けられた処理が実行される操作対象領域OBと、ユーザがポインタPOにより指示しただけで対応付けられた処理が実行される操作対象領域OBと、がある。
 後者の例としては、ユーザがポインタPOを用いて指示すると説明文がポップアップされるアイコンや、ユーザがポインタPOを用いて指示すると日付表示がポップアップされる時刻表示、ユーザがポインタPOを用いて指示するとハイライト表示に切り替わるアイコン、などがある。
 以下、入力制御装置1の動作について図6を用いて説明する。なお、以下の説明においては入力制御装置1の特徴的な動作を主として説明する。詳細な説明は省略するものの、入力制御装置1は、動画像再生など種々の機能を実行可能である。
 入力制御装置1は、入力制御アプリケーションプログラムが起動されると、図6のフローチャートに示す処理を開始する。なお、本実施の形態において、入力制御装置1は、電源が投入されると入力制御アプリケーションプログラムを起動するものとする。
 入力部102がユーザの接触を検知すると(ステップS11;YES)、操作認識部103は、入力部102が接触を検知したタッチパネルディスプレイTD上の物理的位置を取得し、記憶部104が記憶する、タッチパネルディスプレイ座標情報を参照して、取得した物理的位置を座標に変換し、この座標を接触座標COとして取得する(ステップS12)。操作認識部103は、接触座標COを表示制御部105に送る。
 入力部102が接触を検知しない場合は(ステップS11;NO)、ステップS11を繰り返す。
 表示制御部105は、操作認識部103から受け取った接触座標COに基づいて、ポインタベクトルCPの方向と接点ベクトルCCの方向とが一致し、かつ、接点ベクトルCCの大きさLCにポインタベクトルCPの大きさが比例するように、ポインタPOの表示位置を算出する(ステップS13)。表示制御部105は、ステップS13で算出した表示位置にポインタPOを表示する(ステップS14)。 
 表示制御部105は、指示座標(ポインタPOが指示している位置の座標)が何れかの操作対象領域OBに含まれるか否かを判定する(ステップS15)。
 指示座標が任意の操作対象領域OBに入った場合(ステップS15;YES、ステップS16;YES)、表示制御部105は、記憶部104が記憶する、操作対象領域OBごとに、各操作対象領域OBに生起したイベントとイベント情報との対応を示すイベント対応情報を参照して、指示座標が該操作対象領域OBに入ったことを示すイベント情報を生成して(ステップS17)、ステップS20に移行する。
 指示座標が任意の操作対象領域OBから出た場合(ステップS15;NO、ステップS18;YES)、表示制御部105は、イベント対応情報を参照して、指示座標が該操作対象領域OBから出たことを示すイベント情報を生成して(ステップS19)、ステップS20に移行する。
 一方、指示座標がどの操作対象領域OBにも入っていない場合(ステップS15;YES、ステップS16;NO)、および、指示座標が操作対象領域OBから出ていない場合(ステップS15;NO、ステップS18;NO)、操作認識部103は、接触座標COおよび接触時間に基づいて、ユーザが接触座標COでタップしたか否かを判定する(ステップS20)。
 ユーザが接触座標COでタップしていない場合(ステップS20;NO)、ステップS21に移行する。
 一方、ユーザが接触座標COでタップした場合(ステップS20;YES)、操作認識部103は、ユーザが接触座標COでタップしたことを示す情報を表示制御部105に送る。
 表示制御部105は、ユーザが接触座標COでタップしたことを示す情報を操作認識部103から受け取ると、イベント対応情報を参照して、接触座標COがタップされたことを示すイベント情報を生成する(ステップS22)。表示制御部105は、処理情報を参照し、ステップS17、ステップS19、およびステップS22で生成されたイベント情報に処理が対応付けられている場合には該処理を実行し(ステップS21)、ステップS23に移行する。
 入力部102が接触を検知している間は(ステップS23;NO)、ステップS12~ステップS23を繰り返す。
 入力部102が接触を検知しなくなると(ステップS23;YES)、入力制御アプリケーションプログラムがOFFになっているか否かを判定し(ステップS24)、入力制御アプリケーションプログラムがOFFになっていなければ(ステップS24;NO)、ステップS11~ステップS23を繰り返す。入力制御アプリケーションプログラムがOFFになると(ステップS24;YES)、処理を終了する。
 実施の形態1の入力制御装置1によれば、ユーザの接触位置がタッチパネルディスプレイTDの外枠に近くなればなるほど、ポインタPOが自動的にタッチパネルディスプレイTDの外枠に近寄る。このため、ユーザは、外枠の近く、特に四角いタッチパネルディスプレイTDの四隅の近くに表示された操作対象領域OBを、ポインタPOを用いて容易に指示できる。
 なお、本実施の形態では、入力制御装置1に電源が投入されると同時に入力制御アプリケーションプログラムが起動された。しかし、入力制御アプリケーションプログラムの起動のタイミングはこれに限らない。
 本実施の形態に係る入力制御アプリケーションプログラムは、タッチパネルディスプレイTDの外枠近くに表示された操作対象領域OBをポインタPOによって指示するときに大きな効果を発揮する。このため、例えば、タッチパネルディスプレイTDの外枠から所定の範囲内にユーザが接触した場合に、入力制御アプリケーションプログラムを自動的に起動し、ポインタPOを、ポインタベクトルCPの方向と接点ベクトルCCの方向とが一致し、かつ、接点ベクトルCCの大きさLCにポインタベクトルCPの大きさが比例するように表示してもよい。
 この場合、入力制御アプリケーションプログラムが起動されていない時、および、ユーザの操作に応答して入力制御アプリケーションプログラムが終了された時、ポインタPOは、接触座標COに、または、接触座標COから所定の距離を隔てた位置に、表示される。
 なお、本実施の形態で、ポインタPOは、ポインタベクトルCPの方向と接点ベクトルCCの方向とが完全に一致するように表示された。しかし、ポインタベクトルCPの方向と接点ベクトルCCとの方向がほぼ一致すればよく、ポインタPOの表示方法はこれに限られない。
 例えば、タッチパネルディスプレイTDを複数の領域に区切り、各領域におけるポインタベクトルCPの方向を、タッチパネルディスプレイTDの中心から放射する所定の方向に設定してもよい。
 なお、本実施の形態で、接点ベクトルCCは、タッチパネルディスプレイTDの中心座標CEから接触座標COへと向かうベクトルとした。しかし、タッチパネル上の任意の基準点から接触座標COへ向かうベクトルを接点ベクトルCCとしてもよい。この場合、入力制御装置1は、ポインタPOを、基準点から接触座標COへ向かうベクトルの方向と、接触座標COからポインタPOへ向かうベクトルの方向と、が一致するように表示する。
 なお、本実施の形態で、ポインタPOは、ポインタベクトルCPの大きさが、接点ベクトルCCの大きさLCに比例するように表示された。しかし、ポインタベクトルCPの大きさが、接点ベクトルCCの大きさLCの増加に合わせて増加すればよく、ポインタPOの表示方法はこれに限られない。
 例えば、ポインタPOを、接点ベクトルCCの大きさLCと、ポインタベクトルCPの大きさLPと、が関係式、LP=kLC+kn-1LCn-1+…+kLC(式中、nおよびkn、n-1、…、kは任意の定数。)を満たすように表示してもよい。
 なお、任意の定数n、およびkn、n-1、…、kは、例えば、接点ベクトルCCの大きさLCとポインタベクトルCPの大きさLPとの相関を実験などにより求め、ユーザが、タッチパネルディスプレイTDの一部の領域(例えば、四角形のタッチパネルディスプレイTDの2/3~4/5を占める四角形の領域)において接触位置をドラッグすることでタッチパネルディスプレイTD上の全領域を、ポインタPOを用いて指示できるような値に設定される。ただし、任意の定数n、およびkn、n-1、…、kの決定方法はこれに限定されるものではなく、任意の手法により適宜設定すればよい。
 なお、本実施の形態で、ポインタPOは、接触座標COを基準として算出された位置に表示された。ユーザの接触が検知されない場合(ステップS11;NO)に、所定の位置にポインタPOを表示することとしてもよい。この場合、ユーザの接触が検知され(ステップS11;Yes)、接触座標COを取得して表示位置を算出すると、この表示位置にポインタPOを表示する。
(実施の形態2)
 実施の形態1の入力表示装置1は、接触座標COに何も表示しない。このため、接触座標COでタップを行うユーザは、タッチパネルディスプレイTD上の何も表示されていない領域においてタップを行う。
 本発明の実施の形態2の入力制御装置1は、図7に示すように、アイコンICを表示することにより、ユーザがタップなどの操作を直感的に行うことを可能としている。
 入力制御装置1は、ユーザが接触したタッチパネルディスプレイTD上の位置を示す接触座標COを取得する。
 入力制御装置1は、入力制御アプリケーションプログラムを実行することにより、図7に示すように、接触座標COにアイコンICを表示する。接触座標COにウィンドウWIなどの画像が表示されている場合、アイコンICは、この画像に重畳して表示される。
 また、入力制御装置1は、接触座標COを基準として、ポインタPOの表示位置を決定する。
 具体的には、入力制御装置1は、図7に示すように、接触座標COからポインタPOへ向かうベクトル(ポインタベクトルCP)の方向が、タッチパネルディスプレイTDの中心座標CEから接触座標COへ向かうベクトル(接点ベクトルCC)の方向と一致し、接点ベクトルCCの大きさLCにポインタベクトルCPの大きさが比例するように、ポインタPOを表示する。図7において、kは比例定数である。
 なお、図7に図示した、接触座標COを示す黒丸、ポインタベクトルCPおよび接点ベクトルCCを示す一点鎖線矢印、中心座標CEを示す×印、はいずれも実際には表示されない。
 ユーザは、図8A~図8Dに示すように、タッチパネルディスプレイTD上の接触位置をドラッグすることによりアイコンICをドラッグし、ポインタPOを移動させる。
 アイコンICおよびポインタPOを上述の方法に従って表示することで、図8A~図8Dに示すように、アイコンICの表示位置(接触座標CO)がタッチパネルディスプレイTDの外枠に近くなればなるほど、ポインタPOが自動的にタッチパネルディスプレイTDの外枠に近寄る。
 なお、図8A、図8Dに示すように、ポインタPOがタッチパネルディスプレイTDの外枠に接して表示された場合、アイコンICの表示位置(接触座標CO)がタッチパネルディスプレイTDの外枠へさらに近づいたとしても、ポインタPOがこれ以上タッチパネルディスプレイTDの外枠に埋没することはない。
 入力制御装置1は、アイコンICを半透明に表示する。半透明に表示するとは、アイコンICがウィンドウWIなど他の画像に重畳された場合、アイコンICを透過して、アイコンICが重畳された画像が透過して見えるように画素を演算して表示することをいう。
 アイコンICは、例えば、図7に示すように、マウスの左ボタンおよび右ボタンを模擬する。
 また、ユーザは、アイコンICをタップすることで、例えば、マウスの右クリックや左クリックと同様の操作を入力する。ユーザは、アイコンICを目視することによって、タップすべき位置を明確に認識できる。
 実施の形態2の入力制御装置1は、実施の形態1の入力制御装置1と同様のハードウェア構成、機能構成を備える。しかし、操作認識部103および表示制御部105の機能および動作が第1の実施形態の入力制御装置1とは異なる。
 以下、この差異点を中心に説明する。
 表示制御部105は、入力制御アプリケーションプログラムが起動すると、アイコンICの画像データを記憶部104から読み出して、表示部101に接触座標CO上に表示させる。接触座標COに画像が表示されている場合、表示部制御部105は、アイコンICをこの画像に重畳して表示させる。アイコンICは半透明で表示され、アイコンICを透過して背面の画像が見えるため、操作の邪魔にならない。
 ユーザは、タッチパネルディスプレイTDに接触したまま接触位置をドラッグすることで接触座標COを変化させ、アイコンICをドラッグし、ポインタPOを移動させる。
 表示制御部105は、操作認識部103から受け取った接触座標COに基づいて、ポインタベクトルCPの方向が接点ベクトルCCの方向と一致し、接触ベクトルCCの大きさLCにポインタベクトルCPの大きさが比例するように、ポインタPOを表示する。
 本実施の形態では、操作認識部103は、ユーザがタッチパネルディスプレイTDに接触していた時間である接触時間を取得する。操作認識部103は、接触座標COおよび接触時間に基づいて、ユーザがアイコンICをタップしたか否かを判定する。操作認識部103は、ユーザがアイコンICをタップしたと判定した場合、ユーザがアイコンICをタップしたことを示す情報を表示制御部105に送る。
 表示制御部105は、ユーザがアイコンICをタップしたことを示す情報を操作認識部103から受け取ると、アイコンICがタップされたことを示すイベント情報を生成し、イベントを発行する。
 図9は、ポインタPOを用いて操作対象領域OBを指示し、アイコンICをタップする動作を説明する図である。
 図9の例では、ウィンドウWIの最小化ボタンが操作対象領域OB1、ウィンドウWIの最大化ボタンが操作対象領域OB2、ウィンドウWIの「閉じる」ボタンが操作対象領域OB3、である。
 ウィンドウWIが最大化された場合、ウィンドウWIの「閉じる」ボタンである操作対象領域OB3は、図9に示すように、タッチパネルディスプレイDの右上隅に表示される。
 ユーザは、操作対象領域OB3を操作する場合、タッチパネルディスプレイTDの右上隅方向にアイコンICをドラッグする。アイコンICがタッチパネルディスプレイTDの右上隅に近づくほど、ポインタPOはタッチパネルディスプレイTDの外枠に自動的に寄っていく。このため、図9に示すように、ユーザは、指を操作対象領域OB3の位置まで移動させなくても、ポインタPOを用いて操作対象領域OB3を指示することができる。
 ユーザが、ポインタPOを用いて操作対象領域OB3を指示すると、「OB3-ON」というイベント情報が生成される。
 ユーザが、ポインタPOを用いて操作対象領域OB3を指示した状態で、アイコンICをタップすると、「IC-タップ」というイベント情報が生成される。
 表示制御部105は、記憶部104が記憶する処理情報を参照し、「OB3-ON」と「IC-タップ」というイベント情報の組み合わせに対応する処理を実行する。処理実行後、ウィンドウWIは閉じられる。
 以下、実施の形態2の入力制御装置1の動作を、図10のフローチャートを用いて説明する。なお、実施の形態2の入力制御装置1は、動画再生機能など種々の機能を有するが、以下の説明においては実施の形態2の入力制御装置1に特徴的な動作を主として説明する。
 入力制御装置1は、入力制御アプリケーションプログラムが起動されると、図10のフローチャートに示す処理を開始する。なお、本実施の形態では、入力制御装置1は、電源が投入されると、入力制御アプリケーションプログラムを起動するものとする。
 入力部102がユーザの接触を検知すると(ステップS31;YES)、操作認識部103は、入力部102が接触を検知したタッチパネルディスプレイTD上の物理的位置を取得し、記憶部104が記憶する、タッチパネルディスプレイ座標情報を参照して物理的位置を座標に変換し、この座標を接触座標COとして取得すると共に、接触時間を取得する(ステップS32)。操作認識部103は、接触座標COおよび接触時間を表示制御部105に送る。入力部102が接触を検知しない場合は(ステップS31;NO)、ステップS31を繰り返す。
 表示制御部105は、操作認識部103から受け取った接触座標COに基づいて、ポインタベクトルCPの方向が接点ベクトルCCの方向と一致し、接点ベクトルCCの大きさLCにポインタベクトルCPの大きさが比例するようなポインタPOの表示位置を算出する(ステップS33)。表示制御部105は、ポインタPOとアイコンICの画像データを記憶部104から読み出し、表示部101に、アイコンICを接触座標COに、ポインタPOをステップS33で算出した表示位置に表示する(ステップS34)。
 表示制御部105は、ポインタPOが指示している位置の座標である指示座標が、何れかの操作対象領域OBに含まれるか否かを判定する(ステップS35)。
 指示座標が任意の操作対象領域OBに入った場合(ステップS35;YES、ステップS36;YES)、表示制御部105は、記憶部104が記憶する、操作対象領域OBごとに、各操作対象領域OBにおいて生起したイベントとイベント情報との対応を示すイベント対応情報を参照して、指示座標が該操作対象領域OBに入ったことを示すイベント情報を生成して(ステップS37)、ステップS40に移行する。
 指示座標が任意の操作対象領域OBから出た場合(ステップS35;NO、ステップS38;YES)、表示制御部105は、イベント対応情報を参照して、指示座標が該操作対象領域OBから出たことを示すイベント情報を生成して(ステップS39)、ステップS40に移行する。
 一方、指示座標がどの操作対象領域OBにも入っていない場合(ステップS35;YES、ステップS36;NO)、および、指示座標が操作対象領域OBから出ていない場合(ステップS35;NO、ステップS38;NO)、操作認識部103は、接触座標COおよび接触時間に基づいて、アイコンICがタップされたか否かを判定する(ステップS40)。
 アイコンICがタップされていない場合(ステップS40;NO)、ステップS42に移行する。
 一方、アイコンICがタップされた場合には(ステップS40;YES)、操作認識部103は、ユーザがアイコンICをタップしたことを示す情報を表示制御部105に送る。
 表示制御部105は、ユーザがアイコンICをタップしたことを示す情報を操作認識部103から受け取ると、アイコンICがタップされたことを示すイベント情報を生成する(ステップS41)。表示制御部105は、処理情報を参照し、ステップS37、ステップS39、およびステップS41で生成されたイベント情報に処理が対応付けられている場合には、該処理を実行し(ステップS42)、ステップS43に移行する。
 入力部102が接触を検知している間は(ステップS43;NO)、ステップS32~ステップS43を繰り返す。
 入力部102が接触を検知しなくなると(ステップS43;YES)、入力制御アプリケーションプログラムがOFFになったか否かを判定し(ステップS44)する。入力制御アプリケーションプログラムがOFFになっていなければ(ステップS44;NO)、ステップS31~ステップS44を繰り返す。入力制御アプリケーションプログラムがOFFになると(ステップS44;YES)、処理を終了する。
 実施の形態2の入力制御装置1によれば、タッチパネルディスプレイTD上のユーザの接触位置がタッチパネルディスプレイTDの外枠に近くなればなるほど、ポインタPOが自動的に外枠に近寄る。このため、ユーザは、外枠の近く、特に四角いタッチパネルディスプレイTDの四隅の近くに表示された操作対象領域OBを、ポインタPOを用いて容易に指示することできる。
 また、マウスを模擬したアイコンICを表示することにより、ユーザが直感的にタップなどの操作をすることができる。
 なお、本実施の形態では、アイコンICを接触座標COに表示したが、接触座標COから所定の距離だけ離れた位置にアイコンICを表示してもよい。
 また、ユーザの接触が検知されない場合(ステップS31;NO)、所定の位置にアイコンICを表示してもよい。この場合、ユーザの接触が検知され(ステップS31;Yes)、接触座標COを取得すると、この接触座標にアイコンICを表示する。
 なお、本実施の形態では、ユーザがアイコンICをタップしたか否かのみを判定したが、ユーザがアイコンICのどの領域をタップしたかをさらに判定してもよい。この場合、アイコンICの領域ごとに、各領域において生起したイベントとイベント情報が対応付けられ、各イベント情報に処理が対応付けられる。
(実施の形態3)
 実施の形態1、2では、指向する方向が一定の矢印形のポインタPOが表示された。
 以下、ポインタPOの表示位置に応じて、矢印形のポインタPOが指向する方向を変化させる、第3の実施形態の入力制御装置1の機能と動作を説明する。
 実施の形態3の入力制御装置1は、実施の形態2の入力制御装置1と同様のハードウェア構成、機能構成を備える。しかし、表示制御部105の機能および動作が第2の実施形態の入力制御装置1とは異なる。
 以下、この差異点を中心に説明する。
 表示制御部105は、入力制御アプリケーションプログラムを実行することにより、操作認識部103から受け取った接触座標COに基づいて、ポインタベクトルCPの方向が接点ベクトルCCの方向と一致し、接点ベクトルCCの大きさLCにポインタベクトルCPの大きさが比例するような位置に、ポインタPOを表示する。
 表示制御部105は、さらに、図11A~図11Dに示すように、矢印形のポインタPOの指向する方向と、接点ベクトルCCの方向と、が一致するようにポインタPOを表示する。
 実施の形態3の入力制御装置1によれば、タッチパネルディスプレイTD上のユーザの接触位置がタッチパネルディスプレイTDの外枠に近くなればなるほど、ポインタPOが自動的に外枠に近寄り、かつ、矢印形のポインタPOがタッチパネルディスプレイTDの中心から放射する方向を指す。このため、ユーザは、タッチパネルディスプレイTDの外枠の近く、特に四角いタッチパネルディスプレイTDの四隅の近くに表示された操作対象領域OBを、ポインタPOを用いて容易に指示できる。
 なお、本実施の形態で、ポインタPOは、矢印形のポインタPOの指向する方向が接点ベクトルCCの方向と完全に一致するように表示された。しかし、ポインタPOの指向する方向と接点ベクトルCCの方向とがほぼ一致すればよく、ポインタPOの表示方法はこれに限られない。
 例えば、タッチパネルディスプレイTDを複数の領域に区切り、各領域においてポインタPOが指向する方向を、タッチパネルディスプレイTDの中心から放射する所定の方向に設定してもよい。
 なお、ポインタPOの形状は矢印形に限定されない。例えば、三角形のポインタPOを表示してもよい。
(実施の形態4)
 実施の形態1~3においては、入力制御装置1が、ユーザによる接触の検知、接触座標COや接触時間の取得、ポインタPOの表示位置算出、ポインタPOやアイコンICの表示、指示座標が操作対象領域OBに含まれるか否かの判定、イベントの発行、処理の実行、などの一連の処理を実行した。しかし、上述の処理の一部を、入力制御装置1以外の装置が行ってもよい。
 以下、入力制御装置1とサーバとが協働して上述の一連の処理を実行する、実施の形態4のシンクライアントシステム3について説明する。
 シンクライアントシステム3は、図12に示すように、入力制御装置1とサーバ2とを備える。
 入力制御装置1は、実施の形態1の入力制御装置1と同様のハードウェア構成を備えた上で、さらに、通信部(図示せず)を備える。通信部は、ネットワークに接続するための網終端装置または無線通信装置と、シリアルインタフェースまたはLAN(Local Area Network)インタフェースと、を備える。通信部は、ネットワークを介してサーバ2に接続する。
 入力制御装置1は、機能的には、実施の形態1の入力制御装置1と同様の構成を備え、さらに、画像受信部106および位置送信部107を備える。また、表示制御部105の機能および動作の一部も、実施の形態1の入力制御装置1とは異なる。
 以下、これらの差異点を主に説明する。
 画像受信部106は、サーバ2の画像送信部203から、ウィンドウWI、操作対象領域OBなどの画像を表す画像情報を受信する。表示制御部105は、画像受信部106が受信した画像情報に基づいて、ウィンドウWI、操作対象領域OBなどの画像を、表示部101に表示させる。
 表示制御部105は、入力アプリケーションプログラムが実行されていない状態では、記憶部104からポインタPOの画像情報を読み出し、表示部101に、操作認識部103から受け取った接触座標CO、または、接触座標COから所定の距離だけ離れた位置にポインタPOを表示させる。
 入力制御アプリケーションプログラムが起動すると、表示制御部105は、操作認識部103から受け取った接触座標COに基づいて、ポインタPOを、ポインタベクトルCPの方向が接点ベクトルCCの方向と一致し、接点ベクトルCCの大きさLCにポインタベクトルCPの大きさが比例するように表示する。
 表示制御部105は、指示座標(ポインタPOが指示する位置の座標)を含む位置情報を位置送信部107に送る。位置送信部107は、表示制御部105から受け取った位置情報をサーバ2の位置受信部204に送信する。
 サーバ2は、実行部201と、記憶部202と、画像送信部203と、位置受信部204と、を備える。
 サーバ2の実行部201は、記憶部202からウィンドウWI、操作対象領域OBを含む画像を示す画像情報を読み出して画像送信部203に送り、入力制御装置1の画像受信部106へ送信させる。
 位置受信部204は、入力制御装置1の位置送信部107から位置情報を受信すると、実行部201に送る。実行部201は、位置受信部204から受け取った位置情報に基づいて、指示座標が操作対象領域OBに含まれるか否かを判定する。
 実行部201は、指示座標が操作対象領域OBに入った場合および/または操作対象領域OBから出た場合には、記憶部202が記憶する、操作対象領域OBごとに、各操作対象領域OBにおいて生起したイベントとイベント情報との対応を示すイベント対応情報を参照し、該操作対象領域OBに生起したイベントに対応するイベント情報を生成する。
 実行部201は、記憶部202が記憶する、イベント情報と処理との対応を示す処理情報を参照し、生成されたイベント情報に処理が対応付けられている場合には、該処理を実行する。
 実行部201は、実行した処理に対応する処理画面を示す画像情報を記憶部202から読み出して画像送信部203に送り、入力制御装置1の画像受信部106へ送信させる。
 入力制御装置1の画像受信部106がサーバ2の画像送信部203から処理画面を示す画像情報を受信すると、表示制御部105は、この画像情報に基づいて、処理画面を表示部101に表示させる。
 実施の形態4のシンクライアントシステム3によれば、指示座標が操作対象領域OBに含まれるか否かの判定、イベントの発行、処理の実行、などをサーバ2が行う。このため、入力制御装置1の処理負荷が小さくなる。これにより、入力制御装置1のコストの低減や小型化が可能になる。
 既知のシンクライアントシステムでは、サーバがディスプレイを備える場合、サーバのディスプレイ用の画面を入力制御装置のタッチパネルディスプレイに表示する。入力制御装置のタッチパネルディスプレイがサーバのディスプレイよりも小さい場合、画面が縮小表示され、タッチパネルディスプレイの外枠近くに表示された操作対象領域を操作するのが困難な場合がある。
 実施の形態4のシンクライアントシステム3によれば、入力制御装置1が備えるタッチパネルディプレイTD上のユーザの接触位置がタッチパネルディスプレイTDの外枠に近づくと、ポインタPOが自動的に外枠の近くに表示される。このため、例え画面が縮小表示されたとしても、タッチパネルディスプレイTDの外枠の近くに表示された操作対象領域OBを、ポインタPOを用いて容易に指示できる。
 実施の形態4では、入力制御装置1がサーバ2へ指示座標を含む位置情報を送信し、サーバ2が、指示座標が操作対象領域OBに含まれるか否かを判定し、指示座標が操作対象領域OBに入った場合および/または操作対象領域OBから出た場合には、イベント対応情報を参照して該操作対象領域OBにおいて生起したイベントと対応するイベント情報を生成する。
 しかし、シンクライアントシステム3の構成はこれに限らない。
 例えば、入力制御装置1が、指示座標が操作対象領域OBに含まれるか否かを判定し、指示座標が操作対象領域OBに入った場合および/または操作対象領域OBから出た場合には、イベント対応情報を参照して、該操作対象領域OBにおいて生起したイベントと対応するイベント情報を生成し、サーバ2に送信してもよい。この場合、サーバ2は、処理情報を参照し、受信したイベント情報に処理が対応付けられている場合には、該処理を実行する。
 上述のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。
 入力制御装置1およびシンクライアントシステム3は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、入力制御装置1およびシンクライアントシステム3の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD-ROM、DVD-ROMなど)に格納して配布し、該コンピュータプログラムをコンピュータにインストールすることにより、上述の処理を実行する入力制御装置1およびシンクライアントシステム3を構成してもよい。また、インターネットなどの通信ネットワーク上のサーバ装置が有する記憶装置に該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロードなどすることで入力制御装置1およびシンクライアントシステム3を構成してもよい。
 また、入力制御装置1およびシンクライアントシステム3の機能を、OSとアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
 また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行できるように構成してもよい。
 なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態および変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内およびそれと同などの発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 タッチパネルディスプレイと、
 操作対象領域を含む画像を前記タッチパネルディスプレイに表示する画像表示手段と、
 前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を記憶する記憶手段と、
 ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識手段と、
 ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示手段と、
 前記ポインタが指示する位置の座標である指示座標が、何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、前記イベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成手段と、
 を備えることを特徴とする入力制御装置。
(付記2)
 前記操作認識手段は、ユーザが前記タッチパネルディスプレイに接触していた時間である接触時間をさらに取得し、
 前記接触時間に基づいて、ユーザが前記タッチパネルディスプレイをタップしたか否かを判定する判定手段をさらに備え、
 前記イベント情報生成手段は、ユーザが前記タッチパネルディスプレイをタップしたと前記判定手段が判定した場合、ユーザがタップしたことを示すイベント情報を生成することを特徴とする付記1に記載の入力制御装置。
(付記3)
 前記接触座標の位置にアイコンを表示し、前記接触座標の変化に合わせて、前記アイコンの表示位置を変化させるアイコン表示手段をさらに備えることを特徴とする、付記1または2に記載の入力制御装置。
(付記4)
 前記ポインタ表示手段は、さらに、前記ポインタの指向する方向が前記接点ベクトルの方向とほぼ一致するように、前記ポインタを表示することを特徴とする付記1乃至3の何れか1つに記載の入力制御装置。
(付記5)
 タッチパネルディスプレイを備える入力制御装置と、前記入力制御装置にネットワークを介して接続されるサーバと、を備えるシンクライアントシステムであって、
 前記サーバは、
 操作対象領域を含む画像を示す画像情報を前記入力制御装置に送信する画像送信手段を備え、
 前記入力制御装置は、
 前記サーバから前記画像情報を受信する画像受信手段と、
 前記画像情報に基づいて、前記操作対象領域を含む画像を前記タッチパネルディスプレイに表示する画像表示手段と、
 ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識手段と、
 ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示手段と、
 前記ポインタが指示する位置の座標である指示座標を含む位置情報を前記サーバに送信する位置送信手段と、
 を備え、
 前記サーバは、
 前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報と、前記イベント情報と処理との対応を示す処理情報と、を記憶する記憶手段と、
 前記入力制御装置から前記位置情報を受信する位置受信手段と、
 前記位置情報に基づいて、前記指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、前記イベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成手段と、
 前記処理情報を参照して、前記イベント情報に対応付けられた処理を実行する実行手段と、
 を備えることを特徴とするシンクライアントシステム。
(付記6)
 操作対象領域を含む画像をタッチパネルディスプレイに表示する画像表示ステップと、
 ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識ステップと、
 ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示ステップと、
 前記ポインタが指示する位置の座標である指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、記憶手段が記憶する、前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成ステップと、
 を備えることを特徴とする入力制御方法。
(付記7)
 サーバが、操作対象領域を含む画像を示す画像情報を、前記サーバにネットワークを介して接続された入力制御装置に送信する画像送信ステップと、
 前記入力制御装置が、前記サーバから前記画像情報を受信する画像受信ステップと、
 前記入力制御装置が、前記画像情報に基づいて、前記操作対象領域を含む画像をタッチパネルディスプレイに表示する画像表示ステップと、
 前記入力制御装置が、ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識ステップと、
 前記入力制御装置が、ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示ステップと、
 前記入力御装置が、前記ポインタが指示する位置の座標である指示座標を含む位置情報を前記サーバに送信する位置送信ステップと、
 前記サーバが、前記入力制御装置から前記位置情報を受信する位置受信ステップと、
 前記サーバが、前記位置情報に基づいて、前記指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、記憶手段が記憶する、前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成ステップと、
 前記サーバが、前記記憶手段が記憶する、前記イベント情報と処理との対応を示す処理情報を参照して、前記イベント情報に対応付けられた処理を実行する実行ステップと、
 を備えることを特徴とする入力制御方法。
(付記8)
 コンピュータを、
 操作対象領域を含む画像をタッチパネルディスプレイに表示する画像表示手段、
 前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を記憶する記憶手段、
 ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を認識する操作認識手段、
 ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示手段、
 前記ポインタが指示する位置の座標である指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、前記イベント対応情報を参照して、この操作対象領域に生起したイベントに対応付けられたイベント情報を生成するイベント情報生成手段、
 として機能させるプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
 本出願は、2012年8月31日に出願された日本国特許出願2012-192536号に基づく。本明細書中に日本国特許出願2012-192536号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
  1 入力制御装置
  2 サーバ
  3 シンクライアントシステム
 10 内部バス
 11 制御部
 12 主記憶部
 13 外部記憶部
 14 表示部 
 15 操作部
 16 タイマ
 101 表示部
 102 入力部
 103 操作認識部
 104 記憶部
 105 表示制御部
 106 画像受信部
 107 位置送信部
 201 実行部
 202 記憶部
 203 画像送信部
 204 位置受信部
 k 比例定数
 TD タッチパネルディスプレイ
 WI ウィンドウ
 CC 接点ベクトル
 CP ポインタベクトル
 IC アイコン
 PO ポインタ
 CO 接触座標
 CE 中心座標
 LC 接点ベクトルの大きさ
 OB 操作対象領域
 OB1 最小化ボタン
 OB2 最大化ボタン
 OB3 閉じるボタン

Claims (8)

  1.  タッチパネルディスプレイと、
     操作対象領域を含む画像を前記タッチパネルディスプレイに表示する画像表示手段と、
     前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を記憶する記憶手段と、
     ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識手段と、
     ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示手段と、
     前記ポインタが指示する位置の座標である指示座標が、何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、前記イベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成手段と、
     を備えることを特徴とする入力制御装置。
  2.  前記操作認識手段は、ユーザが前記タッチパネルディスプレイに接触していた時間である接触時間をさらに取得し、
     前記接触時間に基づいて、ユーザが前記タッチパネルディスプレイをタップしたか否かを判定する判定手段をさらに備え、
     前記イベント情報生成手段は、ユーザが前記タッチパネルディスプレイをタップしたと前記判定手段が判定した場合、ユーザがタップしたことを示すイベント情報を生成することを特徴とする請求項1に記載の入力制御装置。
  3.  前記接触座標の位置にアイコンを表示し、前記接触座標の変化に合わせて、前記アイコンの表示位置を変化させるアイコン表示手段をさらに備えることを特徴とする、請求項1または2に記載の入力制御装置。
  4.  前記ポインタ表示手段は、さらに、前記ポインタの指向する方向が前記接点ベクトルの方向とほぼ一致するように、前記ポインタを表示することを特徴とする請求項1乃至3の何れか1項に記載の入力制御装置。
  5.  タッチパネルディスプレイを備える入力制御装置と、前記入力制御装置にネットワークを介して接続されるサーバと、を備えるシンクライアントシステムであって、
     前記サーバは、
     操作対象領域を含む画像を示す画像情報を前記入力制御装置に送信する画像送信手段を備え、
     前記入力制御装置は、
     前記サーバから前記画像情報を受信する画像受信手段と、
     前記画像情報に基づいて、前記操作対象領域を含む画像を前記タッチパネルディスプレイに表示する画像表示手段と、
     ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識手段と、
     ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示手段と、
     前記ポインタが指示する位置の座標である指示座標を含む位置情報を前記サーバに送信する位置送信手段と、
     を備え、
     前記サーバは、
     前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報と、前記イベント情報と処理との対応を示す処理情報と、を記憶する記憶手段と、
     前記入力制御装置から前記位置情報を受信する位置受信手段と、
     前記位置情報に基づいて、前記指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、前記イベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成手段と、
     前記処理情報を参照して、前記イベント情報に対応付けられた処理を実行する実行手段と、
     を備えることを特徴とするシンクライアントシステム。
  6.  操作対象領域を含む画像をタッチパネルディスプレイに表示する画像表示ステップと、
     ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識ステップと、
     ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示ステップと、
     前記ポインタが指示する位置の座標である指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、記憶手段が記憶する、前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成ステップと、
     を備えることを特徴とする入力制御方法。
  7.  サーバが、操作対象領域を含む画像を示す画像情報を、前記サーバにネットワークを介して接続された入力制御装置に送信する画像送信ステップと、
     前記入力制御装置が、前記サーバから前記画像情報を受信する画像受信ステップと、
     前記入力制御装置が、前記画像情報に基づいて、前記操作対象領域を含む画像をタッチパネルディスプレイに表示する画像表示ステップと、
     前記入力制御装置が、ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を取得する操作認識ステップと、
     前記入力制御装置が、ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示ステップと、
     前記入力御装置が、前記ポインタが指示する位置の座標である指示座標を含む位置情報を前記サーバに送信する位置送信ステップと、
     前記サーバが、前記入力制御装置から前記位置情報を受信する位置受信ステップと、
     前記サーバが、前記位置情報に基づいて、前記指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、記憶手段が記憶する、前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を参照して、この操作対象領域において生起したイベントに対応付けられたイベント情報を生成するイベント情報生成ステップと、
     前記サーバが、前記記憶手段が記憶する、前記イベント情報と処理との対応を示す処理情報を参照して、前記イベント情報に対応付けられた処理を実行する実行ステップと、
     を備えることを特徴とする入力制御方法。
  8.  コンピュータを、
     操作対象領域を含む画像をタッチパネルディスプレイに表示する画像表示手段、
     前記操作対象領域ごとに、各前記操作対象領域において生起したイベントとイベント情報との対応を示すイベント対応情報を記憶する記憶手段、
     ユーザが前記タッチパネルディスプレイに接触した位置を示す接触座標を認識する操作認識手段、
     ポインタを、前記接触座標からポインタへ向かうポインタベクトルの方向が、前記タッチパネルディスプレイ上の基準点から前記接触座標へ向かう接点ベクトルの方向とほぼ一致し、前記接点ベクトルの大きさの増加に応じて、前記ポインタベクトルの大きさが増加するように表示するポインタ表示手段、
     前記ポインタが指示する位置の座標である指示座標が何れかの前記操作対象領域に含まれるか否かを判定し、前記指示座標が任意の操作対象領域に入った場合および/または任意の操作対象領域から出た場合、前記イベント対応情報を参照して、この操作対象領域に生起したイベントに対応付けられたイベント情報を生成するイベント情報生成手段、
     として機能させるプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
PCT/JP2013/073009 2012-08-31 2013-08-28 入力制御装置、シンクライアントシステム、入力制御方法および記録媒体 WO2014034725A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
ES13832021.3T ES2668196T3 (es) 2012-08-31 2013-08-28 Dispositivo de control de entrada, sistema cliente ligero, procedimiento de control de entrada y soporte de registro
KR1020157004754A KR101709243B1 (ko) 2012-08-31 2013-08-28 입력 제어 장치, 씬 클라이언트 시스템, 입력 제어 방법 및 기록 매체
US14/423,673 US9665238B2 (en) 2012-08-31 2013-08-28 Input control device, thin-client system, input control method, and recording medium
CN201380052842.5A CN104718524B (zh) 2012-08-31 2013-08-28 输入控制设备、瘦客户端***、输入控制方法和记录介质
CA2883404A CA2883404A1 (en) 2012-08-31 2013-08-28 Input control device, thin-client system, input control method, and recording medium
EP13832021.3A EP2891958B1 (en) 2012-08-31 2013-08-28 Input control device, thin-client system, input control method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012192536A JP5388246B1 (ja) 2012-08-31 2012-08-31 入力表示制御装置、シンクライアントシステム、入力表示制御方法およびプログラム
JP2012-192536 2012-08-31

Publications (1)

Publication Number Publication Date
WO2014034725A1 true WO2014034725A1 (ja) 2014-03-06

Family

ID=50036667

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/073009 WO2014034725A1 (ja) 2012-08-31 2013-08-28 入力制御装置、シンクライアントシステム、入力制御方法および記録媒体

Country Status (8)

Country Link
US (1) US9665238B2 (ja)
EP (1) EP2891958B1 (ja)
JP (1) JP5388246B1 (ja)
KR (1) KR101709243B1 (ja)
CN (1) CN104718524B (ja)
CA (1) CA2883404A1 (ja)
ES (1) ES2668196T3 (ja)
WO (1) WO2014034725A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002258769A1 (en) * 2001-04-09 2002-10-21 America Online Incorporated Server-based browser system
WO2016105329A1 (en) * 2014-12-22 2016-06-30 Intel Corporation Multi-touch virtual mouse
CN106339115B (zh) * 2015-07-16 2019-11-15 小米科技有限责任公司 终端触控识别方法及装置
JP6569546B2 (ja) * 2016-01-28 2019-09-04 富士通コネクテッドテクノロジーズ株式会社 表示装置、表示制御方法、および表示制御プログラム
CN106383705B (zh) * 2016-08-31 2020-05-08 华为技术有限公司 在应用瘦客户端中设置鼠标显示状态的方法及装置
USD852221S1 (en) * 2017-11-07 2019-06-25 Microsoft Corporation Display screen with animated graphical user interface
CN109933251A (zh) * 2017-12-19 2019-06-25 北京京东尚科信息技术有限公司 一种改变目标元素状态的方法和装置
CN113218146A (zh) * 2020-01-21 2021-08-06 青岛海尔电冰箱有限公司 冰箱显示区域控制方法、冰箱以及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124841A (ja) 1997-07-07 1999-01-29 Canon Inc 情報処理装置、処理方法、及び記憶媒体
JP2003186620A (ja) * 2001-12-14 2003-07-04 Ricoh Co Ltd ポインティング機能付き表示装置を備えた情報処理装置
JP2004086735A (ja) * 2002-08-28 2004-03-18 Toshiba Corp 電子機器及び動作モード切替方法
JP2010102474A (ja) 2008-10-23 2010-05-06 Sony Ericsson Mobile Communications Ab 情報表示装置、携帯情報端末、表示制御方法及び表示制御プログラム
JP2010257328A (ja) * 2009-04-27 2010-11-11 Alps Electric Co Ltd 入力処理装置
JP2011028524A (ja) 2009-07-24 2011-02-10 Toshiba Corp 情報処理装置、プログラムおよびポインティング方法
JP2011141753A (ja) * 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP2011216043A (ja) * 2010-04-02 2011-10-27 Sony Corp 表示装置、認証方法、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7274355B2 (en) * 2003-04-25 2007-09-25 Oqo, Inc. Blended transfer function for computer pointing devices
JP5418232B2 (ja) * 2010-01-04 2014-02-19 ソニー株式会社 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム
KR101761409B1 (ko) 2010-10-27 2017-07-25 주식회사 엘지유플러스 가상화 플랫폼 제공 방법 및 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124841A (ja) 1997-07-07 1999-01-29 Canon Inc 情報処理装置、処理方法、及び記憶媒体
JP2003186620A (ja) * 2001-12-14 2003-07-04 Ricoh Co Ltd ポインティング機能付き表示装置を備えた情報処理装置
JP2004086735A (ja) * 2002-08-28 2004-03-18 Toshiba Corp 電子機器及び動作モード切替方法
JP2010102474A (ja) 2008-10-23 2010-05-06 Sony Ericsson Mobile Communications Ab 情報表示装置、携帯情報端末、表示制御方法及び表示制御プログラム
JP2010257328A (ja) * 2009-04-27 2010-11-11 Alps Electric Co Ltd 入力処理装置
JP2011028524A (ja) 2009-07-24 2011-02-10 Toshiba Corp 情報処理装置、プログラムおよびポインティング方法
JP2011141753A (ja) * 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP2011216043A (ja) * 2010-04-02 2011-10-27 Sony Corp 表示装置、認証方法、およびプログラム

Also Published As

Publication number Publication date
US20150324085A1 (en) 2015-11-12
KR20150040950A (ko) 2015-04-15
EP2891958A4 (en) 2016-01-27
EP2891958A1 (en) 2015-07-08
US9665238B2 (en) 2017-05-30
KR101709243B1 (ko) 2017-02-23
CN104718524B (zh) 2018-06-22
JP2014048976A (ja) 2014-03-17
CN104718524A (zh) 2015-06-17
CA2883404A1 (en) 2014-03-06
JP5388246B1 (ja) 2014-01-15
ES2668196T3 (es) 2018-05-17
EP2891958B1 (en) 2018-02-28

Similar Documents

Publication Publication Date Title
WO2014034725A1 (ja) 入力制御装置、シンクライアントシステム、入力制御方法および記録媒体
US9524040B2 (en) Image editing apparatus and method for selecting area of interest
US9753567B2 (en) Electronic medium display device that performs page turning in response to user operation pressing screen, page turning method, and program
US8847978B2 (en) Information processing apparatus, information processing method, and information processing program
US20180121076A1 (en) Drawing processing method, drawing program, and drawing device
JP5672830B2 (ja) 画像表示制御装置、画像表示システム、画像表示方法、プログラムおよび記録媒体
JP5522755B2 (ja) 入力表示制御装置、シンクライアントシステム、入力表示制御方法およびプログラム
CN103809903B (zh) 用于控制虚拟屏幕的方法和装置
KR101686495B1 (ko) 표시 제어 장치, 씬 클라이언트 시스템, 표시 제어 방법 및 기록매체
EP3575945B1 (en) Information display method and mobile terminal
CN107728898B (zh) 一种信息处理方法及移动终端
US10691293B2 (en) Display device and computer-readable non-transitory recording medium with display control program stored thereon
US9417780B2 (en) Information processing apparatus
US20190087077A1 (en) Information processing apparatus, screen control method
CN114115639A (zh) 界面控制方法、装置、电子设备及存储介质
JP6722239B2 (ja) 情報処理装置、入力方法及びプログラム
KR101444202B1 (ko) 터치 스크린을 통한 문서서식 적용방법 및 장치
JP2012252459A (ja) 表示制御装置、システム、表示制御方法及びそのためのプログラム
JP2017054396A (ja) タッチパネルを有する情報処理装置、情報処理装置の制御方法、並びにプログラム
JP2019125024A (ja) 電子機器、情報処理方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13832021

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14423673

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20157004754

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2883404

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE