WO2009084140A1 - 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム - Google Patents

電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム Download PDF

Info

Publication number
WO2009084140A1
WO2009084140A1 PCT/JP2008/002896 JP2008002896W WO2009084140A1 WO 2009084140 A1 WO2009084140 A1 WO 2009084140A1 JP 2008002896 W JP2008002896 W JP 2008002896W WO 2009084140 A1 WO2009084140 A1 WO 2009084140A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
display
sensitive area
area
operation button
Prior art date
Application number
PCT/JP2008/002896
Other languages
English (en)
French (fr)
Inventor
Masatoshi Nakao
Original Assignee
Panasonic Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corporation filed Critical Panasonic Corporation
Priority to US12/811,080 priority Critical patent/US20100289768A1/en
Priority to EP08867655.6A priority patent/EP2226711A4/en
Publication of WO2009084140A1 publication Critical patent/WO2009084140A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Definitions

  • the present invention relates to an input device of an electronic device that can be used for an input operation in an electronic device such as a portable telephone terminal, a portable information terminal (PDA), a portable music player, and a portable game machine.
  • an electronic device such as a portable telephone terminal, a portable information terminal (PDA), a portable music player, and a portable game machine.
  • a touch panel is often used in the operation unit for the user's input operation.
  • this touch panel detects this input operation, detects coordinates of an input position, and detects changes in coordinates of an input position.
  • a touch panel is disposed in a state of being superimposed on a display screen such as a liquid crystal display, and positions of various operation buttons (or icons) displayed on the display screen according to the situation and coordinates on the touch panel Correspond
  • a display screen such as a liquid crystal display
  • positions of various operation buttons (or icons) displayed on the display screen correspond to the situation and coordinates on the touch panel
  • This type of input device is applicable when an input operation (for example, pressing on the touch panel) is detected within a specific operation range that matches the range of the display area of each operation button or icon displayed on the display screen.
  • control is performed to execute a command pre-assigned to an operation button or icon.
  • Patent Document 1 Patent Document 2, Patent Document 3, and Patent Document 4 are known.
  • Patent Document 1 discloses that when a signal from a camera recognizes that a finger approaches a touch panel, an icon in the vicinity of a target position is enlarged and displayed. As a result, even when the screen is small, when operating the touch panel, each icon can be confirmed in an enlarged state, so that the position can be easily grasped.
  • Patent Document 2 discloses that, when the position of the cursor displayed on the screen approaches a target button on the screen, the corresponding button is enlarged and displayed. As a result, even when the screen is small, when the button on the screen is operated, the button is enlarged and displayed, so that the alignment between the button and the cursor becomes easy.
  • Patent Document 3 when the position outside the area such as the displayed icon is operated (clicked) by the mouse cursor, the display of the corresponding icon etc. is enlarged, and the area responsive to the input operation is also expanded. Is disclosed. As a result, even when the screen is small, it is possible to operate the enlarged icon or the like on the screen, so that alignment between the icon and the mouse cursor becomes easy.
  • Patent Document 4 a priority is assigned to each of a large number of icons displayed on the screen of the touch panel, and the size of each icon area is controlled according to the priority, and each icon is actually operated. It is disclosed to detect the frequency of occurrence and automatically change the priority of each icon according to the result. As a result, since icons with high priority and icons with high operation frequency are displayed large, alignment between each icon and the finger becomes easy.
  • JP, 2006-236143 A Japanese Patent Application Laid-Open No. 8-16353 Unexamined-Japanese-Patent No. 9-251341 gazette Japanese Patent Application Laid-Open No. 9-54657
  • a device for displaying on a screen visible information display elements constituting a graphical user interface: also called a widget
  • display elements constituting a graphical user interface: also called a widget
  • operation buttons and icons for operations with a touch panel or operations with a mouse cursor etc. Even if the display is temporarily erased.
  • each operation button or icon may be annoying to the user when viewing the content. Since there is a high possibility, even if the operation button can be operated on the screen, it is switched to the non-display state to wait for an input operation from the user, and only when the operation is actually detected Control to switch from the display state to the display state.
  • the user can also operate the operation buttons and icons in the non-display state, and these may be actually operated. That is, if the electronic device is familiar to the user, the user remembers the position of each operation button of the display state by himself, so by pressing the touch panel near the hidden area where the desired operation button is considered to be present or It operates using a mouse cursor etc.
  • the range of the operation button to be operated It becomes difficult to grasp which area the shape of the operation button is a complicated shape or the outline portion of the operation button is not linear or curved (for example, a waveform or jaggedness), the range of the operation button to be operated It becomes difficult to grasp which area the shape of the operation button is a complicated shape or the outline portion of the operation button is not linear or curved (for example, a waveform or jaggedness), the range of the operation button to be operated It becomes difficult to grasp which area the
  • An object of the present invention is to provide an input device and an input operation processing method of an electronic device capable of improving operability even when recognition is impossible, and an input control program.
  • An input device of an electronic device includes a display unit capable of displaying visible information related to an input operation, an input operation unit that issues an instruction to a display screen of the display unit, and generates an input signal; It is an input device of electronic equipment provided with an input control part which directs processing based on an input signal, and the input control part is an input which detects an input position corresponding to the display screen based on the input signal.
  • the position detection unit, a screen display control unit that controls the display state of the operation target object displayed on the display screen, and the screen display control unit that the operation target object is not displayed or the contour of the object is clear
  • the input position detected by the input position detection unit is the object as a sensitive area sensitive to an input operation when the display state is in the form of a low degree.
  • an input signal analysis unit that determines whether the input position is within the first sensitive area, the input signal analyzing section determining whether the input position is within the first sensitive area.
  • processing for the input operation is performed, and the screen display control unit causes the object to be displayed, or displays an outline of the object.
  • An input device of an electronic device includes a display unit capable of displaying visible information regarding an input operation, a touch panel having an input function by a touch operation on an input surface corresponding to a display screen of the display unit, and an input of the touch panel. And an input control unit for instructing processing for an input operation based on a signal, the input control unit detecting an input position on the input surface, and an operation target to be displayed on the display screen.
  • the screen display control unit that controls the display state of the object, and the display target unit is in the non-display state of the object to be operated or in the display state in which the intelligibility of the contour of the object is low.
  • the input position detected by the input position detection unit includes a display area of the object as a sensitive area sensitive to an input operation. And an input signal analysis unit that determines whether the input position is within the first sensitive region, and the input operation is performed when the input signal analysis unit determines that the input position is within the first sensitive region. And the screen display control unit causes the object to be displayed, or displays the outline of the object.
  • the sensitive area sensitive to the input operation is the display area of the object
  • the display of elements such as operation buttons and icons to be operated in various situations
  • the area and the sensitive area to the operation can be set appropriately.
  • operability can be improved even when the operation target can not be clearly recognized.
  • the user can confirm the reaction to the operation and can clearly recognize the operation target by displaying the object or displaying the outline of the object.
  • the present invention is the input device of the above-mentioned electronic device, wherein the input signal analysis unit displays the object itself or the outline of the object by the screen display control unit, and after a predetermined time has elapsed, Switching the sensitive area to a second sensitive area within the first sensitive area, and determining whether the input position is within the second sensitive area.
  • the object is displayed after detecting an input operation on the object, or the outline of the object is displayed, and after a predetermined time has elapsed, the sensitive region sensitive to the input operation is a second within the first sensitive region.
  • the present invention also includes the input device of the electronic device described above, wherein the input signal analysis unit sets an area larger than the display area of the object as the first sensitive area.
  • the present invention is the input device of the electronic device described above, wherein the input signal analysis unit, as the second sensitive area, has the same size as the display area of the object and the first sensitive area. Including those that set smaller areas.
  • the display area of the object matches the display area. Only the input operation can be properly received and processed, and false detection at the time of the input operation can be prevented.
  • the present invention is the input device of the electronic device described above, wherein the input signal analysis unit is configured as the form in which the intelligibility of the contour of the object is low and the contour portion of the object has a complicated shape.
  • the object as the first sensitive area, in the case where the display of the image includes a gradation, the display luminance of the object is low, and at least one of the cases in which the contrast between the object and the background is low is included. Including setting the area larger than the display area of.
  • an area larger than the display area of the object is set as the first sensitive area, thereby detecting the input operation even when the input position is somewhat distorted.
  • the processing corresponding to the object can be performed.
  • the present invention is the input device of the electronic device described above, wherein the input signal analysis unit is configured to receive the input position within a predetermined time even when the input position is outside the first sensitive area. When it is detected that has moved into the first sensitive area, it is determined that it is an input operation on the object. As a result, even if the input position is outside the first sensitive area, if the user moves within the first sensitive area within a predetermined time, the user's operation position can be regarded as an input operation to the object. It is possible to appropriately cope with the correction of the above and improve the operability.
  • the input operation processing method of the present invention includes a display unit capable of displaying visible information related to an input operation, a touch panel having an input function by a touch operation on an input surface corresponding to a display screen of the display unit, and an input signal of the touch panel
  • a method of processing an input operation in an input device of an electronic device comprising an input control unit for instructing processing for an input operation based on the input position detection in which the input control unit detects a position input on the input surface Step, a screen display control step of controlling the display state of the operation target object displayed on the display screen, and the display state in the non-display state of the operation target object or in the form of low definition of the object contour And the object position as a sensitive area sensitive to an input operation.
  • the input signal analyzing step determining whether the input position is within the first sensitive area including the first display area. In this case, processing for the input operation is performed, and the screen display control step turns the object into a display state or displays the outline of the object.
  • the present invention also provides an input control program for executing the procedure of each step of the above-described input operation processing method.
  • the present invention provides an electronic device equipped with the input device described in any of the above.
  • Block diagram showing the configuration of the main part of the input device of the electronic device in the embodiment of the present invention A schematic view showing a specific example of a display screen and an operation in the input device of the first embodiment Sequence diagram showing main operations in the input device of the first embodiment
  • Flowchart showing the processing content of the sensitive area switching operation in the first embodiment Flowchart showing the processing content of the input processing operation in the first embodiment
  • region Flowchart showing the processing content of the sensitive area switching operation in the second embodiment
  • a configuration example applied to a portable electronic device such as a cellular phone terminal is shown as an example of the input device of the electronic device.
  • FIG. 1 is a block diagram showing the configuration of the main part of an input device of an electronic device according to an embodiment of the present invention.
  • the input device is used by the user for performing an input operation to an electronic device such as a mobile phone terminal, a portable information terminal (PDA), a portable music player, and a portable game machine. It is an assumed device.
  • the input device is mounted on an electronic device, and is configured to include a touch panel having an input function by a touch operation such as touching or tracing on an input surface on a display unit.
  • the input device 1 illustrated in FIG. 1 includes a touch panel 10, a display unit 30, an application 100, an input signal analysis unit 200, an input signal control unit 300, a setting control unit 400, and a screen display control unit 500. Further, in the electronic device on which the input device 1 is mounted, a control target device 50 such as an amplifier for audio signal output, an audio output unit such as a speaker or a headphone, and the like is provided.
  • a control target device 50 such as an amplifier for audio signal output, an audio output unit such as a speaker or a headphone, and the like is provided.
  • the touch panel 10 is an input device for operation, includes a flat transparent pressure-sensitive sheet, and periodically generates a signal representing the presence or absence of contact on the surface of the pressure-sensitive sheet and coordinate information of a position at which the contact is detected. Output. Therefore, when the user presses (touches) the surface of the pressure-sensitive sheet using his / her finger, a stylus pen or the like, a signal indicating that the touch is made and coordinate information of the input position are output.
  • the touch panel 10 may be configured using a detection element other than the pressure-sensitive sheet, such as an electrostatic touch panel, as long as the presence or absence of the touch and the coordinates of the input position where the touch is made can be detected.
  • the display unit 30 is a device capable of displaying various visible information such as characters, figures, and images on a flat display screen, and is configured of a liquid crystal display device or the like.
  • the touch panel 10 is disposed on the display screen of the display unit 30 to form an input surface. Therefore, the user can touch a specific position (a position where an operation button or the like is displayed) on the touch panel 10 while confirming the content of the display screen of the display unit 30 with the light transmitted through the touch panel 10.
  • the display of each operation button may be temporarily erased from the display screen of the display unit 30 to be in the non-display state, the input operation can also be performed on the operation button in the non-display state.
  • the application 100 is an interface for exchanging various data, control information, and the like between an upper-level individual application program (for example, a program providing a music reproduction function) and the input device 1 providing a function for input operation.
  • an upper-level individual application program for example, a program providing a music reproduction function
  • the application 100 executes the corresponding command based on the control signal notified from the input signal analysis unit 200, and gives an instruction to the setting control unit 400 and the screen display control unit 500. At this time, management of the display state / non-display state of each operation button on the display screen of the display unit 30 is also performed.
  • the input signal control unit 300 controls acceptance of a signal output from the touch panel 10 which is an input device. Specifically, whether or not the signal input from the touch panel 10 is noise is identified, and when an appropriate signal not noise is detected, the input position on the input surface is detected, and the presence or absence of a touch and the coordinates of the touch position are detected. Is notified to the input signal analysis unit 200 at regular intervals.
  • the input signal analysis unit 200 analyzes the information input from the input signal control unit 300 to associate the content of the user's input operation with the command assigned in advance, and performs control for instructing execution of the corresponding command. Output a signal. Specifically, an operation state (contact on) corresponding to a simple button press, an operation state (contact off) indicating that the button is released, a movement trajectory (contact position) when the touch position is moved while pressing Operation contents such as displacement) and coordinates (input coordinates) of these operation positions are detected. In addition, the size of the area that responds to the user's input for each operation button is switched according to whether the corresponding operation button is in the display state or the non-display state. More detailed operation will be described later.
  • the analysis result of the input signal analysis unit 200 is input to the setting control unit 400 or the screen display control unit 500 via the application 100.
  • the setting control unit 400 manages various parameters used when the electronic device operates, and controls a target unit. For example, the setting control unit 400 manages volume adjustment parameters for adjusting the volume when playing back music, and sound quality adjustment parameters for adjusting the sound quality. Then, these parameters are given to the device to be controlled (for example, an amplifier) 50.
  • the device to be controlled for example, an amplifier
  • the screen display control unit 500 controls the display of the operation target object on the display screen of the display unit 30, and the operation button as an example of the operation target object is visible information (an image similar to a physical operation button Display control is performed such as displaying as display contents) or erasing the display. Further, the control unit 30 manages a brightness adjustment parameter or the like for adjusting the brightness on the display screen of the display unit 30, and controls the display unit 30.
  • the operation button is exemplified as an operation target object, but various operation target objects such as a button, a knob, a knob, a switch, a wheel, a slide bar, and an icon are visible in the operation target object. It includes what is displayed as information.
  • the input signal analysis unit 200, the input signal control unit 300, the setting control unit 400, and the screen display control unit 500 realize the function of the input control unit, and among them, the input signal control unit 300 is an input position detection unit. To realize the function.
  • volume adjustment volume adjustment
  • the value of the volume adjustment parameter is input from the setting control unit 400 to the amplifier for audio signal output which is the control target device 50 as a control signal for adjusting the gain.
  • the input signal analysis unit 200 recognizes the input operation, and the recognition result is input to the setting control unit 400 via the application 100.
  • the volume adjustment parameter in the setting control unit 400 is changed. As a result, the gain of the amplifier to be controlled changes, and the output volume from the audio output unit changes.
  • FIG. 2 is a schematic view showing a specific example of the display screen and the operation in the input device of the first embodiment.
  • a specific example of the operation of the input device according to the first embodiment will be described with reference to FIG.
  • an operation button 32 or the like which is visible information having a circular shape imitating an operation knob of a volume, is displayed on the display screen 31.
  • the user can operate the touch panel 10 while viewing the display content of the screen, that is, the visible information of the operation button 32 on the touch panel, by the light transmitted through the touch panel 10 overlapping the screen.
  • the range of the operation button 32 displayed on the display screen 31 and the area of the touch panel 10 sensitive to the operation input by the finger 33 from the user Is controlled to coincide with the range of Further, for example, in a situation where the user hardly performs an input operation, control is performed so as to temporarily erase the display of the unnecessary operation button 32. Even in the state where the operation button 32 is erased from the display screen 31, the user's input operation to the operation button 32 is possible. That is, in the case of the familiar electronic device, the user memorizes the approximate position where the operation button 32 is present, so the portion where the operation button 32 which can not be seen by eye is considered to be present is also stored You can contact and operate by relying on your intuition. Then, when the operation position matches the position of the operation button 32, the input device receives an input operation.
  • the area sensitive to the corresponding operation button 32 is automatically switched depending on whether the operation button 32 is in the display state or the non-display state.
  • a sensitive area A2 second sensitive area
  • a sensitive area A1 first sensitive area
  • the area A2 in which the operation button 32 is displayed is assigned as an area sensitive to the input operation.
  • FIG. 2C shows a specific example of the input operation of the user and the state transition of the display screen.
  • the operation button 32 is in the non-display state, and the sensitive area A1 larger than the outline of the operation button is sensitive to the input operation.
  • the operation button 32 is changed to the display state like the display screen 31b at the center of the drawing with this user's input operation.
  • the operation button 32 changes to the display state, the user can accurately grasp the position of the operation button to be operated. Therefore, the trajectory of the operation position is corrected and the movement trajectory 34 is converged within the display area of the operation button 32. It is possible.
  • the area sensitive to the input operation switches from the sensitive area A1 larger than the operation button to the sensitive area A2 inside the outline of the operation button. Then, as in the display screen 31 c on the right side in the drawing, by continuing the circular rotation operation on the operation button 32, it is possible to perform continuous state change input operation such as volume adjustment.
  • continuous input operation such as continuous operation of circular motion to rotate around the operation button is performed, and volume, sound quality, brightness, reproduction for continuous operation as a command corresponding to the input operation. Description will be made on the assumption that the state such as the position is continuously changed.
  • FIG. 3 is a sequence diagram showing main operations in the input device of the first embodiment.
  • the operation detection signal SG1 including coordinate information and the like representing the input position on the touch panel 10 is an input signal control unit 300. Is output in a fixed cycle.
  • the input signal control unit 300 removes noise from the operation detection signal SG1 output from the touch panel 10 and supplies only valid information to the input signal analysis unit 200 as an operation signal SG2.
  • Input coordinate information from the touch panel 10 is continuously notified to the input signal analysis unit 200 through the input signal control unit 300 between T shown in the right side of FIG. 3.
  • the input signal analysis unit 200 analyzes the command associated with the current input operation in step S1. That is, based on the input operation signal SG2, the input position and the movement trajectory thereof are detected, and the corresponding command is determined using the command assignment table 210 which is set and held in advance.
  • the input signal analysis unit 200 first acquires input coordinates indicating the input position when the operation is started, refers to the command assignment table 210, and defines an operation button corresponding to the coordinate position. Determine if there is.
  • the input operation is accepted in the sensitive area (A1 in FIG. 2) which is wider than the range of the area in which the operation button is displayed.
  • the input signal analysis unit 200 selects a command assigned to the operation button, gives the application 100 command information, and causes the application 100 to execute the corresponding command.
  • the timing of command execution is performed at predetermined time intervals in the case of input by an operation in which input coordinates are continuously changed, and in the case of input by a single operation, when the user's finger is separated from the touch panel 10 or the like.
  • a command signal SG3 corresponding to the input operation is given from the input signal analysis unit 200 to the application 100, and a display control signal SG5 is given from the application 100 to the screen display control unit 500 to control display switching of operation buttons.
  • the setting control signal SG4 is supplied from the application 100 to the setting control unit 400 to change the value of the parameter corresponding to the command.
  • the input signal analysis unit 200 starts a timer that measures the switching timing of the sensitive area, and until the timer expires, the command associated with the input operation by the large sensitive area A1 as before displaying the operation button Analyze That is, when the start of operation by the user is detected, the screen display control unit 500 is instructed to switch the operation button in the non-display state to the display state. The switching of the area (switching from A1 to A2) is delayed in time.
  • the input signal analysis unit 200 receives the large sensitive area A1, which is the same sensitive area as before displaying the operation button. Accepts an input operation by. Thereafter, when the timer detects that the predetermined time has elapsed, the input signal analysis unit 200 switches the area for receiving the input operation to the small sensitive area A2, and determines whether the same input operation continues in subsequent steps S3 and S4. Also, the input operation is accepted only for the range of the sensitive area A2 equivalent to the button display area (outline) which is the same sensitive area as that after the display of the operation button. In steps S3 and S4, when the input operation continues, the command information of the same command is output and the corresponding command is executed again, and when interruption of the input operation is detected, the new input operation is performed. judge.
  • FIG. 4 is a schematic view showing a specific example of the display screen in the input device of the first embodiment.
  • (a) shows the operation button displayed on the display screen 31 of the display unit 30,
  • (b) shows the sensitive area A1 larger than the operation button, and
  • (c) shows the sensitive area of the same size as the operation button.
  • A2 is shown respectively.
  • circular operation buttons 32a and 32b imitating a volume operation knob are arranged.
  • the command assignment table 210 is referred to in each of steps S1, S2, S3 and S4 of FIG. 3, and the sensitive area A1 (non-display state of FIG. In the case (1) or the sensitive area A2 (in the case of the display state) in FIG. 4C, the determination of the command corresponding to the touch panel operation is performed.
  • FIG. 5 is a schematic view showing a specific example of a command assignment table used in the input device of the first embodiment.
  • FIG. 5 shows the contents of the command assignment table 210 corresponding to each operation button of FIG.
  • information representing the shape of the operation button, the coordinate position (X, Y) and the size (radius R) of the operation button as information associated with each input operation.
  • the display range of the operation button according to, the content of the operation (tapping, rotation etc.) corresponding to the operation button, and the type of the command to be executed (button X, button Y etc.) are registered. Therefore, in step S1 and the like of FIG. 3, the command to be executed can be specified by referring to the contents of the command assignment table 210 and comparing with the input coordinates of the input operation signal SG2 and the movement locus. .
  • the sensitive area enlargement width (eg, 50 dots) before display of the operation button, the sensitive area enlargement width (eg, 0 dots) after display, the sensitive area
  • the change timing delay time of (for example, 500 msec) is set.
  • the operation position is sensitive even if it is separated from the button contour by 50 dots, and after the operation button is displayed, it is sensitive to the button size according to the button size.
  • Switch. At this time, the sensitive area is changed (narrowed) after 500 msec has elapsed after the display of the operation button, and a slight margin is provided to enable trajectory correction of the operation position by the user.
  • the input signal analysis unit 200 is for volume adjustment Is supplied to the application 100 as a volume increase command signal SG3.
  • the application 100 supplies the setting control signal SG4 of volume increase to the setting control unit 400 according to the command signal SG3 to change the value of the volume adjustment parameter.
  • the volume adjustment parameter in the setting control unit 400 is increased by one step from the current volume value.
  • the input signal analysis unit 200 performs steps S2, S3, and S4 according to the input operation signal SG2. Execute command analysis and continuation determination of the input operation, and give the result of the determination to the application 100.
  • the command signal SG3 for volume increase is input from the input signal analysis unit 200 to the application 100 for each predetermined time or each predetermined displacement amount.
  • the setting control signal SG4 of volume increase from the application 100 is sequentially input to the setting control unit 400, and the value of the volume adjustment parameter is updated and increased one step at a time (5 ⁇ 6 ⁇ 7 in the example of FIG. 3). .
  • FIG. 6 is a flowchart showing the processing content of the sensitive area switching operation in the first embodiment
  • FIG. 7 is a flowchart showing the processing content of the input processing operation in the first embodiment.
  • the process shown in FIG. 6 is periodically and repeatedly executed mainly at the input signal analysis unit 200 in a short cycle.
  • the process shown in FIG. 7 is mainly executed in response to the detection of an input operation on the touch panel 10 in the input signal analysis unit 200, and steps S1 and S2 of command analysis in FIG. 3 and step S3 of continuation determination. , S4, etc. are performed.
  • step S11 of FIG. 6 the input signal analysis unit 200 checks the state of the operation button 32 that can be displayed on the display screen 31 of the display unit 30 via the screen display control unit 500, and determines whether it is a display state or a non-display state. Do. If it is a display state, it will progress to step S12, and if it is a non-display state, it will progress to step S14.
  • step S12 the input signal analysis unit 200 checks whether the elapsed time since the operation button 32 was switched from the non-display state to the display state has reached a predetermined time T1 (for example, 500 milliseconds), and the time T1 is elapsed. If it has, the process proceeds to step S13, and if it is before time T1 passes, the process proceeds to step S14.
  • a predetermined time T1 for example, 500 milliseconds
  • step S13 when the operation button 32 is in the display state, the input signal analysis unit 200 is equivalent to the inside of the outline of the display range of the operation button 32 as the sensitive area (the area sensitive to the input operation) of each operation button 32. Assign a sensitive area A2 (see FIG. 2A).
  • step S14 when the operation button 32 is in the non-display state, the input signal analysis unit 200 sets a sensitive area A1 (see FIG. 2 (a)) as a sensitive area of each operation button 32 larger than the display range of the operation button 32. ))).
  • step S15 the input signal analysis unit 200 determines whether or not a predetermined time T3 has elapsed since detection of the last input operation, and if a new input operation is not detected even after the time T3, the next operation is performed. Step S16 of is performed.
  • step S16 the screen display control unit 500 erases the operation button 32 in the display state from the display screen 31, and switches it to the non-display state. That is, when the state in which the user does not perform the input operation continues for the time T3, the operation button 32 is automatically switched to the non-display state.
  • step S21 of FIG. 7 the input signal analysis unit 200 determines whether or not an input operation has been detected, and if it has been detected, the process proceeds to step S22. That is, based on the operation detection signal SG1 output from the touch panel 10, based on the operation signal SG2 output from the input signal control unit 300, it is determined whether the input signal analysis unit 200 has detected an input operation.
  • step S22 the input signal analysis unit 200 starts a timer used to determine an elapsed time from the start of the operation.
  • This timer corresponds to the timer shown in FIG. 3, and counts time T1 in FIG. 6, time T2 in FIG.
  • step S23 the input signal analysis unit 200 compares the coordinates of the input position detected by the touch panel 10 with the range of the sensitive area for each operation button 32 registered in the command assignment table 210.
  • This sensitive area is sequentially assigned in step S13 or step S14 of FIG. 6 as described above.
  • step S23 when the input signal analysis unit 200 detects an operation at a position inside the sensitive area, the process proceeds from step S24 to step S25, and when an operation at a position outside the sensitive area is detected The process proceeds from step S24 to step S27.
  • step S25 the screen display control unit 500 switches the non-displayed operation button 32 to the display state when the operation corresponding to the operation button 32 is detected based on the instruction from the input signal analysis unit 200. Therefore, when the operation button 32 has been deleted from the screen by then, the operation button 32 is displayed on the screen again along with the execution of step S 25 by the button operation detection.
  • step S26 the input signal analysis unit 200 refers to the contents of the command assignment table 210, identifies a specific command associated with the operation button 32 coincident with the operation position, and executes this command.
  • step S27 the input signal analysis unit 200 monitors information on the operation position, and determines whether the operation position is moving. Then, if the operation position is moving, the next step S28 is executed.
  • step S28 it is determined whether or not a predetermined time T2 (for example, one second) has elapsed from the start of the operation.
  • a predetermined time T2 for example, one second
  • the process returns to step S23, and if the position outside the sensitive area of the operation button 32 is operated even after the time T2, the correction of the operation position is not performed and the normal operation is performed. End the process, assuming that the operation is not continued.
  • the area A2 is allocated as the sensitive area of the operation button 32 in step S13 of FIG. 6, so the user can actually confirm visually By operating the range of the operation button 32, it is possible to execute the command assigned to the operation button.
  • the area A1 is allocated as the sensitive area of the operation button 32 in step S14 of FIG. 6, so a range wider than the display range of the operation button 32 stored by the user The input operation will be accepted at. In this case, even when the user's operation position is slightly misaligned with respect to the range of the non-displayed operation button 32, it is possible to execute a command for the corresponding operation button.
  • step S14 of FIG. 6 is executed until a predetermined time T1 elapses from that point, so the range of the sensitive area for receiving input operation is sudden It can prevent changing. That is, by not changing the sensitive area until the user recognizes the operation button 32 actually displayed and recognizes that the situation has changed, it is possible to prevent the user from feeling uncomfortable.
  • FIG. 8 is a time chart showing an operation example at the time of changing the sensitive area in the first embodiment.
  • the operation button which has been hidden and hidden until then is displayed.
  • the operation button is actually displayed at time ta2 delayed by several tens of milliseconds from time ta1 in consideration of effects such as processing delay and display device operation delay.
  • time T1 for example, 500 msec
  • the sensitive area of the operation button It is changed to area A2.
  • the input signal analysis unit A step 200 detects the movement of the input position, determines that it is an input operation to the corresponding operation button, and accepts the operation from the beginning as a series of operations. That is, when the operation position is moving outside the sensitive area, the process of steps S24 to S27, S28, and S21 in FIG. 7 is continued until time T2 elapses, and monitoring of the movement of the operation position is continued.
  • the input operation is accepted as a series of operations (such as a movement trajectory) including the operation at a position outside the sensitive area in step S26.
  • the operation button to be operated by the user is switched to the display state and the non-display state according to the situation, the operability of the user is secured in each situation Can be properly controlled.
  • the input device when the operation button is in the non-display state, a larger range is allocated as the sensitive area as compared to that in the display state. Therefore, the user slightly deviates from the original display range of the operation button or icon Even in the case of the operation, the input operation can be accepted and the corresponding processing can be performed. In this case, even when the input position is shifted with respect to the operation button, it is possible to detect the input operation and execute the process corresponding to the operation target. As in the present embodiment, by appropriately setting the display area and the sensitive area of the operation button, it is possible to execute appropriate processing for the operation position even when the operation button can not be clearly recognized. In addition, it is possible to suppress non-responsiveness or erroneous detection with respect to input operation, and to significantly improve operability.
  • the operation button by switching the sensitive area so as to assign the sensitive area equal to the button size, it is possible to appropriately receive and process the input operation corresponding to the operation button. It is easy to grasp and align. Further, in this case, erroneous detection at the time of input operation can be prevented. Furthermore, when the operation input is detected, the operation button is displayed or the outline of the operation button is displayed by highlight display, etc., so that the user can confirm the reaction to the operation and can clearly recognize the operation target. .
  • FIG. 9 is a schematic view showing a specific example of the display screen and the sensitive area in the input device of the second embodiment.
  • the second embodiment is a modification of the first embodiment. Also in the second embodiment, an input device having the same configuration as that in FIG. 1 is assumed, but the operation is slightly changed. The modified operation is described below.
  • the clarity of the outline of the operation button 32 is low, and it may be difficult for the user to accurately grasp the range.
  • the outline of the operation button 32c has a complicated shape, and it is difficult for the user to identify the boundary between the inside and the outside of the display range of the operation button. Therefore, in the second embodiment, when the outline of the operation button is not linear or the outline part is unclear and can not be clearly identified, the circular sensitive area A1 larger than the outline of the operation button 32c is sensitive to the input operation Allocate as an area.
  • the display of the operation button 32d since the display of the operation button 32d includes gradation, it is difficult to identify the position of the contour. Therefore, a circular sensitive area A1 larger than the entire display range of the operation button is also assigned as the area sensitive to the input operation to the operation button 32d including gradation display.
  • the display brightness of the operation button 32 is a form in which the intelligibility of the outline of the operation button 32 is low. When it is low, the case where the contrast between the operation button and the background is low because the color tone and the brightness of the operation button and the background are close is also included.
  • the display of the operation button 32 itself is changed or the image of the background is changed, for example, when the operation button 32 is highlighted when the operation is input so that the user can grasp the operation of the operation button 32,
  • the display range of the operation button 32 changes so as to be clear to the user. Therefore, when there is a change in the display of such an operation button, the sensitive area is switched after a predetermined period has elapsed.
  • the outline portion of the operation button 32c can not be clearly identified in a complicated shape. Also, since the highlight 35 makes the contrast between the operation button and the background high, the display range becomes clear.
  • a circular sensitive area A1 larger than the outline of the operation button 32c is assigned, and when the highlight display 35 is made after the start of the operation, the size is equal to the display range of the operation button (inner than the outline).
  • the sensitive area A2 is assigned as an area sensitive to the input operation.
  • the display range becomes clear by the highlight display 35 after the operation.
  • a circular sensitive area A1 larger than the outline of the operation button 32d is initially assigned, and when the highlight display 35 is made after the operation is started, the sensitive area A2 having a size equal to the size of the original operation button Is assigned as an area sensitive to input operations.
  • FIG. 10 is a flowchart showing the processing contents of the sensitive area switching operation in the second embodiment.
  • the process shown in FIG. 10 is periodically and periodically executed in a short cycle mainly by the input signal analysis unit 200, instead of the process of FIG. 6 in the first embodiment.
  • step S31 of FIG. 10 the input signal analysis unit 200 selects in order to determine each of the plurality of operation buttons 32 registered in the command allocation table 210, and necessary information of each operation button is allocated to the command. It is acquired from the table 210.
  • step S32 the input signal analysis unit 200 determines whether the contour of the display content of the corresponding operation button 32 has a complicated shape. If it is complicated (for example, in the case of the shape as shown in FIG. 9A), the process proceeds to step S37, and if it is a linear or simple curvilinear shape, the process proceeds to step S33.
  • step S33 the input signal analysis unit 200 determines whether the display content of the corresponding operation button 32 has a gradation. If there is a gradation (for example, in the case of the display content as shown in FIG. 9B), the process proceeds to step S37. If not, the process proceeds to step S34.
  • step S34 the input signal analysis unit 200 acquires necessary display information of each operation button in order to determine the contrast between the display of the corresponding operation button 32 and the background thereof.
  • step S35 the input signal analysis unit 200 determines whether the contrast between the display of the corresponding operation button 32 and the background thereof is high or low. If the contrast is relatively low (for example, before the highlight display 35 is made in FIGS. 9C and 9D), the process proceeds to step S37, and if the contrast is high (for example, FIGS. ) After the highlight display 35 is made)), the process proceeds to step S36. In addition to the contrast, a change or processing may be added to determine a color difference.
  • step S36 when the contour of the operation button 32 can be clearly identified, the input signal analysis unit 200 sets the display area of the operation button 32 as the sensitive area (the area sensitive to the input operation) of the corresponding operation button 32. Assign a sensitive area A2 (see FIG. 2A) equivalent to the inside of the contour.
  • step S37 when it is difficult to identify the outline of the operation button 32, the input signal analysis unit 200 sets a sensitive area A1 larger than the display range of the operation button 32 by a predetermined amount as a sensitive area of the corresponding operation button 32 (see FIG. Assign 2) (a).
  • step S38 it is determined whether the processing of all the operation buttons has been completed, and the processing of steps S31 to S37 is repeated for all the operation buttons 32 currently displayed on the display screen 31.
  • the above process may be performed for all the operation buttons 32 registered in the command assignment table 210. If it is detected in step S38 that the processing for all the operation buttons 32 is completed, this processing is ended.
  • the contrast between the operation button and the background is low.
  • a sensitive area A1 larger than the outline of the operation button is allocated It becomes possible.
  • the input device can receive the operation and execute the processing corresponding to the operation target.
  • the present invention is not limited to those described in the above embodiments, but may be modified or applied by those skilled in the art based on the description of the specification and well-known techniques. Yes, within the scope of seeking protection.
  • the input position detection unit detects the coordinates of the input position using the touch panel 10 as the input unit, but if it has an input function having input position information, the touch panel Instead of 10, another input device such as a mouse, a trackball, or a pen input device may be used as the input unit to detect the input position.
  • a mouse cursor is displayed on the screen, the display position of the mouse cursor is moved according to the operation of an input device such as a mouse, and the coordinates of the input position are recognized in response to an operation such as clicking on the display position of the mouse cursor. You can also
  • the input device of the present embodiment can be configured only by dedicated hardware such as an electronic circuit, or is configured by combining a computer provided with a processor for control, a memory, and the like with a program executed in this computer. You can also
  • the electronic apparatus by incorporating the input device of the present embodiment into a speaker, a receiver, or a portable telephone terminal provided with an external AV output, a portable music player, or a portable game machine, the electronic apparatus
  • operations such as output value of sound such as volume and sound quality and selection of output content can be easily performed by touch operation such as tracing or touching even when objects such as buttons and switches are not displayed Therefore, the user can easily perform the intended operation.
  • the content includes an image
  • the user can easily operate while hiding the object while the user does not operate, so that the user can easily operate while enjoying the image, and a useful electronic device can be configured. it can.
  • the present input device is useful not only for the output device such as the above-described speaker but also for the setting inside the electronic device, for example, the selection of a telephone directory or content, the browsing operation of a Web page, and the like.
  • the present invention can appropriately set display areas of elements such as operation buttons and icons to be operated and sensitive areas to the operation in various situations, and can be operated even when the operation target can not be clearly recognized. It has an effect that can be improved, for example, an input of an electronic device that can be used for an input operation in an electronic device such as a mobile phone terminal, a personal digital assistant (PDA), a portable music player, and a portable game machine It is useful in an apparatus, an input operation processing method, an input control program, and the like.
  • PDA personal digital assistant

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 様々な状況において、操作対象となる操作ボタン等の表示領域と操作に対する感応領域とを適切に設定し、操作対象が明確に認識できない場合であっても操作性を向上させる。  入力信号解析部200は、画面表示制御部500により操作ボタンが非表示状態、または操作ボタンの輪郭の明瞭度が低い形態で表示状態となっている場合に、入力信号制御部300により検出されたタッチパネル10の入力位置が、操作ボタンの表示領域より大きい感応領域A1内にあるか否かを判定する。入力位置が感応領域A1内にあると判定した場合に、入力操作に対する処理を実行して設定制御部400や画面表示制御部500に指示を送り、画面表示制御部500により操作ボタンまたはその輪郭を表示状態にする。表示状態にしてから所定時間経過後、感応領域を操作ボタンの表示領域とほぼ同等で感応領域A1より小さい感応領域A2に切り替える。

Description

電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
 本発明は、例えば携帯電話端末、携帯型情報端末(PDA)、携帯型音楽プレーヤ、携帯型ゲーム機のような電子機器における入力操作に利用可能な電子機器の入力装置に関する。
 様々な電子機器において、最近ではユーザの操作性を改善したり機械的な操作ボタンの数を削減するために、ユーザの入力操作のために操作部にタッチパネルが用いられる場合が多い。このタッチパネルは、平面上の任意の点をユーザが指等で触れたり押圧した時に、この入力操作を検知して入力位置の座標を検出したり入力位置の座標の変化を検出する。また、一般的には液晶表示器のような表示画面と重ねた状態でタッチパネルを配置し、状況に応じて表示画面に表示される様々な操作ボタン(またはアイコン)の位置とタッチパネル上の座標とを対応付ける。これにより、機械的な操作ボタンを多数設ける必要がなくなるし、表示される各操作ボタンの位置とタッチパネル上の座標との対応関係を表す情報と、表示画面に表示する内容とを変更するだけで、ハードウェアに変更を加えることなく、操作ボタンの位置や数や形状などを自由に変更することが可能になる。
 この種の入力装置においては、表示画面に表示されているそれぞれの操作ボタンやアイコンの表示領域の範囲と一致する特定の操作範囲内で入力操作(例えばタッチパネル上の押下)を検出した場合に該当する操作ボタンやアイコンに事前に割り当てられているコマンドを実行するように制御するのが一般的である。
 しかし、例えば携帯電話端末のように比較的表示画面が小さい電子機器の場合には、画面に表示される操作ボタンやアイコンも小さくせざるを得ないので、特にタッチパネル上をユーザが指で押下することにより入力操作を行う場合には、ユーザが操作しようとする操作ボタンが表示されている領域の範囲と実際にユーザが指等で押下する位置とがずれやすく、正しい位置を押下して希望の動作を開始するまでにユーザが同じ操作ボタンの押下を何回も繰り返すような状況も生じていた。
 このような問題点を解消し、ユーザの操作性を改善するための従来技術として、例えば特許文献1、特許文献2、特許文献3、特許文献4に開示された技術が知られている。
 特許文献1においては、タッチパネルに指が接近したことをカメラからの信号で認識すると、対象位置の近傍にあるアイコンを拡大表示することが開示されている。これにより、画面が小さい場合でもタッチパネルを操作する際には各アイコンを拡大した状態で確認できるので、位置を把握し易くなる。
 特許文献2においては、画面に表示されているカーソルの位置が画面上の目的のボタンに近づくと、該当するボタンを拡大表示することが開示されている。これにより、画面が小さい場合でも画面上のボタンを操作する際にはボタンが拡大表示されるので、ボタンとカーソルとの位置合わせが容易になる。
 特許文献3においては、表示されているアイコン等の領域の外側の位置がマウスカーソルにより操作(クリック)された場合に、該当するアイコン等の表示を拡大し、入力操作に反応する領域も拡大することが開示されている。これにより、画面が小さい場合でも画面上で拡大されたアイコン等を操作することができるので、アイコンとマウスカーソルとの位置合わせが容易になる。
 特許文献4においては、タッチパネルの画面に表示する多数のアイコンのそれぞれに優先度(プライオリティ)を割り当て、優先度に応じて各アイコンの領域の大きさを制御すること、並びに各アイコンが実際に操作された頻度を検出し、その結果に応じて各アイコンの優先度を自動的に変更することが開示されている。これにより、優先度の高いアイコンや操作頻度の高いアイコンについては大きく表示されるので各アイコンと指との位置合わせが容易になる。
特開2006-236143号公報 特開平8-16353号公報 特開平9-251341号公報 特開平9-54657号公報
 ところで、タッチパネルによる操作あるいはマウスカーソル等を用いた操作のために操作ボタンやアイコンのような可視情報(グラフィカルユーザインタフェースを構成する表示要素:ウィジェット(Widget)とも呼ばれる)を画面に表示する装置であっても、一時的に表示を消去する場合もある。
 例えば、比較的小さい画面にテレビ番組のような動画像や写真のような静止画のコンテンツを表示する場合には、コンテンツの鑑賞の際にそれぞれの操作ボタンやアイコンの表示がユーザにとって目障りになる可能性が高いので、画面上で操作可能な状態の操作ボタンであっても非表示状態に切り替えてユーザからの入力操作を待ち、実際に操作が検出されたような場合だけその操作ボタンを非表示状態から表示状態に切り替えるように制御する。
 従って、ユーザは非表示状態の操作ボタンやアイコンについても操作が可能であり、これらを実際に操作する場合がある。すなわち、ユーザが使い慣れた電子機器であれば、ユーザは表示状態の各操作ボタンの位置を自分で覚えているので、所望の操作ボタンが存在すると考えられる隠れた領域の近傍をタッチパネルの押下によりあるいはマウスカーソル等を用いて操作することになる。
 しかしながら、非表示状態の操作ボタンやアイコンを操作する場合には、それらの位置を目で確認できず、ユーザ自身の記憶と勘のみに頼らざるを得ないので、位置合わせが難しく操作性が良くない。また、表示状態の操作ボタンやアイコンを操作する場合であっても、位置合わせが難しい場合もある。例えば、画面上に表示されている操作ボタンの表示内容とその背景(例えば画像など)の内容とのコントラスト(輝度の差)あるいは色の差が小さい場合には、操作ボタンとその背景との境界の区別が困難になるので、操作すべき操作ボタンの表示されている範囲を把握しにくい。また、例えば操作ボタンの形状が複雑な形状であったり、操作ボタンの輪郭部分が直線的または曲線的でない(例えば波形やギザギザになっている)ような場合にも、操作すべき操作ボタンの範囲がどの領域までなのかを把握するのが困難になる。
 本発明は、上記事情に鑑みてなされたもので、様々な状況において、操作対象となる操作ボタンやアイコン等の要素の表示領域と操作に対する感応領域とを適切に設定でき、操作対象が明確に認識できない場合であっても操作性を向上させることが可能な電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラムを提供することを目的とする。
 本発明による電子機器の入力装置は、入力操作に関する可視情報を表示可能な表示部と、前記表示部の表示画面への指示を行い、入力信号を発生する入力操作部と、前記入力操作部の入力信号に基づいて処理を指示する入力制御部とを備える電子機器の入力装置であって、前記入力制御部は、前記入力信号に基づいて前記表示画面に対応する入力された位置を検出する入力位置検出部と、前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御部と、前記画面表示制御部により前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記入力位置検出部により検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析部とを有し、前記入力信号解析部により前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御部によって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示するものである。
 本発明による電子機器の入力装置は、入力操作に関する可視情報を表示可能な表示部と、前記表示部の表示画面に対応する入力面への接触操作による入力機能を有するタッチパネルと、前記タッチパネルの入力信号に基づいて入力操作に対する処理を指示する入力制御部とを備え、前記入力制御部は、前記入力面において入力された位置を検出する入力位置検出部と、前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御部と、前記画面表示制御部により前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記入力位置検出部により検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析部とを有し、前記入力信号解析部により前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御部によって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示するものである。
 これにより、表示部に表示される操作対象のオブジェクトが非表示状態、またはオブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、入力操作に感応する感応領域をオブジェクトの表示領域を含む第1の感応領域とし、入力位置が第1の感応領域内にある場合に入力操作に対する処理を実行することで、様々な状況において、操作対象となる操作ボタンやアイコン等の要素の表示領域と操作に対する感応領域とを適切に設定できる。また、操作対象が明確に認識できない場合であっても操作性を向上させることができる。また、操作入力を検出した場合にオブジェクトを表示状態にするか、またはオブジェクトの輪郭を表示することで、ユーザは操作に対する反応を確認でき、操作対象を明確に認識できる。
 また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記画面表示制御部が前記オブジェクト自体または前記オブジェクトの輪郭を表示して所定時間経過後、入力操作に感応する感応領域を前記第1の感応領域以内の第2の感応領域に切り替え、前記入力位置が前記第2の感応領域内にあるか否かを判定するものを含む。
 これにより、オブジェクトに対する入力操作を検出した後にオブジェクトを表示状態にするか、またはオブジェクトの輪郭を表示し、所定時間経過後、入力操作に感応する感応領域を第1の感応領域以内の第2の感応領域に切り替えることで、操作対象のオブジェクトに対応した入力操作を適切に受け入れて処理することができ、ユーザによる操作位置の把握や位置合わせも容易である。
 また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記第1の感応領域として、前記オブジェクトの表示領域より大きい領域を設定するものを含む。
 これにより、オブジェクトの表示領域より大きい領域を第1の感応領域として設定することで、操作対象のオブジェクトが明確に認識できない場合においても、オブジェクトの表示範囲から多少ずれた位置をユーザが操作した場合であってもその入力操作を受け付けて対応する処理を行うことができる。
 また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記第2の感応領域として、前記オブジェクトの表示領域と約同等の大きさで前記第1の感応領域より小さい領域を設定するものを含む。
 これにより、オブジェクトの表示領域と約同等の大きさで第1の感応領域より小さい領域を第2の感応領域として設定することで、操作対象のオブジェクトが認識できる場合はオブジェクトの表示領域に合った入力操作のみを適切に受け入れて処理でき、入力操作時の誤検出などを防止できる。
 また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記オブジェクトの輪郭の明瞭度が低い形態として、前記オブジェクトの輪郭部分が複雑な形状の場合、前記オブジェクトの表示がグラデーションを含んでいる場合、前記オブジェクトの表示輝度が低い場合、前記オブジェクトと背景とのコントラストが低い場合のうちの少なくとも一つを含む場合に、前記第1の感応領域として、前記オブジェクトの表示領域より大きい領域を設定するものを含む。
 これにより、オブジェクトの輪郭の明瞭度が低い形態の場合に第1の感応領域としてオブジェクトの表示領域より大きい領域を設定することで、入力位置が多少ブレたりした場合でも入力操作を検出して操作対象に対応する処理を行うことができる。
 また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記入力位置が前記第1の感応領域外である場合であっても、所定時間以内に前記入力位置が前記第1の感応領域内に移動したことを検出した場合には、前記オブジェクトに対する入力操作であると判定するものを含む。
 これにより、入力位置が第1の感応領域外である場合であっても所定時間以内に第1の感応領域内に移動した場合は、オブジェクトに対する入力操作であるとみなすことで、ユーザの操作位置の補正に対して適切に対応することができ、操作性を向上できる。
 本発明の入力操作処理方法は、入力操作に関する可視情報を表示可能な表示部と、前記表示部の表示画面に対応する入力面への接触操作による入力機能を有するタッチパネルと、前記タッチパネルの入力信号に基づいて入力操作に対する処理を指示する入力制御部とを備える電子機器の入力装置における入力操作処理方法であって、前記入力制御部において、前記入力面において入力された位置を検出する入力位置検出ステップと、前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御ステップと、前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析ステップとを有し、前記入力信号解析ステップにより前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御ステップによって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示するものである。
 また、本発明は、上記の入力操作処理方法の各ステップの手順を実行させるための入力制御プログラムを提供する。
 また、本発明は、上記いずれかに記載の入力装置を搭載した電子機器を提供する。
 本発明によれば、様々な状況において、操作対象となる操作ボタンやアイコン等の要素の表示領域と操作に対する感応領域とを適切に設定でき、操作対象が明確に認識できない場合であっても操作性を向上させることが可能な電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラムを提供できる。
本発明の実施形態における電子機器の入力装置の主要部の構成を示すブロック図 第1の実施形態の入力装置における表示画面及び動作の具体例を示す模式図 第1の実施形態の入力装置における主要な動作を示すシーケンス図 第1の実施形態の入力装置における表示画面の具体例を示す模式図 第1の実施形態の入力装置において使用するコマンド割り当てテーブルの具体例を示す模式図 第1の実施形態における感応領域切替動作の処理内容を示すフローチャート 第1の実施形態における入力処理動作の処理内容を示すフローチャート 第1の実施形態における感応領域変更時の動作例を示すタイムチャート 第2の実施形態の入力装置における表示画面及び感応領域の具体例を示す模式図 第2の実施形態における感応領域切替動作の処理内容を示すフローチャート
符号の説明
 1 入力装置
 10 タッチパネル
 30 表示部
 31 表示画面
 32 操作ボタン
 34 移動軌跡
 35 ハイライト表示
 50 制御対象デバイス
 100 アプリケーション
 200 入力信号解析部
 210 コマンド割り当てテーブル
 300 入力信号制御部
 400 設定制御部
 500 画面表示制御部
 A1、A2 感応領域
 以下の実施形態では、電子機器の入力装置の一例として、携帯電話端末等の携帯電子機器に適用した構成例を示す。
 (第1の実施形態)
 図1は本発明の実施形態における電子機器の入力装置の主要部の構成を示すブロック図である。
 本実施形態の入力装置は、例えば携帯電話端末、携帯型情報端末(PDA)、携帯型音楽プレーヤ、携帯型ゲーム機のような電子機器に対してユーザが入力操作を行うために利用することを想定した装置である。入力装置は、電子機器に搭載され、表示部上の入力面において触れる、なぞる等の接触操作による入力機能を有するタッチパネルを備えて構成される。
 図1に示す入力装置1は、タッチパネル10、表示部30、アプリケーション100、入力信号解析部200、入力信号制御部300、設定制御部400、及び画面表示制御部500を備えて構成される。また、入力装置1を搭載した電子機器には、音声信号出力用の増幅器、スピーカやヘッドホン等の音声出力部などの、制御対象デバイス50が設けられる。
 タッチパネル10は、操作用の入力デバイスであり、平面状に形成された透明な感圧シートを含み、前記感圧シートの面における接触の有無及び接触を検出した位置の座標情報を表す信号を定期的に出力する。従って、ユーザが自分の指やスタイラスペン等を用いてこの感圧シートの表面を押下する(触れる)ことにより、接触したことを示す信号及び入力位置の座標情報が出力される。なお、接触の有無及び接触した入力位置の座標を検出できるものであれば、静電式タッチパネルなど、感圧シート以外の検出要素を用いてタッチパネル10を構成しても良い。
 表示部30は、平面状の表示画面に文字、図形、画像のような様々な可視情報を表示することが可能な装置であり、液晶表示装置などにより構成される。前記タッチパネル10は、この表示部30の表示画面の上に重ねて配置され、入力面を形成している。従って、ユーザは表示部30の表示画面の内容をタッチパネル10を透過した光により確認しながら、タッチパネル10上の特定の位置(操作ボタン等が表示されている位置)に触れることができる。なお、各操作ボタンの表示を表示部30の表示画面上から一時的に消去して非表示状態にすることもあるが、非表示状態の操作ボタンに対しても入力操作を行うことができる。
 アプリケーション100は、上位の個別のアプリケーションプログラム(例えば音楽再生機能を提供するプログラム)と、入力操作のための機能を提供する入力装置1との間で各種データや制御情報等をやり取りするためのインタフェースを提供するプログラム(ミドルウェア)である。このアプリケーション100は、入力信号解析部200から通知される制御信号に基づいて、該当するコマンドを実行し、設定制御部400及び画面表示制御部500に指示を与える。この際、表示部30の表示画面における各操作ボタンの表示状態/非表示状態の管理も行う。
 入力信号制御部300は、入力デバイスであるタッチパネル10から出力される信号の受付を制御する。具体的には、タッチパネル10から入力される信号がノイズかどうかを識別し、ノイズでない適切な信号を検出した場合には、入力面における入力位置を検出し、接触の有無及び接触した位置の座標を表す情報を一定の間隔で入力信号解析部200に通知する。
 入力信号解析部200は、入力信号制御部300から入力される情報を解析することにより、ユーザの入力操作の内容を予め割り当てられたコマンドに対応付けて、該当するコマンドを実行指示するための制御信号を出力する。具体的には、単純なボタンの押下に相当する操作状態(接触オン)、押下を解除したことを表す操作状態(接触オフ)、押下しながら接触位置を移動する場合の移動軌跡(接触位置の変位)などの操作内容、及びこれらの操作位置の座標(入力座標)を検出する。また、各操作ボタンについてユーザの入力に反応する領域の大きさを、該当する操作ボタンが表示状態か非表示状態かに応じて切り替える。更に詳細な動作については後で説明する。入力信号解析部200の解析結果は、アプリケーション100を経由して設定制御部400または画面表示制御部500に入力される。
 設定制御部400は、電子機器が動作する際に使用する様々なパラメータを管理し、対象部の制御を行う。例えば、音楽を再生する場合の音量を調整するための音量調整パラメータや、音質を調整するための音質調整パラメータなどを設定制御部400が管理する。そして、これらのパラメータを制御対象デバイス(例えば増幅器)50に与える。
 画面表示制御部500は、表示部30の表示画面における操作対象のオブジェクトの表示を制御するもので、操作対象のオブジェクトの一例としての操作ボタンを可視情報(物理的な操作ボタンに似たイメージの表示内容)として表示したり、表示を消去したりなどの表示制御を行う。また、表示部30の表示画面における輝度を調整するための輝度調整パラメータなどを管理し、表示部30を制御する。本実施形態では、操作対象のオブジェクトとして操作ボタンを例示して説明するが、操作対象のオブジェクトには、ボタン、ツマミ、ノブ、スイッチ、ホイール、スライドバー、アイコンなど、各種の操作対象物を可視情報として表示するものが含まれる。
 上記構成において、入力信号解析部200、入力信号制御部300、設定制御部400、画面表示制御部500が入力制御部の機能を実現し、このうち、入力信号制御部300が入力位置検出部の機能を実現する。
 音量調整(ボリューム調整)を行う場合、設定制御部400から音量調整パラメータの値が制御対象デバイス50である音声信号出力用の増幅器にゲインを調整する制御信号として入力される。例えば、ユーザが音量調節のための入力操作をタッチパネル10に対して行うと、この入力操作を入力信号解析部200が認識し、その認識結果がアプリケーション100を介して設定制御部400に入力され、設定制御部400における音量調整パラメータが変更される。これにより、制御対象の増幅器のゲインが変化し、音声出力部からの出力音量が変化する。
 図2は第1の実施形態の入力装置における表示画面及び動作の具体例を示す模式図である。第1の実施形態に係る入力装置の動作の具体例について、図2を参照しながら説明する。表示部30には、図2に示すように表示画面31にボリュームの操作ノブを模した円形の形状を有する可視情報である操作ボタン32などが表示されている。ユーザは、この画面に重なっているタッチパネル10を透過する光により画面の表示内容、すなわちタッチパネル上の操作ボタン32の可視情報を見ながら、タッチパネル10を操作することができる。
 一般的な装置の場合には、図2(b)に示すように表示画面31に表示されている操作ボタン32の範囲とユーザからの指33での操作入力に対して感応するタッチパネル10の領域の範囲とが一致するように制御される。また、例えばユーザが入力操作をほとんど行わないような状況では、不要な操作ボタン32の表示を一時的に消去するように制御する。操作ボタン32を表示画面31から消去した状態であっても、操作ボタン32に対するユーザの入力操作は可能である。すなわち、使い慣れた電子機器であれば、ユーザは操作ボタン32が存在するおおよその位置を記憶しているので、目で見えない非表示状態の操作ボタン32についてもそれが存在すると考えられる箇所を記憶と勘に頼って接触して操作できる。そして、操作位置が操作ボタン32の位置と一致する場合には、入力装置は入力操作を受け付ける。
 ところが、目で見えない非表示状態の操作ボタン32を操作する場合には、ユーザは記憶と勘に頼って操作するので、位置ずれが発生する可能性は高い。その結果、所望の操作を実現するために、ユーザは少しずつ指を動かしながら同じ入力操作を何回も繰り返すことになり、操作性が良くない場合がある。
 そこで、本実施形態の入力装置では、該当する操作ボタン32に対して感応する領域を、操作ボタン32が表示状態か非表示状態かに応じて自動的に切り替える。例えば、図2(a)に示すように、操作ボタン32が表示状態のときには、操作ボタン32の表示されている領域(ボタンの輪郭の内側)と一致する感応領域A2(第2の感応領域)を、入力操作に感応する領域として割り当てる。また、操作ボタン32が非表示状態のときには、操作ボタン32の表示される領域A2よりも大きい感応領域A1(第1の感応領域)を、入力操作に感応する領域として割り当てる。
 また、操作ボタン32が非表示状態で入力操作が行われた場合に、操作ボタン32を非表示状態から表示状態に切り替えるときには、入力操作に感応する感応領域A1からA2への切り替えを所定時間だけ時間的に遅延させたり、この感応領域の外側での入力を検出した場合であっても所定時間以内に領域内に移動した場合には一連の入力操作として受け付けるように制御する。
 図2(c)はユーザの入力操作及び表示画面の状態遷移の具体例を表している。図中左側の表示画面31aでは、操作ボタン32が非表示状態であり、操作ボタンの輪郭よりも大きな感応領域A1が入力操作に感応するようになっている。この状態でユーザが指33によりボタン位置より少し外れた広い位置より操作を開始すると、このユーザの入力操作に伴って図面中央の表示画面31bのように、操作ボタン32が表示状態に変化する。操作ボタン32が表示状態に変化すると、ユーザは操作すべき操作ボタンの位置を正確に把握できるので、操作位置の軌道を補正し、移動軌跡34を操作ボタン32の表示領域内に収束させることが可能である。この状態で、入力操作に感応する領域が操作ボタンより大きな感応領域A1から操作ボタンの輪郭の内側の感応領域A2に切り替わる。そして、図中右側の表示画面31cのように、操作ボタン32に対する円状の回転操作を継続させることで、音量調整等の連続的な状態変化の入力操作を行うことができる。
 本実施形態では、操作ボタンに対してぐるぐると回転操作する円運動の連続操作など、連続的な入力操作を行い、この入力操作に対応するコマンドとして連続操作に対して音量、音質、輝度、再生位置などの状態を連続的に変化させる場合を想定して説明する。
 次に、第1の実施形態に係る入力装置の具体例な処理手順を図3を参照しながら説明する。図3は第1の実施形態の入力装置における主要な動作を示すシーケンス図である。
 ユーザがタッチパネル10に触れて入力操作を行う場合には、タッチパネル10への接触操作があった場合に、タッチパネル10上の入力位置を表す座標情報などを含む操作検知信号SG1が入力信号制御部300へ一定の周期で出力される。入力信号制御部300は、タッチパネル10が出力する操作検知信号SG1の中から、ノイズを除去して有効な情報だけを操作信号SG2として入力信号解析部200に与える。図3の右側に示す各構成要素の間Tは、タッチパネル10からの入力座標情報が入力信号制御部300を経て入力信号解析部200へ継続的に通知される。
 入力信号解析部200は、ステップS1において今回の入力操作に対応付けられているコマンドを解析する。すなわち、入力された操作信号SG2に基づいて入力位置やその移動軌跡などを検出し、予め設定されて保持しているコマンド割り当てテーブル210を利用して、該当するコマンドを判定する。
 この際、入力信号解析部200は、まず、操作が開始されたときにその入力位置を示す入力座標を取得し、コマンド割り当てテーブル210を参照してその座標位置に該当する操作ボタンが規定されているかどうかを判定する。ここで、操作ボタンが非表示状態である場合は、操作ボタンが表示される領域の範囲よりも広い範囲の感応領域(図2のA1)で入力操作を受け付ける。該当する操作ボタンが存在する場合には、入力信号解析部200はその操作ボタンに割り当てられたコマンドを選択し、アプリケーション100にコマンド情報を与えて対応するコマンドを実行させる。コマンド実行のタイミングは、入力座標が連続的に変化する操作による入力の場合は所定の時間間隔で、単一の操作による入力の場合はユーザの指がタッチパネル10から離れたときなどに実行する。
 このとき、入力信号解析部200からアプリケーション100に入力操作に対応するコマンド信号SG3を与え、アプリケーション100から画面表示制御部500に表示制御信号SG5を与えて、操作ボタンの表示切り替えの制御を行うとともに、アプリケーション100から設定制御部400に設定制御信号SG4を与えて、コマンドに該当するパラメータの値を変更する。
 また、入力信号解析部200は、感応領域の切り替えタイミングを計測するタイマを起動し、このタイマが満了するまでは操作ボタン表示前と同様に大きな感応領域A1によって入力操作に対応付けられているコマンドを解析する。すなわち、ユーザの操作開始の検出に伴って、画面表示制御部500に指示して非表示状態の操作ボタンを表示状態に切り替えるが、この操作ボタン表示の切り替えタイミングに対して、入力操作を受け付ける感応領域の切り替え(A1からA2への切り替え)については時間的に遅延させる。
 例えば、図3の例では、ステップS1に続くステップS2でのコマンド解析においても、タイマ満了前であれば、入力信号解析部200は操作ボタンを表示する前と同じ感応領域である大きい感応領域A1によって入力操作を受け付ける。その後、タイマにより所定時間の経過を検出すると、入力信号解析部200は入力操作を受け付ける領域を小さい感応領域A2に切り替え、続くステップS3、S4において同じ入力操作が継続しているかどうかを判定する際にも、操作ボタンの表示後と同じ感応領域であるボタン表示領域(輪郭)と同等の感応領域A2の範囲のみについて入力操作を受け付ける。ステップS3、S4では、入力操作が継続している場合には、同じコマンドのコマンド情報を出力して対応するコマンドを再び実行し、入力操作の中断を検出した場合には、新たな入力操作について判定する。
 図4は第1の実施形態の入力装置における表示画面の具体例を示す模式図である。図4において、(a)は表示部30の表示画面31に表示される操作ボタンを、(b)は操作ボタンより大きな感応領域A1を、(c)は操作ボタンと同等の大きさの感応領域A2をそれぞれ示している。表示部30の表示画面31には、ボリュームの操作ノブを模した円形の操作ボタン32a、32bが配置されている。入力信号解析部200では、図3の各ステップS1,S2,S3,S4においてコマンド割り当てテーブル210が参照され、操作ボタンの表示状態に応じて、図4(b)の感応領域A1(非表示状態の場合)、または図4(c)の感応領域A2(表示状態の場合)によってタッチパネル操作に対応するコマンドの判定が行われる。
 図5は第1の実施形態の入力装置において使用するコマンド割り当てテーブルの具体例を示す模式図である。図5では、図4の各操作ボタンに対応するコマンド割り当てテーブル210の内容を示している。コマンド割り当てテーブル210には、それぞれの入力操作に対応付けた情報として、操作ボタン毎に、操作ボタンの形状を表す情報と、その操作ボタンの座標位置(X,Y)及び大きさ(半径R)による操作ボタンの表示範囲と、操作ボタンに対応する操作の内容(タッピング,回転など)と、実行すべきコマンドの種類(ボタンX,ボタンYなど)とが登録されている。従って、図3のステップS1等においては、このコマンド割り当てテーブル210の内容を参照し、入力された操作信号SG2の入力座標や移動軌跡と比較することにより、実行すべきコマンドを特定することができる。
 また、本実施形態では、入力信号解析部200におけるその他の制御パラメータとして、操作ボタンの表示前の感応領域拡大幅(例えば50ドット)、表示後の感応領域拡大幅(例えば0ドット)、感応領域の変更タイミング遅延時間(例えば500msec)が設定されている。この例では、操作ボタンの表示前には操作位置がボタン輪郭から50ドット外に離れていても感応する状態とし、操作ボタンの表示後にはボタンサイズ通りにボタン輪郭の範囲内で感応する状態に切り替える。この際、操作ボタンの表示後に500msec経過してから感応領域を変化(狭く)させるようにし、ユーザによる操作位置の軌道補正が可能なように少し余裕を持たせる。
 例えば、操作ボタンが非表示状態の場合には、座標位置がX=100~300、Y=0~250の感応領域A1内で入力操作を検出した場合に、該当する操作ボタン32a(ボタンX)に対する操作がなされたものと判定し、この操作ボタンに割り当てられたコマンドを実行対象に決定する。一方、操作ボタンが表示状態の場合には、座標位置がX=150~250、Y=100~200の感応領域A2内で入力操作を検出した場合に、該当する操作ボタン32a(ボタンX)に対する操作がなされたものと判定し、この操作ボタンに割り当てられたコマンドを実行対象に決定する。
 図3のステップS1で入力操作を解析した結果、入力操作に対応付けられたコマンドが「音量調整(音量増大)」のコマンドであると認識した場合には、入力信号解析部200は音量調整用のコマンドとして音量増大のコマンド信号SG3をアプリケーション100に与える。この場合、アプリケーション100はコマンド信号SG3に従って、音量増大の設定制御信号SG4を設定制御部400に与え、音量調整パラメータの値を変更する。これにより、設定制御部400における音量調整パラメータが現音量値から1段階増加される。
 また、ユーザの入力操作が継続している(タッチパネル10に指が触れた状態が続いている)場合には、入力信号解析部200は入力される操作信号SG2に従って、各ステップS2、S3、S4で入力操作のコマンド解析及び継続判定を実行し、判定の結果をアプリケーション100に与える。ここで、音量調整(音量増大)に対応する入力操作が継続された場合、所定時間または所定変位量毎に、音量増大のコマンド信号SG3が入力信号解析部200からアプリケーション100に入力される。これにより、アプリケーション100から音量増大の設定制御信号SG4が設定制御部400に逐次入力され、音量調整パラメータの値が更新されて1段階ずつ増加される(図3の例では5→6→7)。
 以下に、本実施形態のより詳細な動作について図6及び図7を参照しながら説明する。図6は第1の実施形態における感応領域切替動作の処理内容を示すフローチャートであり、図7は第1の実施形態における入力処理動作の処理内容を示すフローチャートである。ここで、図6に示す処理は、主に入力信号解析部200において短い周期で定期的に繰り返し実行される。また、図7に示す処理は、主に入力信号解析部200においてタッチパネル10に対する入力操作の検出に伴って実行されるもので、図3のコマンド解析のステップS1、S2、及び継続判定のステップS3、S4などで処理が行われる。
 図6のステップS11では、入力信号解析部200は、画面表示制御部500を介して表示部30の表示画面31に表示可能な操作ボタン32の状態を調べ、表示状態か非表示状態かを判別する。表示状態であればステップS12に進み、非表示状態であればステップS14に進む。
 ステップS12では、入力信号解析部200は、操作ボタン32が非表示状態から表示状態に切り替わってからの経過時間が所定時間T1(例えば500ミリ秒)に到達したかどうかを調べ、時間T1を経過した場合はステップS13に進み、時間T1を経過する前であればステップS14に進む。
 ステップS13では、入力信号解析部200は、操作ボタン32が表示状態の場合に、各操作ボタン32の感応領域(入力操作に感応する領域)として、操作ボタン32の表示範囲の輪郭の内側と同等の感応領域A2(図2(a)参照)を割り当てる。
 ステップS14では、入力信号解析部200は、操作ボタン32が非表示状態の場合に、各操作ボタン32の感応領域として、操作ボタン32の表示範囲よりも所定量大きい感応領域A1(図2(a)参照)を割り当てる。
 ステップS15では、入力信号解析部200は、最後の入力操作を検出してから所定時間T3を経過したかどうかを識別し、時間T3を経過しても新たな入力操作を検出しない場合には次のステップS16を実行する。
 ステップS16では、画面表示制御部500は、表示状態の操作ボタン32を表示画面31から消去し、非表示状態に切り替える。つまり、ユーザが入力操作を行わない状態が時間T3に渡って継続すると、操作ボタン32は自動的に非表示状態に切り替わる。
 一方、図7のステップS21では、入力信号解析部200は、入力操作を検出したかどうかを判定し、検出した場合にはステップS22に進む。すなわち、タッチパネル10から出力される操作検知信号SG1によって入力信号制御部300が出力する操作信号SG2に基づき、入力信号解析部200が入力操作を検出したかどうかを判定する。
 ステップS22では、入力信号解析部200は、操作開始からの経過時間を判定するために利用するタイマを起動する。このタイマは、図3に示すタイマ等に該当するもので、図6の時間T1、図7の時間T2などをカウントする。
 ステップS23では、入力信号解析部200は、タッチパネル10が検出した入力位置の座標と、コマンド割り当てテーブル210に登録されている各操作ボタン32に関する感応領域の範囲とを比較する。この感応領域は、前述のように図6のステップS13またはステップS14で逐次割り当てられる。
 ステップS23で比較した結果、入力信号解析部200は、感応領域の内側の位置での操作を検出した場合にはステップS24からステップS25に進み、感応領域の外側の位置での操作を検出した場合にはステップS24からステップS27に進む。
 ステップS25では、画面表示制御部500は、入力信号解析部200からの指示に基づき、操作ボタン32に対応する操作が検出された場合に、非表示状態の操作ボタン32を表示状態に切り替える。したがって、それまでに操作ボタン32を画面から消去していた場合には、ボタン操作検知によるステップS25の実行に伴って再び操作ボタン32が画面に表示される。
 また、ステップS26では、入力信号解析部200は、コマンド割り当てテーブル210の内容を参照して、操作位置と一致する操作ボタン32に対応付けられた特定のコマンドを識別し、このコマンドを実行する。
 ステップS27では、入力信号解析部200は、操作位置の情報を監視し、操作位置が移動中かどうかを判別する。そして、操作位置が移動中であれば次のステップS28を実行する。
 ステップS28では、操作の開始から所定時間T2(例えば1秒)を経過したかどうかを判定する。ここで、時間T2を経過していなければステップS23に戻り、時間T2を経過しても操作ボタン32の感応領域を外れた位置が操作されている場合には、操作位置の補正がなされず正常な操作が継続されていないとみなして、この処理を終了する。
 上記処理により、操作ボタン32が表示画面31に実際に表示されているときには、図6のステップS13で操作ボタン32の感応領域として領域A2が割り当てられるので、ユーザは実際に目で見て確認できる操作ボタン32の範囲内を操作することにより、この操作ボタンに割り当てられたコマンドを実行させることができる。
 また、操作ボタン32が非表示状態の場合には、図6のステップS14で操作ボタン32の感応領域として領域A1が割り当てられるので、ユーザか記憶している操作ボタン32の表示範囲よりも広い範囲で入力操作が受け付けられることになる。この場合、ユーザの操作位置が非表示の操作ボタン32の範囲に対して多少位置ずれしている場合であっても、該当する操作ボタンに対するコマンドを実行させることができる。
 さらに、操作ボタン32が非表示状態から表示状態に切り替わった場合でも、その時点から所定時間T1を経過するまでは図6のステップS14を実行するので、入力操作を受け付ける感応領域の範囲が急に変化するのを防止できる。つまり、ユーザが実際に表示された操作ボタン32を認識して状況が変化したことを認知するまでは感応領域を変更しないようにすることで、ユーザに違和感を与えるのを防止できる。
 図8は第1の実施形態における感応領域変更時の動作例を示すタイムチャートである。図8に示す動作例では、ユーザの入力操作を時刻ta1で検出すると、この操作に反応してそれまで非表示で隠れていた操作ボタンを表示する。なおここでは、処理の遅れや表示デバイスの動作の遅延等の影響を考慮し、時刻ta1から数十ミリ秒程度遅れた時刻ta2で実際に操作ボタンが表示される。また、ユーザが操作を開始してもしばらくの間は操作ボタンの感応領域として比較的大きい感応領域A1が割り当てられるが、時刻ta3で時間T1(例えば500msec)が経過すると、操作ボタンの感応領域は領域A2に変更される。
 また、ユーザが最初に操作ボタンの感応領域の外側を操作した場合であっても、ユーザが所定時間T2以内に感応領域の内側を操作するように指の位置を移動すれば、入力信号解析部200は、この入力位置の移動を検出し、該当する操作ボタンに対する入力操作であると判定して、最初からの操作を一連の操作として受け付ける。すなわち、操作位置が感応領域の外側で移動している場合、時間T2を経過するまでは図7のステップS24からS27、S28、S21と進み操作位置の移動の監視を継続するので、時間T2内で感応領域の内側まで移動したことを検出したときに、ステップS26で感応領域を外れた位置での操作を含めて一連の操作(移動軌跡等)として入力操作を受け付ける。
 上記第1の実施形態の構成により、ユーザが操作しようとする操作ボタンが状況に応じて表示状態及び非表示状態に切り替わる場合であっても、それぞれの状況においてユーザの操作性が確保されるように適切に制御することができる。
 本実施形態の入力装置では、操作ボタンが非表示状態のときには、表示状態のときと比べて大きい範囲が感応領域として割り当てられるので、操作ボタンやアイコンの本来の表示範囲から多少ずれた位置をユーザが操作した場合であっても、その入力操作を受け付けて対応する処理を行うことができる。この場合、操作ボタンに対して入力位置がずれたりした場合でも入力操作を検出して操作対象に対応する処理を実行可能である。本実施形態のように、操作ボタンの表示領域と感応領域とを適切に設定可能にすることで、操作ボタンが明確に認識できない場合であっても、操作位置に対する適切な処理を実行可能であり、入力操作に対する無反応や誤検出を抑止でき、操作性を大幅に改善できる。
 また、操作ボタンの表示状態では、ボタンサイズと同等の感応領域を割り当てるように感応領域を切り替えることで、操作ボタンに対応した入力操作を適切に受け入れて処理することができ、ユーザによる操作位置の把握や位置合わせも容易である。またこの場合、入力操作時の誤検出などを防止できる。さらに、操作入力を検出した場合に操作ボタンを表示状態にするか、またはハイライト表示などで操作ボタンの輪郭を表示することで、ユーザは操作に対する反応を確認でき、操作対象を明確に認識できる。
 また、ユーザが回転操作などの連続的な操作を行う場合に、最初や途中の操作位置が一時的に感応領域外となる場合でも、操作位置を補正して所定時間以内に感応領域内に移動した場合は、該当する操作ボタンに対する入力操作であるとみなして一連の動作として検出することで、ユーザの操作位置の補正に対して適切に対応することができ、操作性を向上できる。
 (第2の実施形態)
 図9は第2の実施形態の入力装置における表示画面及び感応領域の具体例を示す模式図である。
 第2の実施形態は第1の実施形態の変形例である。また、第2の実施形態においても図1と同様の構成の入力装置を想定しているが動作は少し変更されている。変更された動作について以下に説明する。
 表示画面31に実際に表示されている操作ボタン32であっても、操作ボタン32の輪郭の明瞭度が低い形態となっており、その範囲をユーザが正確に把握するのが困難な場合もある。図9(a)に示す例では、操作ボタン32cの輪郭部分が複雑な形状であり、操作ボタンの表示範囲の内側と外側との境界の識別がユーザにとって難しい。そこで、第2の実施形態では、操作ボタンの輪郭が直線的でないなど、輪郭部分が曖昧で明確に識別できない場合に、操作ボタン32cの輪郭よりも大きい円形の感応領域A1を入力操作に感応する領域として割り当てる。
 また、図9(b)に示す例では、操作ボタン32dの表示がグラデーションを含んでいるため、輪郭の位置の識別が難しい。したがって、グラデーションの表示を含む操作ボタン32dについても、操作ボタンの表示範囲全体よりも大きい円形の感応領域A1を入力操作に感応する領域として割り当てる。なお、操作ボタン32の輪郭の明瞭度が低い形態としては、上記のオブジェクトの輪郭部分が複雑な形状の場合や、オブジェクトの表示がグラデーションを含んでいる場合に加えて、操作ボタンの表示輝度が低い場合、操作ボタンと背景との色調や明度が近いことにより操作ボタンと背景とのコントラストが低い場合なども含まれる。
 ここで、操作ボタン32に対する操作をユーザが把握可能なように操作入力時にハイライト表示させる場合など、操作ボタン32自体の表示が変化したり、背景の画像などが変化するときは、これに伴って操作ボタン32の表示範囲がユーザにとって明瞭になるように変化する。したがって、このような操作ボタンの表示に変化がある場合は、これに伴って所定期間経過後に感応領域を切り替える。
 図9(c)に示す例では、操作ボタン32cの操作に対する応答処理として、ボタンのハイライト表示35を行うことで、操作ボタン32cの輪郭部分が複雑な形状で明確に識別できない場合であっても、ハイライト表示35によって操作ボタンと背景とのコントラストが高くなるので、表示範囲が明確になる。この場合、当初は操作ボタン32cの輪郭よりも大きい円形の感応領域A1を割り当て、操作開始後にハイライト表示35がなされたときは、操作ボタンの表示範囲と同等の大きさ(輪郭より内側)の感応領域A2を入力操作に感応する領域として割り当てる。
 また、図9(d)に示す例では、操作ボタン32dがグラデーションを含んでいて輪郭の位置の識別が困難な場合であっても、操作後のハイライト表示35によって表示範囲が明確になる。この場合も、当初は操作ボタン32dの輪郭よりも大きい円形の感応領域A1を割り当て、操作開始後にハイライト表示35がなされたときは、元々の操作ボタンのサイズと同等の大きさの感応領域A2を入力操作に感応する領域として割り当てる。
 なお、図4に示した例においても、表示画面31には2つの操作ボタン32a、32bが表示されているが、操作ボタン32a、32bの輪郭部分がギザギザあるいは波形に形成されているので、この波形部分が大きくて操作ボタンの表示範囲の内側と外側との境界の識別がユーザにとって難しい場合がある。このように輪郭部分が明確に識別できない場合も、図4(b)に示すように操作ボタンの輪郭よりも大きい感応領域A1を入力操作に感応する領域として割り当てるようにすればよい。
 図10は第2の実施形態における感応領域切替動作の処理内容を示すフローチャートである。図10に示す処理は、第1の実施形態における図6の処理の代わりに、主に入力信号解析部200において短い周期で定期的に繰り返し実行される。
 図10のステップS31では、入力信号解析部200は、コマンド割り当てテーブル210に登録されている複数の操作ボタン32のそれぞれについて判定するために順番に選択し、各操作ボタンの必要な情報をコマンド割り当てテーブル210から取得する。
 ステップS32では、入力信号解析部200は、該当する操作ボタン32について表示内容の輪郭が複雑な形状か否かを判別する。複雑な場合(例えば図9(a)に示すような形状の場合)はステップS37に進み、直線的あるいは単純な曲線的な形状であればステップS33に進む。
 ステップS33では、入力信号解析部200は、該当する操作ボタン32について表示内容がグラデーションを有するか否かを判別する。グラデーションを有する場合(例えば図9(b)に示すような表示内容の場合)はステップS37に進み、そうでなければステップS34に進む。
 ステップS34では、入力信号解析部200は、該当する操作ボタン32の表示とその背景とのコントラストを判定するために、各操作ボタンの必要な表示情報を取得する。
 ステップS35では、入力信号解析部200は、該当する操作ボタン32の表示とその背景とのコントラストの高低を判別する。コントラストが比較的低い場合(例えば図9(c)、(d)においてハイライト表示35がなされる前の場合)にはステップS37に進み、コントラストが高い場合(例えば図9(c)、(d)においてハイライト表示35がなされた後の場合)にはステップS36に進む。なお、コントラスト以外に色の違いを判定するように変更または処理を追加しても良い。
 ステップS36では、入力信号解析部200は、操作ボタン32の輪郭が明確に識別可能な場合に、該当する操作ボタン32の感応領域(入力操作に感応する領域)として、操作ボタン32の表示範囲の輪郭の内側と同等の感応領域A2(図2(a)参照)を割り当てる。
 ステップS37では、入力信号解析部200は、操作ボタン32の輪郭の識別がしづらい場合に、該当する操作ボタン32の感応領域として、操作ボタン32の表示範囲よりも所定量大きい感応領域A1(図2(a)参照)を割り当てる。
 そして、ステップS38で、全操作ボタンの処理が終了したかを判定し、上記ステップS31~S37の処理を現在表示画面31に表示している全ての操作ボタン32について繰り返す。なお、コマンド割り当てテーブル210に登録されている全ての操作ボタン32について上記処理を行うようにしてもよい。ステップS38で全ての操作ボタン32について処理が終了したことを検出すると、この処理を終了する。
 第2の実施形態では、表示画面に実際に表示されている操作ボタンにおいて、輪郭の形状が複雑な場合、操作ボタンの表示にグラデーションが含まれている場合、操作ボタンと背景とのコントラストが低い場合など、操作ボタンの輪郭の明瞭度が低い形態でユーザが操作ボタンを明確に把握しづらい状態の場合に、操作ボタンの輪郭よりも大きい感応領域A1が割り当てられ、大きな範囲で入力操作を検出可能となる。これにより、ユーザの操作位置が多少ブレたりした場合でも、入力装置がその操作を受け付けて操作対象に対応する処理を実行することができる。また、操作ボタンの操作時にハイライト表示が行われ、操作ボタンの輪郭などが明確になっている場合には、操作ボタンの輪郭と同等の大きさの感応領域A2が割り当てられるので、ユーザにとって実際に操作が受け付けられる範囲を理解しやすい。
 なお、本発明は上記の実施形態において示されたものに限定されるものではなく、明細書の記載、並びに周知の技術に基づいて、当業者が変更、応用することも本発明の予定するところであり、保護を求める範囲に含まれる。
 上述した実施形態においては、入力部としてタッチパネル10を用いて入力位置検出部で入力位置の座標を検出する構成を想定しているが、入力位置情報を持つ入力機能を有するものであれば、タッチパネル10の代わりにマウス、トラックボール、ペン入力デバイス等の他の入力デバイスを入力部に用いて入力位置の検出を行っても良い。例えば、画面上にマウスカーソルを表示し、マウス等の入力デバイスの操作に伴ってマウスカーソルの表示位置を移動し、このマウスカーソルの表示位置のクリック等の操作に対して入力位置の座標を認識することもできる。
 また、本実施形態の入力装置については、電子回路等の専用のハードウェアだけで構成することもできるし、制御用のプロセッサ及びメモリ等を備えるコンピュータとこのコンピュータにおいて実行するプログラムとを組み合わせて構成することもできる。
 また、本実施形態の入力装置を、スピーカやレシーバ、また、外部AV出力を備えた携帯電話端末や携帯型音楽プレーヤ、携帯型ゲーム機のような電子機器に搭載することで、電子機器において本実施形態の効果を得られる。例えば、音量や音質などの音の出力の値や、出力しているコンテンツの選択などの操作を、ボタンやスイッチなどのオブジェクトを表示しない状態であっても、なぞる、触れるなどの接触操作で簡単に行えるため、簡単にユーザが意図した操作を行うことが可能になる。また、コンテンツが画像を含む場合は、ユーザが操作しない間はオブジェクトを非表示にしながらも、簡単に操作できるため、画像を楽しみながらも簡単に操作が行え、有用な電子機器を構成することができる。また、上記スピーカなどの出力装置はもちろんのこと、電子機器内部の設定、たとえば、電話帳やコンテンツの選択であるとか、Webページの閲覧操作などにも本入力装置は有用である。
 本出願は、2007年12月28日出願の日本特許出願(特願2007-340242)、に基づくものであり、その内容はここに参照として取り込まれる。
 本発明は、様々な状況において、操作対象となる操作ボタンやアイコン等の要素の表示領域と操作に対する感応領域とを適切に設定でき、操作対象が明確に認識できない場合であっても操作性を向上させることが可能となる効果を有し、例えば携帯電話端末、携帯型情報端末(PDA)、携帯型音楽プレーヤ、携帯型ゲーム機のような電子機器における入力操作に利用可能な電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム等において有用である。

Claims (10)

  1.  入力操作に関する可視情報を表示可能な表示部と、
     前記表示部の表示画面への指示を行い、入力信号を発生する入力操作部と、
     前記入力操作部の入力信号に基づいて処理を指示する入力制御部と
    を備える電子機器の入力装置であって、
     前記入力制御部は、
     前記入力信号に基づいて前記表示画面に対応する入力された位置を検出する入力位置検出部と、
     前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御部と、
     前記画面表示制御部により前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記入力位置検出部により検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析部とを有し、
     前記入力信号解析部により前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御部によって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示する電子機器の入力装置。
  2.  入力操作に関する可視情報を表示可能な表示部と、
     前記表示部の表示画面に対応する入力面への接触操作による入力機能を有するタッチパネルと、
     前記タッチパネルの入力信号に基づいて入力操作に対する処理を指示する入力制御部とを備え、
     前記入力制御部は、
     前記入力面において入力された位置を検出する入力位置検出部と、
     前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御部と、
     前記画面表示制御部により前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記入力位置検出部により検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析部とを有し、
     前記入力信号解析部により前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御部によって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示する電子機器の入力装置。
  3.  請求項1または2に記載の電子機器の入力装置であって、
     前記入力信号解析部は、前記画面表示制御部が前記オブジェクト自体または前記オブジェクトの輪郭を表示して所定時間経過後、入力操作に感応する感応領域を前記第1の感応領域以内の第2の感応領域に切り替え、前記入力位置が前記第2の感応領域内にあるか否かを判定する電子機器の入力装置。
  4.  請求項1または2に記載の電子機器の入力装置であって、
     前記入力信号解析部は、前記第1の感応領域として、前記オブジェクトの表示領域より大きい領域を設定する電子機器の入力装置。
  5.  請求項3に記載の電子機器の入力装置であって、
     前記入力信号解析部は、前記第2の感応領域として、前記オブジェクトの表示領域と約同等の大きさで前記第1の感応領域より小さい領域を設定する電子機器の入力装置。
  6.  請求項1または2に記載の電子機器の入力装置であって、
     前記入力信号解析部は、前記オブジェクトの輪郭の明瞭度が低い形態として、前記オブジェクトの輪郭部分が複雑な形状の場合、前記オブジェクトの表示がグラデーションを含んでいる場合、前記オブジェクトの表示輝度が低い場合、前記オブジェクトと背景とのコントラストが低い場合のうちの少なくとも一つを含む場合に、前記第1の感応領域として、前記オブジェクトの表示領域より大きい領域を設定する電子機器の入力装置。
  7.  請求項1または2に記載の電子機器の入力装置であって、
     前記入力信号解析部は、前記入力位置が前記第1の感応領域外である場合であっても、所定時間以内に前記入力位置が前記第1の感応領域内に移動したことを検出した場合には、前記オブジェクトに対する入力操作であると判定する電子機器の入力装置。
  8.  入力操作に関する可視情報を表示可能な表示部と、前記表示部の表示画面に対応する入力面への接触操作による入力機能を有するタッチパネルと、前記タッチパネルの入力信号に基づいて入力操作に対する処理を指示する入力制御部とを備える電子機器の入力装置における入力操作処理方法であって、
     前記入力制御部において、
     前記入力面において入力された位置を検出する入力位置検出ステップと、
     前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御ステップと、
     前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析ステップとを有し、
     前記入力信号解析ステップにより前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御ステップによって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示する入力操作処理方法。
  9.  コンピュータに、請求項8に記載の入力操作処理方法の各ステップの手順を実行させるための入力制御プログラム。
  10.  請求項1~7のいずれかに記載の入力装置を搭載した電子機器。
PCT/JP2008/002896 2007-12-28 2008-10-14 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム WO2009084140A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/811,080 US20100289768A1 (en) 2007-12-28 2008-10-14 Input device of electronic device, input operation processing method, and input control program
EP08867655.6A EP2226711A4 (en) 2007-12-28 2008-10-14 INPUT DEVICE, INPUT OPERATION METHOD, AND INPUT CONTROL PROGRAM FOR ELECTRONIC DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007340242A JP4990753B2 (ja) 2007-12-28 2007-12-28 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
JP2007-340242 2007-12-28

Publications (1)

Publication Number Publication Date
WO2009084140A1 true WO2009084140A1 (ja) 2009-07-09

Family

ID=40823877

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/002896 WO2009084140A1 (ja) 2007-12-28 2008-10-14 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム

Country Status (4)

Country Link
US (1) US20100289768A1 (ja)
EP (1) EP2226711A4 (ja)
JP (1) JP4990753B2 (ja)
WO (1) WO2009084140A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205069A (ja) * 2009-03-04 2010-09-16 Panasonic Corp 入力装置
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP5495813B2 (ja) * 2010-01-26 2014-05-21 キヤノン株式会社 表示制御装置、表示制御方法、及びプログラム、並びに記憶媒体
JP5343876B2 (ja) * 2010-01-28 2013-11-13 富士通株式会社 電子機器、電子機器の制御方法及びコンピュータプログラム
CN101833420B (zh) * 2010-05-19 2012-08-29 鸿富锦精密工业(深圳)有限公司 具有触摸面板的电子装置
US8438420B1 (en) 2010-06-30 2013-05-07 Emc Corporation Post access data preservation
US9697086B2 (en) 2010-06-30 2017-07-04 EMC IP Holding Company LLC Data access during data recovery
US9367561B1 (en) 2010-06-30 2016-06-14 Emc Corporation Prioritized backup segmenting
US9235585B1 (en) 2010-06-30 2016-01-12 Emc Corporation Dynamic prioritized recovery
JP5751934B2 (ja) * 2010-10-15 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP5358548B2 (ja) * 2010-11-04 2013-12-04 日本電信電話株式会社 ジェスチャ認識装置
US8766936B2 (en) 2011-03-25 2014-07-01 Honeywell International Inc. Touch screen and method for providing stable touches
US9733707B2 (en) 2012-03-22 2017-08-15 Honeywell International Inc. Touch screen display user interface and method for improving touch interface utility on the same employing a rules-based masking system
JP6004518B2 (ja) * 2012-04-03 2016-10-12 シャープ株式会社 電子機器および送風装置
CN103383618A (zh) * 2012-05-02 2013-11-06 泰发科技股份有限公司 可携式电子装置及其操作方法
JP5877374B2 (ja) * 2012-06-13 2016-03-08 パナソニックIpマネジメント株式会社 操作表示装置、プログラム
US9423871B2 (en) 2012-08-07 2016-08-23 Honeywell International Inc. System and method for reducing the effects of inadvertent touch on a touch screen controller
JP6112819B2 (ja) * 2012-10-10 2017-04-12 オリンパス株式会社 電子機器、駆動方法およびプログラム
CN102929502A (zh) * 2012-10-15 2013-02-13 上海华勤通讯技术有限公司 移动终端及其应用程序的运行方法
CN103076966B (zh) * 2012-11-02 2015-07-29 网易(杭州)网络有限公司 通过在触摸屏上执行手势来解锁菜单的方法和设备
US9128580B2 (en) 2012-12-07 2015-09-08 Honeywell International Inc. System and method for interacting with a touch screen interface utilizing an intelligent stencil mask
US11003351B2 (en) * 2012-12-26 2021-05-11 Gree, Inc. Display processing method and information device
JP1555086S (ja) * 2015-10-08 2016-08-01
US10691329B2 (en) * 2017-06-19 2020-06-23 Simple Design Ltd. User interface of media player application for controlling media content display
JP7040051B2 (ja) * 2018-01-26 2022-03-23 セイコーエプソン株式会社 電子機器
CA3146804A1 (en) * 2020-11-13 2022-05-13 Tencent Technology (Shenzhen) Company Limited Virtual object control method and apparatus, storage medium, and electronic device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816353A (ja) 1994-06-28 1996-01-19 Sharp Corp オブジェクト表示拡大方法
JPH0954657A (ja) 1995-08-14 1997-02-25 Meidensha Corp アイコンの表示制御方法
JPH09251341A (ja) 1996-03-18 1997-09-22 Fujitsu Ltd 表示画面上での選択操作に反応する領域を拡大する反応領域拡大装置および方法
JP2000259893A (ja) * 1999-03-11 2000-09-22 Oki Electric Ind Co Ltd 自動取引装置
JP2003058296A (ja) * 1999-11-01 2003-02-28 Konami Co Ltd ビデオゲーム装置、ビデオゲームシステムにおいて用いられるコマンドの入力支援方法、制御方法およびコンピュータプログラムが格納された記録媒体
JP2006236143A (ja) 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc 入力処理プログラム、携帯端末装置、及び入力処理方法
JP2007094861A (ja) * 2005-09-29 2007-04-12 Oki Electric Ind Co Ltd 自動券売機

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102945A (ja) * 1995-10-04 1997-04-15 Hitachi Denshi Ltd 監視用テレビカメラの制御方法
JP4242986B2 (ja) * 1998-10-27 2009-03-25 パナソニック株式会社 フォーカス制御装置
US6614457B1 (en) * 1998-10-27 2003-09-02 Matsushita Electric Industrial Co., Ltd. Focus control device that moves a focus in a GUI screen
JP2004310198A (ja) * 2003-04-02 2004-11-04 Starland:Kk 商品情報入力端末装置
JP2007114959A (ja) * 2005-10-19 2007-05-10 Oki Electric Ind Co Ltd 認証情報処理装置,認証情報処理方法,およびコンピュータプログラム
US7480870B2 (en) * 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition
JP2009059129A (ja) * 2007-08-31 2009-03-19 Sii Data Service Kk 注文データ管理システム、およびハンディターミナル

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816353A (ja) 1994-06-28 1996-01-19 Sharp Corp オブジェクト表示拡大方法
JPH0954657A (ja) 1995-08-14 1997-02-25 Meidensha Corp アイコンの表示制御方法
JPH09251341A (ja) 1996-03-18 1997-09-22 Fujitsu Ltd 表示画面上での選択操作に反応する領域を拡大する反応領域拡大装置および方法
JP2000259893A (ja) * 1999-03-11 2000-09-22 Oki Electric Ind Co Ltd 自動取引装置
JP2003058296A (ja) * 1999-11-01 2003-02-28 Konami Co Ltd ビデオゲーム装置、ビデオゲームシステムにおいて用いられるコマンドの入力支援方法、制御方法およびコンピュータプログラムが格納された記録媒体
JP2006236143A (ja) 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc 入力処理プログラム、携帯端末装置、及び入力処理方法
JP2007094861A (ja) * 2005-09-29 2007-04-12 Oki Electric Ind Co Ltd 自動券売機

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
EIKO TAKI, POWER POINT 2003 PERFECT MASTER 1ST EDITION, 1 February 2004 (2004-02-01), pages 155 - 159 *
HIROTO KANEKO: "Tablet de Hirogaru Sekai", NIKKEI PERSONAL COMPUTING, no. 528, 23 April 2007 (2007-04-23), pages 80 - 84 *
See also references of EP2226711A4

Also Published As

Publication number Publication date
US20100289768A1 (en) 2010-11-18
JP2009163345A (ja) 2009-07-23
EP2226711A1 (en) 2010-09-08
EP2226711A4 (en) 2013-07-24
JP4990753B2 (ja) 2012-08-01

Similar Documents

Publication Publication Date Title
WO2009084140A1 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
JP4979570B2 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
US20110134032A1 (en) Method for controlling touch control module and electronic device thereof
US10942620B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP5790203B2 (ja) 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
US20110057957A1 (en) Information processing apparatus, information processing method, and program
US20090153495A1 (en) Input method for use in an electronic device having a touch-sensitive screen
US20100328209A1 (en) Input device for electronic apparatus
US20120293406A1 (en) Method and apparatus for processing input in mobile terminal
US20120162101A1 (en) Control system and control method
US20150054741A1 (en) Display control device, display control method, and program
JP2004355606A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2003143286A (ja) 携帯電話機
JP6102474B2 (ja) 表示装置、入力制御方法、及び入力制御プログラム
JP2018514865A (ja) ウェアラブル装置、そのタッチスクリーン、そのタッチ操作方法、及びそのグラフィカルユーザインタフェース
WO2013161170A1 (ja) 入力装置、入力支援方法及びプログラム
WO2010029619A1 (ja) 携帯端末
CN101470575B (zh) 电子装置及其输入方法
JP5246974B2 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
JP2012146017A (ja) 電子黒板システム、電子黒板システムの制御方法、プログラムおよびその記録媒体
JP5127081B2 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
KR20090089707A (ko) 터치 스크린 입력을 이용한 화면 확대/축소 방법 및 장치
JP2012150849A (ja) 携帯電子機器の入力装置、携帯電子機器
JP2009104449A (ja) カーソル制御装置、カーソル制御システムおよびカーソル制御装置の制御方法
US10955962B2 (en) Electronic device and control method thereof that switches a touch panel between an independent mode and a dual input mode

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08867655

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12811080

Country of ref document: US

Ref document number: 2008867655

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE