WO2017159607A1 - 入力支援装置、スマートフォンおよび入力支援方法 - Google Patents

入力支援装置、スマートフォンおよび入力支援方法 Download PDF

Info

Publication number
WO2017159607A1
WO2017159607A1 PCT/JP2017/009945 JP2017009945W WO2017159607A1 WO 2017159607 A1 WO2017159607 A1 WO 2017159607A1 JP 2017009945 W JP2017009945 W JP 2017009945W WO 2017159607 A1 WO2017159607 A1 WO 2017159607A1
Authority
WO
WIPO (PCT)
Prior art keywords
word
input
image
icon
user
Prior art date
Application number
PCT/JP2017/009945
Other languages
English (en)
French (fr)
Inventor
康介 小野山
崇 尾崎
秀岳 荻野
木村 誠
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to CN201780015141.2A priority Critical patent/CN108700953B/zh
Publication of WO2017159607A1 publication Critical patent/WO2017159607A1/ja
Priority to US16/131,687 priority patent/US20190012079A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones

Definitions

  • the present invention relates to a technique for supporting input of various data to an electronic device.
  • a virtual keyboard called a software keyboard is generally used as an input means for inputting words representing various data.
  • the virtual keyboard is realized by displaying a graphic image of an operation element (hereinafter referred to as a virtual operation element) corresponding to characters such as alphabets, kana, numbers, and various symbols such as arithmetic symbols on the display surface of the touch panel.
  • a virtual operation element an operation element
  • characters such as alphabets, kana, numbers, and various symbols such as arithmetic symbols
  • a user such as a tablet terminal can input each character constituting a word to be input (or a reading kana of the word) by a touch operation on the virtual operator.
  • a keyboard having about 80 to 110 keys (hereinafter referred to as a full size keyboard) is often used as an input means.
  • a virtual keyboard having a sufficient number of virtual operators such as a full-size keyboard
  • restrictions such as a narrow display surface. Therefore, various techniques for allowing words or the like to be input with a small number of virtual operators have been proposed, and an example thereof is the technique disclosed in Patent Document 1.
  • Patent Document 1 As shown in FIG. 7 (a), the letters “a”, “ka”, “sa”, “ta”, “na”. A virtual operator with the first character of each line of the word Japanese syllabary is displayed on the display device to prompt the user to input characters. For example, when the user desires to input the character “U”, the virtual operator corresponding to the character “A” is touched. When such a touch is made, the technique disclosed in Patent Document 1 switches the display content to display of a virtual operator corresponding to each character of the “A” line, as shown in FIG. The user who visually recognizes the screen shown in FIG. 7B can input the character by touching the virtual operator corresponding to the character “U”.
  • the present invention has been made in view of the problems described above, and provides a technique that enables efficient input of words representing various data to an electronic device using a virtual keyboard as an input means. For the purpose.
  • a plurality of first icons corresponding to different characters are displayed on a display device, and designated by any one of the plurality of first images designated.
  • An input support apparatus having display control means for displaying a plurality of second images corresponding to the words related to the characters of the first image around the first image, and prompting the input of the word Is provided.
  • a plurality of first icons corresponding to different characters are displayed on a display device, and designated by any one of the plurality of first images designated.
  • An input support method including prompting input of a word by displaying a plurality of second images respectively corresponding to the words related to the characters of the first image on the basis of the first image as a reference. Provided.
  • FIG. 1 is a perspective view illustrating an appearance of an electronic device 10 according to an embodiment of the present invention. It is a block diagram which shows the structural example of the electronic device 10 by one Embodiment of this invention. It is a figure which shows an example of the management table stored in the non-volatile storage part 134 of the electronic device 10 by one Embodiment of this invention. It is a figure which shows an example of the screen which the control part 100 of the electronic device 10 by one Embodiment of this invention displays on the display means 120a according to a setting assistance program. It is a flowchart which shows the flow of the input assistance process which the control part 100 by one Embodiment of this invention performs according to an input assistance program.
  • FIG. 1 is a perspective view showing an appearance of an electronic device 10 according to an embodiment of the present invention.
  • the electronic device 10 is, for example, a tablet terminal, and includes a user IF unit 120 such as a touch panel.
  • the user of the electronic device 10 can perform various inputs by touch operations on the user IF unit 120.
  • a setting support program for performing various settings (for example, setting of filtering conditions) for a network device such as a router is installed in advance.
  • the user of the electronic device 10 connects the electronic device 10 via a communication cable to a network device (hereinafter, referred to as a setting target device) that is a setting work target, and performs the setting work by performing the setting work according to the setting support program.
  • Setting work for the target device can be performed.
  • the case where the electronic device 10 is wired to the setting target device will be described, but wireless connection may be used.
  • a command input to the electronic device 10 is a character string representing a command or a command argument by an operation on a virtual keyboard displayed on the user IF unit 120 (hereinafter, both are collectively shown). This is realized by inputting "command character string").
  • the electronic device 10 according to the present embodiment has display control means for performing display control of various screens that prompt the user to input a command character string, thereby allowing the user to input a command character string more efficiently than before. be able to.
  • the configuration (hardware configuration and software configuration) of the electronic device 10 will be described in detail with reference to the drawings.
  • FIG. 2 is a block diagram illustrating a configuration example of the electronic device 10.
  • the electronic device 10 includes, in addition to the user IF unit 120, a control unit 100, a communication IF unit 110, a storage unit 130, and a bus 140 that mediates data exchange between these components. .
  • the control unit 100 is, for example, a CPU (Central Processing Unit).
  • the control unit 100 supports setting work by executing a setting support program.
  • This setting support program is stored in the storage unit 130 (more specifically, the nonvolatile storage unit 134).
  • the setting support program includes an input support program for causing the control unit 100 to perform command character string input support.
  • the communication IF unit 110 is, for example, a NIC (Network Interface Card).
  • the communication IF unit 110 is connected to the setting target device via a communication cable, for example.
  • the communication IF unit 110 delivers data received from the setting target device via the communication cable to the control unit 100, and transmits data provided from the control unit 100 to the setting target device via the communication cable.
  • a wireless LAN IF that performs wireless communication with a wireless LAN access point may be used as the communication IF unit 110.
  • the user IF unit 120 includes a display unit 120a and an operation input unit 120b as shown in FIG.
  • the display means 120a is, for example, a display device such as a liquid crystal display and a drive circuit that performs drive control thereof (neither is shown in FIG. 2).
  • the display unit 120 a displays images representing various screens under the control of the control unit 100.
  • An example of a screen displayed on the display unit 120a is a screen that prompts the user to perform a setting operation.
  • the operation input means 120b is a sheet-like transparent position detection sensor provided so as to cover the display surface of the display means 120a.
  • the position detection method using this position detection sensor may be a capacitance method or an electromagnetic induction method.
  • the operation input unit 120b forms a touch panel together with the display unit 120a. The user can perform various input operations by touching the operation input unit 120b with a touch pen or a fingertip, or by performing a flick to move the fingertip or the like while touching.
  • the operation input unit 120b is operation content data indicating the touch position of the user's fingertip or the like and the locus of the flick operation (for example, coordinates such as the touch position in the two-dimensional coordinate space with the upper left corner of the display surface of the display unit 120a as the origin) Data) is provided to the control unit 100. Thereby, the user's operation content is transmitted to the control unit 100.
  • the storage unit 130 includes a volatile storage unit 132 and a nonvolatile storage unit 134.
  • the volatile storage unit 132 is, for example, a RAM (Random Access Memory).
  • the volatile storage unit 132 is used by the control unit 100 as a work area when executing various programs.
  • the nonvolatile storage unit 134 is, for example, a flash ROM (Read Only Memory) or a hard disk.
  • Various programs are stored in the nonvolatile storage unit 134. Specific examples of the program stored in the nonvolatile storage unit 134 include a kernel, a web browser, a mailer, and the above-described setting support program that cause the control unit 100 to realize an OS (Operating System).
  • OS Operating System
  • the setting support program includes the input support program and the management table described above.
  • FIG. 3 is a diagram illustrating an example of the management table.
  • command character string data representing all the commands that can be used in the setting work and command arguments are stored in groups for each head character.
  • each command character string data represents another command character string (hereinafter, a subsequent character string) that can be followed by a command character string represented by the command character string data with a space or the like interposed therebetween.
  • Subsequent character string data is stored.
  • the subsequent character string data associated with the command character string data represents an argument that can be specified for the command.
  • the command character string data corresponding to each head character is stored in order of the frequency of use in the setting work
  • the subsequent character string corresponding to each command character string data Data is also stored in order of frequency of use as an argument in the setting operation. What is necessary is just to obtain
  • the command character string data and the subsequent character string data are stored in the management table in the descending order of use frequency in the setting work, but may be stored in a dictionary order such as alphabetical order. Further, priority order data indicating priorities according to the order of use frequency or dictionary order may be stored in the management table in association with each of the command character string data and the subsequent character string data.
  • the control unit 100 reads the kernel from the non-volatile storage unit 134 to the volatile storage unit 132 when the power of the electronic device 10 (not shown in FIG. 2) is turned on, and starts its execution.
  • the control unit 100 operating according to the kernel and realizing the OS can execute another program in accordance with an instruction given via the operation input unit 120b. For example, when the execution of the web browser is instructed via the operation input unit 120b, the control unit 100 reads the web browser from the nonvolatile storage unit 134 to the volatile storage unit 132 and starts the execution. Similarly, when the execution of the setting support program is instructed via the operation input unit 120b, the control unit 100 reads the setting support program from the nonvolatile storage unit 134 to the volatile storage unit 132 and starts the execution.
  • the control unit 100 operating according to the setting support program first displays a command input screen A01 (see FIG. 4) displaying a command prompt (“#” in the example shown in FIG. 4) for allowing the user to input a command. Is displayed on the display unit 120a, and the execution of the input support program is started to support command input.
  • the control unit 100 operating according to the input support program functions as the display control means described above.
  • the process executed by the control unit 100 in accordance with the input support program (hereinafter referred to as input support process), that is, the process executed by the display control means includes the following two steps. This is a feature of the present embodiment.
  • the first step a plurality of icons corresponding to different characters are displayed on the display unit 120a, and the user is prompted to specify the first character of the command character string desired to be input.
  • the second step corresponds to each of the command character strings starting from the character corresponding to the designated image, when any of the plurality of images displayed on the display means 120a in the first step is designated.
  • a plurality of images to be displayed (hereinafter, the image displayed in the first process is referred to as a “first image” and the image displayed in the second process is referred to as a “second image”) on the basis of the first image (
  • it is a step that prompts the user to input a command character string by displaying it around it as a central but not limited to this.
  • an input support process that significantly shows the features of the present embodiment will be described in detail.
  • FIG. 5 is a flowchart showing the flow of input support processing.
  • the control unit 100 first displays a virtual keyboard A02 for prompting the user to input a command along with the command input screen A01 (see FIG. 4) on the display unit 120a (step SA100). .
  • the process of step SA100 is the first step.
  • the virtual keyboard A02 is provided with a plurality of virtual operators.
  • a plurality of virtual operators provided on the virtual keyboard are roughly divided into virtual operators (first image described above, hereinafter, character input keys) corresponding to the letters of the alphabet and other virtual operators.
  • a special character such as a virtual operator (in the example shown in FIG.
  • a virtual operator assigned the character string “SPACE”) for inputting a space (space) is input.
  • SPACE space
  • a virtual operator for switching to numeric input in the example shown in FIG. 4, a virtual operator assigned with the character string “123”), etc.
  • a user who viewed the virtual keyboard A02 Can input the first character by performing a touch operation on the character input key corresponding to the first character of the command character string desired to be input.
  • the operation content data indicating the touch position is transferred to the control unit 100.
  • step SA110 the control unit 100 waits for delivery of the operation content data from the operation input unit 120b.
  • the control unit 100 refers to the operation content data and determines the operation content of the user. . More specifically, the control unit 100 determines whether the coordinate position represented by the operation content data delivered from the operation input unit 120b is a position corresponding to any of the character input keys, or any of the other virtual operation elements. It is determined whether the position is. In the former case, the control unit 100 determines that a touch operation has been performed on the character input key, and in the latter case, the control unit 100 determines that a touch operation has been performed on other virtual operators. Note that when the coordinate position indicated by the operation content data delivered from the operation input unit 120b is not the position of the character input key and the position of the other virtual operation element, the control unit 100 performs an invalid operation. And waits for input again.
  • step SA110 determines whether a touch operation has been performed on another virtual operator. If the determination result in step SA110 is “No”, that is, if it is determined that a touch operation has been performed on another virtual operator, the control unit 100 performs an operation to instruct the end of execution of the setting support program. If the determination result is “Yes”, the command input screen A01 and the virtual keyboard A02 are erased from the display screen of the display means 120a, and the input support is performed. Terminates execution of the program and setting support program.
  • step SA180 executes the process in step SA110 again. For example, when the touch operation is performed on the virtual operator for switching to numeric input, the control unit 100 switches the virtual keyboard A02 to the virtual keyboard for numeric input in Step SA180, and then executes the process of Step SA110 again. And so on.
  • step SA110 the control unit 100 executes the processes after step SA120.
  • step SA120 the control unit 100 narrows down command character string candidates that the user intends to input from the user's operation content, presents the candidates to the user, and waits for the user's operation.
  • the process of step SA120 is the second step described above.
  • step SA120 the control unit 100 specifies a character corresponding to the character input key that has been touched by the user, reads command character string data representing a command character string starting from the character from the management table, and executes the command character.
  • the command character string represented by the column data is presented as a candidate command character string to be input by the user.
  • the control unit 100 displays a substantially fan-shaped image (the second image) provided with the command character string represented by the command character string data read from the management table in the above manner on the display unit 120a. Display. At this time, the control unit 100 causes the display means 120a to display a predetermined number of substantially fan-shaped images clockwise from the 9 o'clock direction around the character input key that has been touched. For example, when the character designated by the touch operation is “s”, the image around the virtual operator corresponding to the character “s” is updated as shown in FIG. FIG. 6A illustrates the case where five second graphic images are arranged around the character input key corresponding to the character designated by the touch operation (that is, the predetermined number is 5).
  • the number of command character strings starting from the character may be six or more.
  • the lower end of the second image corresponding to the command character string having the lowest priority among the second images displayed on the display means 120a (“set" in the example shown in FIG. 6A).
  • the image corresponding to the sixth and subsequent command character strings may be scroll-displayed when the operation of flicking (see FIG. 6A: arrow C3) is performed.
  • the graphic image given the character string “return” is a virtual operator for instructing the user to cancel the input
  • the graphic image given the character string “help” is a help screen. Is a virtual operator for instructing the user to execute the command already input to the command prompt on the command input screen A01. A child.
  • the second icon corresponding to the command character string and the second icon corresponding to the virtual operator may be displayed in areas separated from each other.
  • the second icon displayed in the areas separated from each other is displayed to prompt the user to input a word corresponding to a process having a different property for each area.
  • the user who has visually recognized the image shown in FIG. 6A can select a command character string desired to be input by flicking the second image. For example, when it is desired to input “set” as a command character string, the fingertip touching the virtual operator corresponding to the character “s” is pointed at the image assigned the character string “set”. And then selecting the character string “set” by performing an operation of returning to the virtual operator corresponding to the character “s” (flick operation in which a locus is represented by the arrow C1 in FIG. 6A). Can do. If an operation for returning to the first image via a plurality of second images is performed, such as a flick operation in which the locus is represented by the arrow C2 in FIG.
  • the second image where the user's fingertip or the like is positioned may be displayed in reverse video.
  • step SA130 the control unit 100 refers to the operation content data delivered from the operation input unit 120b to determine whether or not a candidate has been selected by the user.
  • the control unit 100 inputs the command character string selected by the user to the command prompt (also referred to as command line) on the command input screen A01 (step SA140).
  • the process of step SA120 is executed again.
  • step SA120 executed subsequent to step SA140 the control unit 100 stores the subsequent character string data stored in the management table in association with the command character string data representing the command character string selected immediately before.
  • the command character string represented by the subsequent character string data is read and presented as a candidate command character string to be input by the user.
  • the command character string selected by the flick operation is “show”.
  • the command character string data indicating the command character string “show” includes “account”, “arp”, “log”, “status”, and “config”. Subsequent character string data representing each character string is stored.
  • the control unit 100 displays an image with the command character string “show” added at the position of the virtual operator corresponding to the character “s”, and further displays the character strings “account”, “arp”, “log”, An image to which each character string of “status” and “config” is added is displayed around it (see FIG. 6B), and the user is prompted to select a command character string subsequent to the command character string “show”.
  • step SA150 determines whether the user's operation content is a touch operation on any of the virtual operators “return”, “help”, or “confirm”.
  • step SA150 determines whether the user's operation content is a touch operation on the “confirm” key. If the determination result is “Yes”, the command input is regarded as one paragraph. Then, the processes after step SA100 are executed again.
  • step SA160 determines whether the command input is continuing and executes the processes after step SA120. The above is the flow of the input support process in this embodiment.
  • the point to be noted here is that according to the present embodiment, it is not necessary to input the constituent characters of the command character string one by one, and the trouble of inputting the command is greatly reduced. Further, it is not necessary to move the fingertip or the like away from the operation input unit 120b from the designation of the first character of the command character string desired to be input to the selection of the command character string by the flick operation and the selection of the subsequent character string following the command character string. . Accordingly, the number of touches on the operation input unit 120b is reduced as compared with a mode in which command character strings serving as input candidates are displayed in a separate frame, thereby enabling efficient input.
  • the application example of the present invention to the input support of the command character string has been described. This is because the input to the setting support program that is the caller of the input support program is almost limited to the input of the command character string, and the candidates to be presented to the user according to the designation of the first character by the user are within the command character string range. This is because even if narrowed down, no particular problem occurs.
  • the application program is not limited to the setting support program as long as the candidates to be presented to the user can be narrowed down according to the type of the application program as the word input destination according to the designation of the first character by the user. .
  • the candidates to be presented to the user are not narrowed down according to the type of application program as the word input destination, but according to the type of the input item as the word input destination. You may narrow down.
  • the present invention is applied to input support of words constituting an address.
  • character string data representing the name of the prefecture is classified and stored in the management table for each first character, and the municipalities belonging to the prefecture represented by the character string data are associated with each character string data.
  • Subsequent character string data representing the name of the name may be stored in the management table, and the execution of the input support program may be started when the cursor is positioned in the address input field.
  • the order in which candidates are presented to the user by displaying the second icon may be varied depending on the type of application program that is the word input destination.
  • word candidates are presented or the presentation order is changed depending on the type of device to be controlled, not limited to the case of the type of application program.
  • the type of application program For example, network devices, audios, and devices have different device types.
  • it may be an application program or an apparatus. Therefore, according to this example, word candidates can be presented or the presentation order can be changed according to the operation target.
  • the virtual keyboard A02 is displayed on the display means 120a to prompt the user to specify the first character of the command character string desired to be input, and when the first character is specified, the specified character is displayed.
  • a plurality of second icons respectively corresponding to the command character string starting from the character are displayed around the corresponding first icon image to prompt specification of the command character string.
  • the control unit 100 executes the processing after step SA140 in the flowchart shown in FIG. The user may be prompted to input (or modify the command character string after input).
  • the virtual keyboard A02 is displayed on the display unit 120a in order to prompt the user to specify the first character of the command character string desired to be input.
  • the first character is designated
  • a plurality of second images respectively corresponding to the command character string starting from the character are displayed around the first image corresponding to the designated character to designate the command character string. Urged.
  • any one of the constituent characters of the plurality of second icons displayed around the first icon specified by the user is changed to the first icon. You may respectively correspond to the command character string which corresponds to a corresponding character.
  • the virtual keyboard A02 is displayed on the display means 120a in order to prompt the user to specify the character related to the word desired to be input, and when any character is specified, the first corresponding to the specified character is displayed. It is only necessary to display a plurality of second icons corresponding to the words related to the character around the icon and to prompt the designation of the word.
  • the application target of the present invention is not limited to the tablet terminal.
  • an electronic device uses a virtual keyboard as an input means, such as a smartphone, PDA (Personal Digital Assistant), or portable game machine, each word constituting a command, an address, etc. can be obtained by applying the present invention. The user can input efficiently.
  • the display control means for executing the input support processing (input support method) prominently showing the features of the present invention is configured by the software module.
  • the display control is performed by hardware such as an electronic circuit. Means may be configured.
  • the electronic circuit may be a circuit configured by an FPGA (Field Programmable Gate Array).
  • the present invention provides an input support apparatus having the following display control means.
  • the display control means first performs a process (first step process) of displaying a plurality of first icons corresponding to different characters on a display device (for example, a display device serving as a display means in an electronic device). Execute. Next, the display control means is triggered by the designation of any of the plurality of first icons displayed on the display device, and a plurality of words corresponding to the words associated with the characters of the designated first icon. A process of displaying the second icon around the first icon (the process of the second step) is executed to prompt the input of a word.
  • any of constituent characters such as a word starting from the letter corresponding to the first icon
  • a word that matches the character corresponding to the first icon is listed.
  • a word in which any of the constituent characters matches the character corresponding to the first icon designated by the user is referred to as a “word including the character”.
  • the word related to the designated character of the first icon is not limited to the word including the character corresponding to the first icon.
  • the character corresponding to each of the plurality of first icons is the first character of each line of Japanese alphabets (ie, “a”, “ka”, “sa”, “ta”, “na”, “ha” ”,“ Ma ”,“ ya ”,“ ra ”,“ wa ”), the word including each character in the line corresponding to the character of the designated first icon is also used as the related word.
  • the character corresponding to the first icon designated by the user is “A”
  • any of the constituent characters is each character of the “A” line (ie, “A”, “I”, “ A second icon corresponding to a word that matches any of “U”, “e”, and “o”) may be displayed around the first icon.
  • the present invention when the user performs an operation of selecting, with a fingertip or the like, a first icon corresponding to a character related to a word desired to be input, a plurality of words related to the character corresponding to the first icon A second icon corresponding to each of the images is displayed around the first icon.
  • the user can input a word by moving a fingertip or the like to the second image corresponding to the word desired to be input among the plurality of second images displayed in this manner.
  • the conventional technique has a problem that “a plurality of operations must be performed when inputting one character”, and “many operations (touch operations) are required to input one word”.
  • the display control means selects candidates to be presented to the user by displaying the second icon, the type of the application program that is the input destination of the word or the type of input item to which the word is input ( A mode of selection according to the type of application as an input destination ”) is conceivable.
  • a mode of selection according to the type of application as an input destination is conceivable.
  • words input by the user are considered to be narrowed down to some extent according to the type of application.
  • the application program that is the input destination of the word is a program that causes the computer to execute processing according to the input command
  • the word input by the user is one of the commands (or command arguments). it is conceivable that.
  • the input item is an address input field
  • the word input by the user is considered to be the name of a prefecture, the name of a city, and the like.
  • an upper limit value of the number of second images to be displayed around the first image is determined in advance, and word candidates starting from characters corresponding to the first image designated by the user are selected. If the number exceeds the upper limit, the display control means switches the second image displayed around the first image in accordance with the user's operation. According to such an aspect, even if a tablet terminal or a smartphone having a restriction on the size of the display surface is caused to function as the input support device of the present invention, the user can efficiently input a word regardless of the restriction. Is possible. In this case, the order in which candidates are presented to the user by displaying the second icon in the second step may be varied depending on the type of application that is the word input destination.
  • the display control means in the input support apparatus of the present invention is characterized by executing the following third step process in addition to the first and second step processes.
  • the display control means executes the process of the third step in response to an operation for selecting a plurality of second images displayed on the display device in the second step.
  • the display control means displays the third icon corresponding to the selected word at the position of the first icon, and uses the third icon as a reference (in this example, it is the center). 4th image showing the candidate of the word (following word) which follows the said word around it as it is not limited to this. According to such an aspect, it becomes possible to input the subsequent word without inputting the characters constituting the subsequent word (or the reading kana of the subsequent word) one by one, and the word input efficiency is further improved. .
  • the present invention provides a first step of displaying a plurality of first icons corresponding to different characters on a display device, and a plurality of steps displayed on the display device in the first step.
  • a plurality of second images each corresponding to a word associated with a character of the designated first image, the second step being executed when any one of the first images is designated
  • a second step for prompting the user to input a word comprises: By causing an electronic device using a virtual keyboard as an input means to execute such an input support method, it is possible to efficiently input words representing various data to the electronic device.
  • the present invention provides a program for causing a general computer such as a CPU to execute the input support method, that is, a program for causing the CPU to execute the first and second steps. May be.
  • a control unit such as an existing tablet terminal or smartphone according to the program, it is possible to improve efficiency when inputting words representing various data to the existing tablet terminal or smartphone.
  • a mode in which the program is written and distributed on a computer-readable recording medium such as a CD-ROM (Compact Disk-Read Only Memory) or a flash ROM (Read Only Memory), the Internet, etc.
  • a mode of distribution by downloading via a telecommunication line is conceivable.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

各々異なる文字に対応する複数の第1の図像を配列した画像、すなわち仮想キーボードの画像を表示装置に表示させる処理と、表示装置に表示させた複数の第1の図像の何れかが指定されたことを契機として、指定された第1の図像に対応する文字から始まる単語に各々対応する複数の第2の図像を当該指定された第1の図像を基準としてその周囲に表示させ、単語の入力を促す処理とを実行する表示制御手段、を有する入力支援装置を提供する。

Description

入力支援装置、スマートフォンおよび入力支援方法
 本発明は、電子機器に対する各種データの入力を支援する技術に関する。
 タブレット端末やスマートフォンでは、各種データを表す単語を入力するための入力手段として、ソフトウェアキーボードと呼ばれる仮想キーボードが利用されることが一般的である。仮想キーボードは、アルファベットや仮名、数字、算術記号などの各種記号などの文字に対応する操作子の図像(以下、仮想操作子という)をタッチパネルの表示面に表示させることで実現される。タブレット端末等のユーザは、仮想操作子に対するタッチ操作により、入力を所望する単語(または当該単語の読み仮名)を構成する各文字の入力を行うことができる。
 パーソナルコンピュータ等では、80~110個程度のキーを有するキーボード(以下、フルサイズキーボード)が入力手段として用いられることが多い。しかし、タブレット端末やスマートフォンでは、表示面の狭さ等の制約のため、フルサイズキーボードのように十分な数の仮想操作子を有する仮想キーボードの表示が難しい場合が多い。そこで、少ない仮想操作子でも単語等を入力できるようにする技術が種々提案されており、その一例としては特許文献1に開示の技術が挙げられる。
 特許文献1に開示の技術では、図7(a)に示すように、「あ」、「か」、「さ」、「た」、「な」・・・「わ」の各文字、すなわち日本語五十音の各行の先頭文字を付与した仮想操作子を表示装置に表示してユーザに文字入力を促す。例えばユーザが文字「う」の入力を所望する場合には、文字「あ」に対応する仮想操作子をタッチする。このようなタッチが為されると、特許文献1に開示の技術では、図7(b)に示すように、「あ」行の各文字に対応する仮想操作子の表示に表示内容を切り換える。図7(b)に示す画面を視認したユーザは文字「う」に対応する仮想操作子をタッチすることで、当該文字を入力することができる。
 特許文献1に開示の方法の他にも、「あ」、「か」、「さ」、「た」、「な」・・・「わ」の各文字に対応する仮想操作子に対するトグル入力により文字入力を行う態様(図8(a)参照)や、それら仮想操作子に対するフリック入力により文字入力を行う態様(図8(b)参照)もある。トグル入力により文字「く」を入力する場合には、文字「か」に対応する仮想操作子を指先等で3回続けてタッチすればよい。また、フリック入力により文字「く」を入力する場合には、文字「か」に対応する仮想操作子を指先等でタッチして当該仮想操作子の上下左右に「き」、「く」、「け」および「こ」の各文字に対応する各仮想操作子を表示させ(図8(b)参照)、文字「く」に対応する仮想操作子の方向に指先等を滑らせる操作(フリック操作)を行えばよい。
特開2015-228154号公報
 図7および図8の各図に示す入力態様では、1つの文字を入力する際に複数回の操作を行わねばならない場合があり、複数の文字により構成される単語の入力に手間がかかるといった問題点があった。
 本発明は以上に説明した課題に鑑みて為されたものであり、入力手段として仮想キーボードを用いる電子機器に対して、各種データを表す単語を効率良く入力することを可能にする技術を提供することを目的とする。
 本発明の一実施形態によれば、各々異なる文字に対応する複数の第1の図像を表示装置に表示させ、複数の前記第1の図像の何れかが指定されたことを契機として、指定された前記第1の図像の文字に関連する単語に各々対応する複数の第2の図像を前記第1の図像を基準としてその周囲に表示させ、単語の入力を促す表示制御手段を有する入力支援装置が提供される。
 本発明の一実施形態によれば、各々異なる文字に対応する複数の第1の図像を表示装置に表示させ、複数の前記第1の図像の何れかが指定されたことを契機として、指定された前記第1の図像の文字に関連する単語に各々対応する複数の第2の図像を前記第1の図像を基準としてその周囲に表示させることによって単語の入力を促すことを含む入力支援方法が提供される。
本発明の一実施形態による電子機器10の外観を示す斜視図である。 本発明の一実施形態による電子機器10の構成例を示すブロック図である。 本発明の一実施形態による電子機器10の不揮発性記憶部134に格納されている管理テーブルの一例を示す図である。 本発明の一実施形態による電子機器10の制御部100が設定支援プログラムにしたがって表示手段120aに表示させる画面の一例を示す図である。 本発明の一実施形態による制御部100が入力支援プログラムにしたがって実行する入力支援処理の流れを示すフローチャートである。 本発明の一実施形態による入力支援処理において単語の入力を促すために制御部100が表示手段120aに表示させる候補選択画面の一例を示す図である。 従来の仮想キーボードの一例を示す図である。 従来の仮想キーボードの一例を示す図である。
 以下、図面を参照しつつ、この発明の実施形態を説明する。図1は、本発明の一実施形態による電子機器10の外観を示す斜視図である。電子機器10は、例えばタブレット端末であり、タッチパネルなどのユーザIF部120を有する。電子機器10のユーザはユーザIF部120に対するタッチ操作により各種入力を行うことができる。
 本実施形態の電子機器10には、ルータなどのネットワーク装置に対する各種設定(例えば、フィルタリング条件の設定など)を行うための設定支援プログラムが予めインストールされている。電子機器10のユーザは、設定作業の対象となるネットワーク装置(以下、設定対象装置という)に通信ケーブルを介して電子機器10を接続し、上記設定支援プログラムにしたがって設定作業を行うことで当該設定対象装置に対する設定作業を行うことができる。本実施形態では、電子機器10を設定対象装置へ有線接続する場合について説明するが、無線接続であってもよい。
 上記設定作業は各種コマンドを入力し、当該コマンドにしたがって電子機器10を作動させることで実現される。電子機器10に対するコマンド入力は、一般的なタブレット端末またはスマートフォンにおける場合と同様に、ユーザIF部120に表示される仮想キーボードに対する操作によりコマンドまたはコマンドの引数を表す文字列(以下、両者をまとめて「コマンド文字列」という)を入力することで実現される。本実施形態の電子機器10は、コマンド文字列の入力をユーザに促す各種画面の表示制御を行う表示制御手段を有しており、これにより、従来よりも効率良くユーザにコマンド文字列を入力させることができる。以下、電子機器10の構成(ハードウェア構成およびソフトウェア構成)について図面を参照しつつ詳細に説明する。
 図2は、電子機器10の構成例を示すブロック図である。図2に示すように電子機器10は、ユーザIF部120の他に、制御部100、通信IF部110、記憶部130、およびこれら各構成要素間のデータ授受を仲介するバス140を含んでいる。
 制御部100は例えばCPU(Central Processing Unit)である。制御部100は設定支援プログラムを実行することにより、設定作業の支援を行う。この設定支援プログラムは記憶部130(より詳細には、不揮発性記憶部134)に記憶されている。設定支援プログラムには、コマンド文字列の入力支援を制御部100に実行させる入力支援プログラムが含まれている。
 通信IF部110は、例えばNIC(Network Interface Card)である。通信IF部110は例えば通信ケーブルを介して設定対象装置に接続される。通信IF部110は、上記通信ケーブルを介して設定対象装置から受信したデータを制御部100に引き渡す一方、制御部100から与えられたデータを、上記通信ケーブルを介して設定対象装置へ送信する。なお、電子機器10を設定対象装置へ無線接続する態様の場合は、例えば無線LANのアクセスポイントと無線通信する無線LANIFを通信IF部110として用いるようにすればよい。
 ユーザIF部120は、図2に示すように、表示手段120aと操作入力手段120bとを含んでいる。表示手段120aは例えば液晶ディスプレイなどの表示装置とその駆動制御を行う駆動回路である(図2では何れも図示略)。表示手段120aは、制御部100による制御の下、各種画面を表す画像を表示する。表示手段120aに表示される画面の一例としては、設定作業をユーザに促す画面が挙げられる。
 操作入力手段120bは、表示手段120aの表示面を被覆するように設けられたシート状の透明な位置検出センサである。この位置検出センサによる位置検出方法は、静電容量方式であってもよく、電磁誘導方式であってもよい。操作入力手段120bは、表示手段120aとともにタッチパネルを形成する。ユーザはタッチペンや指先等で操作入力手段120bをタッチしたり、タッチしたまま指先等を移動させるフリックを行ったりすることで各種入力操作を行うことできる。操作入力手段120bは、ユーザの指先等によるタッチ位置やフリック操作の軌跡を示す操作内容データ(例えば、表示手段120aの表示面の左上隅等を原点とする二次元座標空間におけるタッチ位置等の座標データ)を制御部100に与える。これによりユーザの操作内容が制御部100に伝達される。
 記憶部130は揮発性記憶部132と不揮発性記憶部134を含んでいる。揮発性記憶部132は例えばRAM(Random Access Memory)である。揮発性記憶部132は各種プログラムを実行する際のワークエリアとして制御部100によって利用される。不揮発性記憶部134は、例えばフラッシュROM(Read Only Memory)やハードディスクである。不揮発性記憶部134には、各種プログラムが格納されている。不揮発性記憶部134に格納されているプログラムの具体例としては、OS(Operating System)を制御部100に実現させるカーネル、ウェブブラウザやメーラー、前述した設定支援プログラムが挙げられる。
 図2に示すように、設定支援プログラムは、前述した入力支援プログラムと管理テーブルとを含んでいる。図3は管理テーブルの一例を示す図である。図3に示すように、管理テーブルには、設定作業において使用可能な全てのコマンドおよびコマンドの引数の各々を表すコマンド文字列データが、先頭文字毎にグループ分けされて格納されている。また、図3に示すように、各コマンド文字列データには、当該コマンド文字列データの表すコマンド文字列に空白等を挟んで後続し得る他のコマンド文字列(以下、後続文字列)を表す後続文字列データが格納されている。例えば、コマンド文字列データの表す単語がコマンドである場合には、当該コマンド文字列データに対応付けられている後続文字列データは当該コマンドに対して指定し得る引数を表す。
 より詳細に説明すると、本実施形態の管理テーブルでは、各先頭文字に対応するコマンド文字列データは、設定作業における使用頻度が高い順に格納されており、各コマンド文字列データに対応する後続文字列データも設定作業において引数として使用される頻度が高い順に格納されている。設定作業における使用頻度については例えば統計等を利用して求めるようにすればよい。本実施形態では、設定作業における使用頻度が高い順にコマンド文字列データおよび後続文字列データを管理テーブルに格納したが、アルファベット順などの辞書順に格納してもよい。また、使用頻度の順または辞書順に応じた優先順位を示す優先順位データを、コマンド文字列データおよび後続文字列データの各々に対応付けて管理テーブルに格納してもよい。
 制御部100は、電子機器10の電源(図2では図示略)の投入を契機としてカーネルを不揮発性記憶部134から揮発性記憶部132に読み出し、その実行を開始する。カーネルにしたがって作動し、OSを実現している状態の制御部100は、操作入力手段120bを介して与えられる指示に応じて他のプログラムを実行することができる。例えば、操作入力手段120bを介してウェブブラウザの実行を指示されると、制御部100はウェブブラウザを不揮発性記憶部134から揮発性記憶部132に読み出し、その実行を開始する。同様に、操作入力手段120bを介して設定支援プログラムの実行を指示されると、制御部100は設定支援プログラムを不揮発性記憶部134から揮発性記憶部132に読み出し、その実行を開始する。
 設定支援プログラムにしたがって作動している制御部100は、まず、ユーザにコマンドを入力させるためのコマンドプロンプト(図4に示す例では、“#”)を表示したコマンド入力画面A01(図4参照)を表示手段120aに表示させ、さらに、コマンド入力を支援するために入力支援プログラムの実行を開始する。入力支援プログラムにしたがって作動している制御部100は、前述した表示制御手段として機能する。
 制御部100が入力支援プログラムにしたがって実行する処理(以下、入力支援処理いう)、すなわち上記表示制御手段の実行する処理には、以下の2つのステップが含まれている。この点に本実施形態の特徴がある。第1のステップは、各々異なる文字に対応する複数の図像を表示手段120aに表示させ、入力を所望するコマンド文字列の先頭文字の指定をユーザに促すステップである。第2のステップは、第1のステップにて表示手段120aに表示させた複数の図像の何れかが指定されたことを契機として、指定された図像に対応する文字から始まるコマンド文字列に各々対応する複数の図像(以下、第1の処理で表示させる図像を「第1の図像」といい、第2の処理で表示させる図像を「第2の図像」という)を第1の図像を基準(この例では中心であるが、これに限られない)としてその周囲に表示させ、コマンド文字列の入力をユーザに促すステップである。以下、本実施形態の特徴を顕著に示す入力支援処理について詳細に説明する。
 図5は、入力支援処理の流れを示すフローチャートである。図5に示すように、制御部100は、まず、ユーザに対してコマンドの入力を促すための仮想キーボードA02をコマンド入力画面A01と並べて(図4参照)表示手段120aに表示させる(ステップSA100)。このステップSA100の処理が上記第1のステップである。図4に示すように、仮想キーボードA02には、複数の仮想操作子が設けられている。仮想キーボードに設けられている複数の仮想操作子は、各々アルファベットの各文字に対応する仮想操作子(上述した第1の図像、以下、文字入力キー)とその他の仮想操作子とに大別される。その他の仮想操作子の具体例としては、空白(スペース)を入力するための仮想操作子(図4に示す例では、文字列“SPACE”を付与された仮想操作子)などの特殊文字を入力するための仮想操作子、数字入力に切り替えるための仮想操作子((図4に示す例では、文字列“123”を付与された仮想操作子)等が挙げられる。仮想キーボードA02を視認したユーザは、入力を所望するコマンド文字列の先頭文字に対応する文字入力キーに対するタッチ操作を行うことで、当該先頭文字を入力することができる。ユーザがタッチ操作を行うと、操作入力手段120bはそのタッチ位置を示す操作内容データを制御部100に引き渡す。
 ステップSA100に後続するステップSA110では、制御部100は、操作入力手段120bからの操作内容データの引き渡しを待ち受け、操作内容データを受け取ると、当該操作内容データを参照してユーザの操作内容を判定する。より詳細に説明すると、制御部100は、操作入力手段120bから引き渡された操作内容データの表す座標位置が何れかの文字入力キーに対応する位置であるのか、それともその他の仮想操作子の何れかの位置であるのかを判定する。前者の場合、制御部100は文字入力キーに対するタッチ操作が為されたと判定し、後者の場合、制御部100はその他の仮想操作子に対するタッチ操作が為されたと判定する。なお、操作入力手段120bから引き渡された操作内容データの示す座標位置が文字入力キーの位置ではなく、かつその他の仮想操作子の位置でもない場合には、制御部100は無効な操作が為されたと見做して、再度入力を待ち受ける。
 ステップSA110の判定結果が“No”であった場合、すなわち、その他の仮想操作子に対するタッチ操作が為されたと判定した場合には、制御部100は、設定支援プロフラムの実行終了を指示する操作が為されたのか否かを判定し(ステップSA170)、その判定結果が“Yes”である場合には、コマンド入力画面A01および仮想キーボードA02を表示手段120aの表示画面から消去して、当該入力支援プログラムおよび設定支援プログラムの実行を終了する。ステップSA170の判定結果が“No”である場合には、制御部100は操作内容に応じた処理を実行し(ステップSA180)、ステップSA110の処理を再度実行する。例えば、数字入力に切り替えるための仮想操作子に対するタッチ操作であった場合には制御部100は、ステップSA180では仮想キーボードA02を数字入力用の仮想キーボードに切り替え、その後、ステップSA110の処理を再度実行する、といった具合である。
 ステップSA110の判定結果が“Yes”であった場合、すなわち、何れかの文字入力キーに対するタッチ操作が為されたと判定した場合には、制御部100は、ステップSA120以降の処理を実行する。ステップSA120では、制御部100は、ユーザの操作内容から当該ユーザが入力しようとしているコマンド文字列の候補を絞り込み、当該候補をユーザに提示してユーザの操作を待ち受ける。このステップSA120の処理が前述した第2のステップである。ステップSA120では、制御部100は、ユーザによるタッチ操作の為された文字入力キーに対応する文字を特定し、当該文字から始まるコマンド文字列を表すコマンド文字列データを管理テーブルから読み出し、当該コマンド文字列データの表すコマンド文字列をユーザが入力しようとしているコマンド文字列の候補として提示する。
 より詳細に説明すると、制御部100は、上記の要領で管理テーブルから読み出したコマンド文字列データの表すコマンド文字列を付与した略扇型の図像(上記第2の図像)を、表示手段120aに表示させる。このとき、制御部100は、タッチ操作の為された文字入力キーを中心として9時の方向から時計回りに予め定められた数の略扇形の図像を表示手段120aに表示させる。例えば、タッチ操作により指定された文字が“s”である場合には、文字“s”に対応する仮想操作子の周囲の画像は図6(a)のように更新される。図6(a)では、タッチ操作により指定された文字に対応する文字入力キー周囲に第2の図像を5個配置する場合(すなわち、上記予め定められた数が5である場合)について例示されているが、当該文字から始まれるコマンド文字列の数が6個以上であってもよい。この場合には、表示手段120aに表示されている第2の図像のうち最も優先順位の低いコマンド文字列(図6(a)に示す例では“set”)に対応する第2の図像の下端をフリックする操作(図6(a):矢印C3参照)が行われたことを契機として6番目以降のコマンド文字列に対応する各図像をスクロール表示するようにすればよい。また、図6(a)において文字列“戻る”を付与された図像は、入力のキャンセルをユーザに指示させるための仮想操作子であり、文字列“help”を付与された図像は、help画面の表示をユーザに指示させるための仮想操作子であり、文字列“確定”を付与された図像は、コマンド入力画面A01のコマンドプロンプトへ入力済のコマンドの実行をユーザに指示させるための仮想操作子である。このように、コマンド文字列に対応する第2の図像と、仮想操作子に対応する第2の図像とは、互いに分離された領域に表示されてもよい。言い換えると、互いに分離された領域に表示される第2の図像は、領域毎に異なる性質の処理に対応する単語の入力の指示をユーザに促すために表示される。
 図6(a)に示す画像を視認したユーザは第2の図像に対するフリック操作により、入力を所望するコマンド文字列を選択することができる。例えば、コマンド文字列として“set”の入力を所望する場合には、文字“s”に対応する仮想操作子をタッチしている指先等を、文字列“set”を付与されている図像に向けて滑らせ、その後、文字“s”に対応する仮想操作子に戻す操作(図6(a)における矢印C1により軌跡が表されるフリック操作)を行うことで文字列“set”を選択することができる。なお、図6(a)における矢印C2により軌跡が表されるフリック操作のように、複数の第2の図像を経由して第1の図像に戻る操作が行われた場合には、第1の図像に戻る直前に経由した第2の図像に対応するコマンド文字列“save”が選択されたと判定すればよい。また、フリック操作により何れのコマンド文字列が選択されるのかをユーザに明示するために、ユーザの指先等が位置している第2の図像を反転表示するようにしてもよい。
 ステップSA120に後続するステップSA130では、制御部100は、操作入力手段120bから引き渡された操作内容データを参照してユーザによる候補選択が為されたか否かを判定する。ステップSA130の判定結果が“Yes”である場合には、制御部100は、ユーザにより選択されたコマンド文字列をコマンド入力画面A01のコマンドプロンプト(コマンドラインともいう)へ入力し(ステップSA140)、ステップSA120の処理を再度実行する。ただし、ステップSA140に後続して実行されるステップSA120では、制御部100は、直前に選択されたコマンド文字列を表すコマンド文字列データに対応付けて管理テーブルに格納されている後続文字列データを読み出し、当該後続文字列データの表すコマンド文字列を、当該ユーザが入力しようとしているコマンド文字列の候補として提示する。
 例えば、フリック操作により選択されたコマンド文字列が“show”であったとする。図3に示すように本実施形態の管理テーブルには、コマンド文字列“show”を示すコマンド文字列データには、“account”、“arp”、“log”、“status”および“config”の各文字列を表す後続文字列データが格納されている。このため、制御部100は、文字“s”に対応する仮想操作子の位置にコマンド文字列“show”を付与した図像を表示し、さらに文字列“account”、“arp”、“log”、“status”および“config”の各文字列を付与した図像をその周囲に表示して(図6(b)参照)、コマンド文字列“show”に後続するコマンド文字列の選択をユーザに促す。
 ステップSA130の判定結果が“No”である場合、すなわち、ユーザの操作内容が“戻る”、“help”または“確定”の何れかの仮想操作子に対するタッチ操作であった場合には、制御部100はユーザの操作内容に応じた処理を実行する(ステップSA150)。例えば、ユーザの操作内容が“help”キーへのタッチ操作であった場合には制御部100は、help画面を表示手段120aに表示させる。そして、ステップSA150に後続するステップSA160では、ユーザの操作内容が “確定”キーに対するタッチ操作であったかを判定し、その判定結果が“Yes”である場合には、コマンド入力は一段落したものと見做してステップSA100以降の処理を再度実行する。逆に、ステップSA160の判定結果が“No”であった場合には、制御部100は、コマンド入力は継続中であると見做してステップSA120以降の処理を実行する。以上が本実施形態における入力支援処理の流れである。
 ここで注目すべき点は、本実施形態によればコマンド文字列の構成文字を一文字ずつ入力する必要はなく、コマンド入力の手間が大幅に削減される、という点である。また、入力を所望するコマンド文字列の先頭文字の指定からフリック操作による当該コマンド文字列の選択および当該コマンド文字列に後続する後続文字列の選択まで指先等を操作入力手段120bから離す必要はない。したがって、入力候補となるコマンド文字列が別枠に表示される態様に比較して操作入力手段120bに対するタッチ回数が減り、効率良く入力を行うことが可能になる。
 このように本実施形態によれば、入力手段として仮想キーボードを用いる電子機器10に対するコマンド文字列の入力を効率良く行うことが可能になる。
 以上本発明の一実施形態について説明したが、この実施形態に以下の変形を加えてもよい。
(1)上記実施形態では、コマンド文字列の入力支援への本発明の適用例を説明した。これは、入力支援プログラムの呼び出し元である設定支援プログラムに対する入力はコマンド文字列の入力にほぼ限られ、ユーザによる先頭文字の指定に応じて当該ユーザに提示すべき候補をコマンド文字列の範囲で絞り込んだとしても特段の問題は生じないからである。要は、ユーザによる先頭文字の指定に応じて当該ユーザに提示すべき候補を単語の入力先となるアプリケーションプログラムの種類に応じて絞り込めるのであれば、当該アプリケーションプログラムは設定支援プログラムには限定されない。
 また、ユーザによる先頭文字の指定に応じて当該ユーザに提示すべき候補を単語の入力先となるアプリケーションプログラムの種類に応じて絞り込むのではなく、当該単語の入力先となる入力項目の種類に応じて絞り込んでもよい。例えば、住所を構成する単語の入力支援に本発明を適用することが考えられる。この場合、都道府県の名称を表す文字列データを先頭文字毎に分類して管理テーブルに格納しておくとともに、各文字列データに対応付けてその文字列データの表す都道府県に属する市区町村の名称を表す後続文字列データを上記管理テーブルに格納しておき、住所入力欄にカーソルが位置づけられたことを契機として上記入力支援プログラムの実行を開始するようにすればよい。また、第2の図像の表示によりユーザに提示する候補の提示順を、単語の入力先となるアプリケーションプログラムの種類に応じて異ならせるようにしてもよい。
 さらに、単語の候補が提示されたり、提示順を異ならせたりすることを、アプリケーションプログラムの種類の違いによって行う場合に限らず、制御対象となる装置の種類の違いによって行ってもよい。例えば、ネットワーク機器とオーディと機器とでは装置の種類が異なっている。このように、操作対象であれば、アリケーションプログラムであっても、装置であってもよい。したがって、この例によれば、操作対象に応じて、単語の候補が提示されたり、提示順を異ならせたりすることもできる。
(2)上記実施形態では、入力を所望するコマンド文字列の先頭文字の指定をユーザに促すために仮想キーボードA02を表示手段120aに表示し、先頭文字が指定されると当該指定された文字に対応する第1の図像の周囲に当該文字から始まるコマンド文字列に各々対応する複数の第2の図像を表示させてコマンド文字列の指定を促した。しかし、コマンド入力画面A01へ入力済の何れかのコマンド文字列が指定されたことを契機として、図5に示すフローチャートのステップSA140以降の処理を制御部100に実行させることで後続のコマンド文字列の入力(または入力済にコマンド文字列の修正)をユーザに促してもよい。例えば、コマンド入力画面A01のコマンドプロンプトに対して#show log・・・と入力済の状況下でコマンド文字列“show”を指定する操作(コマンド入力画面A01の該当箇所に対するタッチ操作)が行われたことを契機として、コマンド入力画面A01に重ね合わせて図6(b)に示す画像を表示させるようにすればよい。
(3)上記実施形態では、入力を所望するコマンド文字列の先頭文字の指定をユーザに促すために仮想キーボードA02を表示手段120aに表示した。そして、先頭文字が指定されると当該指定された文字に対応する第1の図像の周囲に当該文字から始まるコマンド文字列に各々対応する複数の第2の図像を表示させてコマンド文字列の指定を促した。しかし、このコマンド文字列の指定を促すときには、ユーザにより指定された第1の図像を中心としてその周囲に表示される複数の第2の図像は、構成文字の何れかが当該第1の図像に対応する文字と一致するコマンド文字列に各々対応してもよい。要は、入力を所望する単語に関連する文字の指定をユーザに促すために仮想キーボードA02を表示手段120aに表示し、何れかの文字が指定されると当該指定された文字に対応する第1の図像の周囲に当該文字に関連する単語に各々対応する複数の第2の図像を表示させ、単語の指定を促す態様であればよい。
(4)上記実施形態ではタブレット端末に対する単語入力支援への本発明の適用例を説明したが、本発明の適用対象はタブレット端末に限定される訳ではない。要は、スマートフォンやPDA(Personal Digital Assistant)、携帯型ゲーム機のように入力手段として仮想キーボードを用いる電子機器であれば、本発明を適用することで、コマンドや住所等を構成する各単語をユーザに効率良く入力させることが可能になる。
(5)上記実施形態では、本発明の特徴を顕著に示す入力支援処理(入力支援方法)を実行する表示制御手段がソフトウェアモジュールで構成されていたが、電子回路などのハードウェアで当該表示制御手段を構成してもよい。この電子回路は、FPGA(Field Programmable Gate Array)によって構成された回路であってもよい。また、当該表示制御手段を有する入力支援装置単体で提供してもよい。
 上述したように本発明は、以下の表示制御手段を有する入力支援装置を提供する。表示制御手段は、まず、各々異なる文字に対応する複数の第1の図像を表示装置(例えば、電子機器において表示手段の役割を果たす表示装置)に表示する処理(第1のステップの処理)を実行する。次いで、表示制御手段は、表示装置に表示させた複数の第1の図像の何れかが指定されたことを契機として、指定された第1の図像の文字に関連する単語に各々対応する複数の第2の図像を第1の図像を中心としてその周囲に表示する処理(第2のステップの処理)を実行し、単語の入力を促す。第2の図像に対応する単語、すなわち、指定された第1の図像の文字に関連する単語の具体例としては、当該第1の図像に対応する文字から始まる単語等、構成文字の何れかが当該第1の図像に対応する文字と一致する単語が挙げられる。構成文字の何れかがユーザにより指定された第1の図像に対応する文字と一致する単語のことを「当該文字を含む単語」という。また、指定された第1の図像の文字に関連する単語は、当該第1の図像に対応する文字を含む単語には限定されない。例えば、複数の第1の図像の各々に対応する文字が日本語五十音の各行の先頭文字(すなわち、「あ」、「か」、「さ」、「た」、「な」、「は」、「ま」、「や」、「ら」、「わ」)である場合には、指定された第1の図像の文字に対応する行の各文字を含む単語を上記関連する単語としてもよい。例えば、ユーザにより指定された第1の図像に対応する文字が「あ」である場合には、構成文字の何れかが「あ」行の各文字(すなわち、「あ」、「い」、「う」、「え」、「お」)の何れかと一致する単語に対応する第2の図像を、上記第1の図像の周囲に表示させればよい。
 本発明によれば、入力を所望する単語に関連する文字に対応する第1の図像を指先等で選択する操作をユーザが行うと、当該第1の図像に対応する文字に関連する複数の単語の各々に対応する第2の図像が当該第1の図像の周囲に表示される。ユーザは、このようにして表示された複数の第2の図像のうち、入力を所望する単語に対応する第2の図像へ指先等を移動させることで当該単語を入力することができる。前述したように従来技術には、「1つの文字を入力する際に複数回の操作を行わねばならない」という問題があり、「1つの単語を入力するのに多くの操作(タッチ操作)を必要とする」という問題もあった。これに対して、本発明によれば、ユーザは、入力を所望する単語(或いは当該単語の読み仮名)を構成する各文字を逐一入力する必要はなく、従来よりも少ない操作回数で単語の入力が可能であり、上記2つの問題を同時に解決することができる。もっとも、特許文献1に開示の技術等の従来技術等においても、ユーザにより指定された文字から始まる単語の候補を当該文字に対応する仮想操作子から離れた別枠等に表示することは行われている。しかし、このような態様では、提示された候補のうちの1つを指定する際にタッチ操作を行わねばならず、本発明ほど入力効率を向上させることはできない。
 本発明において第1の図像に対するタッチ操作が為されたことを契機としてユーザに選択を促す単語の候補の選択態様については、種々の態様が考えられる。例えば、表示制御手段は、第2の図像の表示によりユーザに提示する候補を、単語の入力先となるアプリケーションプログラムの種類または当該単語が入力される入力項目の種類(両者をまとめて「単語の入力先となるアプリケーションの種類」)に応じて選択する態様が考えられる。ユーザにより入力される単語は、アプリケーションの種類に応じてある程度絞り込まれると考えられるからである。例えば、単語の入力先となるアプリケーションプログラムが、入力されたコマンドに応じた処理をコンピュータに実行させるプログラムであれば、ユーザにより入力される単語は上記コマンド(またはコマンドの引数)の何れかであると考えられる。上記入力項目が住所入力欄である場合には、ユーザにより入力される単語は都道府県の名称および市区町村の名称等であると考えられる。
 より好ましい態様においては、第1の図像の周囲に表示させる第2の図像の数の上限値が予め定められており、ユーザにより指定された第1の図像に対応する文字から始まる単語の候補の数が上記上限値を超える場合には、表示制御手段は、第1の図像の周囲に表示する第2の図像をユーザの操作に応じて切り換える。このような態様によれば、表示面の大きさに制約のあるタブレット端末やスマートフォンを本発明の入力支援装置として機能させたとしても、当該制約によらずに効率良くユーザに単語を入力させることが可能になる。この場合、第2のステップにおいて第2の図像の表示によりユーザに提示する候補の提示順を、単語の入力先となるアプリケーションの種類に応じて異ならせるようにしてもよい。
 さらに好ましい態様においては、本発明の入力支援装置における表示制御手段は、上記第1および第2のステップの処理の他に以下の第3のステップの処理を実行することを特徴とする。表示制御手段は、第2のステップにて表示装置に表示させた複数の第2の図像を選択する操作が為されたことを契機として当該第3のステップの処理を実行する。この第3のステップでは、表示制御手段は、第1の図像の位置に上記選択された単語に対応する第3の図像を表示し、当該第3の図像を基準(この例では中心であるが、これに限られない)としてその周囲に当該単語に後続する単語(後続単語)の候補を表す第4の図像を表示する。このような態様によれば、後続単語(または後続単語の読み仮名)を構成する文字を一文字ずつ入力しなくても当該後続単語を入力することが可能になり、単語の入力効率が一層向上する。
 また、上記課題を解決するために本発明は、各々異なる文字に対応する複数の第1の図像を表示装置に表示させる第1のステップと、当該第1のステップにおいて表示装置に表示させた複数の第1の図像の何れかが指定されたことを契機として実行される第2のステップであって、指定された第1の図像の文字に関連する単語に各々対応する複数の第2の図像を第1の図像を中心としてその周囲に表示させ、単語の入力を促す第2のステップと、を含むことを特徴とする入力支援方法を提供する。このような入力支援方法を、入力手段として仮想キーボードを用いる電子機器に実行させることによっても、当該電子機器に対して各種データを表す単語を効率良く入力することが可能になる。
 また、上記課題を解決するために本発明は、CPUなどの一般的なコンピュータに上記入力支援方法を実行させるプログラム、すなわち、当該CPUに上記第1および第2のステップを実行させるプログラムを提供してもよい。既存のタブレット端末やスマートフォンなどの制御部(CPU)を当該プログラムにしたがって作動させることにより、既存のタブレット端末やスマートフォンに各種データを表す単語を入力する際の効率を向上させることができるからである。なお、上記プログラムの具体的な提供態様としては、CD-ROM(Compact Disk-Read Only Memory)やフラッシュROM(Read Only Memory)などのコンピュータ読み取り可能な記録媒体に書き込んで配布する態様や、インターネットなどの電気通信回線経由のダウンロードにより配布する態様が考えられる。
 10…電子機器、100…制御部、110…通信I/F部、120…ユーザIF部、130…記憶部、132…揮発性記憶部、134…不揮発性記憶部、140…バス。

Claims (19)

  1.  各々異なる文字に対応する複数の第1の図像を表示装置に表示させ、複数の前記第1の図像の何れかが指定されたことを契機として、指定された前記第1の図像の文字に関連する単語に各々対応する複数の第2の図像を前記第1の図像を基準としてその周囲に表示させ、単語の入力を促す表示制御手段
     を有する入力支援装置。
  2.  前記第2の図像に対応する単語は、指定された前記第1の図像に対応する文字を含む単語である請求項1に記載の入力支援装置。
  3.  前記第2の図像に対応する単語は、指定された前記第1の図像に対応する文字から始まる単語である請求項2に記載の入力支援装置。
  4.  前記表示制御手段は、前記第2の図像の表示によりユーザに提示する単語の候補を、単語の入力先となる操作対象の種類に応じて選択する請求項1~3の何れか1項に記載の入力支援装置。
  5.  前記表示制御手段は、前記第2の図像の表示によりユーザに提示する候補の提示順を、単語の入力先となる操作対象の種類に応じて異ならせる請求項1~4の何れか1項に記載の入力支援装置。
  6.  前記操作対象の種類は、アプリケーションの種類を含む請求項4または請求項5に記載の入力支援装置。
  7.  前記第1の図像の周囲に表示させる前記第2の図像の数の上限値が予め定められており、
     前記表示制御手段は、ユーザにより指定された前記第1の図像に対応する文字から始まる単語の候補の数が前記上限値を超える場合には、前記第1の図像の周囲に表示する前記第2の図像をユーザの操作に応じて切り換える
    請求項1~6の何れか1項に記載の入力支援装置。
  8.  前記表示制御手段は、前記表示装置に表示させた複数の前記第2の図像を選択する操作が為されたことを契機として前記第1の図像の位置に当該選択された単語に対応する第3の図像を表示し、当該第3の図像を基準としてその周囲に当該選択された単語に後続する単語の候補を表す第4の図像を表示し、前記選択された単語に後続する単語の入力を促す請求項1~7の何れか1項に記載の入力支援装置。
  9.  ネットワーク装置と通信するための通信IF部をさらに有し、
     前記表示制御手段は、前記選択された単語に後続する単語を示す管理テーブルであって前記ネットワーク装置の設定作業において使用可能なコマンド文字列および当該コマンド文字列に後続する文字列を少なくとも対応付けた管理テーブルを参照して、前記単語の入力を促す請求項1~8の何れか1項に記載の入力支援装置。
  10.  前記表示制御手段は、前記第1の図像の周囲であって互いに分離された複数の領域のそれぞれに分けて前記第2の図像を表示させ、
     前記複数の領域のそれぞれに分けて表示された前記第2の図像は、領域毎に異なる性質の処理に対応する単語の入力の指示をユーザに促すために表示される請求項1~9の何れか1項に記載の入力支援装置。
  11.  請求項1~10の何れか1項に記載の入力支援装置としての機能を有するスマートフォン。
  12.  各々異なる文字に対応する複数の第1の図像を表示装置に表示させ、
     複数の前記第1の図像の何れかが指定されたことを契機として、指定された前記第1の図像の文字に関連する単語に各々対応する複数の第2の図像を前記第1の図像を基準としてその周囲に表示させることによって単語の入力を促す
     ことを含む入力支援方法。
  13.  前記第2の図像に対応する単語は、指定された前記第1の図像に対応する文字を含む単語である請求項12に記載の入力支援方法。
  14.  前記第2の図像に対応する単語は、指定された前記第1の図像に対応する文字から始まる単語である請求項13に記載の入力支援方法。
  15.  前記第2の図像の表示によりユーザに提示する単語の候補は、単語の入力先となる操作対象の種類に応じて選択される請求項12~14の何れか1項に記載の入力支援方法。
  16.  前記第2の図像の表示によりユーザに提示する候補の提示順は、単語の入力先となる操作対象の種類に応じて異なる請求項12~15の何れか1項に記載の入力支援方法。
  17.  前記操作対象の種類は、アプリケーションの種類を含む請求項15または請求項16に記載の入力支援方法。
  18.  前記第1の図像の周囲に表示させる前記第2の図像の数の上限値が予め定められており、
     ユーザにより指定された前記第1の図像に対応する文字から始まる単語の候補の数が前記上限値を超える場合には、前記第1の図像の周囲に表示する前記第2の図像をユーザの操作に応じて切り換える請求項12~16の何れか1項に記載の入力支援方法。
  19.  前記表示装置に表示させた複数の前記第2の図像を選択する操作が為されたことを契機として前記第1の図像の位置に当該選択された単語に対応する第3の図像を表示し、当該第3の図像を基準としてその周囲に当該選択された単語に後続する単語の候補を表す第4の図像を表示し、前記選択された単語に後続する単語の入力を促す請求項12~18の何れか1項に記載の入力支援方法。
PCT/JP2017/009945 2016-03-15 2017-03-13 入力支援装置、スマートフォンおよび入力支援方法 WO2017159607A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780015141.2A CN108700953B (zh) 2016-03-15 2017-03-13 输入辅助装置、智能电话以及输入辅助方法
US16/131,687 US20190012079A1 (en) 2016-03-15 2018-09-14 Input Assistance Device, Smart Phone, and Input Assistance Method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016050417A JP6798117B2 (ja) 2016-03-15 2016-03-15 入力支援装置
JP2016-050417 2016-03-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/131,687 Continuation US20190012079A1 (en) 2016-03-15 2018-09-14 Input Assistance Device, Smart Phone, and Input Assistance Method

Publications (1)

Publication Number Publication Date
WO2017159607A1 true WO2017159607A1 (ja) 2017-09-21

Family

ID=59851581

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009945 WO2017159607A1 (ja) 2016-03-15 2017-03-13 入力支援装置、スマートフォンおよび入力支援方法

Country Status (4)

Country Link
US (1) US20190012079A1 (ja)
JP (1) JP6798117B2 (ja)
CN (1) CN108700953B (ja)
WO (1) WO2017159607A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7119857B2 (ja) * 2018-09-28 2022-08-17 富士通株式会社 編集プログラム、編集方法および編集装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306847A (ja) * 1994-05-12 1995-11-21 Sharp Corp コンピュータオペレーション支援装置
JPH1027089A (ja) * 1996-07-11 1998-01-27 Fuji Xerox Co Ltd コンピュータ操作支援装置
JPH10154144A (ja) * 1996-11-25 1998-06-09 Sony Corp 文章入力装置及び方法
JP2002351600A (ja) * 2001-05-28 2002-12-06 Allied Brains Inc 入力操作支援プログラム
JP2005196250A (ja) * 2003-12-26 2005-07-21 Kyocera Corp 情報入力支援装置及び情報入力支援方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002014954A (ja) * 2000-06-28 2002-01-18 Toshiba Corp 中国語入力変換処理装置、中国語入力変換処理方法及び記録媒体
CN102393793A (zh) * 2004-06-04 2012-03-28 B·F·加萨比安 在移动和固定环境中增强数据输入的***
CN100527057C (zh) * 2004-08-05 2009-08-12 摩托罗拉公司 字符预测方法及使用该方法的电子设备
JP5110763B2 (ja) * 2004-09-30 2012-12-26 カシオ計算機株式会社 情報表示制御装置及びプログラム
US8036878B2 (en) * 2005-05-18 2011-10-11 Never Wall Treuhand GmbH Device incorporating improved text input mechanism
JP4639124B2 (ja) * 2005-08-23 2011-02-23 キヤノン株式会社 文字入力補助方法及び情報処理装置
CN101008864A (zh) * 2006-01-28 2007-08-01 北京优耐数码科技有限公司 一种数字键盘多功能、多语种输入***和方法
JP2009169456A (ja) * 2008-01-10 2009-07-30 Nec Corp 電子機器、該電子機器に用いられる情報入力方法及び情報入力制御プログラム、並びに携帯端末装置
CN101526870B (zh) * 2008-03-07 2012-02-01 禾瑞亚科技股份有限公司 滑动式输入装置及其方法
EP2175355A1 (en) * 2008-10-07 2010-04-14 Research In Motion Limited Portable electronic device and method of secondary character rendering and entry
CN101876878A (zh) * 2009-04-29 2010-11-03 深圳富泰宏精密工业有限公司 单词预测输入***及方法
CN102081490B (zh) * 2009-11-27 2013-01-30 沈阳格微软件有限责任公司 面向触屏设备的点划式汉字声韵输入***
JP2011118507A (ja) * 2009-12-01 2011-06-16 Mitsubishi Electric Corp 文字入力装置
JP5572059B2 (ja) * 2010-10-21 2014-08-13 京セラ株式会社 表示装置
JP5660611B2 (ja) * 2010-12-17 2015-01-28 Necカシオモバイルコミュニケーションズ株式会社 電子機器、文字入力方法、及びプログラム
JP5647919B2 (ja) * 2011-03-07 2015-01-07 株式会社Nttドコモ 文字認識装置、文字認識方法、文字認識システム、および文字認識プログラム
US9026944B2 (en) * 2011-07-14 2015-05-05 Microsoft Technology Licensing, Llc Managing content through actions on context based menus
US20130198690A1 (en) * 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
KR101323281B1 (ko) * 2012-04-06 2013-10-29 고려대학교 산학협력단 입력 장치 및 문자 입력 방법
EP2669782B1 (en) * 2012-05-31 2016-11-23 BlackBerry Limited Touchscreen keyboard with corrective word prediction
KR20140138424A (ko) * 2013-05-23 2014-12-04 삼성전자주식회사 제스쳐를 이용한 사용자 인터페이스 방법 및 장치
JP5850014B2 (ja) * 2013-09-13 2016-02-03 カシオ計算機株式会社 文字入力装置、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306847A (ja) * 1994-05-12 1995-11-21 Sharp Corp コンピュータオペレーション支援装置
JPH1027089A (ja) * 1996-07-11 1998-01-27 Fuji Xerox Co Ltd コンピュータ操作支援装置
JPH10154144A (ja) * 1996-11-25 1998-06-09 Sony Corp 文章入力装置及び方法
JP2002351600A (ja) * 2001-05-28 2002-12-06 Allied Brains Inc 入力操作支援プログラム
JP2005196250A (ja) * 2003-12-26 2005-07-21 Kyocera Corp 情報入力支援装置及び情報入力支援方法

Also Published As

Publication number Publication date
CN108700953A (zh) 2018-10-23
JP2017168947A (ja) 2017-09-21
CN108700953B (zh) 2024-02-06
JP6798117B2 (ja) 2020-12-09
US20190012079A1 (en) 2019-01-10

Similar Documents

Publication Publication Date Title
JP4863211B2 (ja) 文字データ入力装置
US10379626B2 (en) Portable computing device
US8381119B2 (en) Input device for pictographic languages
KR101441200B1 (ko) 유동형 자판을 제공하는 단말기 및 그의 유동형 자판 표시 방법
JP4501018B2 (ja) 携帯端末装置および入力装置
JP2010061656A (ja) スクリーン仮想キーボードシステム
JP5801348B2 (ja) 入力システム、入力方法およびスマートフォン
JP2011192215A (ja) 文字入力装置、文字入力方法及び文字入力プログラム
WO2014075408A1 (zh) 设置虚拟键盘的方法及装置
WO2009081994A1 (ja) 情報処理装置および情報処理方法
KR101030177B1 (ko) 데이터 입력장치 및 데이터 입력방법
WO2013149421A1 (zh) 一种处理键盘输入的方法及设备
WO2017159607A1 (ja) 入力支援装置、スマートフォンおよび入力支援方法
JP5758277B2 (ja) 携帯型電子機器
JP7431301B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR101204151B1 (ko) 휴대 단말기의 문자 입력장치
JP2003186613A (ja) 文字入力装置
JP6188405B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP2010108243A (ja) キーボード入力装置
WO2013099362A1 (ja) 携帯端末
KR101454896B1 (ko) 터치 패널을 이용한 한글 입력 장치 및 그의 한글 입력 방법
JP6142553B2 (ja) 図形表示制御装置、図形表示制御方法及びプログラム
JP2013033553A (ja) 文字データ入力装置
WO2013078621A1 (zh) 用于电子设备的触屏输入方法和电子设备
JP7127462B2 (ja) 辞書機能を備える電子機器、辞書検索の履歴表示方法及びそのプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201780015141.2

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17766607

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17766607

Country of ref document: EP

Kind code of ref document: A1