WO2023166792A1 - グラフィカルユーザインタフェースの制御装置、グラフィカルユーザインタフェースの制御方法、プログラム、及び記憶媒体 - Google Patents

グラフィカルユーザインタフェースの制御装置、グラフィカルユーザインタフェースの制御方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
WO2023166792A1
WO2023166792A1 PCT/JP2022/042550 JP2022042550W WO2023166792A1 WO 2023166792 A1 WO2023166792 A1 WO 2023166792A1 JP 2022042550 W JP2022042550 W JP 2022042550W WO 2023166792 A1 WO2023166792 A1 WO 2023166792A1
Authority
WO
WIPO (PCT)
Prior art keywords
slider
touch
touch panel
user interface
graphical user
Prior art date
Application number
PCT/JP2022/042550
Other languages
English (en)
French (fr)
Inventor
利佳子 渡辺
真 権藤
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2023166792A1 publication Critical patent/WO2023166792A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • GUI graphical user interface
  • the GUI which has a touch panel placed on the screen of the display unit, detects the user's touch operation on the screen with the touch panel.
  • the GUI-equipped electronic device executes processing according to the content of the touch operation.
  • Patent Document 1 proposes a technique for simultaneously inputting the set values of two factors related to food heating in a single operation on the GUI of a microwave oven.
  • an orthogonal coordinate system having coordinate axes corresponding to two elements is displayed on the display unit of the GUI, and a point touched by the user's finger on the display unit is moved vertically, horizontally, or diagonally on the orthogonal coordinate system. , to a point with coordinate values corresponding to the set values of both elements.
  • Patent Document 1 With the technique of Patent Document 1, the position touched by the finger or the like is hidden behind the finger or the like during the drag operation on the display unit, making it difficult for the user to grasp the operation amount of the drag operation. Patent Document 1 does not mention a method for facilitating grasping the operation amount of the drag operation.
  • An object of the present disclosure is to provide a GUI control device, a GUI control method, a program, and a storage medium that make it easier for the user to grasp the operation amount of a drag operation on the GUI.
  • a control device for a graphical user interface comprises a processor and a memory containing instructions that, when executed by the processor, cause the processor to perform the following processes.
  • the processing includes moving a slider that is displayed on the touch panel of the graphical user interface and is movable in a one-dimensional direction in accordance with a touch operation of the slider that is performed by contacting the touch panel; displaying a marker at a location on the touch panel spaced from the slider in a direction orthogonal to the direction of movement of the slider while being manipulated.
  • a graphical user interface control method moves a slider that is displayed on a touch panel of the graphical user interface and is movable in a one-dimensional direction according to a touch operation of the slider that is performed in contact with the touch panel. and displaying a marker at a position on the touch panel spaced apart from the slider in a direction orthogonal to a moving direction of the slider while the slider is being touch-operated.
  • a program moves a slider that is displayed on a touch panel of a graphical user interface and is movable in a one-dimensional direction in accordance with a touch operation of the slider performed in contact with the touch panel; and displaying a marker at a position on the touch panel spaced apart from the slider in a direction orthogonal to the moving direction of the slider while is being touch-operated.
  • a recording medium moves a slider that is displayed on a touch panel of a graphical user interface and is movable in a one-dimensional direction in accordance with a touch operation of the slider performed in contact with the touch panel; While the slider is being touch-operated, a program is recorded for causing a computer to display a marker at a position on the touch panel spaced apart from the slider in a direction orthogonal to the moving direction of the slider. It is a computer-readable non-transitory tangible recording medium.
  • FIG. 1 is a diagram showing the configuration of a user terminal device equipped with a GUI control device according to the first embodiment.
  • FIG. 2 is a diagram showing a smartphone in which the display unit of FIG. 1 is arranged on the front of the housing.
  • FIG. 3A is a diagram showing a state in which the user has touch-operated the high-pitched sound slider on the equalizer setting screen of FIG. 2 with a finger.
  • FIG. 3B is a diagram showing a state in which a bar corresponding to the high-pitched sound slider is displayed on the equalizer setting screen by the touch operation of the slider in FIG. 3A.
  • FIG. 3C is a diagram showing a state in which the high-pitched sound slider and bar are moved on the equalizer setting screen by the dragging operation of the slider in FIG.
  • FIG. 3D is a diagram showing a state in which the movement of the high-pitched sound slider on the equalizer setting screen by the dragging operation of the slider in FIG. 3C has been confirmed.
  • FIG. 3E is a diagram showing a state of acceptance of movement by fine adjustment of the treble slider during the holding period before the movement of the slider of FIG. 3C is confirmed.
  • FIG. 4A is a diagram showing a state in which a bar corresponding to the bass slider is displayed on the equalizer setting screen by the touch operation of the slider in FIG. 3A.
  • FIG. 4B is a diagram showing a state in which a bar corresponding to the middle tone slider is displayed on the equalizer setting screen by the touch operation of the slider in FIG. 3A.
  • FIG. 3D is a diagram showing a state in which the movement of the high-pitched sound slider on the equalizer setting screen by the dragging operation of the slider in FIG. 3C has been confirmed.
  • FIG. 3E is a diagram showing a state of acceptance of movement by fine
  • FIG. 4C is a diagram showing a state in which a moving area corresponding to the high-pitched sound slider on the equalizer setting screen is colored and displayed by the touch operation of the slider in FIG. 3A.
  • FIG. 5 is a diagram showing a state in which the link button on the equalizer setting screen of FIG. 2 is turned on, and the other two sliders move in conjunction with the movement of one dragged slider.
  • FIG. 6 is a diagram showing a case where the moving direction of the slider on the equalizer setting screen of FIG. 2 is changed by 90 degrees.
  • FIG. 7 is a diagram showing a state in which a position mark corresponding to the high-pitched sound slider is displayed on the equalizer setting screen by the touch operation of the slider in FIG. 3A.
  • FIG. 5 is a diagram showing a state in which the link button on the equalizer setting screen of FIG. 2 is turned on, and the other two sliders move in conjunction with the movement of one dragged slider.
  • FIG. 6 is a diagram showing a case where the
  • FIG. 8 is a diagram showing a state in which a volume setting screen is displayed on the display unit of FIG. 1 by the GUI control device according to the second embodiment.
  • 9A is a diagram showing a state in which a bar corresponding to the left channel slider is displayed on the volume setting screen by the touch operation of the slider in FIG. 8.
  • FIG. 9B is a diagram showing a state in which a bar corresponding to the slider for the right channel is displayed on the volume setting screen by the touch operation of the slider in FIG. 8.
  • FIG. FIG. 10 is a diagram showing a state in which the link button on the volume setting screen of FIG. 8 is turned on, and the left channel slider moves in conjunction with the movement of the dragged right channel slider.
  • FIG. 1 is a diagram showing the configuration of a user terminal device 1 having a graphical user interface control device (GUI control device) 11 according to the first embodiment.
  • the user terminal device 1 can be configured by, for example, a mobile terminal such as a smart phone or a tablet terminal device.
  • the user terminal device 1 may be a stationary terminal device instead of a mobile terminal.
  • the user terminal device 1 has a general-purpose microcontroller 10 and a touch panel 20 .
  • the microcontroller 10 includes a CPU (Central Processing Unit) and memory.
  • the memory includes ROM (Read Only Memory) and RAM (Random Access Memory).
  • the microcontroller 10 virtually constructs a plurality of information processing circuits by having a CPU (processor) execute a program stored in a memory.
  • the microcontroller 10 constitutes a GUI control device 11 of this embodiment with a plurality of information processing circuits.
  • the GUI control device 11 controls the operation of the GUI having the touch panel 20.
  • the touch panel 20 is used as a user interface (hereinafter abbreviated as “UI” as appropriate), receives input of information from the user, or outputs information to the user.
  • the touch panel 20 can be configured by combining a display unit 21 such as a liquid crystal panel and a position input device.
  • the touch panel 20 of this embodiment uses a touch pad 23 as a position input device.
  • the touch pad 23 may also be called a touch screen, touch screen, contact screen, or the like.
  • the user terminal device 1 is, for example, the smartphone 30 shown in FIG. FIG. 2 shows a state in which the equalizer setting screen 40 is displayed on the display section 21 .
  • the equalizer setting screen 40 is displayed on the display unit 21, for example, when a mobile application (not shown) for playing music installed in the smartphone 30 is executed.
  • a mobile application is application software designed and produced to operate on smartphones, tablet computers, and other mobile devices.
  • the equalizer setting screen 40 can be displayed on the display unit 21 even when the native application installed on the smartphone 30 is not executed, for example, as a console screen of a mobile website built on a cloud server on the Internet.
  • the equalizer setting screen 40 in FIG. 2 has three adjustment sections 41-43. Sliders 47 to 49 that can move in one-dimensional directions within linear movement areas 44 to 46 are displayed in the respective adjustment sections 41 to 43, respectively. In the example of FIG. 2, the vertical direction corresponds to the one-dimensional direction.
  • the moving areas 44-46 and sliders 47-49 are illustrations of slide volumes.
  • a slide volume is a type of potentiometer that adjusts resistance by sliding a slider linearly.
  • Each frequency band may be evenly assigned frequencies with the same bandwidth, or may be assigned frequencies with different bandwidths.
  • the frequency characteristic adjustment resolution may be the same or different in each frequency band. In this embodiment, it is assumed that the frequency characteristic adjustment resolution is the same for each frequency band.
  • the scales of the frequency bands corresponding to the vicinity of each of the moving regions 44 to 46 may be attached respectively.
  • only one scale may be displayed on the equalizer setting screen 40, and the content of the displayed scale may be changed as needed to the content corresponding to the frequency band whose frequency characteristics are being adjusted by dragging the sliders 47-49.
  • the drag operation of the sliders 47 to 49 can also be performed by bringing an object other than a finger, such as a touch pen, into contact with the display unit 21, for example.
  • the touch pad 23 detects a touch operation on the display section 21 in FIG.
  • the touch pad 23 detects a touch operation on the display unit 21 by, for example, a capacitive method.
  • the microcontroller 10 configures the first processing unit 12, the touch detection unit 13, the second processing unit 15, the determination unit 17, and the determination unit 19 shown in FIG. .
  • This embodiment shows an example in which the above information processing circuits (12, 13, 15, 17, 19) are realized by the microcontroller 10 and software. It is also possible to configure the information processing circuits (12, 13, 15, 17, 19) by preparing dedicated hardware. A plurality of information processing circuits (12, 13, 15, 17, 19) may be configured by individual hardware.
  • the display unit 21 displays an equalizer setting screen 40 including sliders 47-49 that move within movement areas 44-46.
  • the touch detection unit 13 detects a touch operation of the sliders 47 to 49 by a finger or the like brought into contact with the display unit 21 based on the output of the touch pad 23.
  • Touch operations include drag operations, tap operations, and flick operations.
  • a drag operation means an operation of tracing the screen while touching the screen.
  • a tap operation means an operation of touching the screen and immediately releasing it from the screen.
  • a flick operation means an operation of paying on the screen while touching the screen.
  • the first processing unit 12 moves the sliders 47 to 49 displayed on the display unit 21 to the moving area 44 in accordance with the detected touch operation. Move within ⁇ 46.
  • the second processing unit 15 is arranged at a position separated from the sliders 47 to 49 in a direction orthogonal to the movement direction of the sliders 47 to 49 while the touch detection unit 13 is detecting a touch operation on the sliders 47 to 49.
  • a marker is displayed on the touch panel 20 . The details of the markers displayed on the touch panel 20 will be described later.
  • the determination unit 17 determines the operation content of the sliders 47 to 49 by the touch operation detected by the touch detection unit 13.
  • the operation contents of the sliders 47 to 49 in FIG. 2 determined by the determination unit 17 include tap operations and drag operations on the sliders 47 to 49 .
  • the determination unit 19 determines whether or not movement within the movement areas 44 to 46 by the drag operation of the sliders 47 to 49 has been confirmed based on the operation details of the sliders 47 to 49 determined by the determination unit 17 . A method of determining whether or not the movement of the sliders 47 to 49 has been confirmed will be described later.
  • the slider 49 of the adjustment unit 43 when the user drags the slider 49 of the adjustment unit 43 with the finger 60, the slider 49 is hidden behind the finger 60 as shown in FIG. It becomes difficult for the user to grasp the position.
  • the touch detection unit 13 detects the touch operation of the slider 49 with the finger 60 .
  • the second processing unit 15 displays a bar 50 as a marker on the equalizer setting screen 40 as shown in FIG. 3B.
  • the display of the bar 50 in FIG. 3B by the second processing unit 15 may be a mode in which the bar 50 is displayed in a blinking state, or a mode in which the bar 50 is displayed in a constantly lit state.
  • a bar 50 corresponds to the slider 49 for which the touch detection unit 13 has detected a touch operation.
  • Bar 50 in FIG. 3B extends from slider 49 in a direction perpendicular to the direction of travel of slider 49 .
  • Bar 50 has a length greater than the width W of finger 60 . Both ends of the bar 50 in the extending direction are arranged at the left and right ends of the equalizer setting screen 40 on the touch panel 20 , separated from the slider 49 in the direction orthogonal to the moving direction of the slider 49 .
  • the first processing unit 12 changes the position of the slider 49 displayed on the equalizer setting screen 40 from the position shown in FIG. 3B to the position shown in FIG. move to position.
  • the bar 50 shown in FIG. 3B displayed by the second processing unit 15 also moves to the position shown in FIG. 3C.
  • the determination unit 19 determines that the movement of the slider 49 by the drag operation has been confirmed at the position shown in FIG. 3C.
  • the first processing unit 12 fixes the position of the slider 49 displayed on the equalizer setting screen 40 at the position shown in FIG. 3C.
  • the second processing unit 15 terminates the display of the bar 50 in FIG. 3C.
  • the second processing unit 15 displays the bar 50 in a manner different from that before the determination of the movement of the slider 49 when the movement of the slider 49 that terminates the display of the bar 50 in FIG. 3C is confirmed. After that, the display of the bar 50 may be terminated.
  • the display of the bar 50 when the movement of the slider 49 is confirmed can be, for example, a mode in which the bar 50 is displayed in a constantly lit state.
  • the bar 50 may be displayed in the constant lighting state with a higher brightness than during the lighting period in the display in the blinking state of the bar 50 .
  • the display of the bar 50 when the movement of the slider 49 is confirmed is, for example, stronger than before the movement of the slider 49 is confirmed. It can be performed in the mode of the constant lighting state by the brightness.
  • the determination unit 19 does not have to determine that the movement of the slider 49 has been confirmed when the touch detection unit 13 no longer detects the drag operation of the slider 49 .
  • the determination unit 19 determines that the movement of the slider 49 has been confirmed. may be determined.
  • a configuration may be adopted in which fine adjustment movement of the slider 49 is accepted during the suspension period described above. Movement by fine adjustment of the slider 49 can be accepted, for example, by tapping an area above or below the bar 50 on the equalizer setting screen 40 as shown in FIG. 3E.
  • the second processing unit 15 displays fine adjustment marks 51 above and below the bar 50 in FIG. 3E to inform the user that movement of the slider 49 by fine adjustment is accepted. good too.
  • the determination unit 19 determines that the movement of the slider 49 has been confirmed after the touch detection unit 13 stops detecting the drag operation of the slider 49, for example, when the double tap operation on the equalizer setting screen 40 of FIG. 3E is performed. It is good also as the time of detection.
  • a double-tap operation means an operation of tapping the screen twice in succession in a short period of time.
  • the touch detection unit 13 detects a touch operation with the finger 60 during a drag operation of the sliders 47 and 48 of the adjustment units 41 and 42 corresponding to low and middle sounds
  • the second processing unit 15 detects a bar as a marker. 50 is displayed on the equalizer setting screen 40 .
  • the bar 50 corresponding to each slider 47 to 49 may be displayed on the display section 21 in a different manner for each of the sliders 47 to 49 for which the touch detection section 13 has detected a touch operation.
  • By changing the mode of the bar 50 for each of the sliders 47 to 49 it is possible for the user to recognize which frequency band of the sliders 47 to 49 is being touch-operated by the mode of the bar 50 displayed on the display unit 21. .
  • the aspect of the bar 50 can be varied, for example, by changing the color of the bar 50.
  • the touch detection unit 13 changes the color of the bar 50 for each of the sliders 47 to 49 where the touch operation is detected, the bar 50 is displayed on the display unit 21 in different colors depending on the frequency bands of low, medium, and high sounds. become.
  • the aspect of the bar 50 may be changed by factors other than color, such as changing the brightness or flashing speed of the bar 50 for each of the sliders 47-49.
  • the second processing unit 15 changes the mode of the moving regions 44 to 46 corresponding to the respective sliders 47 to 49 depending on whether the touch detection unit 13 detects the touch operation of the corresponding sliders 47 to 49, It may be displayed on the display unit 21 .
  • the user can recognize which frequency band of the sliders 47 to 49 is touch-operated from the display mode of the movement areas 44 to 46. can be made
  • the display modes of the moving areas 44 to 46 can be changed by changing the color, brightness, etc. of the moving areas 44 to 46, for example.
  • FIGS. 4A-4C show examples of changing the aspect of the bar 50 and the moving areas 44-46 depending on the color. 4A to 4C, the difference in color of the bar 50 is represented by the line type, and the difference in color of the moving regions 44 to 46 is represented by the presence or absence of hatching and the type of hatching.
  • the equalizer setting screen 40 may have a link button 52 below the adjustment sections 41 to 43, as shown in FIG.
  • the first processing unit 12 moves the sliders 47 to 49 displayed on the equalizer setting screen 40 in conjunction with the link button 52 being turned on by a touch operation.
  • the first processing unit 12 interlocks with the movement of one of the sliders 47 to 49 displayed on the equalizer setting screen 40 in FIG. Move the other two sliders that are not being dragged.
  • the first processing unit 12 may move the two sliders that are moved in conjunction with each other by the same amount of movement as the single dragged slider.
  • the first processing unit 12 may move the two interlocking sliders to a well-balanced position corresponding to the position after the movement of the one slider, regardless of the amount of movement of the one dragged slider.
  • the second processing unit 15 displays the bars 50 corresponding to the other two sliders on the equalizer setting screen 40. good.
  • the bar 50 corresponding to the other two sliders can be displayed in a line type different from that of the bar 50 corresponding to one dragged slider, for example, as shown in FIG.
  • the second processing unit 15 may display the bar 50 corresponding to the other two sliders in a color different from that of the bar 50 corresponding to the one dragged slider. 50 may be displayed by blinking.
  • the second processing unit 15 may display the bar 50 corresponding to one dragged slider in a manner different from the bars 50 corresponding to the other two sliders to be moved together.
  • the bar 50 can be displayed in different modes by using different colors of the bar 50, different line types, and the like.
  • the first processing unit 12 may change the direction of movement of the sliders 47 to 49 on the equalizer setting screen 40 by 90 degrees, as shown in FIG.
  • the slider 49 can be moved in a direction perpendicular to the moving direction of the slider 49 with a length larger than the width W of the finger 60 . From the display of the extending bar 50, the position of the slider 49 in the moving direction can be grasped.
  • the second processing unit 15 may cause the equalizer setting screen 40 to display position marks as markers instead of the bars 50 corresponding to the sliders 47 to 49 .
  • FIG. 7 shows a case where the second processing unit 15 causes the equalizer setting screen 40 to display the position mark 70 corresponding to the slider 49 in FIG. there is
  • the position mark 70 is arranged outside the adjusting portions 41 to 43, separated from the slider 49 in the direction perpendicular to the moving direction of the slider 49. As shown in FIG. The distance between the slider 49 and the position mark 70 in the separating direction is longer than the width W of the finger 60 that touches the slider 49 .
  • the second processing unit 15 moves the position mark 70 displayed on the equalizer setting screen 40 in accordance with the movement of the slider 49 by the drag operation.
  • the second processing unit 15 displays the position mark 70 on the equalizer setting screen 40, the position mark 70 is arranged outside the width W of the finger 60 even if the slider 49 is hidden behind the finger 60 performing the drag operation. , the position of the slider 49 in the moving direction can be grasped.
  • FIG. A user terminal device 1 has a general-purpose microcontroller 10 and a touch panel 20 shown in FIG. 1, as in the first embodiment.
  • the microcontroller 10 configures the GUI control device 11 of the present embodiment with a plurality of information processing circuits that are virtually constructed by the CPU executing programs stored in the memory.
  • the microcontroller 10 configures a first processing unit 12 , a touch detection unit 13 , a second processing unit 15 , a determination unit 17 and a determination unit 19 by a plurality of information processing circuits that configure the GUI control device 11 .
  • the volume setting screen 80 of FIG. 8 is displayed on the display unit 21 of the touch panel 20 of the second embodiment.
  • the volume setting screen 80 has two adjustment sections 81 and 82 corresponding to the earphone volume of the left and right channels.
  • Linear movement areas 83 and 84 that illustrate slide volumes, sliders 85 and 86 that can be moved one-dimensionally within the movement areas 83 and 84, and a link button 87 are displayed in each adjustment section 81 and 82.
  • the vertical direction corresponds to the one-dimensional direction.
  • the volume of the music to be played can be adjusted for each channel.
  • the drag operation of the sliders 85 and 86 can also be performed by bringing an object other than a finger, such as a touch pen, into contact with the display unit 21, for example.
  • the touch detection unit 13 detects a touch operation of the sliders 85 and 86 by a finger or the like brought into contact with the display unit 21 based on the output of the touch pad 23.
  • the first processing unit 12 changes the sliders 85 and 86 displayed on the display unit 21 according to the detected touch operation. It is moved within the movement areas 83 and 84 .
  • the second processing unit 15 causes the markers to be displayed on the volume setting screen 80 while the touch detection unit 13 is detecting touch operations on the sliders 85 and 86 .
  • the markers are arranged at positions on the touch panel 20 separated from the sliders 85 and 86 in a direction perpendicular to the moving direction of the sliders 85 and 86 .
  • the touch operation of the sliders 85 and 86 with the finger is detected by the touch detection unit. 13 detects.
  • FIG. 9A shows a state in which a bar 90 corresponding to the slider 85 is displayed on the volume setting screen 80 by touch operation of the slider 85 of the left channel.
  • FIG. 9B shows a state in which a bar 90 corresponding to the slider 86 is displayed on the volume setting screen 80 by touch operation of the slider 86 for the right channel.
  • the display of the bar 90 in FIGS. 9A and 9B by the second processing unit 15 of the second embodiment can be performed in the same manner as the display of the bar 50 in the equalizer setting screen 40 of the first embodiment.
  • the determination unit 17 determines the details of the operation of the sliders 85 and 86 by the touch operation detected by the touch detection unit 13 .
  • the operation contents of the sliders 85 and 86 determined by the determination unit 17 include tap operations and drag operations of the sliders 85 and 86 .
  • the determination unit 19 determines whether or not movement within the movement regions 83 and 84 by the drag operation of the sliders 85 and 86 has been confirmed based on the operation details of the sliders 85 and 86 determined by the determination unit 17 . Whether or not the movements of the sliders 85 and 86 have been confirmed can be determined by the same method as the determination of whether or not the movements of the sliders 47 to 49 have been confirmed by the determination unit 19 of the first embodiment.
  • the first processing unit 12 may move the two sliders 85 and 86 displayed on the volume setting screen 80 in conjunction when the link button 87 is turned on by a touch operation.
  • the first processing unit 12 interlocks with the movement of one of the two sliders 85 and 86 that has been dragged, and moves the other slider that has not been dragged. Move one slider.
  • the first processing unit 12 may move one of the sliders 85 and 86 that has not been dragged by the same amount of movement as one dragged slider.
  • the first processing unit 12 may move one of the sliders 85 and 86 that has not been dragged to a well-balanced position corresponding to the position after the one dragged slider has been moved.
  • the second processing unit 15 may cause the volume setting screen 80 to display a bar 90 corresponding to the slider that has not been dragged.
  • the bar 90 corresponding to the sliders not dragged can be displayed in the same manner as the sliders 47 to 49 in the first embodiment are moved together.
  • FIG. 10 shows a case where a bar 90 corresponding to the slider 85 of the left channel is displayed on the volume setting screen 80 in addition to the bar 90 corresponding to the slider 86 by touching the slider 86 of the right channel. .
  • the second processing unit 15 changes the color of the moving regions 83 and 84 corresponding to the sliders 85 and 86 depending on whether the touch detection unit 13 detects the touch operation of the corresponding sliders 85 and 86, It may be displayed on the display unit 21 .
  • the slider 49 moves in a direction perpendicular to the moving direction of the slider 49 with a length larger than the width W of the finger 60 . From the display of the extending bar 90, the position of the slider 49 in the moving direction can be grasped.
  • the second processing unit 15 displays a mark similar to the position mark 70 of FIG. 7 in the first embodiment on the volume setting screen 80 of FIG. It may be displayed as a marker. Also in the GUI control device 11 of the second embodiment, the first processing section 12 may change the direction of movement of the sliders 85 and 86 on the volume setting screen 80 by 90 degrees.
  • the present invention is also applicable when there is a single slider.
  • the present invention is not limited to the GUI of each application software for the equalizer and left and right channel earphone volume described in each embodiment, but may be applied to, for example, the GUI of a mixer application software that adjusts and mixes sounds from a plurality of sound sources. is also applicable.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

グラフィカルユーザインタフェースの制御装置(11)は、前記グラフィカルユーザインタフェースのタッチパネル(20)に表示された一次元方向に移動可能なスライダ(47~49,85,86)を、前記タッチパネル(20)に接触して行われた前記スライダ(47~49,85,86)のタッチ操作に応じて移動させ、前記スライダ(47~49,85,86)がタッチ操作されている間、前記スライダ(47~49,85,86)から前記スライダ(47~49,85,86)の移動方向に対して直交する方向に離隔した前記タッチパネル(20)上の位置に、マーカ(50,90)を表示する。

Description

グラフィカルユーザインタフェースの制御装置、グラフィカルユーザインタフェースの制御方法、プログラム、及び記憶媒体
 本開示は、グラフィカルユーザインタフェース(以下、適宜「GUI」と略記する。)の制御装置、GUIの制御方法、プログラム、及び記憶媒体に関する。
 表示部の画面上にタッチパネルを配置したGUIは、ユーザによる画面のタッチ操作をタッチパネルにより検出する。画面のタッチ操作をGUIが検出すると、GUIを搭載した電子機器において、タッチ操作の内容に応じた処理が実行される。
 特許文献1は、電子レンジのGUIにおいて、食品の加熱に関する2つの要素の設定値を1回の動作で同時に入力する技術を提案している。この技術では、2つの要素に対応する座標軸を有する直交座標系をGUIの表示部に表示させ、ユーザが指でタッチした表示部上の点を直交座標系上で上下左右又は斜めに移動させて、両要素の設定値に対応する座標値の地点までドラッグ操作させる。
特表2015-59920号公報
 特許文献1の技術では、表示部のドラッグ操作中に、指等でタッチしている位置が指等の後ろに隠れて、ドラッグ操作の操作量をユーザが把握しにくくなる。特許文献1は、ドラッグ操作の操作量を把握しやすくする方法について言及していない。
 本開示は、GUIにおけるドラッグ操作の操作量をユーザが把握しやすくするGUIの制御装置、GUIの制御方法、プログラム、及び記憶媒体を提供することを目的とする。
 実施形態に係るグラフィカルユーザインタフェースの制御装置は、プロセッサと、前記プロセッサにより実行されると前記プロセッサに以下の処理を行わせる指令を含むメモリと、を備える。前記処理は、前記グラフィカルユーザインタフェースのタッチパネルに表示された一次元方向に移動可能なスライダを、前記タッチパネルに接触して行われた前記スライダのタッチ操作に応じて移動させることと、前記スライダがタッチ操作されている間、前記スライダから前記スライダの移動方向に対して直交する方向に離隔した前記タッチパネル上の位置に、マーカを表示することと、を含む。
 実施形態に係るグラフィカルユーザインタフェースの制御方法は、前記グラフィカルユーザインタフェースのタッチパネルに表示された一次元方向に移動可能なスライダを、前記タッチパネルに接触して行われた前記スライダのタッチ操作に応じて移動させることと、前記スライダがタッチ操作されている間、前記スライダから前記スライダの移動方向に対して直交する方向に離隔した前記タッチパネル上の位置に、マーカを表示することと、を備える。
 実施形態に係るプログラムは、グラフィカルユーザインタフェースのタッチパネルに表示された一次元方向に移動可能なスライダを、前記タッチパネルに接触して行われた前記スライダのタッチ操作に応じて移動させることと、前記スライダがタッチ操作されている間、前記スライダから前記スライダの移動方向に対して直交する方向に離隔した前記タッチパネル上の位置に、マーカを表示することと、をコンピュータに実行させるためのプログラムである。
 実施形態に係る記録媒体は、グラフィカルユーザインタフェースのタッチパネルに表示された一次元方向に移動可能なスライダを、前記タッチパネルに接触して行われた前記スライダのタッチ操作に応じて移動させることと、前記スライダがタッチ操作されている間、前記スライダから前記スライダの移動方向に対して直交する方向に離隔した前記タッチパネル上の位置に、マーカを表示することと、をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な非一時的な有形の記録媒体である。
 上記構成によれば、GUIにおけるドラッグ操作の操作量をユーザが把握しやすくすることができる。
図1は、第1実施形態に係るGUI制御装置を備えるユーザ端末装置の構成を示す図である。 図2は、図1の表示部を筐体の正面に配置したスマートフォンを示す図である。 図3Aは、図2のイコライザ設定画面上でユーザが指で高音のスライダをタッチ操作した状態を示す図である。 図3Bは、図3Aのスライダのタッチ操作によりイコライザ設定画面上に高音のスライダに対応するバーが表示された状態を示す図である。 図3Cは、図3Bのスライダのドラッグ操作によりイコライザ設定画面上で高音のスライダ及びバーが移動した状態を示す図である。 図3Dは、図3Cのスライダのドラッグ操作によるイコライザ設定画面上における高音のスライダの移動が確定した状態を示す図である。 図3Eは、図3Cのスライダの移動が確定する前の保留期間における高音のスライダの微調整による移動の受け付け状態を示す図である。 図4Aは、図3Aのスライダのタッチ操作によりイコライザ設定画面上に低音のスライダに対応するバーが表示された状態を示す図である。 図4Bは、図3Aのスライダのタッチ操作によりイコライザ設定画面上に中音のスライダに対応するバーが表示された状態を示す図である。 図4Cは、図3Aのスライダのタッチ操作によりイコライザ設定画面上の高音のスライダに対応する移動領域が着色して表示された状態を示す図である。 図5は、図2のイコライザ設定画面のリンクボタンがオンされて、ドラッグ操作された1つのスライダの移動に他の2つのスライダが連動して移動する状態を示す図である。 図6は、図2のイコライザ設定画面のスライダの移動方向を90゜変更した場合を示す図である。 図7は、図3Aのスライダのタッチ操作によりイコライザ設定画面上に高音のスライダに対応する位置マークが表示された状態を示す図である。 図8は、第2実施形態に係るGUI制御装置により、図1の表示部に音量設定画面が表示された状態を示す図である。 図9Aは、図8のスライダのタッチ操作により音量設定画面上に左チャンネルのスライダに対応するバーが表示された状態を示す図である。 図9Bは、図8のスライダのタッチ操作により音量設定画面上に右チャンネルのスライダに対応するバーが表示された状態を示す図である。 図10は、図8の音量設定画面のリンクボタンがオンされて、ドラッグ操作された右チャンネルのスライダの移動に左チャンネルのスライダが連動して移動する状態を示す図である。
 以下、実施形態について、図面を参照して説明する。各図面を通じて同一あるいは同等の部位、又は構成要素には、同一の符号を付している。
 以下に示す実施形態は、本発明の技術的思想を具体化するための装置等を例示するものである。本発明の技術的思想は、各構成部品の材質、形状、構造、配置、機能等を下記のものに特定するものでない。
(第1実施形態)
 図1~図7を参照して、第1実施形態について説明する。図1は、第1実施形態に係るグラフィカルユーザインタフェースの制御装置(GUI制御装置)11を備えるユーザ端末装置1の構成を示す図である。ユーザ端末装置1は、例えば、スマートフォン、タブレット端末装置等の携帯端末によって構成することができる。ユーザ端末装置1は、携帯端末でなく据え置き型の端末装置でもよい。ユーザ端末装置1は、汎用のマイクロコントローラ10及びタッチパネル20を有している。
 マイクロコントローラ10は、CPU(Central Processing Unit )及びメモリを備える。メモリは、ROM(Read Only Memory)及びRAM(Random Access Memory)を含む。マイクロコントローラ10は、メモリに記憶させたプログラムをCPU(プロセッサ)が実行することで、複数の情報処理回路を仮想的に構築する。マイクロコントローラ10は、複数の情報処理回路により、本実施形態のGUI制御装置11を構成する。
 GUI制御装置11は、タッチパネル20を有するGUIの動作を制御する。タッチパネル20は、ユーザインタフェース(以下、適宜「UI」と略記する。)として用いられ、ユーザからの情報の入力を受け付け、あるいは、ユーザに対する情報の出力を行う。タッチパネル20は、液晶パネルのような表示部21と位置入力装置とを組み合わせて構成することができる。本実施形態のタッチパネル20では、位置入力装置としてタッチパッド23を用いている。タッチパッド23は、タッチスクリーン、タッチ画面、又は接触画面等と呼称される場合もある。
 ユーザ端末装置1が、例えば、図2に示すスマートフォン30である場合、タッチパネル20の表示部21は、スマートフォン30のハウジング31の正面に配置される。図2では、イコライザ設定画面40が表示部21に表示された状態を示している。イコライザ設定画面40は、例えば、スマートフォン30にインストールされた音楽再生用のモバイルアプリケーション(図示せず)を実行すると、表示部21に表示される。
 モバイルアプリケーションは、スマートフォン、タブレットコンピュータ、その他携帯端末で動作するように設計・製作されたアプリケーションソフトウェアである。イコライザ設定画面40は、スマートフォン30にインストールされたネイティブアプリの実行時以外でも、例えば、インターネット上のクラウドサーバに構築したモバイル向けWebサイトのコンソール画面として、表示部21に表示させることができる。
 図2のイコライザ設定画面40は、3つの調整部41~43を有している。各調整部41~43には、直線の移動領域44~46内を一次元方向に移動可能なスライダ47~49が表示される。図2の例では、上下方向が一次元方向に相当している。移動領域44~46及びスライダ47~49は、スライドボリュームをイラスト化したものである。スライドボリュームは、スライダを直線的にスライドさせて抵抗値を調整するポテンショメータの一種である。
 各調整部41~43には、低音、中音及び高音の3つの周波数帯域が割り当てられている。各周波数帯域には、同一の帯域幅の周波数が均等に割り当てられてもよく、異なる帯域幅の周波数が割り当てられてもよい。表示部21に接触させた指等の物体で、各調整部41~43のスライダ47~49をドラッグ操作することで、再生する楽曲の音声信号の周波数特性を周波数帯域毎に調整することができる。周波数特性の調整分解能は、各周波数帯域で同じであってもよく異なってもよい。本実施形態では、周波数特性の調整分解能が各周波数帯域で同じであるものとする。周波数帯域によって周波数特性の調整分解能が異なる場合、移動領域44~46に付す目盛り又は移動領域44~46の長さが周波数帯域によって異なる。
 周波数帯域によって異なる目盛りを付す場合、各移動領域44~46の近傍に対応する周波数帯域の目盛りをそれぞれ付してもよい。あるいは、イコライザ設定画面40に目盛りを1つだけ表示し、表示する目盛りの内容を、スライダ47~49のドラッグ操作による周波数特性の調整中の周波数帯域に応じた内容に随時切り替えてもよい。
 スライダ47~49のドラッグ操作は、例えば、タッチペン等の指以外の物体を表示部21に接触させて行うこともできる。
 タッチパッド23は、表示部21に接触させた指等による図2の表示部21のタッチ操作を検出する。タッチパッド23は、例えば、静電容量方式で表示部21のタッチ操作を検出する。
 マイクロコントローラ10は、GUI制御装置11を構成する複数の情報処理回路により、図1に示す第1処理部12、タッチ検出部13、第2処理部15、判別部17及び判定部19を構成する。
 本実施形態では、上記した情報処理回路(12,13,15,17,19)をマイクロコントローラ10及びソフトウェアによって実現する例を示す。専用のハードウェアを用意して、情報処理回路(12,13,15,17,19)を構成することも可能である。複数の情報処理回路(12,13,15,17,19)を個別のハードウェアにより構成してもよい。
 表示部21には、移動領域44~46内を移動するスライダ47~49を含むイコライザ設定画面40が表示される。
 タッチ検出部13は、表示部21に接触させた指等によるスライダ47~49のタッチ操作を、タッチパッド23の出力に基づいて検出する。タッチ操作は、ドラッグ操作、タップ操作及びフリック操作を含む。ドラッグ操作は、画面に触れたまま画面をなぞる操作を意味する。タップ操作は、画面に触れたら直ぐに画面から離す操作を意味する。フリック操作は、画面に触れたまま画面上で払う操作を意味する。
 第1処理部12は、タッチ検出部13によってスライダ47~49のタッチ操作が検出されると、検出されたタッチ操作に応じて、表示部21に表示されたスライダ47~49を、移動領域44~46内で移動させる。
 第2処理部15は、タッチ検出部13によるスライダ47~49のタッチ操作の検出中に、スライダ47~49からスライダ47~49の移動方向に対して直交する方向に離隔した位置に配置されるマーカを、タッチパネル20上に表示させる。タッチパネル20上に表示させるマーカの詳細は後述する。
 判別部17は、タッチ検出部13が検出したタッチ操作によるスライダ47~49の操作内容を判別する。判別部17が判別する図2のスライダ47~49の操作内容は、スライダ47~49のタップ操作及びドラッグ操作を含む。
 判定部19は、判別部17が判別したスライダ47~49の操作内容に基づいて、スライダ47~49のドラッグ操作による移動領域44~46内での移動が確定したか否かを判定する。スライダ47~49の移動が確定したか否かの判定方法については後述する。
 イコライザ設定画面40において、例えば、調整部43のスライダ49をユーザが指60でドラッグ操作すると、図3Aに示すように、指60の後ろにスライダ49が隠れて、ドラッグ操作により移動したスライダ49の位置をユーザが把握しにくくなる。
 本実施形態では、スライダ49のドラッグ操作の際に、イコライザ設定画面40上でユーザがスライダ49を指60でタッチ操作すると、指60によるスライダ49のタッチ操作をタッチ検出部13が検出する。
 タッチ検出部13がスライダ49のタッチ操作を検出すると、第2処理部15が、図3Bに示すように、イコライザ設定画面40にマーカとしてのバー50を表示する。第2処理部15による図3Bのバー50の表示は、バー50が点滅状態で表示される態様でもよく、バー50が常時点灯状態で表示される態様でもよい。
 バー50は、タッチ検出部13がタッチ操作を検出したスライダ49に対応する。図3Bのバー50は、スライダ49から、スライダ49の移動方向に対して直交する方向に延在する。バー50は、指60の幅Wよりも大きい長さを有している。バー50の延在方向における両端は、スライダ49から、スライダ49の移動方向に対して直交する方向に離隔した、タッチパネル20上のイコライザ設定画面40の左右両端の位置に配置される。
 スライダ49のドラッグ操作をタッチ検出部13が検出すると、第1処理部12が、イコライザ設定画面40に表示されるスライダ49の位置を、移動領域46内で図3Bに示す位置から図3Cに示す位置に移動させる。スライダ49の移動に合わせて、第2処理部15が表示させる図3Bのバー50も、図3Cに示す位置に移動する。
 スライダ49のドラッグ操作をタッチ検出部13が検出しなくなると、判定部19が、図3Cの位置でドラッグ操作によるスライダ49の移動が確定したと判定する。スライダ49の移動が確定したと判定部19が判定すると、第1処理部12が、イコライザ設定画面40に表示されるスライダ49の位置を、図3Cの位置で固定させる。スライダ49の移動が確定したと判定部19が判定すると、第2処理部15が図3Cのバー50の表示を終了させる。
 第2処理部15は、判定部19の判定結果に基づいて、図3Cのバー50の表示を終了させるスライダ49の移動の確定時に、スライダ49の移動の確定前と異なる態様でバー50を表示させた後、バー50の表示を終了させてもよい。
 スライダ49の移動中にバー50が点滅状態で表示される場合、スライダ49の移動の確定時におけるバー50の表示は、例えば、バー50が常時点灯状態で表示される態様とすることができる。バー50の常時点灯状態での表示は、図3Dに示すように、バー50の点滅状態での表示における点灯期間中よりも明るさを強くして行ってもよい。
 スライダ49の移動が確定する前の移動中にバー50が常時点灯状態で表示される場合、スライダ49の移動の確定時におけるバー50の表示は、例えば、スライダ49の移動の確定前よりも強い明るさによる常時点灯状態の態様で行うことができる。
 判定部19が、スライダ49の移動が確定したと判定するのは、スライダ49のドラッグ操作をタッチ検出部13が検出しなくなった時点でなくてもよい。
 例えば、タッチ検出部13が、スライダ49のドラッグ操作を検出しなくなった後、保留期間が経過するまでスライダ49のタッチ操作を検出しなかった場合に、スライダ49の移動が確定したと判定部19が判定するようにしてもよい。
 上述した保留期間の間、スライダ49の微調整による移動を受け付ける構成としてもよい。スライダ49の微調整による移動は、例えば、図3Eに示すように、イコライザ設定画面40のバー50よりも上側又は下側の領域のタップ操作で受け付けることができる。
 タッチ検出部13が、保留期間において、図3Eのイコライザ設定画面40のバー50よりも上側又は下側の領域のタップ操作を検出した場合、第2処理部15は、図3Eのバー50を微小ピッチずつ移動させる。バー50よりも上側の領域がタップ操作された場合は、バー50が微小ピッチずつ上側に移動し、バー50よりも下側の領域がタップ操作された場合は、バー50が微小ピッチずつ下側に移動する。
 上述した保留期間の間、第2処理部15は、図3Eのバー50の上下に、微調整マーク51を表示させて、微調整によるスライダ49の移動を受け付けていることをユーザに報知してもよい。
 判定部19が、スライダ49の移動が確定したと判定するのは、タッチ検出部13が、スライダ49のドラッグ操作を検出しなくなった後、例えば、図3Eのイコライザ設定画面40のダブルタップ操作を検出した時点としてもよい。ダブルタップ操作は、画面を短時間に2回連続してタップする操作を意味する。
 以上、ユーザが指60で高音に対応する調整部43のスライダ49をドラッグ操作する場合について説明した。低音及び中音に対応する調整部41,42のスライダ47,48のドラッグ操作の際にも、指60によるタッチ操作をタッチ検出部13が検出すると、第2処理部15は、マーカとしてのバー50をイコライザ設定画面40に表示させる。
 各スライダ47~49に対応するバー50は、タッチ検出部13がタッチ操作を検出したスライダ47~49毎に異なる態様で表示部21に表示させてもよい。バー50の態様をスライダ47~49毎に変えることで、どの周波数帯域のスライダ47~49がタッチ操作されているかを、表示部21に表示されるバー50の態様によってユーザに認識させることができる。
 バー50の態様は、例えば、バー50の色を変えることで異ならせることができる。タッチ検出部13がタッチ操作を検出したスライダ47~49毎にバー50の色を変える場合、バー50は、低音、中音及び高音の各周波数帯域によって異なる色で表示部21に表示されることになる。バー50の色をスライダ47~49毎に変える代わりに、バー50の明るさ又は点滅速度をスライダ47~49毎に変える等、色以外の要素によってバー50の態様を変えてもよい。
 第2処理部15は、各スライダ47~49に対応する移動領域44~46を、対応するスライダ47~49のタッチ操作をタッチ検出部13が検出しているか否かによって態様を異ならせて、表示部21に表示させてもよい。タッチ検出部13の検出状態によって移動領域44~46の表示態様を異ならせることで、どの周波数帯域のスライダ47~49がタッチ操作されているかを、移動領域44~46の表示態様によってユーザに認識させることができる。
 移動領域44~46の表示態様は、例えば、移動領域44~46の色、明るさ等を変えることで異ならせることができる。図4A~図4Cは、バー50及び移動領域44~46の態様を色により変える場合の例を示している。図4A~図4Cでは、バー50の色の違いを線種によって表し、移動領域44~46の色の違いをハッチの有無及びハッチの種類によって表している。
 イコライザ設定画面40は、図5に示すように、調整部41~43の下方にリンクボタン52を有していてもよい。第1処理部12は、リンクボタン52がタッチ操作によりオンされた場合に、イコライザ設定画面40に表示されるスライダ47~49を連動して移動させる。
 スライダ47~49を連動して移動させる場合、第1処理部12は、図5のイコライザ設定画面40に表示されるスライダ47~49のうちドラッグ操作された1つのスライダの移動に連動して、ドラッグ操作されていない他の2つのスライダを移動させる。
 第1処理部12は、連動して移動させる2つのスライダを、ドラッグ操作された1つのスライダと同じ移動量だけ移動させてもよい。第1処理部12は、ドラッグ操作された1つのスライダの移動量に関係なく、1つのスライダの移動後の位置に対応するバランスのよい位置に、連動する2つのスライダを移動させてもよい。
 ドラッグ操作された1つのスライダの移動に連動させて他の2つのスライダを移動させる場合、第2処理部15は、他の2つのスライダに対応するバー50をイコライザ設定画面40に表示させてもよい。
 他の2つのスライダに対応するバー50の表示は、例えば、図5に示すように、ドラッグ操作された1つのスライダに対応するバー50と異なる線種で行うことができる。第2処理部15は、ドラッグ操作された1つのスライダに対応するバー50と異なる色で、他の2つのスライダに対応するバー50を表示してもよく、他の2つのスライダに対応するバー50を点滅させて表示してもよい。
 第2処理部15は、ドラッグ操作された1つのスライダに対応するバー50を、連動して移動させる他の2つのスライダに対応するバー50と異なる態様で表示させてもよい。異なる態様でのバー50の表示は、バー50の色の違い、線種の違い等によって実現させることができる。
 第1処理部12は、図6に示すように、イコライザ設定画面40におけるスライダ47~49の移動方向を90゜変更してもよい。
 本実施形態のGUI制御装置11によれば、ドラッグ操作する指60の後ろにスライダ47~49が隠れても、指60の幅Wよりも大きい長さでスライダ49の移動方向と直交する方向に延在するバー50の表示で、スライダ49の移動方向の位置を把握できる。
 第2処理部15は、各スライダ47~49に対応するバー50に代えて、位置マークをマーカとしてイコライザ設定画面40に表示させてもよい。図7は、タッチ検出部13が指60によるタッチ操作を検出した図2のスライダ49に対応する位置マーク70を、第2処理部15がイコライザ設定画面40にマーカとして表示させた場合を示している。
 位置マーク70は、スライダ49から、スライダ49の移動方向に対して直交する方向に離隔した、調整部41~43の外側の箇所に配置される。スライダ49と位置マーク70との離隔方向における間隔は、スライダ49をタッチ操作する指60の幅Wよりも長い。第2処理部15は、イコライザ設定画面40に表示する位置マーク70を、スライダ49のドラッグ操作による移動に合わせて移動させる。
 第2処理部15がイコライザ設定画面40に位置マーク70を表示させる場合は、ドラッグ操作する指60の後ろにスライダ49が隠れても、指60の幅Wよりも外側に配置される位置マーク70の表示で、スライダ49の移動方向の位置を把握できる。
(第2実施形態)
 図8~図10を参照して、第2実施形態について説明する。第2実施形態に係るユーザ端末装置1は、第1実施形態と同じく、図1に示す汎用のマイクロコントローラ10及びタッチパネル20を有している。マイクロコントローラ10は、メモリに記憶させたプログラムをCPUが実行することで仮想的に構築する複数の情報処理回路により、本実施形態のGUI制御装置11を構成する。マイクロコントローラ10は、GUI制御装置11を構成する複数の情報処理回路により、第1処理部12、タッチ検出部13、第2処理部15、判別部17及び判定部19を構成する。
 第2実施形態のタッチパネル20の表示部21には、図8の音量設定画面80が表示される。音量設定画面80は、左右のチャンネルのイヤホン音量に対応する2つの調整部81,82を有している。各調整部81,82には、スライドボリュームをイラスト化した、直線の移動領域83,84、移動領域83,84内を一次元方向に移動可能なスライダ85,86及びリンクボタン87が表示される。図8の例では、上下方向が一次元方向に相当している。
 各調整部81,82のスライダ85,86を、表示部21に接触した指等の物体でドラッグ操作することで、再生する楽曲の音量をチャンネル毎に調整することができる。スライダ85,86のドラッグ操作は、例えば、タッチペン等の指以外の物体を表示部21に接触させて行うこともできる。
 タッチ検出部13は、表示部21に接触させた指等によるスライダ85,86のタッチ操作を、タッチパッド23の出力に基づいて検出する。
 第1処理部12は、タッチ操作部13によって図8のスライダ85,86のタッチ操作が検出されると、検出されたタッチ操作に応じて、表示部21に表示されたスライダ85,86を、移動領域83,84内で移動させる。
 第2処理部15は、タッチ検出部13によるスライダ85,86のタッチ操作の検出中に、マーカを音量設定画面80に表示させる。マーカは、スライダ85,86からスライダ85,86の移動方向に対して直交する方向に離隔した、タッチパネル20上の位置に配置される。
 本実施形態では、例えば、スライダ85,86のドラッグ操作の際に、音量設定画面80上でユーザがスライダ85,86を指でタッチ操作すると、指によるスライダ85,86のタッチ操作をタッチ検出部13が検出する。
 タッチ検出部13がスライダ85,86のタッチ操作を検出すると、第2処理部15が、図9A及び図9Bに示すように、音量設定画面80にマーカとしてのバー90を表示する。図9Aは、左チャンネルのスライダ85のタッチ操作により、音量設定画面80上にスライダ85に対応するバー90が表示された状態を示す。図9Bは、右チャンネルのスライダ86のタッチ操作により、音量設定画面80上にスライダ86に対応するバー90が表示された状態を示す。
 第2実施形態の第2処理部15による図9A及び図9Bのバー90の表示は、第1実施形態のイコライザ設定画面40におけるバー50の表示と同様の態様で行うことができる。
 判別部17は、タッチ検出部13が検出したタッチ操作によるスライダ85,86の操作内容を判別する。判別部17が判別するスライダ85,86の操作内容は、スライダ85,86のタップ操作及びドラッグ操作を含む。
 判定部19は、判別部17が判別したスライダ85,86の操作内容に基づいて、スライダ85,86のドラッグ操作による移動領域83,84内での移動が確定したか否かを判定する。スライダ85,86の移動が確定したか否かは、第1実施形態の判定部19によるスライダ47~49の移動が確定したか否かの判定と同様の方法で行うことができる。
 第1処理部12は、リンクボタン87がタッチ操作によりオンされた場合に、音量設定画面80に表示される2つのスライダ85,86を連動して移動させてもよい。2つのスライダ85,86を連動して移動させる場合、第1処理部12は、2つのスライダ85,86のうちドラッグ操作された1つのスライダの移動に連動して、ドラッグ操作されていない他の1つのスライダを移動させる。
 第1処理部12は、スライダ85,86のうちドラッグ操作されていない1つのスライダを、ドラッグ操作された1つのスライダと同じ移動量だけ移動させてもよい。第1処理部12は、スライダ85,86のうちドラッグ操作されていない1つのスライダを、ドラッグ操作された1つのスライダの移動後の位置に対応するバランスのよい位置に移動させてもよい。
 2つのスライダ85,86を連動させて移動させる場合、第2処理部15は、ドラッグ操作されていないスライダに対応するバー90を音量設定画面80に表示させてもよい。ドラッグ操作されていないスライダに対応するバー90の表示は、第1実施形態におけるスライダ47~49を連動させて移動させる場合と同様に行うことができる。図10では、右チャンネルのスライダ86のタッチ操作により、スライダ86に対応するバー90に加えて、左チャンネルのスライダ85に対応するバー90が音量設定画面80上に表示された場合を示している。
 第2処理部15は、各スライダ85,86に対応する移動領域83,84を、対応するスライダ85,86のタッチ操作をタッチ検出部13が検出しているか否かによって色を異ならせて、表示部21に表示させてもよい。
 第2実施形態のGUI制御装置11でも、ドラッグ操作する指60の後ろにスライダ85,86が隠れた場合に、指60の幅Wよりも大きい長さでスライダ49の移動方向と直交する方向に延在するバー90の表示で、スライダ49の移動方向の位置を把握できる。
 第2実施形態のGUI制御装置11においても、第2処理部15は、バー90に代えて、第1実施形態における図7の位置マーク70と同様のマークを、図8の音量設定画面80にマーカとして表示させてもよい。第2実施形態のGUI制御装置11においても、第1処理部12は、音量設定画面80におけるスライダ85,86の移動方向を90゜変更してもよい。
 上述した各実施形態では、スライダ47~49,85,86が2つ以上存在する場合について説明した。本発明は、スライダが単一である場合にも適用可能である。本発明は、各実施形態で説明したイコライザ、左右のチャンネルのイヤホン音量の各アプリケーションソフトウェアのGUIに限らず、例えば、複数の音源からの音声を調整して混合するミキサーのアプリケーションソフトウェア等のGUIにも適用可能である。
 特願2022-032493号(出願日:2022年3月3日)の全内容は、ここに援用される。
 以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (10)

  1.  グラフィカルユーザインタフェースの制御装置であって、
     プロセッサと、
     前記プロセッサにより実行されると前記プロセッサに以下の処理を行わせる指令を含むメモリと、
    を備え、
     前記処理は、
      前記グラフィカルユーザインタフェースのタッチパネルに表示された一次元方向に移動可能なスライダを、前記タッチパネルに接触して行われた前記スライダのタッチ操作に応じて移動させることと、
      前記スライダがタッチ操作されている間、前記スライダから前記スライダの移動方向に対して直交する方向に離隔した前記タッチパネル上の位置に、マーカを表示することと、
    を含む
    グラフィカルユーザインタフェースの制御装置。
  2.  前記スライダは、第1のスライダと第2のスライダとを含み、
     前記処理は、タッチ操作された前記第1のスライダに対応する第1のマーカとタッチ操作された前記第2のスライダに対応する第2のマーカとを、互いに異なる態様で前記タッチパネルに表示させることを更に含む
    請求項1に記載のグラフィカルユーザインタフェースの制御装置。
  3.  前記スライダは、第1のスライダと第2のスライダとを含み、
     前記処理は、タッチ操作された前記第1のスライダの第1の移動領域の態様と、タッチ操作されていない前記第2のスライダの第2の移動領域の態様とを互いに異ならせて、前記第1の移動領域及び前記第2の移動領域を前記タッチパネルに表示させることを更に含む
    請求項1に記載のグラフィカルユーザインタフェースの制御装置。
  4.  前記処理は、
      タッチ操作された前記スライダの操作内容を判別することと、
      判別した前記操作内容に基づいて前記スライダのタッチ操作による移動が確定したか否かを判定することと、
      判定した結果による前記スライダの移動の確定前と確定時とで異なる態様で、前記マーカを前記タッチパネルに表示させることと、
    を更に含む
    請求項1~3のいずれか1項に記載のグラフィカルユーザインタフェースの制御装置。
  5.  グラフィカルユーザインタフェースの制御方法であって、
     前記グラフィカルユーザインタフェースのタッチパネルに表示された一次元方向に移動可能なスライダを、前記タッチパネルに接触して行われた前記スライダのタッチ操作に応じて移動させることと、
     前記スライダがタッチ操作されている間、前記スライダから前記スライダの移動方向に対して直交する方向に離隔した前記タッチパネル上の位置に、マーカを表示することと、
    を備えたグラフィカルユーザインタフェースの制御方法。
  6.  前記スライダは、第1のスライダと第2のスライダとを含み、
     前記制御方法は、タッチ操作された前記第1のスライダに対応する第1のマーカとタッチ操作された前記第2のスライダに対応する第2のマーカとを、互いに異なる態様で前記タッチパネルに表示させることを更に備えた
    請求項5に記載のグラフィカルユーザインタフェースの制御方法。
  7.  前記スライダは、第1のスライダと第2のスライダとを含み、
     前記制御方法は、タッチ操作された前記第1のスライダの第1の移動領域の態様と、タッチ操作されていない前記第2のスライダの第2の移動領域の態様とを異ならせて、前記第1の移動領域及び前記第2の移動領域を前記タッチパネルに表示させることを更に備えた
    請求項5に記載のグラフィカルユーザインタフェースの制御方法。
  8.  タッチ操作された前記スライダの操作内容を判別することと、
     判別した前記操作内容に基づいて前記スライダのタッチ操作による移動が確定したか否かを判定することと、
     判定した結果による前記スライダの移動の確定前と確定時とで異なる態様で、前記マーカを前記タッチパネルに表示させることと、
    を更に備えた
    請求項5~7のいずれか1項に記載のグラフィカルユーザインタフェースの制御方法。
  9.  グラフィカルユーザインタフェースのタッチパネルに表示された一次元方向に移動可能なスライダを、前記タッチパネルに接触して行われた前記スライダのタッチ操作に応じて移動させることと、
     前記スライダがタッチ操作されている間、前記スライダから前記スライダの移動方向に対して直交する方向に離隔した前記タッチパネル上の位置に、マーカを表示することと、
    をコンピュータに実行させるためのプログラム。
  10.  グラフィカルユーザインタフェースのタッチパネルに表示された一次元方向に移動可能なスライダを、前記タッチパネルに接触して行われた前記スライダのタッチ操作に応じて移動させることと、
     前記スライダがタッチ操作されている間、前記スライダから前記スライダの移動方向に対して直交する方向に離隔した前記タッチパネル上の位置に、マーカを表示することと、
    をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な非一時的な有形の記録媒体。
PCT/JP2022/042550 2022-03-03 2022-11-16 グラフィカルユーザインタフェースの制御装置、グラフィカルユーザインタフェースの制御方法、プログラム、及び記憶媒体 WO2023166792A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-032493 2022-03-03
JP2022032493A JP2023128260A (ja) 2022-03-03 2022-03-03 グラフィカルユーザインタフェース制御装置

Publications (1)

Publication Number Publication Date
WO2023166792A1 true WO2023166792A1 (ja) 2023-09-07

Family

ID=87883566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/042550 WO2023166792A1 (ja) 2022-03-03 2022-11-16 グラフィカルユーザインタフェースの制御装置、グラフィカルユーザインタフェースの制御方法、プログラム、及び記憶媒体

Country Status (2)

Country Link
JP (1) JP2023128260A (ja)
WO (1) WO2023166792A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034455A (ja) * 2009-08-04 2011-02-17 Canon Inc データ入力装置及びデータ入力方法
WO2017090121A1 (ja) * 2015-11-25 2017-06-01 株式会社ミスミグループ本社 タッチ操作による数値入力方法、及びタッチ操作による数値入力用プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034455A (ja) * 2009-08-04 2011-02-17 Canon Inc データ入力装置及びデータ入力方法
WO2017090121A1 (ja) * 2015-11-25 2017-06-01 株式会社ミスミグループ本社 タッチ操作による数値入力方法、及びタッチ操作による数値入力用プログラム

Also Published As

Publication number Publication date
JP2023128260A (ja) 2023-09-14

Similar Documents

Publication Publication Date Title
US8711182B2 (en) Information processing apparatus and display control method
US10613818B2 (en) Sound effect adjusting apparatus, method, and program
KR101290145B1 (ko) 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치
AU2011341876B2 (en) Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same
WO2011034097A1 (ja) タッチパネルを利用した電子機器およびその設定値変更方法
US9557828B2 (en) Input information processing system, input information processing method, program and computer-readable recording medium
US20140115468A1 (en) Graphical user interface for mixing audio using spatial and temporal organization
US20150029145A1 (en) Method, Apparatus and Computer-Readable Storage Means for Adjusting at Least Two Parameters
JP6278262B2 (ja) 表示制御装置
WO2019060162A1 (en) DYNAMIC ADJUSTMENT OF MINIATURE MULTIMEDIA IMAGE SIZE BASED ON TOUCH SCREEN PRESSURE
JP5846101B2 (ja) 操作装置及びプログラム
WO2023166792A1 (ja) グラフィカルユーザインタフェースの制御装置、グラフィカルユーザインタフェースの制御方法、プログラム、及び記憶媒体
US8799819B2 (en) Graphical user interface for multi-tap delay
JP2014215081A (ja) 波形表示装置、測定システムおよび波形表示用プログラム
US20240134515A1 (en) A computer a software module arrangement, a circuitry arrangement, a user equipment and a method for an improved user interface controlling multiple applications simultaneously
JP6535531B2 (ja) フィルタ特性決定装置およびフィルタ特性決定プログラム
JP6369259B2 (ja) パラメータ制御装置及びプログラム
US20190087061A1 (en) Dynamic adjustment of scrolling or movement granularity based on touchscreen pressure
US9368156B2 (en) Operation device
JP2016173740A (ja) 情報処理装置、情報処理方法及びプログラム
JP2015095127A (ja) タッチパネル式表示装置を備えた音声調整卓、その表示装置の制御方法、及び制御プログラム
JP6481310B2 (ja) 電子機器及び電子機器の制御プログラム
US20210264930A1 (en) Sound Processing Method
JP2018156016A (ja) 楽譜表示・演奏プログラム及び楽譜表示・演奏装置
JP2017219914A (ja) 入力装置、入力方法及び入力プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22929936

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)