WO2010113597A1 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
WO2010113597A1
WO2010113597A1 PCT/JP2010/053701 JP2010053701W WO2010113597A1 WO 2010113597 A1 WO2010113597 A1 WO 2010113597A1 JP 2010053701 W JP2010053701 W JP 2010053701W WO 2010113597 A1 WO2010113597 A1 WO 2010113597A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
drag operation
drag
user interface
symbol
Prior art date
Application number
PCT/JP2010/053701
Other languages
English (en)
French (fr)
Inventor
俊樹 齋藤
僚子 下川
伸哉 三好
光男 奥村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to BRPI1001270A priority Critical patent/BRPI1001270A2/pt
Priority to CN2010800016476A priority patent/CN102037438A/zh
Priority to US12/991,130 priority patent/US8935636B2/en
Priority to EP10758373A priority patent/EP2418570A4/en
Publication of WO2010113597A1 publication Critical patent/WO2010113597A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention includes, for example, a display device such as an LCD (Liquid Crystal Display), and an input detection device such as a touch panel provided on the display screen of the display element, and accepts an operation input from a user to perform the operation input.
  • a display device such as an LCD (Liquid Crystal Display)
  • an input detection device such as a touch panel provided on the display screen of the display element, and accepts an operation input from a user to perform the operation input.
  • the present invention relates to an apparatus, a method, and a program that can change the display displayed on the display screen of the display device.
  • various types of information including an operation unit that is configured by a display element such as an LCD having a relatively large display screen and a touch panel provided on the display screen of the display element and that receives an operation input from a user (user).
  • a processing device is provided.
  • the icon displayed at the position corresponding to the contact position is selected by bringing a finger or the like into contact with the position on the operation surface of the touch panel corresponding to the display position of the target icon displayed on the display screen. Can be recognized. Thereby, the process associated with the selected icon can be easily executed.
  • by changing the display of icons and the like displayed on the display screen it is possible to input a wide variety of information, which is easier to operate than when directly operating the so-called hardware keys provided on the device.
  • a good input unit can be realized.
  • the information processing apparatus provided with such an input unit includes various devices such as a digital video camera, a digital still camera, a mobile phone terminal, a portable music player, a portable information terminal called PDA (Personal Digital Assistant), and the like.
  • PDA Personal Digital Assistant
  • Patent Document 1 discloses an apparatus having an operation unit composed of a display element and a touch panel, which improves operability and visibility when setting or adjusting a function. An invention related to this is disclosed.
  • the user cannot intuitively know how fast the scroll speed of the current display item is according to the drag operation status of the user, for example, according to the operation amount of the drag operation. For this reason, it is considered that there is a case where it is difficult to adjust the degree of scrolling to the target display item by looking at the display item that is actually scroll-displayed and determining whether the scrolling speed is fast or slow.
  • the present invention presents the operation status of the tracing operation to the user so that the scrolling condition can be easily adjusted. For the purpose.
  • an information processing apparatus according to claim 1 is provided.
  • a display element An operation surface is provided on the display screen of the display element, an instruction position detection unit that receives an instruction operation from a user, detects and outputs coordinate information indicating an instruction position according to the instruction operation, and When a tracing operation is performed on the operation surface of the indication position detection unit, an operation amount and an operation direction based on the start position of the tracing operation based on the coordinate information from the indication position detection unit Detecting means for detecting An operation symbol to be changed according to a tracing operation from the user is displayed at a predetermined position on the display screen of the display element, and a tracing operation status by the user is determined based on a detection output from the detection unit. Operation symbol display control means for changing the display mode of the operation symbols so that they can be recognized.
  • the display screen of the display element is provided with the operation surface of the instruction position detecting means for receiving the operation instruction from the user.
  • the operation surface of the instruction position detecting means for receiving the operation instruction from the user.
  • the detection means Based on the coordinate information from the indicated position detection means, the detection means detects the operation amount and the operation direction with reference to the start position of the user's tracing operation.
  • the operation symbol display control means displays a predetermined operation symbol at a predetermined display position on the display screen.
  • the operation symbol display control unit controls the display mode of the operation symbol displayed on the display screen of the display element to be changed based on the detection output from the detection unit. .
  • the user can be notified of the state of the tracing operation from the user.
  • the instruction operation method is adjusted so that it can be guided appropriately and quickly to the target display item.
  • a display operation is scrolled by performing a drag operation such as a drag operation, the operation status of the trace operation can be presented to the user, and the adjustment of the scroll condition can be facilitated.
  • FIG. 1 is a block diagram for explaining a configuration example of an information processing apparatus 100 to which an embodiment of the present invention is applied.
  • FIG. 2 is a diagram for explaining a display mode of information displayed on the display screen of the display device 5 that transitions according to the drag operation.
  • FIG. 3 is a diagram for explaining a display mode of information displayed on the display screen of the display device 5 that transitions according to the drag operation.
  • FIG. 4 is a diagram for describing a display mode of information displayed on the display screen of the display device 5 that transitions according to the drag operation.
  • FIG. 5 is a diagram for explaining a display mode of information displayed on the display screen of the display device 5 that transitions according to the drag operation.
  • FIG. 1 is a block diagram for explaining a configuration example of an information processing apparatus 100 to which an embodiment of the present invention is applied.
  • FIG. 2 is a diagram for explaining a display mode of information displayed on the display screen of the display device 5 that transitions according to the drag operation.
  • FIG. 3 is a diagram
  • FIG. 6 is a diagram for explaining a display mode of information displayed on the display screen of the display device 5 that transitions according to the drag operation.
  • FIG. 7 is a diagram for explaining a display mode of information displayed on the display screen of the display device 5 that transitions according to the drag operation.
  • FIG. 8 is a flowchart for explaining processing at the time of a drag operation performed in the information processing apparatus 100.
  • FIG. 9 is a diagram for explaining an example of processing for obtaining an operation amount of a drag operation.
  • FIG. 10 is a diagram for explaining processing in the case of obtaining scroll acceleration according to the magnitude of the drag operation amount.
  • FIG. 11 is a diagram for explaining processing in the case of scrolling display items according to a user's drag operation.
  • FIG. 12 is a diagram for explaining a calculation formula for calculating the scroll speed.
  • FIG. 13 is a diagram for explaining a change in scroll speed in the information processing apparatus 100.
  • FIG. 14 is a flowchart for explaining the display item scrolling process performed in the data object control unit 3.
  • FIG. 15 is a diagram for explaining an example of an initial display state of a boundary symbol (a state before a drag operation is performed).
  • FIG. 16 is a diagram for explaining an example of an initial display state of a boundary symbol (a state before a drag operation is performed).
  • FIG. 17 is a diagram for explaining an example of a display state of display information on the display screen 5G immediately after the drag operation is finished.
  • FIG. 18 is a flowchart for explaining processing when the display position of the boundary symbol in the user interface area 101 is returned to the initial state.
  • FIG. 19 is a diagram for explaining scroll display of display items displayed in the item selection display area 102 when a flick operation is performed.
  • FIG. 20 is a flowchart for explaining processing during a flick operation performed in the information processing apparatus 100.
  • FIG. 21 is a diagram for explaining another example of a display mode of information displayed on the display screen of the display device 5 that transitions according to a drag operation.
  • FIG. 22 is a diagram for explaining another example of a display mode of information displayed on the display screen of the display device 5 that transitions according to a drag operation.
  • FIG. 21 is a diagram for explaining another example of a display mode of information displayed on the display screen of the display device 5 that transitions according to a drag operation.
  • FIG. 22 is a diagram for explaining another example of a display mode of information displayed on the display screen of the display device 5 that transitions according to a drag operation.
  • FIG. 23 is a diagram for describing another example of a display mode of information displayed on the display screen of the display device 5 that transitions according to a drag operation.
  • FIG. 24 is a diagram for describing another example of a display mode of information displayed on the display screen of the display device 5 that transitions according to a drag operation.
  • FIG. 25 is a diagram for explaining a correspondence table that associates how to control the interval between boundary symbols.
  • FIG. 26 is a diagram for explaining a correspondence table that associates how to control the interval between boundary symbols.
  • FIG. 27 is a diagram for explaining another example of scroll display of display items displayed in the item selection display area 102 when a flick operation is performed.
  • FIG. 28 is a block diagram for explaining a configuration example of a video camera 200 to which the information processing apparatus according to the present invention is applied.
  • FIG. 1 is an information processing apparatus to which an embodiment of the present invention is applied, and is a block diagram for explaining a configuration example of an information processing apparatus 100 according to this embodiment. As shown in FIG.
  • the information processing apparatus 100 includes an input detection device 1, a user interface control unit 2, a data object control unit 3, a display memory unit 4, a display device 5, a coefficient and data storage unit 6. And an overall control unit 7.
  • the input detection device 1 has, for example, a pressure-sensitive or electrostatic touch panel configuration.
  • the input detection device 1 receives an instruction operation (contact operation) on the operation surface of the input detection device 1 from a user (user), detects an instruction position (contact position) on the operation surface, and detects the instruction position
  • the coordinate data (coordinate information) indicating is output.
  • the display device 5 includes a so-called thin display element such as an LCD or an organic EL panel (Organic Electroluminescence Panel), and a controller that performs display control on the display element.
  • the input detection device 1 is provided so that it may affix on the whole surface of the display screen of the display element of the display device 5, for example. That is, the operation surface of the input detection device 1 is made to coincide with the display screen of the display element of the display device 5. Therefore, the coordinates on the display screen of the display device 5 and the coordinates on the operation surface of the input detection device 1 are made to coincide.
  • the user touches a position on the operation surface of the input detection device 1 with a finger, a stylus, or the like. In this case, when a number is displayed at a position on the display screen corresponding to (matching) the contact position, the user selects and displays the displayed number. For example, It is made possible to make a determination in the control unit of the apparatus.
  • the input detection device 1 and the display device 5 constitute an input unit (input means) that receives an instruction operation (instruction input) from a user.
  • the user interface control unit 2, the data object control unit 3, and the overall control unit 7 are realized by a single microcomputer, for example. Of course, each of these control units can be realized by separate microcomputers.
  • the microcomputer includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an EEPROM (Electrically Erasable and Programmable ROM), etc. connected through a CPU bus.
  • the CPU reads and executes a program stored in a ROM, which will be described later, and executes a target process.
  • the CPU executes a program stored in the ROM, performs various calculations, notifies the result to each part, performs a calculation using data supplied from each part, and outputs the result.
  • Processes such as recording in memory.
  • the ROM is prerecorded with programs executed by the CPU and various data necessary for processing.
  • the RAM is mainly used as a work area, such as temporarily storing intermediate results in various processes.
  • the EEPROM is a so-called non-volatile memory that stores and holds information that must be retained even when the information processing apparatus 100 is turned off, such as various setting parameters and programs for adding functions. It is.
  • the display memory unit 4 is a display-dedicated memory unit configured by using, for example, a RAM.
  • the coefficient and data storage unit 6 is configured by using a nonvolatile memory such as a ROM or an EEPROM, and stores and holds various coefficients and data used in the user interface control unit 2.
  • the overall control unit 7 controls each unit in accordance with a user input operation performed on the operation surface of the input detection device 1 and performs processing in accordance with the user instruction.
  • the input detection device 1 can detect the operation by bringing a finger, a stylus, or the like into contact with the operation surface of the input detection device 1. And the input detection device 1 can output the coordinate data which shows the contact position.
  • the input detection device 1 can detect each of the operations that are performed simultaneously by bringing a finger, a stylus, or the like into contact with a plurality of locations on the operation surface of the input detection device 1. And the input detection device 1 can output the coordinate data which shows each of the contact position. The input detection device 1 can also detect each instruction operation that is repeatedly performed on the operation surface of the input detection device 1, and can output coordinate data indicating each contact position. Further, the input detection device 1 continuously detects the contact position at every predetermined timing while the finger or the stylus is in contact with the operation surface of the input detection device 1 by the user, and coordinates indicating this Data can also be output.
  • the input detection device 1 accepts various instruction operations (operation inputs) from the user such as so-called tap operation, double tap operation, drag operation, flick operation, pinch operation, etc., and detects coordinate information according to this. Is something that can be done.
  • the tap operation is an operation (operation) for instructing a predetermined point on the operation surface of the input detection device 1 only once by a user's finger or stylus.
  • the double tap operation is an operation for instructing a predetermined point on the operation surface of the input detection device 1 twice in succession.
  • the drag operation is an operation of moving the user's finger or stylus while keeping it in contact with the operation surface of the input detection device 1.
  • the flick operation is an operation for quickly “replacing” an arbitrary direction as it is after the user's finger or stylus is brought into contact with the operation surface of the input detection device 1.
  • the pinch operation is an operation in which two fingers of a user are simultaneously brought into contact with the operation surface of the input detection device 1 to open or close the two fingers.
  • an operation of opening two fingers that are brought into contact is called a pinch-out operation
  • an operation of closing two fingers or the like is called a pinch-in operation.
  • the drag operation and the flick operation are operations that move on the operation surface after touching the user's finger etc. on the operation surface, although there is a difference in the speed of the operation (operation that traces on the operation surface).
  • the display screen of the display element of the display device 5 is roughly divided into two areas. One is a user interface area for accepting a tracing operation from the user. The other one is an item display selection area for displaying an item group corresponding to an executable function, an item group corresponding to a reproducible content, and the like and enabling selection thereof.
  • a tracing operation is mainly performed on the operation surface of the input detection device 1 on the user interface area.
  • a drag operation is performed as a tracing operation.
  • coordinate information coordinate data
  • the detected coordinate data is sequentially notified to the user interface control unit 2. Therefore, the user interface control unit 2 determines how the contact position of the user's finger or the like has changed between the start and end of the drag operation based on the coordinate data from the input detection device 1. Accurately grasp.
  • the user interface control unit 2 recognizes the position indicated by the coordinate data notified first when the drag operation is started as the start point (start position) of the drag operation. Thereafter, the user interface control unit 2 recognizes the position indicated by the latest notified coordinate data as the current drag position. Then, the user interface control unit 2 obtains a difference between the starting point of the drag operation and the current drag position. Furthermore, the user interface control unit 2 obtains a ratio (operation amount) of the obtained difference to the maximum draggable amount in the user interface area. The user interface control unit 2 also grasps in which direction the current drag position is based on the start point of the drag operation.
  • the user interface control unit 2 currently performs any drag operation based on the start point in accordance with the obtained ratio (operation amount) and the direction from the start point of the drag operation to the current drag position. You can see what is being done.
  • the user interface control unit 2 stores the user interface area stored in the display memory unit 4 in accordance with the obtained ratio and the direction (operation direction) to the current drag position based on the start point of the drag operation.
  • the display position of the boundary symbol which is the display information is calculated.
  • the ratio indicating the operation amount of the drag operation is calculated using the difference between the start point of the drag operation and the current drag position.
  • the absolute value of the ratio indicates the operation amount of the drag operation, and the sign portion of the ratio is dragged. This indicates the direction of the current drag position relative to the start point of the operation.
  • the user interface control unit 2 displays the boundary displayed in the user interface area stored in the display memory unit 4 according to the calculated current operation amount (difference) and the direction of the current drag position. Control to change the symbol display position.
  • the boundary symbol is a target when the display mode is changed according to the drag operation of the user.
  • the boundary symbol changes the display mode in accordance with the user's drag operation, and can also be called an operation symbol.
  • the user interface control unit 2 uses the obtained ratio and the coefficient data stored and held in the coefficient and data storage unit 6 to convert item information (data object) displayed in the item display selection area. Find the acceleration for scrolling.
  • the data object control unit 3 is notified of the obtained acceleration and the direction of the current drag position.
  • the data object control unit 3 scrolls the item information displayed in the item selection display area based on the acceleration from the user interface control unit 2 and the direction of the current drag position. Controls item information and display position.
  • the display device 5 changes the display of the user interface area and the item display selection area provided on the display screen of the display element based on the display information arranged in the display memory unit 4.
  • the display mode of the boundary symbol displayed in the user interface area can be changed according to the operation status of the drag operation performed on the operation surface of the input detection device on the user interface area provided on the display screen. Can do.
  • the item display displayed in the item selection display area may be scrolled according to the operation status of the drag operation performed on the operation surface of the input detection device on the user interface area provided on the display screen. it can.
  • the target item display is displayed in the item display selection area
  • coordinate data indicating the tapped position is output from the input detection device 1 and supplied to the user interface control unit 2.
  • the user interface control unit 2 notifies the overall control unit 7 of the coordinate data when the coordinate data from the input detection device 1 is for a display selection area such as an item.
  • the overall control unit 7 determines what the display item is displayed at the position on the display screen indicated by the notified coordinate data. Then, the overall control unit 7 controls each unit so as to execute processing associated with the selected display item and to reproduce content associated with the display item.
  • processing according to a user instruction is executed by the functions of the user interface control unit 2 and the overall control unit 7, the present invention is not limited to this.
  • the detected coordinate data is notified to the data object control unit 3 from the input detection device 1 via the user interface control unit 2 or directly.
  • the data object control unit 3 determines the data object instructed (selected) by the user based on the coordinate data, notifies the overall control unit 7 of the data object, and the overall control unit 7 is instructed.
  • the user objectively determines the operation status of the drag operation by changing the display mode of the boundary symbol displayed in the user interface area that changes according to the drag operation performed by the user. I can grasp it. As a result, it is possible to easily and appropriately adjust the scrolling of the item display displayed in the item display selection area, quickly find the target display item, and perform the target process. Can do. That is, user operability can be improved.
  • FIG. 2 is a diagram for explaining a display state of information displayed on the display screen 5 ⁇ / b> G of the display device 5 before a drag operation is performed on the input detection device 1 in the information processing apparatus 100.
  • the information processing apparatus 100 is indicated by a dotted line in FIG. 2 by attaching the input detection device 1 to the entire display screen 5G of the display element of the display device 5, for example.
  • the operation surface of the input detection device 1 is formed.
  • a user interface area 101 is provided on the left end side of the display screen 5G.
  • a part other than the user interface area 101 provided on the left end side is set as an item display selection area 102.
  • the user interface area 101 and the item display selection area 102 have the same length in the vertical direction of the display screen 5G (the direction along the short side of the display screen 5G).
  • the user interface area 101 and the item display selection area 102 have a length ratio of, for example, about 1: 4 in the horizontal direction of the display screen 5G (the direction along the long side of the display screen 5G). To be. However, this is merely an example, and the user interface area 101 and the item display selection area 102 can be provided in various sizes and various sizes in the display screen 5G.
  • the user interface area 101 is a part that accepts mainly a tracing operation from a user, and in this embodiment, a drag operation, as described above.
  • the item display selection area 102 displays a group of items corresponding to executable functions and reproducible contents, and is a part that allows selection thereof, and is a part that mainly accepts a tap operation from the user. .
  • the user interface area 101 is divided into five parts by four boundary symbols 103A, 103B, 103C, and 103D that are line segments.
  • the boundary symbols 103A, 103B, 103C, and 103D are divided into, for example, five areas equally in the vertical direction of the user interface area 101 during normal times (when no drag operation is performed). It will be displayed at the position to do.
  • the vertical direction of the user interface area 101 is a direction along the short side of the display screen 5G
  • the horizontal direction of the user interface area 101 is a direction along the long side of the display screen 5G.
  • the central portion in the vertical direction of the user interface area 101 sandwiched between the boundary symbol 103B and the boundary symbol 103C has three lines indicating the center.
  • a center guide symbol 104 that is a line segment is displayed.
  • a display item group (data object group) 105 is displayed in the item display selection area 102.
  • four display items (data objects) are displayed in the item display selection area 102.
  • FIG. 1 The example shown in FIG.
  • the display 2 shows a case where, for example, among the 100 display items, the 20th to 23rd display items are displayed, and the display can be scrolled in any direction. .
  • the user touches the operation surface of the input detection device 1 at the position where the center guide symbol 104 of the user interface area 101 is displayed, and performs a drag operation in the direction indicated by the arrow.
  • the position indicated by the symbol S is the starting point at which the user first touched the finger or the like.
  • the drag start point S is slightly above the midpoint of the center guide symbol 104.
  • 3 shows the display state of information displayed on the display screen 5G of the display device 5 immediately after the drag operation is started in the direction indicated by the arrow in FIG.
  • the input detection device 1 causes the contact position on the operation surface of the input detection device 1 to change according to the user's drag operation. Coordinate data corresponding to is output. Coordinate data from the input detection device 1 is supplied to the user interface control unit 2.
  • the user interface control unit 2 grasps the direction of the user's drag operation and the operation amount based on the coordinate data from the input detection device 1. Then, the user interface control unit 2 changes the display position of the boundary symbol in the user interface area 101 of the display memory unit 4 according to the grasped contents.
  • each of the boundary symbols 103A, 103B, 103C, and 103D in the user interface area 101 has a display position of the drag operation compared to the case shown in FIG. 2 as shown in FIG. To move in the direction. Further, the distance between the boundary symbol 103B and the boundary symbol 103C in FIG. 3 is wider than that in FIG. Further, as shown in FIG. 3, the interval between the boundary symbols 103A, 103B, 103C, and 103D in the user interface area 101 is clogged like a pattern when the rubber is shrunk, so that the operation amount of the user's drag operation is reduced. Intuitive recognition is possible. That is, in FIG.
  • the starting point of the drag operation is indicated by the position S
  • the current drag position is indicated by the position E1.
  • the operation direction in this case is an upward direction with respect to the display screen 5G, as indicated by a solid arrow from the start point S to the current drag position E1.
  • the user interface control unit 2 controls the display memory unit 4 to move the position of each boundary symbol in the user interface area 101 of the display memory unit 4 according to the operation amount of the drag operation and the direction of the operation. .
  • the interval between the boundary symbols positioned above the interval and the interval between the upper end portion of the display screen 5G and the boundary symbol closest to the upper end portion are: It is made even during dragging.
  • the interval between the boundary symbols located below and the interval between the lower end portion of the display screen 5G and the boundary symbol closest to the lower end portion are: It is made even during dragging.
  • the user interface control unit 2 sets the interval between the boundary symbols and the interval between the end of the display screen 5G and the boundary symbol in the direction of the drag operation determined according to the current drag position E1 with respect to the start point S of the drag operation. Narrow. Therefore, in the case of the example shown in FIG. 3, the distance ⁇ is set between the boundary symbol 103A and the boundary symbol 103B and between the upper end portion of the display screen 5G and the boundary symbol 103A.
  • the interval ⁇ is set between the boundary symbol 103C and the boundary symbol 103D and between the lower end portion of the display screen 5G and the boundary symbol 103D.
  • the direction of the drag operation is the direction from the start point S toward the current drag position E1, and therefore the interval ⁇ is made narrower than the interval ⁇ . In this way, the interval between the boundary symbols is narrowed in the direction of the drag operation. Accordingly, depending on the interval between the boundary symbols and the like, the drag operation position is located on the side with respect to the start point S of the drag operation, and how much the drag operation is performed on the information processing apparatus 100. Users can intuitively recognize through vision.
  • the state immediately after the drag operation is performed is shown.
  • the distance from the start point S to the current drag position E1 and the amount of operation indicated by the double arrow 201 are large. Is the same.
  • the user interface control unit 2 obtains an acceleration for scrolling the display items displayed in the item display selection area 102 according to the operation amount indicated by the double-headed arrow 201.
  • the user interface control unit 2 notifies the data object control unit 3 of the direction of the drag operation and the obtained acceleration as described above.
  • the data object control unit 3 determines in which direction and how much to scroll the display item displayed in the item display selection area 102 from the direction and acceleration of the drag operation.
  • the data object control unit 3 changes the position of the display item so as to scroll the display item to be displayed in the item selection display area 102 of the display memory unit 4 according to the determined content.
  • the display item is scrolled in the direction indicated by the arrow 202 in the item display selection area 102. To be done. That is, in this example, the display items are scrolled in the backward direction.
  • FIG. 4 is a diagram for explaining a display state of information displayed on the display screen 5G of the display device 5 when a drag operation is further performed from the drag position E1 illustrated in FIG.
  • the drag operation is continued from the drag position E1 to the drag position E2 as indicated by the arrow from the position E1 to the position E2.
  • the newly performed drag operation is from the drag position E1 to the current drag position E2.
  • the drag operation amount indicated by the difference between the drag operation start point S and the current drag position E2 is larger than the double arrow 201 shown in FIG. 3, as indicated by the double arrow 301 in FIG. It will be a thing.
  • the user interface control unit 2 controls the display memory unit 4 based on the direction of the drag operation and the latest operation amount of the drag operation indicated by the double arrow 301, and determines the positions of the boundary symbols 103A, 103B, 103C, and 103D. change.
  • the operation amount of the drag operation is further increased from the state shown in FIG.
  • the interval ⁇ becomes narrower and the interval ⁇ becomes less sparse. It becomes.
  • the distance between the boundary symbol 103B and the boundary symbol 103C in FIG. 4 is wider than that in FIG. That is, as shown in FIG. 4, the interval between the upper end portion of the display screen 5G and the boundary symbol 103A and the interval between the boundary symbol 103A and the boundary symbol 103B are both equal to ⁇ . Similarly, the interval between the lower end portion of the display screen 5G and the boundary symbol 103D and the interval between the boundary symbol 103C and the boundary symbol 103D are both equal to the interval ⁇ .
  • the drag operation start point S is used as a reference in the direction of the drag operation.
  • the interval ⁇ between the boundary symbols positioned on a certain upper side becomes smaller, and the interval ⁇ between the boundary symbols positioned in the direction opposite to the drag operation direction becomes wider.
  • the user can determine to which side the user is performing the drag operation and how the state is recognized by the information processing apparatus 100 according to the display mode of the boundary symbol in the user interface area 101. Know exactly.
  • the information processing apparatus 100 can determine the operation amount of the drag operation as a difference between the drag operation start point S and the current drag position E2.
  • the operation amount of the drag operation is larger in the state shown in FIG. 4 than in the state shown in FIG.
  • the operation amount of the drag operation is understood as being from the start point of the drag operation.
  • the user interface control unit 2 obtains an acceleration for scrolling the display item displayed in the item display selection area 102 based on the operation amount of the drag operation as indicated by the double arrow 301 in FIG.
  • the data object control unit 3 controls the display items in the display memory unit 4 to scroll.
  • the display items displayed in the item display selection area 102 are further scrolled faster in accordance with the operation amount of the drag operation, as indicated by the arrow 302 in FIG.
  • the display items are scrolled to the display items located in the backward direction. 4 shows a case where the drag operation is further performed in the same direction from the state shown in FIG. 3 and the operation amount of the drag operation is increased. However, when the drag operation is performed in the reverse direction, In some cases, the amount of drag operation is reduced. For example, as described above, it is assumed that a drag operation is performed as shown in FIGS. 3 and 4 from the state shown in FIG. 2, and the current drag position is at position E2.
  • the direction of the drag operation is the direction from the start point S of the drag operation to the current drag position E1.
  • the direction of the drag operation grasped by the information processing apparatus 100 does not change.
  • the operation amount of the drag operation is the operation amount from the drag operation start point S to the drag position E1, and is the amount indicated by the double arrow 201 in FIG.
  • the user interface control unit 2 controls the display position of the boundary symbol to be displayed in the user interface area 101 of the display memory unit 4 according to the direction and amount of the drag operation. Therefore, the display mode of the boundary symbols in the user interface area 101 returns from the state shown in the user interface area 101 in FIG. 4 to the state shown in the user interface area 101 in FIG.
  • the user interface control unit 2 obtains the scroll acceleration of the display item displayed in the item display selection area 102 based on the latest operation amount of the drag operation. For this reason, the scroll acceleration of the display item also corresponds to the size indicated by the double-headed arrow 201 in FIG. Then, as described above, the data object control unit 3 determines the display items to be displayed in the item selection display area 102 based on the direction of the drag operation from the user interface control unit 2 and the operation amount of the drag operation. Scroll control is performed. For this reason, as described above, when the drag operation is performed so as to return from the position E2 in FIG. 4 to the position E1 in FIG. 3, the direction of the drag operation does not change and only the operation amount of the drag operation changes. .
  • the display item is scrolled in a direction further going back from the state shown in FIG. 4 without changing the scroll direction.
  • the scroll speed at this time is set to the same speed as in FIG. 3, that is, the scroll speed slower than the scroll speed in FIG. 4 according to the operation amount of the drag operation.
  • a drag operation is performed from the position E1 in FIG. 3 toward the start point S in FIG. In this case, as the drag position approaches the start point S, the direction of the drag operation does not change upward, but the operation amount of the drag operation becomes smaller.
  • the interval between the boundary symbols in the user interface area 101 is determined according to the drag operation amount.
  • the scroll direction of the display item displayed in the item display selection area 102 does not change.
  • the scroll acceleration decreases as the operation amount of the drag operation decreases. Therefore, until the drag position reaches the start point S of the drag operation from the position E1, the scroll speed of the display item displayed in the item display selection area 102 is gradually decreased.
  • the drag operation amount becomes 0 (zero), and scrolling of the display items displayed in the item display selection area 102 stops. In this way, while the drag operation is continuously performed on the operation surface of the input detection device 101 on the user interface area 101, the direction of the drag operation with reference to the drag start point S at every predetermined timing.
  • the operation amount is detected.
  • the display mode of the boundary symbols in the user interface area 101 is changed, and the display items in the item selection display area 102 are scrolled.
  • the interval of the symbol group in the direction of the drag operation of the boundary symbol of the user interface area 101 becomes narrower and is opposite to the direction of the drag operation.
  • the interval between symbol groups increases.
  • the operation amount of the drag operation decreases, the interval between the symbol groups in the direction of the drag operation of the boundary symbols in the user interface area 101 increases, and the symbol groups in the reverse direction of the drag operation increase. The interval is getting narrower.
  • FIG. 5 illustrates a display state of information displayed on the display screen 5G of the display device 5 when a large drag operation is performed in the opposite direction from the drag position E2 illustrated in FIG. It is a figure for doing. As described with reference to FIGS.
  • the drag operation is performed as starting point S ⁇ position E ⁇ b> 1 ⁇ position E ⁇ b> 2.
  • the upper right of the area is released without releasing the finger or the like that is in contact with the operation surface of the input detection device 1 in the user interface area 101.
  • the display position of the boundary symbol in the user interface area 101 is changed based on the direction of the drag operation and the operation amount of the drag operation.
  • the display items displayed in the item selection display area 102 are also scroll-displayed based on the direction of the drag operation and the acceleration determined according to the operation amount of the drag operation.
  • the interval between the symbol groups in the drag operation direction of the boundary symbols of the user interface region 101 is It ’s getting wider. Also, the interval between the symbol groups opposite to the direction of the drag operation becomes narrower.
  • the boundary symbols in the user interface area 101 return to the display mode shown in FIG. Further, until the operation position of the drag operation reaches from the position E2 to the start point S, the scroll speed of the display items in the item display selection area 102 is gradually decreased without changing the scroll direction. To be.
  • the scrolling of the display items in the item display selection area 102 stops.
  • the direction of the drag operation is downward with respect to the display screen 5G, and the drag operation is performed.
  • the amount of operation will gradually increase.
  • the distance ⁇ between the upper end portion of the display screen 5G and the boundary symbol 103A and between the boundary symbol 103A and the boundary symbol 103B increases.
  • the interval ⁇ between the boundary symbol 103C and the boundary symbol 103D which is the direction of the drag operation, and between the boundary symbol 103D and the lower end portion of the display screen 5G becomes narrower.
  • the intervals ⁇ between the upper end portion of the display screen 5G and the boundary symbol 103A and between the boundary symbol 103A and the boundary symbol 103B are equal.
  • the intervals ⁇ between the boundary symbol 103C and the boundary symbol 103D and between the boundary symbol 103D and the lower end portion of the display screen 5G are equal.
  • the ratio between the boundary symbol 103B and the start point S and the ratio between the start point S and the boundary symbol 103C at the start of dragging is also constant.
  • the direction of the drag operation is the downward direction on the display screen 5G, as indicated by the solid line arrow from the upper right to the lower left in FIG.
  • the end of the operation surface of the input detection device 1 in the direction of the drag operation is the lower end of the display screen 5G in the example shown in FIG. Therefore, in the example shown in FIG. 5, the interval ⁇ between the upper end portion of the display screen 5G and the boundary symbol 103A and between the boundary symbol 103A and the boundary symbol 103B becomes wide. And the space
  • the intervals ⁇ between the boundary symbol 103C and the boundary symbol 103D and between the boundary symbol 103D and the lower end portion of the display screen 5G are equal. Since the interval on the tracing direction side becomes narrower, the interval ⁇ becomes narrower than the interval ⁇ . Further, the distance between the boundary symbol 103B and the boundary symbol 103C in FIG. 5 is narrower than that in FIG.
  • the drag start point S is slightly above the midpoint of the center guide symbol. However, when the drag start point S is the midpoint of the center guide symbol, the distance between the boundary symbol 103B and the boundary symbol 103C is The movement is always kept constant.
  • the scroll direction is a downward direction on the display screen 5G as indicated by a solid arrow 402 in FIG.
  • the scrolling speed is determined based on the acceleration determined according to the operation amount of the drag operation.
  • the drag position is located below the start point S of the drag operation, each boundary symbol is moved to the lower side of the display screen 5G. Therefore, it is possible to clearly know that the direction of the drag operation is reversed.
  • FIG. 6 is a diagram for explaining a display state of information displayed on the display screen 5G of the display device 5 before a drag operation is performed on the input detection device 1 in the information processing apparatus 100. Therefore, the display modes of the user interface area 101 and the item display selection area 102 are in the same state as that described with reference to FIG. Then, as shown in FIG. 6, it is assumed that the user contacts a finger or the like on the operation surface of the input detection device 1 near the lower end of the user interface area 101 and starts a drag operation in the direction indicated by the arrow. Also in this example, the position indicated by the symbol S is the starting point at which the user first touched the finger or the like.
  • FIG. 7 shows a display state of information displayed on the display screen 5G of the display device 5 immediately after the drag operation is started in the direction indicated by the arrow in FIG. 6 from the state before the drag operation shown in FIG. It is a figure for demonstrating.
  • the input detection device 1 changes the contact position on the operation surface of the input detection device 1 that changes according to the user's drag operation.
  • Coordinate data corresponding to is output.
  • the coordinate data from the input detection device 1 is supplied to the user interface control unit 2, and the user interface control unit 2 grasps the direction and amount of the user's drag operation.
  • the user interface control unit 2 changes the display position of the boundary symbol in the user interface area 101 of the display memory unit 4 according to the grasped contents.
  • each of the boundary symbols 103A, 103B, 103C, and 103D in the user interface area 101 is shown in FIG.
  • the display position is moved in the direction of the drag operation compared to the case shown in FIG.
  • the interval between the boundary symbols 103A, 103B, 103C, and 103D in the user interface area 101 is clogged like a pattern when the rubber is shrunk, thereby reducing the amount of drag operation by the user.
  • the starting point of the drag operation is indicated by the position S
  • the current drag position is indicated by the position E.
  • the operation direction in this case is an upward direction with respect to the display screen 5G, as indicated by a solid arrow from the start point S to the current drag position E.
  • the operation amount of the drag operation in this case corresponds to the difference between the start point S and the current drag position E as described above. Therefore, the user interface control unit 2 controls the display memory unit 4 to drag the position of each boundary symbol in the user interface area 101 of the display memory unit 4 according to the operation amount of the drag operation and the direction of the operation. Move in the direction in which the operation was performed. Also in the example shown in FIGS.
  • the boundary symbols 103A, 103B, 103C, and 104D are displayed at equal intervals including the upper end portion of the display screen 5G.
  • “the distance between the line group and the upper end or the lower end at the drag start time is equal.”
  • the expansion / contraction of rubber is expressed in the user interface area 101.
  • control is performed so that the interval between the boundary symbols positioned in the direction of the drag operation from the start point of the drag operation is equal. In the example shown in FIGS.
  • the starting point S of the drag operation is at a position near the lower end of the user interface area 101, and the direction of the drag operation is as shown by the arrows in FIGS. , Upward direction. Accordingly, each of the boundary symbols 103A, 103B, 103C, and 103D is located in the direction of the drag operation from the start point S of the drag operation. In this case, as shown in FIG. 7, the distance between the symbols is made uniform, and the distance between the symbols is narrowed or shortened according to the operation amount and the operation direction of the drag operation obtained with reference to the start point S. To display.
  • the display mode of the boundary symbol in the user interface area 101 allows the user interface area 101 portion to be displayed as if the rubber has expanded and contracted according to the drag operation.
  • the start point S of the drag operation is located near the lower end of the display screen 5G.
  • the starting point S of the drag operation may be positioned near the upper end of the display screen 5G.
  • the moving direction of the boundary symbol is opposite to that shown in FIG.
  • the change in the display mode of the boundary symbols is similar to the case shown in FIG. 7 in the interval between the boundary symbols positioned in the direction of the drag operation from the start point of the drag operation in the state before the drag operation is started. Are made equally spaced.
  • the scroll display of the display items in the item display selection area 102 is performed in the same manner as the case described with reference to FIGS. 2 to 5 also in the example shown in FIGS. That is, the user interface control unit 2 obtains the direction of the drag operation and the scroll acceleration determined according to the operation amount of the drag operation according to the coordinate data from the input detection device 1, and obtains these values as the data object control unit 3. Notify Based on the information from the user interface control unit 2, the data object control unit 3 controls the display position of the display item in the display memory unit 4, and in the direction corresponding to the direction of the drag operation, according to the operation amount of the drag operation. Scrolls the display items at a certain acceleration.
  • the information processing apparatus 100 does not simply scroll the display items in accordance with the user's drag operation.
  • the display mode of the boundary symbols in the user interface area is changed corresponding to the expansion and contraction of the rubber.
  • the user can intuitively recognize how the information processing apparatus 100 recognizes the drag operation he / she is performing by changing the display mode of the boundary symbols in the user interface area 101.
  • the user appropriately recognizes whether the drag operation he / she is performing is too strong or too weak, and quickly adjusts the strength of the drag operation to scroll the display items in the desired manner. be able to.
  • FIG. 8 is a flowchart for explaining processing at the time of a drag operation performed in the information processing apparatus 100 of this embodiment.
  • the processing illustrated in FIG. 8 is executed when the information processing apparatus 100 is powered on and a drag operation is performed on the operation surface of the input detection device 1 on the user interface area 101.
  • the processing shown in FIG. 8 is mainly executed by the user interface control unit 2 and the data object control unit 3. That is, when a drag operation is performed on the operation surface of the input detection device 1 on the user interface area 101, the user interface control unit 2 and the data object control unit 3 cooperate with each other as shown in FIG. Execute the process.
  • the user interface control unit 2 receives user operation information from the input detection device 1 (step S101).
  • the user operation information is coordinate data corresponding to the operation surface of the input detection device 1 that changes according to the drag operation.
  • the user interface control unit 2 calculates the difference between the drag operation start point (drag start point) and the current drag position in accordance with the received user operation information, and calculates the ratio of this difference to the maximum draggable amount. (Step S102).
  • the vertical length of the user interface area 101 (the length in the short side direction of the display screen 5G) is set as the maximum draggable amount. Then, the ratio of the difference between the drag start point in the short side direction of the display screen of the user interface area 101 and the current drag position with respect to the maximum draggable amount is calculated.
  • the user interface control unit 2 obtains the display position of the boundary symbol displayed in the user interface area 101 according to the position of the start point, the direction of the drag operation with respect to the start point, and the drag operation ratio (operation amount).
  • the coefficient and data storage unit 6 corresponds to three pieces of information: the position of the starting point of the drag operation on the user interface area 101, the direction of the drag operation based on the start point, and the operation amount of the drag operation. The display position of each boundary symbol is stored and held.
  • the user interface control unit 2 can specify the display position of the boundary symbol on the user interface area 101 by referring to the coefficient and data storage unit 6 based on the information obtained as described above. The Further, the user interface control unit 2 obtains the scroll acceleration when scrolling the display item according to the operation amount (ratio) of the drag operation (step S104). Also in the process of step S104, the scroll acceleration can be uniquely specified according to the operation amount of the drag operation. More specifically, for example, the coefficient and data storage unit 6 stores and holds scroll acceleration in association with the operation amount of the drag operation. Then, based on the obtained operation amount of the drag operation, corresponding acceleration data is read from a predetermined area of the coefficient and data storage unit 6. In this way, the scroll acceleration can be obtained in accordance with the operation amount of the drag operation.
  • the user interface control unit 2 updates the display position of each boundary symbol in the user interface area 101 stored and held in the display memory unit 4 based on the obtained display position of each boundary symbol (step S105). . Also, the user interface control unit 2 notifies the data object control unit 3 of the direction of the drag operation and the obtained scroll acceleration (step S106). The data object control unit 3 updates the display information (display item display position) of the item selection display area 102 in the display memory unit 4 according to the direction of the drag operation from the user interface control unit 2 and the scroll acceleration. (Step S107). Thereafter, the display device 5 displays the updated display information (boundary symbols and display items (data objects)) of the display memory unit 4 on the display screen of its own display element (step S108). The processing shown in FIG.
  • FIG. 9 is a diagram for explaining an example of processing for obtaining an operation amount of a drag operation.
  • a drag operation is mainly performed on the user interface area 101 in the vertical direction (the direction along the short side of the display screen 5G). Therefore, as indicated by a double-headed arrow L in FIG. 9, the length L in the vertical direction of the user interface area 101 is the maximum draggable amount.
  • the lower end portion of the user interface area is set to the value “0 (zero)”
  • the upper end portion is set to the value “100”
  • the maximum draggable amount is set to the value “100”. Shows the case.
  • FIG. 9 Shows the case. Then, as shown in FIG.
  • the starting point of the drag operation is set to the position S, and the drag operation of the same size ⁇ is performed in the upward direction (upper end direction) and the downward direction (lower end direction) of the user interface area 101, respectively.
  • the drag operation is performed by a magnitude ⁇ from the start point S in the upward direction and the drag position E1 is reached.
  • the difference between the start point S and the current drag position E1 is obtained by subtracting the vertical coordinate position of the start point S from the vertical coordinate position of the drag position E1, as shown in equation (1) in FIG. Is required.
  • the obtained value becomes a positive value.
  • the difference in this case is “+ ⁇ ”.
  • the difference between the start point S and the current drag position E2 is obtained by subtracting the vertical coordinate position of the start point S from the vertical coordinate position of the drag position E2, as shown in equation (2) in FIG. Is required.
  • the obtained value is a negative value. Therefore, the difference in this case is “ ⁇ ”.
  • the ratio of the difference when the drag operation is performed from the start point S to the drag position E1 with respect to the maximum draggable amount is obtained by the equation (3) shown in FIG.
  • the ratio of the difference to the maximum draggable amount when the drag operation is performed from the start point S to the drag position E2 can be obtained by the equation (4) shown in FIG.
  • the ratio obtained by the equations (3) and (4) in FIG. 9 indicates the drag operation ratio, that is, the drag operation amount.
  • the absolute value of the obtained ratio indicates the magnitude of the operation amount
  • the sign of the ratio indicates the direction of the drag operation.
  • the user interface control unit 2 determines the display position of the boundary symbol displayed in the user interface area 101 of the display memory unit 4 according to the obtained drag operation direction and the drag operation amount, and displays the display position. Control the position. Further, the user interface control unit 2 obtains the scroll direction and scroll acceleration of the display item displayed in the item display selection area 102 in accordance with the obtained drag operation direction and drag operation amount. I have to. [How to find the scroll acceleration of display items] Next, a description will be given of processing for obtaining a scroll direction and scroll acceleration of a display item, which are obtained based on the drag operation direction and the drag operation amount obtained as described with reference to FIG. To do. In this example, the scroll direction of the display item is uniquely determined according to the direction of the drag operation.
  • the direction of the drag operation is uniquely determined according to the current drag position with respect to the start point S of the drag operation. Specifically, when the drag position is above the start point S of the drag operation, the scroll direction is the upward direction. When the drag position is below the start point S of the drag operation, The scroll direction is the lower direction. Therefore, in the case of the example shown in FIG. 9, it is possible to specify by the difference of the drag operation and the sign of the ratio. Further, the scroll acceleration can be uniquely specified by the magnitude of the operation amount of the drag operation (the absolute value of the operation amount).
  • FIG. 10 is a diagram for explaining processing in the case of obtaining scroll acceleration according to the magnitude of the drag operation amount. In FIG.
  • the horizontal axis indicates the magnitude of the drag operation amount
  • the vertical axis indicates scroll acceleration. If the information corresponding to the graph shown in FIG. 10 is stored and held in, for example, the coefficient and data storage unit 6 and the magnitude of the drag operation amount can be specified, the scroll acceleration is uniquely determined accordingly. Have been able to.
  • the scroll acceleration when the drag position moves away from the start point S of the drag operation, the scroll acceleration gradually increases at first. Thereafter, when the drag position from the start point S of the drag operation is separated by a predetermined amount, the scroll speed increases rapidly, and then increases gently again.
  • the scroll direction is specified according to the drag position with respect to the drag operation start point S.
  • FIG. 11 is a diagram for explaining processing in the case of scrolling display items according to a user's drag operation.
  • the diagram on the right side shows a display state of display items and the like at the present time (time t) after scrolling is started in accordance with the drag operation.
  • the diagram on the left side shows an array of display items (data objects) that are scroll-displayed and stored in the memory of the data object control unit 3, for example.
  • FIG. 11 it is assumed that a drag operation is performed on the user interface area 101 provided on the left end side of the display screen 5G as indicated by an arrow. Then, as described above, in response to the drag operation, processing for changing the display position of the boundary symbol displayed in the user interface area 101 is started, and the display items displayed in the item display selection area 102 are displayed. Scrolling process is started. Then, at the current time point t, the item selection display area 102 on the display screen 5G displays from the middle of the item 8 to the middle of the items 9, 10, 10, and 12 as shown in FIG. Suppose that it is in the state. That is, as shown in the diagram on the right side of FIG.
  • the scroll acceleration a at time t can be uniquely specified according to the magnitude of the drag operation amount at time t.
  • the acceleration a at this time t means the rate at which the speed changes per unit time.
  • the unit time is an interval of timing for detecting the acceleration according to the operation amount of the drag operation, and the acceleration corresponds to the scroll amount (movement amount) of the display item in the unit time.
  • the scroll target position is obtained by adding the first specified scroll acceleration to the top position of the display item displayed on the display screen 5G at the start of scrolling at the start of scrolling. Can do. From this point onward, at each timing for specifying the scroll acceleration, the scroll target position is specified at each acceleration detection timing by adding the scroll acceleration specified this time to the previous scroll target position. can do. Then, it is assumed that the acceleration a at the time point t, that is, the scroll amount per unit time, is equivalent to two display items. As described above, the target position of the scroll at the time point t-1 is in the middle of the item 5 as shown in the diagram on the right side of FIG.
  • the scroll target position at the time point t is obtained by adding the acceleration a (for two items) at the time point t to the scroll target position at the time point t-1 (in the middle of the item 5).
  • the scroll target position at time t is in the middle of item 3 as shown in the right side of FIG.
  • the scrolling speed per unit time at the time point t is obtained by subtracting the display position at the time point t (the start position of the display item) from the target position at the time point t and further multiplying by a predetermined coefficient. Is required.
  • FIG. 12 is a diagram for explaining a calculation formula for calculating the scroll speed. Here, the case of the example described with reference to FIG. 11 will be described.
  • the acceleration at the time point t is added to the target position of scrolling at the time point t-1 which is the detection timing of the acceleration immediately before the time point t.
  • the scroll target position at the time t is obtained.
  • the display item display position at the time t (the head position of the displayed display item) is subtracted from the scroll target position at the time t. Thereby, the distance from the head position of the displayed display item at the time t to the target position of the scroll is obtained.
  • the scroll distance per unit time at the time point t is obtained by multiplying the distance obtained by subtraction by a predetermined coefficient.
  • the scroll speed V per hour can be obtained.
  • the display item can be scrolled in accordance with the drag operation by scrolling the display item in the scroll direction corresponding to the direction of the drag operation so as to move by the scroll speed V. . That is, as shown in the equation (2) in FIG. 12, the scroll speed V1 at the time point t-1 immediately before the time point t is the display item displayed at the time point t-1 from the target position at the time point t-1. Is obtained by subtracting the head position and multiplying this by a predetermined coefficient.
  • the display position of the display item at the time point t (the head position of the display item) X is a position advanced from the time point t-1 by the scroll speed V1.
  • the display position X of the display item at the point t adds the display position of the display item at the time point t-1 to the scroll speed V1 at the time point t-1.
  • the scroll speed is specified, and the scroll speed is added to the display position of the current display item (the start position of the display item). As a result, it is possible to specify which display item is to be displayed at the head of the item display selection area 102 next.
  • the unit time is also the interval between timings for obtaining the acceleration.
  • the drag position is detected at every predetermined timing that occurs at regular intervals.
  • the operation amount is obtained, and the acceleration is obtained according to this.
  • the scroll speed to be obtained is a speed per unit time, it can be said that the scroll speed is the scroll distance (movement distance) of the display item per unit time as it is.
  • FIG. 13 is a diagram for explaining a change in scrolling speed in the information processing apparatus 100 according to this embodiment. In FIG. 13, it is assumed that the display item displayed in the item etc. display selection area 102 is at a position where there are many display items in the scroll direction.
  • the scroll acceleration is determined according to the amount of drag operation. Further, as described above, the scroll speed of the display item is determined in consideration of the target position of the scroll determined according to the scroll acceleration. For this reason, when the number of display items decreases in the scroll direction, the scroll target position is finally fixed to the display item at the end. In this case, the scrolling speed is automatically decreased gradually. That is, as shown in FIG. 13, in the section A up to the position Z where the scroll target position can be moved in the scroll direction according to the scroll acceleration, the scroll speed corresponds to the scroll acceleration. It is possible to raise it. However, in FIG.
  • FIG. 14 is a flowchart for explaining the display item scrolling process performed in the data object control unit 3. The process shown in FIG. 14 is repeatedly executed mainly at a predetermined timing in the data object control unit 3 while the drag operation is being performed on the operation surface of the input detection device 1 on the user interface area 101. Process.
  • the data object control unit 3 receives the scroll acceleration of the display item from the user interface control unit 2 (step S201).
  • step S201 the data object control unit 3 receives, for example, information indicating the direction of the drag operation by the user from the user interface control unit 2 in addition to the scroll acceleration.
  • the data object control unit 3 updates the scroll target position using the acceleration (step S202). Specifically, as described above, the current scroll target position is obtained by adding the current acceleration to the previous scroll target position.
  • the data object control unit 3 calculates the difference between the updated target position (the current scroll target position) and the current display item display position (the top position of the display item) (step S203).
  • step S204 the data object control unit 3 calculates the current speed by multiplying the difference obtained in step S203 by a predetermined coefficient.
  • the processing of step S203 and step S204 is the processing of equation (1) described with reference to FIG.
  • the data object control unit 3 updates the display position of the display item in the display memory unit 4 based on the scrolling speed obtained in step S204 and the operation direction of the drag operation from the user interface control unit 2 ( Step S205).
  • the process shown in FIG. 14 is exited and the next execution timing is awaited. Accordingly, the display items displayed in the item display selection area 102 can be scrolled in accordance with the user's drag operation.
  • the display mode of the boundary symbols displayed in the user interface area 101 is changed in accordance with the user's drag operation.
  • 15 and 16 are diagrams for explaining an example of the initial display state of the boundary symbol (the state before the drag operation is performed).
  • four line segments are displayed as boundary symbols to be displayed in the user interface area 101. I use it.
  • six line segments 1031, 1032, 1033, 1034, 1035, 1036 may be used as boundary symbols.
  • the user interface area 101 is divided into seven areas indicated by R1 to R7.
  • the interval between the boundary symbols is changed according to the drag operation.
  • the distance between the boundary symbols at the upper part with the drag start point S as the boundary at the start of dragging, and the upper end portion of the display screen 5G and the boundary symbol closest to the upper end portion. are evenly spaced ⁇ during dragging.
  • the interval between the boundary symbols at the lower part with the drag start point S as the boundary and the interval between the lower end portion of the display screen 5G and the boundary symbol closest to the lower end portion is the interval ⁇ even during dragging. .
  • interval of a tracing direction side becomes narrow.
  • the intervals between the upper end portion of the display screen 5G and the boundary symbol 103A and between the boundary symbol 103A and the boundary symbol 103B are equal.
  • the interval is ⁇ .
  • the intervals between the boundary symbol 103C and the boundary symbol 103D and between the boundary symbol 103D and the lower end portion of the display screen 5G are equal to the interval ⁇ .
  • This principle does not change during dragging, and the order of the upper end of the display screen 5G, the boundary symbol 103A, the boundary symbol 103B, the drag point at that time, the boundary symbol 103C, the boundary symbol 103D, and the lower end of the display screen 5G does not change. Since the interval on the tracing direction side becomes narrow, the interval ⁇ is controlled to be narrower than the interval ⁇ . [User interface area display after drag operation] Then, as described above, a drag operation is performed on the operation surface of the input detection device 1 on the user interface area 101 to scroll the display items displayed in the item selection display area 102 and the target display item. Is displayed.
  • FIG. 17 is a diagram for explaining an example of a display state of display information on the display screen 5G immediately after the drag operation is finished.
  • the drag operation is performed in the order of the drag operation start point S ⁇ the drag position E1 ⁇ the drag position E2, the display items are scrolled, and the target display is performed. It is assumed that the drag operation is finished because an item is displayed.
  • the display item (item 4 in the case of the example in FIG. 4) whose entire display information is displayed on the upper end side of the item display selection area 102 is displayed at the top.
  • display items as shown in FIG. 17, four display items are displayed. Thereafter, scrolling of display items in the item display selection area 102 is stopped.
  • each of the boundary symbols 103A, 103B, 103C, and 103D in the user interface area 101 is returned to a predetermined position in the initial state before the drag operation is performed. However, it does not simply return to the predetermined position in the initial state. As shown in FIG.
  • each of the boundary symbols 103A, 103B, 103C, and 103D returns to a predetermined position in the initial state before the drag operation is performed, and shakes up and down as indicated by arrows on the respective boundary symbols. Is displayed.
  • the expansion / contraction of rubber is expressed in the user interface area 101 in accordance with the display mode of the boundary symbols in the user interface area 101 in accordance with the drag operation of the user.
  • the stretched or shrunk rubber returns to the original state, the rubber is slightly oscillated by the energy when the rubber is pulled back to the original state.
  • the vibration width of each boundary symbol after the drag operation is controlled according to the operation amount of the drag operation. That is, when the operation amount of the drag operation is large, the vibration width of each boundary symbol after the drag operation is increased, and when the operation amount of the drag operation is small, the vibration width of each boundary symbol after the drag operation is small. It is trying to become.
  • FIG. 18 is a flowchart for explaining processing when the display position of the boundary symbol in the user interface area 101 is returned to the initial state when the drag operation is ended.
  • the process shown in FIG. 18 is repeatedly executed at an appropriate timing in the user interface control unit 2 after the drag operation is started by the user. That is, when a drag operation is performed on the operation surface of the input detection device 1 on the user interface area 101, the user interface control unit 2 repeatedly executes the process shown in FIG. 18 at an appropriate timing. . Then, in the process shown in FIG. 18, the user interface control unit 2 monitors the detection output from the input detection device 1 and determines whether or not the user's contact with the operation surface on the user interface area 101 has ended ( Step S301).
  • step S301 If it is determined in step S301 that the user's contact with the operation surface of the input detection device 1 on the user interface area 101 has not been completed, the processing shown in FIG. 18 is skipped and the next execution timing is awaited.
  • the acceleration to be used is selected based on the operation amount of the drag operation (step S302). .
  • the processing in step S302 is used to vibrate the boundary symbol when the boundary symbol is returned to the initial position according to the operation amount from the starting point of the drag operation to the drag position at the end of the drag operation. It is.
  • the user interface control unit 2 first returns each boundary symbol in the user interface area 101 to the initial position, and vibrates the boundary symbol according to the selected acceleration and a predetermined physical model (step S303).
  • the physical model used in this step S303 is, for example, rubber expansion and contraction, but various other physical models such as spring expansion and contraction can be used. Then, the vibration of the boundary symbol in step S303 gradually converges, and finally each boundary symbol returns to a stationary state at the initial position. Thereafter, the user interface control unit 2 ends the processing shown in FIG. 18 and is repeatedly executed when the drag operation is started.
  • FIG. 19 is a diagram for describing scroll display of display items displayed in the item selection display area 102 when a flick operation is performed on the operation surface of the input detection device 1 on the user interface area 101.
  • FIG. 19A is a diagram for explaining the display state of the display screen 5G before the flick operation is performed on the operation surface of the input detection device 1 on the user interface area 101.
  • FIG. 19A in the user interface area 101, each boundary symbol or the like is displayed at a position in an initial state before a drag operation or a flick operation is performed.
  • the item display selection area 102 As in the case shown in FIG. 2, four display items from the item 20 to the item 23 are displayed, and the item can be scrolled up and down. ing.
  • FIG. 19 it is assumed that a flick operation is performed from the lower part of the user interface area 101 in the upper direction (upper end direction) of the display screen 5G as indicated by a dotted arrow.
  • the flick operation is an operation of quickly “repelling” in an arbitrary direction after making contact with the operation surface of the input detection device 1 with a user's finger or the like. Therefore, the contact of the user's finger or the like with the operation surface of the input detection device 1 takes a very short time compared to the drag operation. For this reason, as shown in FIG.
  • the display of each boundary symbol in the user interface area 101 immediately after the flick operation is performed, the display of each boundary symbol in the user interface area 101 according to the start point, the operation direction, and the operation amount of the flick operation. Change aspects.
  • the display items in the item display selection area 102 are scrolled according to the operation direction and operation amount of the flick operation.
  • the display mode of each boundary symbol in the user interface area 101 can be basically changed in the same manner as the above-described drag operation. That is, even in the case of a flick operation, the operation amount of the flick operation can be grasped according to the distance from the start point to the end point of the contact of the user's finger or the like.
  • the operation amount of the flick operation it is possible to grasp the operation amount of the flick operation according to the time from the start point to the end point of the contact of the user's finger or the like.
  • the contact state with respect to the operation surface of the input detection device 1 is very short.
  • the operation amount may be set to a predetermined amount.
  • the flick operation has a very short contact state with the operation surface of the input detection device 1. For this reason, after the display as shown in FIG. 19B is performed according to the flick operation, the display mode of the boundary symbols in the user interface area 101 is quickly returned to the initial state, and the items and the like are displayed. The scrolling of the selection area 102 is stopped.
  • the display position of each boundary symbol in the user interface area 101 is changed to the initial state as shown in FIG. 19C. Return to position and display each boundary symbol to vibrate up and down.
  • the process of displaying the boundary symbol so as to vibrate is performed in the same manner as described above with reference to FIGS.
  • the scrolling of the display items in the item display selection area 102 is stopped as shown in FIG. 19C. In this case, after the display item is scrolled by an amount corresponding to the flick operation, the display item in which the entire display information is displayed on the upper end side of the display selection area 102 is set as the first display item.
  • FIG. 20 is a flowchart for explaining processing at the time of a flick operation performed in the information processing apparatus 100 according to this embodiment.
  • the processing illustrated in FIG. 20 is executed when the information processing apparatus 100 is turned on and a flick operation is performed on the operation surface of the input detection device 1 on the user interface area 101.
  • the processing shown in FIG. 20 is executed when the information processing apparatus 100 is turned on and a flick operation is performed on the operation surface of the input detection device 1 on the user interface area 101. The processing shown in FIG.
  • the user interface control unit 2 receives user operation information from the input detection device 1 (step S401).
  • the user operation information is coordinate data corresponding to the operation surface of the input detection device 1 that changes according to the flick operation.
  • the user interface control unit 2 obtains a user operation amount (flick operation amount) according to the received user operation information, and obtains a boundary symbol display position according to the user operation amount (step S402).
  • the user operation amount (flick operation amount) can be obtained as a difference between the flick operation start point (flick start point) and the flick operation end point (flick end point). Further, as described above, the user operation amount (flick operation amount) can also be obtained as the time from the flick operation start point (flick start point) to the flick operation end point (flick end point). Alternatively, a fixed value may be used as the user operation amount (flick operation amount).
  • step S402 based on the position of the start point of the flick operation on the user interface area 101, the direction of the flick operation with respect to the start point, and the operation amount of the flick operation (user operation amount), It is possible to specify where the display position of the boundary symbol is.
  • the coefficient and data storage unit 6 is associated with three pieces of information: the position of the start point of the flick operation on the user interface area 101, the direction of the flick operation based on the start point, and the operation amount of the flick operation.
  • the position of each boundary symbol is stored and held.
  • the user interface control unit 2 can specify the display position of the boundary symbol on the user interface region 101 by referring to the coefficient and data storage unit 6 based on the information obtained as described above.
  • the user interface control unit 2 obtains the scroll acceleration when scrolling the display item according to the user operation amount (flick operation) (step S403). Also in the process of step S403, the scroll acceleration can be uniquely specified according to the operation amount of the flick operation.
  • the coefficient and data storage unit 6 stores and holds scroll acceleration in association with the operation amount of the flick operation. Then, based on the obtained operation amount of the flick operation, corresponding acceleration data is read out from a predetermined area of the coefficient and data storage unit 6. In this way, the scroll acceleration can be obtained according to the operation amount of the flick operation. Thereafter, the user interface control unit 2 updates the display position of each boundary symbol in the user interface area 101 stored and held in the display memory unit 4 based on the obtained display position of each boundary symbol (step S404). . In addition, the user interface control unit 2 notifies the data object control unit 3 of the direction of the flick operation and the obtained scroll acceleration (step S405).
  • the data object control unit 3 updates the display information (display item display position) of the item selection display area 102 in the display memory unit 4 according to the direction of the flick operation from the user interface control unit 2 and the scroll acceleration. (Step S406). Thereafter, the display device 5 displays the updated display information (boundary symbols and display items (data objects)) in the display memory unit 4 on the display screen of its own display element (step S407). The process shown in FIG. 20 is terminated and the next flick operation is waited for. In this way, the display correspondence of the boundary symbols in the user interface area 101 can be changed according to the flick operation of the user, and the display items (data objects) displayed in the item display selection area 102 can be scroll-displayed. Can do.
  • FIGS. 21 to 27 are diagrams for explaining other examples of display modes of information displayed on the display screen of the display device 5 that changes in response to a drag operation in the information processing apparatus 100 according to this embodiment. is there.
  • FIG. 21 shows the same state as in FIG. 2 described above, and is displayed on the display screen 5G of the display device 5 before the drag operation is performed on the input detection device 1 in the information processing apparatus 100. It is a figure for demonstrating the display state of information.
  • the user interface area 101 is divided into five parts by four boundary symbols 103A, 103B, 103C, and 103D which are line segments.
  • the boundary symbols 103A, 103B, 103C, and 103D are divided into, for example, five areas equally in the vertical direction of the user interface area 101 during normal times (when no drag operation is performed). It will be displayed at the position to do.
  • the center guide in the vertical direction of the user interface area 101 sandwiched between the boundary symbol 103B and the boundary symbol 103C is a center guide which is three line segments indicating the center.
  • a symbol 104 is displayed.
  • a display item group (data object group) 105 is displayed in the item display selection area 102.
  • four display items (data objects) are displayed in the item display selection area 102.
  • FIG. 21 shows the display state of information displayed on the display screen 5G of the display device 5 immediately after the drag operation is started in the direction indicated by the arrow in FIG. 21 from the state before the start of the drag operation shown in FIG. It is a figure for demonstrating.
  • the input detection device 1 When a drag operation is performed on the operation surface of the input detection device 1 on the user interface area 101, the input detection device 1 causes the contact position on the operation surface of the input detection device 1 to change according to the user's drag operation. Coordinate data corresponding to is output. Coordinate data from the input detection device 1 is supplied to the user interface control unit 2.
  • the user interface control unit 2 grasps the direction of the user's drag operation and the operation amount based on the coordinate data from the input detection device 1. Then, the user interface control unit 2 changes the display position of the boundary symbol in the user interface area 101 of the display memory unit 4 according to the grasped contents.
  • each of the boundary symbols 103A, 103B, 103C, and 103D in the user interface area 101 has a display position of a drag operation as shown in FIG. To move in the direction. Further, as shown in FIG. 22, the interval between the boundary symbols 103A, 103B, 103C, and 103D in the user interface area 101 is clogged like a pattern when the rubber is shrunk, so that the operation amount of the user's drag operation is reduced. Intuitive recognition is possible. That is, in FIG. 22, the starting point of the drag operation is indicated by the position S, and the current drag position is indicated by the position E1.
  • the operation direction in this case is an upward direction with respect to the display screen 5G, as indicated by a solid arrow from the start point S to the current drag position E1.
  • the operation amount of the drag operation in this case corresponds to the difference between the start point S and the current drag position E1 as described above, the size indicated by the double arrow 201 in FIG. Therefore, the user interface control unit 2 controls the display memory unit 4 to move the position of each boundary symbol in the user interface area 101 of the display memory unit 4 according to the operation amount of the drag operation and the direction of the operation. .
  • the boundary symbols 103A and 103B, the boundary symbols 103B and 103C, and the boundary symbols 103C and 103D are different from each other.
  • the user interface control unit 2 is located at the end of the operation surface of the input detection device 1 in the direction of the drag operation determined according to the current drag position E1 with respect to the drag operation start point S.
  • the interval between the nearest boundary symbols is made narrower.
  • the direction of the drag operation is the direction from the start point S to the current drag position E1 (upward direction on the display screen 5G) on the display screen 5G as described above.
  • the end of the operation surface of the input detection device 1 in the direction of the drag operation is the upper end of the display screen 5G in the example shown in FIG.
  • the interval between the boundary symbols near the upper end of the display screen 5G becomes narrower.
  • the space between the boundary symbols 103A and 103B is the narrowest
  • the space between the boundary symbols 103B and 103C is the second narrowest
  • the boundary symbols 103C and 103D The gap is the third narrowest.
  • the interval between the boundary symbols is gradually increased in the order between the boundary symbols 103A and 103B ⁇ the boundary symbols 103B and 103C ⁇ the boundary symbols 103C and 103D.
  • the scroll display of the display items displayed in the item display selection area 102 is performed in the same manner as described with reference to FIGS. 2 to 5 and FIGS. become. Then, by further continuing the drag operation from the state shown in FIG.
  • FIG. 23 is a diagram for explaining a display state of information displayed on the display screen 5G of the display device 5 when a drag operation is further performed from the drag position E1 illustrated in FIG.
  • the drag operation is continued from the drag position E1 to the drag position E2 as indicated by the arrow from the position E1 to the position E2.
  • the newly performed drag operation is from the drag position E1 to the current drag position E2.
  • the drag operation amount indicated by the difference between the drag operation start point S and the current drag position E2 is larger than the double arrow 201 shown in FIG.
  • the user interface control unit 2 controls the display memory unit 4 based on the direction of the drag operation and the latest operation amount of the drag operation indicated by the double arrow 301, and determines the positions of the boundary symbols 103A, 103B, 103C, and 103D. change.
  • the operation amount of the drag operation is further increased from the state shown in FIG. For this reason, when the drag operation is further continued in the same direction from the state shown in FIG. 22 to the state shown in FIG. 23, the interval between the boundary symbols is made closer.
  • FIG. 24 illustrates a display state of information displayed on the display screen 5G of the display device 5 when a large drag operation is performed in the opposite direction from the drag position E2 illustrated in FIG. It is a figure for doing. As described with reference to FIGS. 21, 22, and 23, it is assumed that the drag operation is performed as starting point S ⁇ position E1 ⁇ position E2. Then, as shown in FIG.
  • the upper right of the area is released without releasing the finger or the like that is in contact with the operation surface of the input detection device 1 in the user interface area 101.
  • the display position of the boundary symbol in the user interface area 101 is changed based on the direction of the drag operation and the operation amount of the drag operation.
  • the display items displayed in the item selection display area 102 are also scroll-displayed based on the direction of the drag operation and the acceleration determined according to the operation amount of the drag operation. In this case, the interval between the boundary symbols in the user interface area 101 is gradually increased until the operation position of the drag operation reaches the start point S from the position E2.
  • each of the boundary symbols 103A, 103B, 103C, and 103D in the user interface area 101 is moved in the direction of the drag operation, that is, the direction toward the lower end of the display screen 5G.
  • the display position of each of the boundary symbols 103A, 103B, 103C, and 104D is changed for each, and the interval between the boundary symbols is changed.
  • the boundary symbols 103A and 103B, the boundary symbols 103B and 103C, and the boundary symbols 103C and 103D are different from each other.
  • the user interface control unit 2 also detects the end of the operation surface of the input detection device 1 in the direction of the drag operation determined according to the current drag position with respect to the drag operation start point S. The interval between boundary symbols closer to the part is made narrower.
  • the direction of the drag operation is the downward direction on the display screen 5G, as shown by the solid line arrow from the upper right to the lower left in FIG.
  • the end of the operation surface of the input detection device 1 in the direction of the drag operation is the lower end of the display screen 5G in the example shown in FIG. Accordingly, in the case of the example shown in FIG. 24, the interval between the boundary symbols near the lower end of the display screen 5G is narrowed. For this reason, in the example shown in FIG. 24, the space between the boundary symbols 103D and 103C is the narrowest, the space between the boundary symbols 103C and 103B is the second narrowest, and the boundary symbols 103B and 103A The gap is the third narrowest.
  • the interval between the boundary symbols is gradually increased in the order between the boundary symbols 103D and 103C, between the boundary symbols 103C and 103B, and then between the boundary symbols 103B and 103A.
  • the amount of drag operation increases, so the interval between the boundary symbols is gradually reduced.
  • each of the boundary symbols 103A, 103B, 103C, and 103D is displayed so as to overlap at the same position. In this way, by displaying different intervals between the boundary symbols displayed in the user interface area 101 in accordance with the drag operation, the direction of the drag operation and the operation amount of the drag operation are determined depending on the interval. Users can be notified. For example, as shown in FIG.
  • the intervals may be controlled to be equal intervals.
  • FIG. 21 and FIG. 15 a case where four boundary symbols 103A, 103B, 103C, and 103D as line segments are used will be described as an example.
  • the area sandwiched between the boundary symbols 103B and 103C is defined as area A, and sandwiched between the upper end of the user interface area 101 and the boundary symbol 103A.
  • area B This area is referred to as area B.
  • a region sandwiched between the boundary symbols 103A and 103B is defined as a region D.
  • the region sandwiched between the lower end of the user interface region 101 and the boundary symbol 103D is defined as a region C, and the region sandwiched between the boundary symbols 103C and 103D is defined as a region.
  • E In the following description, as shown in FIG. 15, the direction indicated by the arrow a will be described as the upper direction, and the direction indicated by the arrow b will be described as the lower direction.
  • the interval between the boundary symbols is controlled according to the position of the starting point of the drag operation, the direction of the drag operation, and the operation amount of the drag operation.
  • the interval between the boundary symbols can be controlled. That is, FIG. 25 and FIG. 26 show how to control the interval between the boundary symbols according to the position of the start point of the drag operation on the user interface area 101, the direction of the drag operation, and the operation amount of the drag operation. It is a figure for demonstrating the correspondence table which matched. 25 and 26, the drag start area column indicates an area where the start point of the drag operation is located.
  • the drag operation direction indicates the direction of the current drag position with respect to the start point of the drag operation (the direction of the drag operation).
  • the operation amount (ratio) column indicates the operation amount of the drag operation.
  • x1 to xn in the operation amount (ratio) column are operation amounts of the drag operation (operation amounts from the start point of the drag operation to the drag position).
  • the operation amount (ratio) column indicates the range of the operation amount of the drag operation.
  • ⁇ x1 indicates a range where “0 ⁇ operation amount ⁇ x1”
  • ⁇ x2 indicates a range where “x1 ⁇ operation amount ⁇ x2”.
  • ⁇ x3 indicates a range where “x2 ⁇ operation amount ⁇ x3”, and “ ⁇ x4” indicates a range where “x3 ⁇ operation amount ⁇ x4”.
  • ⁇ xn indicates a range where “xn ⁇ 1 ⁇ operation amount ⁇ xn”.
  • the head symbol position column indicates the head boundary symbol (boundary symbol movement direction) and the position of the head boundary symbol in the user interface area 101.
  • positions y1, y2,..., Yn indicate positions on the upper end side of the user interface area 101, and positions yy1, yy2,..., Yyn indicate lower ends of the user interface area 101.
  • the side position is shown.
  • the symbol interval section indicates the control section of the interval between the boundary symbols, that is, whether the interval between the boundary symbols is non-uniform or equal.
  • each of symbol interval 1, symbol interval 2, and symbol interval 3 indicates the size of the interval between the boundary symbols.
  • the symbol interval 1 corresponds to a boundary symbol located at the extreme end in the drag operation direction in the user interface area 101.
  • Symbol interval 2 corresponds to the boundary symbol next to symbol interval 1
  • symbol interval 3 corresponds to the boundary symbol next to symbol interval 2.
  • the starting point of the drag operation is provided by bringing a finger or the like into contact with any one of the upper regions A, B, and D from the region A, and the upper direction in FIG. It is assumed that a drag operation is performed in the direction indicated by the arrow a). In this case, there are at most two boundary symbols in the direction of the drag operation from the start point of the drag operation. For this reason, in FIG. 25, the drag start area is any one of areas A, B, and D, and the drag operation direction is on the upper side, as shown in the five rows. The display position of the boundary symbol is controlled. In this case, as shown in FIG.
  • the boundary symbol 103A is used as the head boundary symbol, and the display position of each boundary symbol is controlled to change upward in FIG.
  • the top boundary symbol 103A is displayed at a position on the user interface area 101 indicated by values y1, y2,.
  • the interval between the boundary symbols is controlled by the values indicated by symbol interval 1, symbol interval 2, and symbol interval 3. In this case, the interval is increased in the order of (1) between the boundary symbols 103A and 103B ⁇ (2) between the boundary symbols 103B and 103C ⁇ (3) between the boundary symbols 103C and 103D. Then, as can be seen from the information of symbol interval 1, symbol interval 2, and symbol interval 3 in FIG. 25, the amount of drag operation increases, so the interval between the boundary symbols gradually decreases.
  • each boundary symbol gradually moves to the upper end side of the user interface area 101, and finally, the interval becomes 0 (zero), and the four boundary symbols overlap and display at the same position.
  • the starting point of the drag operation is provided by bringing a finger or the like into contact with any one of the lower areas A, C, and E from the area A.
  • a drag operation is performed in the direction indicated by the arrow b in FIG.
  • the drag start area is any one of areas A, C, and E, and the drag operation direction is shown in the five rows on the lower side.
  • the display position of the boundary symbol is controlled.
  • the boundary symbol 103D is set as the first boundary symbol, and the display position of each boundary symbol is controlled to change downward in FIG.
  • the top boundary symbol 103D is displayed at a position on the user interface area 101 indicated by the values yy1, yy2,.
  • the interval between the boundary symbols is controlled by the values indicated by symbol interval 1, symbol interval 2, and symbol interval 3. In this case, the interval is increased in the order of (1) between the boundary symbols 103D and 103C ⁇ (2) between the boundary symbols 103C and 103B ⁇ (3) between the boundary symbols 103B and 103A. Then, as can be seen from the information of symbol interval 1, symbol interval 2, and symbol interval 3 in FIG.
  • the display position of each boundary symbol is changed according to the operation amount of the drag operation. Be controlled.
  • the boundary symbol 103D is set as the head boundary symbol, and the display position of each boundary symbol is controlled to change in the lower direction, which is the direction opposite to the direction indicated by the arrow in FIG. .
  • the top boundary symbol 103D is displayed at a position on the user interface area 101 indicated by the values yy1, yy2,.
  • the interval between the boundary symbols is controlled by the values indicated by symbol interval 1, symbol interval 2, and symbol interval 3.
  • control is performed so that the intervals between (1) the boundary symbols 103A and 103B, (2) the boundary symbols 103B and 103C, and (3) the boundary symbols 103C and 103D are equal. Is done. Also in this example, the amount of drag operation increases as can be seen from the information of symbol interval 1, symbol interval 2, and symbol interval 3 in FIG. Narrow. Therefore, in this case, each boundary symbol gradually moves to the lower end side of the user interface region 101 while the intervals between the symbols are made uniform. Eventually, the interval becomes 0 (zero), and the four boundary symbols overlap and display at the same position. Further, in the example shown in FIG.
  • the starting point of the drag operation is provided by bringing a finger or the like into contact with the region C on the lower end side, and the drag operation is performed in the upward direction in FIG.
  • all four boundary symbols exist in the direction of the drag operation from the start point of the drag operation, and there are three boundary symbols sandwiched between the boundary symbols. Therefore, in FIG. 25, the display position of each boundary symbol is controlled according to the operation amount of the drag operation, as shown in each row when the drag start region is the region C and the drag operation direction is the upper side.
  • the boundary symbol 103A is used as the head boundary symbol, and the display position of each boundary symbol is controlled to change upward in FIG.
  • the top boundary symbol 103A is displayed at a position on the user interface area 101 indicated by values y1, y2,.
  • the interval between the boundary symbols is controlled by the values indicated by symbol interval 1, symbol interval 2, and symbol interval 3.
  • control is performed so that the intervals between (1) the boundary symbols 103A and 103B, (2) the boundary symbols 103B and 103C, and (3) the boundary symbols 103C and 103D are equal. Is done.
  • the amount of drag operation increases as can be seen from the information of symbol interval 1, symbol interval 2, and symbol interval 3 in FIG. Narrow. Therefore, in this case, each boundary symbol gradually moves to the upper end side of the user interface region 101 while the intervals between the symbols are made uniform.
  • the boundary symbol 103D is set as the first boundary symbol, and the display position of each boundary symbol is controlled to change downward in FIG.
  • the top boundary symbol 103D is displayed at a position on the user interface area 101 indicated by the values yy1, yy2,.
  • the interval between the boundary symbols is controlled by the values indicated by symbol interval 1, symbol interval 2, and symbol interval 3.
  • (1) the boundary symbols 103C and 103D and (2) the boundary symbols 103B and 103C are equally spaced.
  • (3) the interval between the boundary symbols 103A and 103B is controlled to be larger than (1) the interval between the boundary symbols 103C and 103D and (2) the interval between the boundary symbols 103B and 103C.
  • the top boundary symbol 103A is displayed at a position on the user interface area 101 indicated by values y1, y2,.
  • the interval between the boundary symbols is controlled by the values indicated by symbol interval 1, symbol interval 2, and symbol interval 3.
  • the interval between (1) the boundary symbols 103A and 103B and (2) the boundary symbols 103B and 103C are equal.
  • (3) the interval between the boundary symbols 103C and 103D is controlled to be larger than (1) the interval between the boundary symbols 103A and 103B and (2) the interval between the boundary symbols 103B and 103C.
  • the amount of drag operation increases, so the interval between the boundary symbols gradually increases. Narrow.
  • the interval between the two boundary symbols sandwiched between the boundary symbols positioned in the direction of the drag operation when viewed from the start point is equal, and the interval between the other boundary symbols is equal to the two boundary symbols. It is made longer than the interval between.
  • Each boundary symbol gradually moves to the upper end side of the user interface area 101. Eventually, the interval becomes 0 (zero), and the four boundary symbols overlap and display at the same position.
  • the information processing apparatus 100 is based on the position of the start point of the drag operation on the user interface area 101, the direction of the drag operation with respect to the start point, and the operation amount of the drag operation. Controls the display position of symbols.
  • the display mode of the boundary symbols in the user interface area 101 is changed according to the user's drag operation.
  • the display of the user interface area 101 can be changed in a manner matching the expansion and contraction of the rubber.
  • the display of the user interface area 101 can be changed in a manner corresponding to the user's drag operation.
  • the user can clearly know how the drag operation he / she is performing is recognized in the information processing apparatus 100.
  • the drag operation performed by the user can be corrected, and the display items can be scrolled as the user thinks.
  • the interval between the boundary symbols is controlled according to the following first and second conditions. That is, as a first condition (principle), the interval between the boundary symbols near the end of the operation surface of the input detection device 1 in the direction of the drag operation determined according to the current drag position with respect to the start point of the drag operation becomes narrower. was controlled as follows. However, as a second condition, in the state before the drag operation is started, the interval between the boundary symbols positioned in the direction of the drag operation from the start point of the drag operation is controlled to be equal. Through these controls, the display mode of the boundary symbols in the user interface area 101 is clearly clarified visually by the information processing apparatus in accordance with the drag operation performed by the user in accordance with the user's drag operation. Can grasp.
  • the display mode of the boundary symbol in the user interface area 101 can be changed as if the rubber is stretched or contracted, it is easy for the user who is operating to intuitively understand the operation state he / she is performing. There is a merit to say.
  • the process for adjusting the interval between the boundary symbols described with reference to FIGS. 25 and 26 is an example, and various other methods can be used. For example, based on (a) the position of the start point of the drag operation on the user interface area 101 and (b) the direction of the drag operation with respect to the start point, how to set the ratio of the intervals between the boundary symbols. Decide it.
  • the interval between the boundary symbols can be appropriately controlled by changing the unit width of the interval between the boundary symbols based on the operation amount of the drag operation.
  • a detailed correspondence table as shown in FIGS. 25 and 26 is not necessary.
  • the interval between the upper end portion of the display screen 5G and the boundary symbol, and the interval between the lower end portion of the display screen 5G and the boundary symbol are also possible. That is, the display position of the first boundary symbol in the operation direction can also be gradually shifted from the initial display position by an amount corresponding to the operation amount of the user's drag operation. It is also possible to use a method such as determining the interval between the boundary symbols based on a predetermined function.
  • the boundary symbol For example, based on (a) the position of the start point of the drag operation on the user interface area 101, (b) the direction of the drag operation relative to the start point, and (c) the operation amount of the drag operation, the boundary symbol
  • the display position may be controlled.
  • the display mode of the boundary symbols in the user interface area 101 may be controlled in association with the user's drag operation according to a predetermined physical model such as rubber expansion / contraction or spring expansion / contraction.
  • a predetermined physical model such as rubber expansion / contraction or spring expansion / contraction.
  • FIG. 27 is a diagram for explaining scroll display of display items displayed in the item selection display area 102 when a flick operation is performed on the operation surface of the input detection device 1 on the user interface area 101.
  • FIG. 27A it is assumed that each boundary symbol or the like is displayed in the user interface area 101 at the initial position before the drag operation or flick operation is performed.
  • FIG. 27A it is assumed that four display items from item 20 to item 23 are displayed in the item display selection area 102 and can be scrolled up and down.
  • FIG. 27A it is assumed that a flick operation is performed in the upper direction (upper end direction) of the display screen 5G as indicated by the dotted line arrow from the center portion of the user interface area 101. In this case, as shown in FIG.
  • the display of each boundary symbol in the user interface area 101 is scrolled according to the operation direction and operation amount of the flick operation.
  • the width gradually increases in the order between the boundary symbol 103A and the boundary symbol 103B ⁇ the boundary symbol 103B and the boundary symbol 103C ⁇ the boundary symbol 103C and the boundary symbol 103D. To be controlled. That is, the interval between the boundary symbols near the end of the display screen 5G in the direction of the flick operation is narrowed.
  • the flick operation As described above, in the case of the flick operation, the contact state with respect to the operation surface of the input detection device 1 is very short. For this reason, in the case of a flick operation, the operation amount may be set to a predetermined amount. As described above, the flick operation has a very short contact state with the operation surface of the input detection device 1. Therefore, after the display as shown in FIG. 27B is performed according to the flick operation, the display mode of the boundary symbols in the user interface area 101 is quickly returned to the initial state, and the items and the like are displayed.
  • the scrolling of the selection area 102 is stopped. That is, after changing the display mode as shown in FIG. 27B according to the flick operation, the display position of each boundary symbol in the user interface area 101 is changed to the initial state as shown in FIG. Return to position and display each boundary symbol to vibrate up and down. The process of displaying the boundary symbol so as to vibrate is performed in the same manner as described above with reference to FIGS. Further, after the display is changed as shown in FIG. 27B in response to the flick operation, scrolling of the display items in the item selection display area 102 is stopped as shown in FIG. 27C.
  • the display item in which the entire display information is displayed on the upper end side of the display selection area 102 is set as the first display item.
  • the display item in which the entire display information is displayed on the upper end side of the display selection area 102 is set as the first display item.
  • four display items are displayed.
  • the display items in the item selection display area 102 can be scrolled according to the operation direction and the operation amount of the flick operation.
  • FIG. 28 is a block diagram for explaining a configuration example of a video camera 200 to which the information processing apparatus according to the present invention is applied.
  • the key input circuit 221 includes various operation keys such as a shooting start key, a shooting stop key, a standby key, a playback key, a playback stop key, a fast-forward key, and a fast-rewind key. This is supplied to the controller 220.
  • control unit 220 is a microcomputer formed by connecting a CPU, a ROM, a RAM, a nonvolatile memory, and the like through a CPU bus, and supplies control signals to each unit as shown in FIG. By controlling each part. Therefore, the control unit 220 controls each unit in accordance with an instruction input from the user received through the key input circuit 221 so that processing corresponding to the user's instruction can be executed in the video camera 200.
  • the control unit 220 controls each unit and starts shooting processing.
  • the microphone unit 201 collects ambient audio and converts it into an electrical signal, which is supplied to the audio signal processing circuit 202.
  • the audio signal processing circuit 202 performs various audio signal processing such as amplification processing, noise reduction processing, and A / D (Analog / Digital) conversion processing on the audio signal supplied thereto, and performs digital audio processing after processing.
  • the signal is supplied to the superposition separation circuit 203.
  • the lens 204 is controlled in exposure and focus through the control unit 220 to capture an image of the subject and form the image on the imaging surface of the image sensor included in the subsequent light receiving unit 205.
  • the light receiving unit 205 includes an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the light receiving unit 205 converts the image formed on the imaging surface of its own image sensor into an electrical signal, and supplies this to the camera signal processing circuit 206.
  • the camera signal processing circuit 206 converts the video signal supplied thereto into a digital signal, performs various camera signal processing such as detection processing, white balance adjustment, synchronization processing, gamma correction, and the like.
  • the signal is supplied to the superposition separation circuit 203.
  • the superposition / separation circuit 203 compresses and multiplexes the digital audio signal and digital video signal supplied thereto, forms recording data, and supplies the recording data to the recording / reproducing circuit 207.
  • the recording / reproducing circuit 207 records the recording data from the superposition / separation circuit 203 in the built-in memory 208 or the Memory Stick (registered trademark) 209.
  • the memory stick 209 is a so-called memory card manufactured by Sony Corporation. In the video camera 200, the memory stick 209 is used. However, various other memory cards can be used. Further, as described above, when video and audio are recorded, video data before data compression is supplied from the superimposition separation circuit 203 to the superimposition circuit 213.
  • the superimposing circuit 213 is also supplied with display information for superimposing the video to be displayed from the on-screen display circuit 222.
  • the on-screen display circuit 222 forms various display information to be superimposed on an image displayed on the display screen of the LCD panel 214 described later under the control of the control unit 220, and supplies this to the superimposing circuit 213.
  • display information formed in the on-screen display circuit 222 various guidance messages, icons, volume adjustment bars, various adjustment bars for video, and the like are formed.
  • the on-screen display circuit 222 forms, for example, a boundary symbol, a stop guide symbol, a display item (data object), and the like to be displayed in the user interface area 101 and supplies them to the superposition circuit 213.
  • the superimposing circuit 213 superimposes the display information from the on-screen display circuit 222 on the video signal from the superimposing / separating circuit 203, converts it into an analog signal, and supplies it to the LCD panel 214. Thereby, an image obtained by superimposing the image formed by the on-screen display circuit 222 on the image captured by the lens 204 can be displayed on the display screen of the LCD panel 214 and provided to the user.
  • the on-screen display circuit 222 forms display information to be superimposed only when necessary according to the control of the control unit 220, and does not always form display information to be superimposed. When display information is not formed by the on-screen display circuit 222, only the image captured by the lens 204 is displayed on the LCD panel 214.
  • audio data before data compression is supplied from the superimposition separation circuit 203 to the audio output unit 211.
  • the audio output unit 211 converts the audio data supplied thereto into an analog audio signal, performs processing such as amplification according to control from the control unit 220, and supplies the processed audio signal to the speaker 212. .
  • the sound collected by the microphone unit 201 can be emitted through the speaker 212 and provided to the user.
  • the control unit 220 controls each unit and starts the reproduction process of the recorded data.
  • the recording / reproducing circuit 207 reads the recording data instructed to be reproduced from the built-in memory 208 or the memory stick 209 in which the recording data is recorded, and supplies the read recording data to the superposition / separation circuit 203.
  • the superimposing / separating circuit 203 separates the recording data from the recording / reproducing circuit 207 into audio data and video data multiplexed therein, and compresses / decompresses the data (data expansion). , Restore video data.
  • the superimposing / separating circuit 203 supplies the restored video data to the LCD panel 214 through the superimposing circuit 213.
  • a video corresponding to the video data recorded in the memory can be displayed on the display screen of the LCD panel 214.
  • the control unit 220 controls the on-screen display circuit 222 as necessary, and displays various display information superimposed on the video displayed on the display screen of the LCD panel 214.
  • the superposition / separation circuit 203 supplies the restored audio data to the audio output unit 211. As a result, sound corresponding to the sound data recorded in the memory can be emitted from the speaker 212.
  • the communication processing unit 223 is an external interface for enabling connection with an external device under the control of the control unit 220. Then, the communication processing unit 223 forms transmission data from the recording data recorded in the built-in memory 208 or the memory stick 209, and transmits this to the external device. In addition, the communication processing unit 223 receives transmission data from an external device, converts it into a signal in a format that can be used by itself, supplies this to the recording / reproducing circuit 207, and records it in its own memory. You can also do that.
  • the power supply circuit 240, the battery 241, the power plug 242, and the switch circuit 243 constitute a power supply system so that power is constantly supplied to the control unit 220.
  • the control unit 220 When the video camera 200 is turned on, the control unit 220 turns on the switch circuit 243 to supply power to each part of the video camera 200 so that each part can be driven. In addition, when the power of the video camera 200 that is turned on is turned off, the control unit 220 can turn off the switch circuit 243 to stop the supply of power to each unit of the video camera 200. I am doing so. Also in the video camera 200 of this embodiment, as shown in FIG. 28, the touch panel 215 is attached to the display screen of the LCD panel 214, and the operation surface of the touch panel 215 is formed on the entire display screen. Has been.
  • the information processing apparatus 100 is realized by the control unit 220, the on-screen display circuit 222, the superimposing circuit 213, the LCD panel 214, and the touch panel 215. That is, in FIG. 28, the touch panel 215 realizes the input detection device 1, and the control unit 220 includes the user interface control unit 2, the data object control unit 3, the coefficient and data storage unit 6, and the overall control unit 7, respectively. The function is realized. Further, the on-screen display circuit 222 and the superimposing circuit 213 realize the display memory unit 4, and the LCD panel 214 realizes the display device 5.
  • the display is performed in accordance with the user's drag operation as in the information processing apparatus 100 described above.
  • the mode can be changed. That is, using the functions of the control unit 220, the on-screen display circuit 222, and the superimposing circuit 213, the display screen of the LCD panel 214 is displayed on the display screen of the user interface area 101 and items as shown in FIGS. Region 102 is provided. Then, a drag operation or a flick operation is performed on the operation surface of the touch panel 215 on the user interface area 101. As a result, the display mode of the boundary symbols in the user interface area 101 can be changed, and the display items in the item selection display area 102 can be scrolled.
  • the amount of user operation can be intuitively expressed by expressing the degree of acceleration of scrolling of the display item according to the tracing operation using the expansion / contraction expression of the object. It became possible to grasp and change.
  • the user's convenience has been improved by performing the tracing operation again from anywhere in the user interface area.
  • the display style of the boundary symbol in the user interface area has become a familiar expansion and contraction expression, and intuitive operation It became possible to grasp and change the quantity.
  • the user can intuitively grasp the amount of tracing operation, the user can easily change the scrolling speed to a comfortable one based on the amount of tracing operation recognized by the user. It was.
  • the user can easily change the scrolling speed, switching between when the user wants to check the display item (data object) slowly and when the user wants to move quickly becomes easy.
  • each boundary symbol in the user interface area is displayed corresponding to the movement of the rubber, such as the expansion and contraction of rubber, so that the user can intuitively recognize that the tracing operation has ended.
  • the method and program of the present invention can be realized as the method and program described with reference to the flowcharts shown in FIG. 8, FIG. 14, FIG. 18, and FIG. That is, the method described with reference to FIGS. 8, 14, 18, and 20 is the method of the present invention. And the program which performs the process demonstrated using FIG.8, FIG.14, FIG.18 and FIG. 20 is a program of this invention. Therefore, the information processing apparatus of the present invention can be realized by implementing the program of the present invention and mounting the program on various electronic devices including a display device such as an LCD and an input detection device such as a touch panel.
  • the display device 5 realizes the function of the display element
  • the input detection device 1 realizes the function of the pointing position detection unit.
  • the function of the detection means is realized by the user interface control unit 2.
  • the function of the operation symbol display control unit is realized by the user interface control unit 2 and the display memory unit 4
  • the function of the scroll control unit is the data object control unit 3.
  • the display memory unit 4 is realized.
  • the function of the display element is realized by the LCD panel 214
  • the function of the pointing position detection unit is realized by the touch panel 215.
  • the function of the detection means is realized by the control unit 220.
  • the functions of the operation symbol display control unit and the scroll control unit are realized by the control unit 220, the on-screen display circuit 222, and the superimposing circuit 213.
  • the case where the information processing apparatus according to the present invention is applied to a video camera has been described as an example.
  • the present invention is not limited to this.
  • the present invention can be applied to various electronic devices having a display device such as an LCD and an input detection device such as a touch panel such as a digital still camera, a game machine, and a portable information terminal called PDA (Personal Digital Assistant).
  • a display device such as an LCD
  • an input detection device such as a touch panel
  • PDA Personal Digital Assistant
  • the interval between the boundary symbols is assumed to be uniform in the initial state, but the present invention is not limited to this.
  • the interval between boundary symbols in the initial state, the number of boundary symbols, and the like can be set appropriately.
  • the boundary symbol is not limited to a line segment.
  • the user interface area may be divided into a plurality of areas, and a picture or a figure may be displayed in each area or may be crushed with a different color.
  • the boundary portion of each region is the display position of the boundary symbol described above. Then, similarly to the case of the boundary symbol described above, control is performed so as to change the boundary position of each region.
  • a display such as rubber expansion / contraction can be expressed in the user interface area.
  • the displayed picture or figure is changed and the displayed color range is changed according to the change of the divided area of the user interface area. Will be.
  • the displayed picture or figure is expanded or contracted, and when changing the displayed color range, the same
  • the expression changes according to the size of the area in which the range to be filled is changed depending on the color.
  • the user interface area is provided on the left side facing the display screen as shown in FIG. is not. You may make it provide in the right side facing a display screen.
  • the input detection device is described as a pressure-sensitive or electrostatic so-called contact-type touch panel, but is not limited thereto.
  • the present invention can also be applied to a case where a non-contact type panel that can receive an instruction from the user in accordance with a change in the capacitance of the panel when the user brings his / her finger closer.
  • the present invention can also be applied to a case where a non-contact type panel that can receive an instruction from the user according to a change in brightness on the panel when the user brings a finger or the like closer is used.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

なぞり操作を行って表示対象をスクロールさせる場合に、当該なぞり操作の操作状況をユーザーに提示し、スクロール具合の調整を容易にできるようにする。表示デバイス(5)の表示画面に設けられる入力検知デバイス(1)の操作面に対してなぞり操作が行われると、当該なぞり操作に応じた指示位置を示す座標情報が入力検知デバイス(1)から出力される。ユーザーインターフェース制御部(2)は、入力検知デバイス(1)からの座標情報に基づいて、なぞり操作の開始位置を基準する操作方向と操作量を検知し、これらの情報に基づいて、表示デバイス(5)の表示画面に表示されている操作シンボルの表示態様を変えるように制御する。

Description

情報処理装置、情報処理方法および情報処理プログラム
 この発明は、例えば、LCD(Liquid Crystal Display)等の表示デバイスと、当該表示素子の表示画面に設けられるタッチパネルなどの入力検知デバイスとを備え、使用者からの操作入力を受け付けて、当該操作入力に応じて、表示デバイスの表示画面に表示されている表示を変化させることが可能な装置、方法、プログラムに関する。
 例えば、比較的に大きな表示画面を有するLCDなどの表示素子と、当該表示素子の表示画面に設けられるタッチパネルとによって構成され、ユーザー(使用者)からの操作入力を受け付ける操作部を有する種々の情報処理装置が提供されている。
 例えば、表示画面に表示された目的とするアイコンの表示位置に対応するタッチパネルの操作面上の位置に、指等を接触させることによって、当該接触位置に対応する位置に表示されているアイコンが選択されたことを認識することができる。これにより、選択されたアイコンに対応付けられている処理を簡単に実行することができるようにされる。
 そして、表示画面に表示するアイコンなどの表示を様々に変えることによって、多種多様な情報の入力が可能となり、機器に直接設けられるいわゆるハードウェアキーを直接に操作する場合に比べて、操作性の良い入力部(入力手段)を実現することができる。
 このような入力部が設けられた情報処理装置には、例えば、デジタルビデオカメラ、デジタルスチルカメラ、携帯電話端末、携帯音楽プレーヤ、PDA(Personal Digital Assistant)などと呼ばれる携帯情報端末などの種々のものがある。
 そして、特許文献1には、表示素子とタッチパネルとからなる操作部を有する装置であって、機能を設定したり、調整したりする場合において、操作性や視認性をよくするようにした撮像装置に関する発明が開示されている。
特開2004−343662号公報
 ところで、表示素子とタッチパネルとからなる入力部の場合、単にタッチ操作(タップ操作)を受け付けることができるだけでなく、ドラッグ操作やフリック操作などのタッチパネルの操作面上をなぞる操作をも受け付けることができる。
 当該なぞる操作により、例えば、表示項目をスクロールさせて表示させるようにしたり、改ページを迅速に行うようにしたりするなどのこともできるようにされる。
 そして、例えば、ドラッグ操作に応じて、表示項目をスクロールさせる場合において、当該ドラッグ操作の操作量に応じて、スクロールの速度を制御することもできるようにされる。
 従来の場合、例えばスクロールバーを表示することによって、現在表示されている表示項目は、表示対象の表示項目群の中のどの位置に位置するものであるかについてはユーザーに通知することができる。
 しかし、ユーザーのドラッグ操作の状況に応じて、例えば、ドラッグ操作の操作量に応じて、現在の表示項目のスクロール速度がどの程度になっているかを、ユーザーが直感的に知ることはできない。
 このため、実際にスクロール表示されている表示項目を見て、スクロールの速度が速いか遅いかを判断するしかなく、目的とする表示項目までのスクロール具合を調節し難い場合があると考えられる。
 以上のことに鑑み、この発明は、ドラッグ操作などのなぞり操作を行って表示対象をスクロールさせる場合に、当該なぞり操作の操作状況をユーザーに提示し、スクロール具合の調整を容易にできるようにすることを目的とする。
 上記課題を解決するため、請求項1に記載の発明の情報処理装置は、
 表示素子と、
 前記表示素子の表示画面に操作面が設けるようにされ、使用者からの指示操作を受け付けて、当該指示操作に応じた指示位置を示す座標情報を検出して出力する指示位置検出手段と、
 前記指示位置検出手段の前記操作面に対してなぞり操作が行われた場合に、前記指示位置検出手段からの前記座標情報に基づいて、当該なぞり操作の開始位置を基準とする操作量と操作方向とを検出する検出手段と、
 使用者からのなぞり操作に応じて変化させるようにする操作シンボルを前記表示素子の表示画面の所定の位置に表示させると共に、前記検出手段からの検出出力に基づいて、使用者によるなぞり操作状況を認識可能なように前記操作シンボルの表示態様を変化させるようにする操作シンボル表示制御手段と
 を備える。
 この請求項1に記載の発明の情報処理装置によれば、表示素子の表示画面には、使用者からの操作指示を受け付ける指示位置検出手段の操作面が設けられる。当該指示位置検出手段の操作面に対して、使用者がなぞり操作を行うと、当該なぞり操作に応じた指示位置を示す座標情報が指示位置検出手段により検出される。
 指示位置検出手段からの座標情報に基づいて、検出手段により、使用者のなぞり操作の開始位置を基準する操作量と操作方向とが検出される。使用者からのなぞり操作を受け付ける前においては、操作シンボル表示制御手段は、所定の操作シンボルを表示画面の所定の表示位置に表示させる。
 そして、使用者からのなぞり操作を受け付けると、操作シンボル表示制御手段は、検出手段からの検出出力に基づいて、表示素子の表示画面に表示されている操作シンボルの表示態様を変えるように制御する。
 これにより、操作シンボルの表示態様に応じて、使用者からのなぞり操作の状況を使用者に通知することができる。そして、当該操作シンボルの表示態様に応じて、指示操作の仕方を調整し、目的とする表示項目に適切かつ迅速に導くことができるようにされる。
 この発明によれば、ドラッグ操作などのなぞり操作を行って表示対象をスクロールさせる場合に、当該なぞり操作の操作状況をユーザーに提示し、スクロール具合の調整を容易にすることができる。
 図1は、この発明の一実施の形態が適用された情報処理装置100の構成例を説明するためのブロック図である。
 図2は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様について説明するための図である。
 図3は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様について説明するための図である。
 図4は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様について説明するための図である。
 図5は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様について説明するための図である。
 図6は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様について説明するための図である。
 図7は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様について説明するための図である。
 図8は、情報処理装置100において行われるドラッグ操作時の処理を説明するためのフローチャートである。
 図9は、ドラッグ操作の操作量を求める場合の処理の一例について説明するための図である。
 図10は、ドラッグ操作の操作量の大きさに応じてスクロールの加速度を求める場合の処理について説明するための図である。
 図11は、ユーザーのドラッグ操作に応じて、表示項目をスクロールさせる場合の処理を説明するための図である。
 図12は、スクロール速度を算出する場合の計算式を説明するための図である。
 図13は、情報処理装置100におけるスクロールの速度の変化について説明するための図である。
 図14は、データオブジェクト制御部3において行われる表示項目のスクロール処理について説明するためのフローチャートである。
 図15は、境界シンボルの初期表示状態(ドラッグ操作が行われる前の状態)の一例を説明するための図である。
 図16は、境界シンボルの初期表示状態(ドラッグ操作が行われる前の状態)の一例を説明するための図である。
 図17は、ドラッグ操作が終了するようにされた直後の表示画面5Gの表示情報の表示状態の一例を説明するための図である。
 図18は、ユーザーインターフェース領域101の境界シンボルの表示位置を初期状態に戻す場合の処理を説明するためのフローチャートである。
 図19は、フリック操作を行った場合の項目等表示選択領域102に表示される表示項目のスクロール表示について説明するための図である。
 図20は、情報処理装置100において行われるフリック操作時の処理を説明するためのフローチャートである。
 図21は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様の他の例について説明するための図である。
 図22は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様の他の例について説明するための図である。
 図23は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様の他の例について説明するための図である。
 図24は、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様の他の例について説明するための図である。
 図25は、境界シンボル間の間隔をどのように制御するかを対応付けた対応表を説明するための図である。
 図26は、境界シンボル間の間隔をどのように制御するかを対応付けた対応表を説明するための図である。
 図27は、フリック操作を行った場合の項目等表示選択領域102に表示される表示項目のスクロール表示の他の例について説明するための図である。
 図28は、この発明による情報処理装置が適用されたビデオカメラ200の構成例を説明するためのブロック図である。
 以下、図を参照しながら、この発明による装置、方法、プログラムの一実施の形態について説明する。以下に説明する実施の形態においては、まず、この発明を、表示デバイス(表示素子)と入力検知デバイス(指示位置検出手段)とにより構成される入力部を備えた情報処理装置に適用した場合について説明する。この後、より具体的な例として、この発明を撮像装置に適用した場合について説明する。
 [情報処理装置の構成例]
 図1は、この発明の一実施の形態が適用された情報処理装置であって、この実施の形態の情報処理装置100の構成例を説明するためのブロック図である。
 図1に示すように、情報処理装置100は、入力検知デバイス1と、ユーザーインターフェース制御部2と、データオブジェクト制御部3と、表示メモリ部4と、表示デバイス5と、係数及びデータ格納部6と、全体制御部7とを備えている。
 入力検知デバイス1は、例えば、感圧式や静電式のタッチパネルの構成とされたものである。入力検知デバイス1は、ユーザー(使用者)からの当該入力検知デバイス1の操作面に対する指示操作(接触操作)を受け付けて、当該操作面上の指示位置(接触位置)を検出し、当該指示位置を示す座標データ(座標情報)を出力する。
 表示デバイス5は、例えばLCDや有機ELパネル(Organic Electroluminescence Panel)等のいわゆる薄型の表示素子と、当該表示素子に対する表示制御を行うコントローラなどをも含むものである。
 そして、入力検知デバイス1は、表示デバイス5の表示素子の表示画面の全面に対して、例えば貼付されるようにして設けられる。すなわち、入力検知デバイス1の操作面は、表示デバイス5の表示素子の表示画面に一致するようにされている。
 したがって、表示デバイス5の表示画面上の座標と、入力検知デバイス1の操作面上の座標とは一致するようにされる。そして、ユーザーが入力検知デバイス1の操作面上の位置に、指やスタイラスなどを接触させたとする。
 この場合に、その接触位置に対応する(一致する)表示画面上の位置に数字が表示されていた場合には、ユーザーはその表示されている数字を選択して入力するようにしたと、例えば装置の制御部において判別することができるようにされる。
 このように、この実施の形態の情報処理装置100においては、入力検知デバイス1と表示デバイス5とによって、ユーザーからの指示操作(指示入力)を受け付ける入力部(入力手段)を構成している。
 ユーザーインターフェース制御部2、データオブジェクト制御部3、全体制御部7は、例えば、1つのマイクロコンピュータによって実現される。もちろん、これらの各制御部のそれぞれを別々のマイクロコンピュータによって実現することもできる。
 なお、マイクロコンピュータは、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、EEPROM(Electrically Erasable and Programmable ROM)などがCPUバスを通じて接続されて構成されるものである。
 ここで、CPUは、後述のROMに記憶保持されているプログラムを読み出して実行し、目的とする処理を実行する。より具体的にCPUは、ROMに記憶保持されているプログラムを実行し、種々の演算を行ってその結果を各部に通知したり、各部から供給されるデータを用いて演算を行ってその結果をメモリに記録したりするなどの処理を行う。
 ROMは、上述したようにCPUによって実行されるプログラムや処理に必要になる種々のデータなどが予め記録されたものである。RAMは、各種の処理においてその途中結果を一時記憶するなど、主に作業領域として用いられるものである。
 EEPROMは、いわゆる不揮発性のメモリであり、情報処理装置100の電源が落とされても保持しておく必要のある情報、例えば、種々の設定パラメータや機能追加のためのプログラムなどを記憶保持するものである。
 また、表示メモリ部4は、例えばRAMが用いられて構成された表示専用のメモリ部である。また、係数及びデータ格納部6は、ROMやEEPROMなどの不揮発性メモリが用いられて構成され、ユーザーインターフェース制御部2において用いられる種々の係数やデータを記憶保持するものである。
 また、全体制御部7は、入力検知デバイス1の操作面に対して行われるユーザーの入力操作に応じて各部を制御し、ユーザーの指示に応じた処理を行うようにするものである。
 そして、この実施の形態の情報処理装置100において、入力検知デバイス1は、入力検知デバイス1の操作面上に指やスタイラス等を接触させることにより、当該操作を検出することができるものである。そして、入力検知デバイス1は、その接触位置を示す座標データを出力することができるものである。
 また、入力検知デバイス1は、入力検知デバイス1の操作面上の複数の箇所に指やスタイラス等を接触させることにより、同時に行うようにされた操作のそれぞれを検出することができるものである。そして、入力検知デバイス1は、その接触位置のそれぞれを示す座標データを出力することができるものである。
 また、入力検知デバイス1は、入力検知デバイス1の操作面に対して繰り返し行うようにされる指示操作のそれぞれを検出し、そのそれぞれの接触位置を示す座標データを出力することもできる。
 さらに、入力検知デバイス1は、ユーザーによって、入力検知デバイス1の操作面に対して指やスタイラスが接触されている間は、所定のタイミング毎に連続して接触位置を検出し、これを示す座標データを出力することもできる。
 これにより、入力検知デバイス1は、いわゆるタップ操作、ダブルタップ操作、ドラッグ操作、フリック操作、ピンチ操作などのユーザーからの様々な指示操作(操作入力)を受け付けて、これに応じた座標情報を検出することができるものである。
 ここで、タップ操作は、ユーザーの指やスタイラスによって、入力検知デバイス1の操作面上の所定の一点を「ちょん」と1回だけ指示する動作(操作)である。ダブルタップ操作は、入力検知デバイス1の操作面上の所定の一点を連続して2回、「ちょん、ちょん」と指示する動作である。
 また、ドラッグ操作は、ユーザーの指やスタイラスを入力検知デバイス1の操作面上に接触させたまま移動させる動作である。フリック操作は、ユーザーの指やスタイラスを入力検知デバイス1の操作面上に接触させてから、そのまま任意の方向に素早く「はじく」ようにする動作である。
 ピンチ操作は、ユーザーの2本の指等を同時に入力検知デバイス1の操作面上に接触させて、当該2本の指等を開いたり、閉じたりする動作である。この場合、特に、接触させた2本の指等を開く操作をピンチアウト操作、2本の指等を閉じる操作をピンチイン操作と呼んでいる。
 ドラッグ操作とフリック操作とは、動作の速さに違いがあるものの、操作面上にユーザーの指等を接触させた後に、当該操作面上を移動させる操作(操作面上をなぞる操作)であり、移動距離と移動方向との2種類の情報によって把握できる操作である。
 このため、ドラッグ操作とフリック操作とは、「なぞり操作」あるいは「ジェスチャ」などと呼ばれる場合もある。なお、この明細書においても、なぞり操作と言う場合には、ドラッグ操作とフリック操作とを総称している。
 そして、詳しくは後述もするが、この実施の形態の情報処理装置100において、表示デバイス5の表示素子の表示画面は大きく2つの領域に分けられる。1つは、ユーザーからのなぞり操作を受け付けるためのユーザーインターフェース領域である。他の1つは、実行可能な機能に対応した項目群や再生可能なコンテンツに対応した項目群などを表示し、その選択を可能にする項目等表示選択領域である。
 ユーザーインターフェース領域上の入力検知デバイス1の操作面に対しては、主になぞり操作が行うようにされる。ここでは、説明を簡単にするため、なぞり操作としてドラッグ操作が行われる場合を例にして説明する。
 ユーザーインターフェース領域上の入力検知デバイス1の操作面に対して、ドラッグ操作が行われると、予め決められたタイミング毎に、入力検知デバイス1の操作面上のドラッグ位置に対応する座標情報(座標データ)が検出される。そして、検出された座標データは、順次にユーザーインターフェース制御部2に通知される。
 したがって、ユーザーインターフェース制御部2は、入力検知デバイス1からの座標データに基づいて、ドラッグ操作が開始されてから終了するまでの間において、ユーザーの指等の接触位置がどのように変化したのかを正確に把握することができる。
 そして、ユーザーインターフェース制御部2は、ドラッグ操作が開始され最初に通知された座標データが示す位置をドラッグ操作の開始点(開始位置)として認識する。この後、ユーザーインターフェース制御部2は、最新に通知された座標データが示す位置を現在のドラッグ位置として認識する。
 そして、ユーザーインターフェース制御部2は、ドラッグ操作の開始点と現在のドラッグ位置との差分を求める。さらに、ユーザーインターフェース制御部2は、求めた差分のユーザーインターフェース領域における最大ドラッグ可能量に対する比率(操作量)を求める。また、ユーザーインターフェース制御部2は、ドラッグ操作の開始点を基準とし、現在のドラッグ位置がどの方向にあるのかをも把握する。
 したがって、ユーザーインターフェース制御部2は、求めた比率(操作量)と、ドラッグ操作の開始点から現在のドラッグ位置への方向とに応じて、現在、開始点を基準としてどのようなドラッグ操作が行うようにされているのかを把握することができる。
 ユーザーインターフェース制御部2は、求めた比率と、ドラッグ操作の開始点を基準とする現在のドラッグ位置への方向(操作方向)とに応じて、表示メモリ部4に記憶保持されているユーザーインターフェース領域の表示情報である境界シンボルの表示位置を算出する。
 なお、上述したように、ドラッグ操作の操作量を示す比率は、ドラッグ操作の開始点と現在のドラッグ位置との差分を用いて算出している。このため、当該差分を、プラス(+)、マイナス(−)の符号を用いて表現できるようにしておくことにより、比率の絶対値がドラッグ操作の操作量を示し、比率の符号部分が、ドラッグ操作の開始点を基準とする現在のドラッグ位置の方向を示すものとなる。
 そして、ユーザーインターフェース制御部2は、算出した現在の操作量(差分)と、現在のドラッグ位置の方向とに応じて、表示メモリ部4に記憶保持されているユーザーインターフェース領域に表示されている境界シンボルの表示位置を変えるように制御する。
 ここで、境界シンボルは、ユーザーのドラッグ操作に応じて、その表示態様を変える場合の対象となるものである。このように、境界シンボルは、ユーザーのドラッグ操作に応じて表示態様を変えるものであり、操作シンボルとも呼べるものである。
 同時に、ユーザーインターフェース制御部2は、求めた比率と、係数及びデータ格納部6に記憶保持されている係数データとを用いて、項目等表示選択領域に表示されている項目情報(データオブジェクト)をスクロールさせるための加速度を求める。求めた加速度と、現在のドラッグ位置の方向とは、データオブジェクト制御部3に通知される。
 データオブジェクト制御部3は、ユーザーインターフェース制御部2からの加速度と、現在のドラッグ位置の方向とに基づいて、項目等表示選択領域に表示されている項目情報をスクロールさせるように、表示メモリ部4の項目情報とその表示位置を制御する。
 この後、表示デバイス5は、表示メモリ部4に整えられた表示情報に基づいて、表示素子の表示画面に設けられるユーザーインターフェース領域と項目等表示選択領域の表示を変えるようにする。
 これにより、表示画面に設けられるユーザーインターフェース領域上の入力検知デバイスの操作面に対して行われたドラッグ操作の操作状況に応じて、ユーザーインターフェース領域に表示されている境界シンボルの表示態様を変えることができる。
 また、表示画面に設けられるユーザーインターフェース領域上の入力検知デバイスの操作面に対して行われたドラッグ操作の操作状況に応じて、項目等表示選択領域に表示されている項目表示をスクロールさせることができる。
 そして、目的とする項目表示が、項目等表示選択領域に表示されると、ユーザーは項目等表示選択領域の当該目的とする項目表示上の入力検知デバイス1の操作面上に指等を接触させるタップ操作を行う。
 この場合、タップ操作された位置を示す座標データが、入力検知デバイス1から出力され、ユーザーインターフェース制御部2に供給される。ユーザーインターフェース制御部2は、入力検知デバイス1からの座標データが、項目等表示選択領域に対するものであるときには、当該座標データを全体制御部7に通知する。
 全体制御部7は、通知された座標データが示す表示画面上の位置に表示されている表示項目は何かを判断する。そして、全体制御部7は、当該選択された表示項目に対応付けられている処理を実行したり、当該表示項目に対応付けられているコンテンツを再生したりするように各部を制御する。
 なお、ここでは、ユーザーインターフェース制御部2と全体制御部7との機能により、ユーザーの指示に応じた処理を実行するものとして説明したが、これに限るものではない。例えば、入力検知デバイス1からユーザーインターフェース制御部2を経由して、あるいは直接に、検出された座標データをデータオブジェクト制御部3に通知する。
 そして、データオブジェクト制御部3が、当該座標データに基づいて、ユーザーによって指示された(選択された)データオブジェクトを判断し、これを全体制御部7に通知して、全体制御部7が指示されたデータオブジェクトに対応する処理を実行するように構成することももちろん可能である。
 このように、情報処理装置100において、ユーザーは、自分の行ったドラッグ操作に応じて変化するユーザーインターフェース領域に表示されている境界シンボルの表示態様の変化によって、ドラッグ操作の操作状況を客観的に把握することができる。
 これによって、項目等表示選択領域に表示されている項目表示のスクロール具合の調整を容易に、かつ、適切におこない、目的とする表示項目を迅速に見つけだし、目的とする処理を行うようにすることができる。すなわち、ユーザーの操作性を向上させることができる。
 [ドラッグ操作に応じた表示遷移の具体例]
  [ユーザーインターフェース領域の中央部分からドラッグ操作を行う場合]
 次に、ドラッグ操作に応じて遷移する表示態様の具体例について説明する。図2~図7は、この実施の形態の情報処理装置100において、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様について説明するための図である。
 まず、図2~図5を用いて、後述するユーザーインターフェース領域の中央部分からドラッグ操作を開始する場合について説明する。
 図2は、情報処理装置100において、入力検知デバイス1に対してドラッグ操作がされる前の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。
 この実施の形態の情報処理装置100は、上述もしたように、表示デバイス5の表示素子の表示画面5Gの全面には、入力検知デバイス1が例えば貼付されることにより、図2において点線で示したように、入力検知デバイス1の操作面が形成されている。
 そして、この例の場合には、図2に示すように、表示画面5Gの左端側には、ユーザーインターフェース領域101が設けられている。また、表示画面5Gにおいて、左端側に設けられたユーザーインターフェース領域101以外の部分が、項目等表示選択領域102となるようにされている。
 なお、図2に示したように、ユーザーインターフェース領域101と項目等表示選択領域102とは、表示画面5Gの縦方向(表示画面5Gの短辺に沿う方向)には同じ長さを有する。
 しかし、ユーザーインターフェース領域101と項目等表示選択領域102とは、表示画面5Gの横方向(表示画面5Gの長辺に沿う方向)には、その長さの比が、例えば、1対4程度となるようにされる。
 しかし、これは一例であり、ユーザーインターフェース領域101と項目等表示選択領域102とは、表示画面5G内において種々の位置に種々の大きさで設けるようにすることが可能である。
 そして、この実施の形態の情報処理装置100において、ユーザーインターフェース領域101は、上述もしたように、ユーザーからの主になぞり操作、この実施の形態においてはドラッグ操作を受け付ける部分である。
 また、項目等表示選択領域102は、実行可能な機能や再生可能なコンテンツに対応した項目群などを表示し、その選択を可能する部分であり、ユーザーからの主にタップ操作を受け付ける部分である。
 この実施の形態においては、図2に示すように、ユーザーインターフェース領域101は、線分である4つの境界シンボル103A、103B、103C、103Dによって、5つの部分に分けられるようにされている。
 この実施の形態において、境界シンボル103A、103B、103C、103Dは、通常時(ドラッグ操作が行われていない時)には、ユーザーインターフェース領域101の縦方向に、例えば、5つの領域を均等に分割する位置に表示するようにされる。
 なお、上述もしたように、ユーザーインターフェース領域101の縦方向は、表示画面5Gの短辺に沿う方向であり、ユーザーインターフェース領域101の横方向は、表示画面5Gの長辺に沿う方向である。
 この実施の形態の場合には、図2に示すように、境界シンボル103Bと境界シンボル103Cとにより挟まれた、ユーザーインターフェース領域101の縦方向の中心部分には、中心であることを示す3本の線分である中心ガイドシンボル104が表示される。
 そして、項目等表示選択領域102には、表示項目群(データオブジェクト群)105が表示される。この実施の形態において、項目等表示選択領域102には、4つの表示項目(データオブジェクト)が表示するようにされている。この図2に示した例は、例えば、100項目ある表示項目のうち、20番目から23番目の表示項目が表示され、上下いずれの方向にもスクロール可能な状態になっている場合を示している。
 そして、図2に示すように、ユーザーインターフェース領域101の中心ガイドシンボル104が表示されている位置の入力検知デバイス1の操作面上にユーザーが指等を接触させ、矢印が示す方向にドラッグ操作を開始させたとする。この例において、符号Sが示す位置が、ユーザーが指等を最初に接触させた開始点である。また、この例ではドラッグ開始点Sを中心ガイドシンボル104の中点よりやや上寄りとしている。
 図3は、図2に示したドラッグ操作開始前の状態から、図2において矢印が示した方向にドラッグ操作が開始された直後の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。
 ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対してドラッグ操作が行われると、入力検知デバイス1からは、ユーザーのドラッグ操作に応じて変化する入力検知デバイス1の操作面上の接触位置に応じた座標データが出力される。
 入力検知デバイス1からの座標データは、ユーザーインターフェース制御部2に供給される。ユーザーインターフェース制御部2は、入力検知デバイス1からの座標データに基づいて、ユーザーのドラッグ操作の方向と操作量とを把握する。そして、ユーザーインターフェース制御部2は、当該把握した内容にしたがって、表示メモリ部4のユーザーインターフェース領域101の境界シンボルの表示位置を変更する。
 この例の場合には、ユーザーインターフェース領域101の各境界シンボル103A、103B、103C、103Dのそれぞれは、図3に示すように、その表示位置が、図2に示した場合に比べてドラッグ操作の方向に移動するようにされる。更に、図3の境界シンボル103Bと境界シンボル103Cの距離は図2のそれよりも広くなる。
 また、図3に示すように、ユーザーインターフェース領域101の各境界シンボル103A、103B、103C、103Dの間隔が、ゴムが縮んだ際の模様のように詰まることにより、ユーザーのドラッグ操作の操作量を直感的に認識可能にしている。
 すなわち、図3において、ドラッグ操作の開始点は、位置Sが示しており、現在のドラッグ位置は、位置E1が示している。この場合の操作方向は、開始点Sから現在のドラッグ位置E1までの実線矢印が示すように、表示画面5Gに対して上向き方向となる。
 また、この場合のドラッグ操作の操作量は、上述もしたように、開始点Sと現在のドラッグ位置E1との差分に応じたものとなるから、図3において両矢印201が示す大きさとなる。
 このため、ユーザーインターフェース制御部2は、表示メモリ部4を制御し、表示メモリ部4のユーザーインターフェース領域101の各境界シンボルの位置を、ドラッグ操作の操作量とその操作の方向に応じて移動させる。
 この場合、ドラッグ操作の開始時にドラッグ操作の開始点Sを基準とし、その上部に位置する境界シンボル間の間隔と、表示画面5Gの上端部と当該上端部に最も近い境界シンボルとの間隔とはドラッグ中も均等となるようにされる。
 同様に、ドラッグ操作の開始時にドラッグ操作の開始点Sを基準とし、その下部に位置する境界シンボル間の間隔と、表示画面5Gの下端部と当該下端部に最も近い境界シンボルとの間隔とはドラッグ中も均等となるようにされる。
 その際に表示画面5Gの上端部、境界シンボル103A、境界シンボル103B、その時点のドラッグ点、境界シンボル103C、境界シンボル103D、表示画面5Gの下端部という順番は変わらない。
 そして、ユーザーインターフェース制御部2は、ドラッグ操作の開始点Sに対する現在のドラッグ位置E1に応じて決まるドラッグ操作の方向に、境界シンボル間の間隔、表示画面5Gの端部と境界シンボルとの間隔を狭くする。
 したがって、図3に示した例の場合には、境界シンボル103Aと境界シンボル103Bとの間と表示画面5Gの上端部と境界シンボル103Aとの間は、共に間隔αとなるようにされる。
 同様に、図3に示した例の場合には、境界シンボル103Cと境界シンボル103Dとの間と表示画面5Gの下端部と境界シンボル103Dとの間は、共に間隔βとなるようにされる。
 そして、図3に示した例の場合、ドラッグ操作の方向は、開始点Sから現在のドラッグ位置E1に向う方向であるので、間隔βより間隔αの方が狭くなるようにされる。このように、ドラッグ操作の方向に、境界シンボル間等の間隔が狭くなるようにされる。
 したがって、境界シンボル間等の間隔によって、ドラッグ操作の開始点Sを基準として、ドラッグ操作位置がどちら側に位置し、どの程度のドラッグ操作が情報処理装置100に対して行われているのかを、ユーザーは視覚を通じて直感的に認識することができる。
 そして、図3に示した例の場合には、ドラッグ操作が行われた直後の状態を示しており、開始点Sから現在のドラッグ位置E1までの距離と、両矢印201が示す操作量の大きさとは同じである。
 この図3の例の場合、ユーザーインターフェース制御部2は、両矢印201が示す操作量に応じて、項目等表示選択領域102に表示されている表示項目をスクロールさせるための加速度を求める。
 ユーザーインターフェース制御部2は、ドラッグ操作の方向と、求めた加速度とを、上述もしたように、データオブジェクト制御部3に通知する。データオブジェクト制御部3は、詳しくは後述もするが、ドラッグ操作の方向と加速度とから、項目等表示選択領域102に表示される表示項目を、どちらの方向にどれだけスクロールさせるかを決定する。
 そして、データオブジェクト制御部3は、当該決定した内容にしたがって、表示メモリ部4の項目等表示選択領域102に表示させるべき表示項目をスクロールさせるように、表示項目の位置を変更させる。
 図3に示した例の場合には、ドラッグ操作は、ユーザーインターフェース領域101の矢印が示すように、上向きであるので、項目等表示選択領域102の矢印202が示す方向に、表示項目がスクロールするようにされる。つまり、この例の場合には、表示項目が遡る方向にスクロールするようにされる。
 そして、図3に示した状態からさらにドラッグ操作を続行することにより、項目等表示選択領域102に表示させる表示項目のスクロールの加速度を変更することが可能となる。この場合には、さらに、境界シンボル間の間隔が変更される。
 図4は、図3に示したドラッグ位置E1からさらにドラッグ操作が行うようにされた場合の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。
 図4において、位置E1から位置E2への矢印で示したように、ドラッグ位置E1からドラッグ操作が続行され、ドラッグ位置E2にまでドラッグ操作が行われたとする。この場合、新たに行われたドラッグ操作は、ドラッグ位置E1から現在のドラッグ位置E2までである。
 しかし、ドラッグ操作の開始点Sと現在のドラッグ位置E2との差分によって示されるドラッグ操作の操作量は、図4において両矢印301が示すように、図3に示した両矢印201に比べて大きなものとなる。
 そして、ユーザーインターフェース制御部2は、ドラッグ操作の方向と、両矢印301が示す最新のドラッグ操作の操作量に基づいて表示メモリ部4を制御し、境界シンボル103A、103B、103C、103Dの位置を変更する。
 この場合、図3に示した両矢印201と、図4に示した両矢印301とを比較すると分るように、ドラッグ操作の操作量は、図3に示した状態からさらに大きくなっている。このため、図3に示した状態から図4に示した状態へと、さらにドラッグ操作が同じ方向に継続された場合、境界シンボル間の間隔は、間隔αがより密となり、間隔βはより疎となる。更に、図4の境界シンボル103Bと境界シンボル103Cの距離は図3のそれよりも広くなる。
 すなわち、図4に示したように、表示画面5Gの上端部と境界シンボル103Aとの間と、境界シンボル103Aと境界シンボル103Bとの間の間隔は、共に間隔αであり均等である。同様に、表示画面5Gの下端部と境界シンボル103Dとの間と、境界シンボル103Cと境界シンボル103Dとの間の間隔は、共に間隔βであり均等である。
 しかし、図3と図4とを比較すると明らかなように、位置E1から位置E2まで更にドラッグ操作が行われた場合には、ドラッグ操作の開始点Sを基準にして、そのドラッグ操作の方向である上部側に位置していた境界シンボル間等の間隔αがより小さくなり、ドラッグ操作の方向とは逆方向に位置していた境界シンボル間等の間隔βがより広くなる。
 これにより、ユーザーは、自分がどちら側にドラッグ操作を実行しており、その状態がどのように情報処理装置100において認識されているのかを、ユーザーインターフェース領域101の境界シンボルの表示態様に応じて正確に知ることができる。
 なお、図4に示したように、前回のドラッグ位置E1から更に同一方向にドラッグ操作が行われ、現在のドラッグ位置E2まで到達した場合、今回のドラッグ操作の操作量は、ドラッグ位置E1からドラッグ位置E2までである。
 しかし、この実施の形態の情報処理装置100は、ドラッグ操作の操作量は、ドラッグ操作の開始点Sと現在のドラッグ位置E2との差分として求めることができる。このため、図3に示した状態よりも、図4に示した状態の方が、ドラッグ操作の操作量は多くなっている。
 このように、この実施の形態の情報処理装置100において、ドラッグ操作の操作量は、あくまで、ドラッグ操作の開始点からのものとして把握するようにされる。
 そして、ユーザーインターフェース制御部2は、図4において両矢印301が示すようなドラッグ操作の操作量に基づいて、項目等表示選択領域102に表示する表示項目のスクロールのための加速度を求める。
 この求めた加速度とドラッグ操作の方向とをデータオブジェクト制御部3に通知することによって、データオブジェクト制御部3が、表示メモリ部4の表示項目をスクロールさせるように制御する。
 これにより、項目等表示選択領域102に表示される表示項目は、図4において矢印302が示すように、ドラッグ操作の操作量に応じて、更にスクロール速度が速くなるようにされる。そして、図4に示すように、より遡る方向に位置する表示項目まで、表示項目のスクロールが行うようにされる。
 なお、図4は、図3に示した状態から更に同一方向にドラッグ操作が行われ、ドラッグ操作の操作量が大きくなった場合を示しているが、ドラッグ操作が逆方向に行われることにより、ドラッグ操作の操作量が小さくなる場合もある。
 例えば、上述のように、図2に示した状態から、図3、図4に示したようにドラッグ操作が行われ、現在のドラッグ位置が位置E2にあるとする。この場合に、逆の方向にドラッグ操作が行われ、図4のユーザーインターフェース領域101に示した状態から図3のユーザーインターフェース領域101に示した状態に戻るようにされたとする。
 この場合、実際のドラッグ操作の方向は、位置E2から位置E1へ向う方向であるので、表示画面5Gに対して下向き方向である。また、実際のドラッグ操作の操作量は、位置E2から位置E1までの量となる。
 しかし、上述もしたように、この実施の形態の情報処理装置100において、ドラッグ操作の方向や操作量は、継続しているドラッグ操作の開始点Sを基準にして把握するようにしている。
 このため、図4の位置E2から図3の位置E1まで戻るようにドラッグ操作が行われた場合、ドラッグ操作の方向は、ドラッグ操作の開始点Sから現在のドラッグ位置E1までの方向となるので、情報処理装置100が把握するドラッグ操作の方向は変わらない。また、この場合のドラッグ操作の操作量は、ドラッグ操作の開始点Sからドラッグ位置E1までの操作量となるので、図3において両矢印201が示す量となる。
 そして、ユーザーインターフェース制御部2は、当該ドラッグ操作の方向と操作量とに応じて、表示メモリ部4のユーザーインターフェース領域101に表示すべき境界シンボルの表示位置を制御する。このため、ユーザーインターフェース領域101の境界シンボルの表示態様は、図4のユーザーインターフェース領域101に示した状態から、図3のユーザーインターフェース領域101に示した状態に戻ることになる。
 更に、ユーザーインターフェース制御部2は、最新のドラッグ操作の操作量に基づいて、項目等表示選択領域102に表示された表示項目のスクロールの加速度を求める。このため、表示項目のスクロール加速度も、図3において両矢印201が示した大きさに対応するものとなる。
 そして、上述もしたように、データオブジェクト制御部3は、ユーザーインターフェース制御部2からのドラッグ操作の方向とドラッグ操作の操作量とに基づいて、項目等表示選択領域102に表示される表示項目のスクロール制御がなされる。
 このため、上述したように、図4の位置E2から図3の位置E1に戻るようにドラッグ操作が行われた場合、ドラッグ操作の方向は変わらず、ドラッグ操作の操作量が変わっただけである。
 したがって、この場合、スクロールの方向は変更されること無く、図4に示した状態から更に遡る方向に表示項目はスクロールするようにされる。しかし、この時のスクロール速度は、ドラッグ操作の操作量に応じて、図3のときと同じ速度、すなわち、図4の場合のスクロール速度よりは遅いスクロール速度となるようにされる。
 そして、さらに、図3の位置E1から図2の開始点Sに向うように、ドラッグ操作が行われたとする。この場合、ドラッグ位置が開始点Sに近づくにしたがって、ドラッグ操作の方向が上向き方向であることは変わらないが、ドラッグ操作の操作量はどんどん小さくなる。
 そして、上述もしたように、ユーザーインターフェース領域101の境界シンボル間の間隔は、ドラッグ操作量に応じて決まる。このため、この場合、ドラッグ操作の方向にある境界シンボルの間隔(前述の間隔α)は狭かったのが広くなって行き、ドラッグ操作の方向と逆にある境界シンボルの間隔(前述の間隔β)は広かったのが狭くなって行く。
 これにより、ドラッグ操作のドラッグ位置が、ドラッグ操作の開始点Sに到達した時点で、ユーザーインターフェース領域101の各境界シンボル103A~103Dのそれぞれは、図2のユーザーインターフェース領域101に示した表示態様に戻る。
 また、この場合において、ドラッグ位置がドラッグ操作の開始点Sに到達するまでの間においては、項目等表示選択領域102に表示されている表示項目のスクロールも続行される。
 この場合、ドラッグ位置がドラッグ操作の開始点Sに到達するまでの間においては、項目等表示選択領域102に表示されている表示項目のスクロールの方向は変わることはない。しかし、ドラッグ操作の操作量が小さくなるにしたがって、スクロールの加速度は小さくなる。
 したがって、ドラッグ位置が、位置E1からドラッグ操作の開始点Sに到達するまでの間においては、項目等表示選択領域102に表示される表示項目のスクロールの速度は徐々に遅くなるようにされる。
 そして、ドラッグ位置がドラッグ操作の開始点Sに到達すると、ドラッグ操作の操作量は0(ゼロ)になるので、項目等表示選択領域102に表示される表示項目のスクロールは停止することになる。
 このように、ユーザーインターフェース領域101上の入力検知デバイス101の操作面に対して継続してドラッグ操作を行っている間においては、所定のタイミング毎に、ドラッグ開始点Sを基準としてドラッグ操作の方向と操作量が検出される。
 そして、これらに応じて、ユーザーインターフェース領域101の境界シンボルの表示態様が変えられると共に、項目等表示選択領域102の表示項目のスクロール表示が行うようにされる。
 そして、基本的に、ドラッグ操作の操作量が大きくなるにしたがって、ユーザーインターフェース領域101の境界シンボルの、ドラッグ操作の方向にあるシンボル群の間隔は狭くなって行き、ドラッグ操作の方向と逆にあるシンボル群の間隔は広くなって行く。
 逆に、ドラッグ操作の操作量が小さくなるにしたがって、ユーザーインターフェース領域101の境界シンボルの、ドラッグ操作の方向にあるシンボル群の間隔は広くなって行き、ドラッグ操作の方向と逆にあるシンボル群の間隔は狭くなって行く。
 換言すれば、ユーザーインターフェース領域101のドラッグ操作の方向にある境界シンボル間の間隔が広い(疎である)とドラッグ操作の操作量(操作比率)が少ないことを示めしている。また、ドラッグ操作の方向にある境界シンボル間の間隔が狭い(密である)とドラッグ操作の操作量(操作量比率)が大きいことを示す。
 また、この実施の形態の情報処理装置100において、ユーザーインターフェース領域101に対しては、どこからでも連続したドラッグ操作が可能である。
 図5は、図4に示したドラッグ位置E2から、それまでとは反対の方向に大きくドラッグ操作が行うようにされた場合の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。
 図2、図3、図4を用いて説明したように、ドラッグ操作が開始点S→位置E1→位置E2と言うように行われたとする。そして、図5に示すように、現在のドラッグ位置が位置E2まで到達した後に、ユーザーインターフェース領域101の入力検知デバイス1の操作面に対して接触させた指等を離すことなく、当該領域の右上から左下に向かって大きくドラッグ操作したとする。
 この場合にも、ユーザーインターフェース領域101の境界シンボルの表示位置は、ドラッグ操作の方向とドラッグ操作の操作量に基づいて変更するようにされる。同時に、項目等表示選択領域102に表示されている表示項目もまた、ドラッグ操作の方向と、ドラッグ操作の操作量に応じて決まる加速度とに基づいてスクロール表示するようにされる。
 この場合、上述もしたように、ドラッグ操作の操作位置が位置E2から開始点Sに到達するまでの間においては、ユーザーインターフェース領域101の境界シンボルの、ドラッグ操作の方向にあるシンボル群の間隔は広くなって行く。また、ドラッグ操作の方向と逆にあるシンボル群の間隔は狭くなって行く。そして、ドラッグ位置がドラッグ操作の開始点Sに戻ると、ユーザーインターフェース領域101の境界シンボルは図2に示した表示態様に戻る。
 また、ドラッグ操作の操作位置が位置E2から開始点Sに到達するまでの間においては、項目等表示選択領域102の表示項目は、スクロールの方向は変えられることなく、スクロールの速度が徐々に遅くなるようにされる。そして、ドラッグ位置がドラッグ操作の開始点Sに戻ると、項目等表示選択領域102の表示項目のスクロールは停止する。
 そして、更にドラッグ操作が継続して行われ、表示画面5Gにおいて、ドラッグ位置が開始点Sの下側に位置するようになると、ドラッグ操作の方向は、表示画面5Gに対して下向きとなり、ドラッグ操作の操作量も徐々に増加していくことになる。
 そして、この場合、表示画面5Gの上端部と境界シンボル103Aとの間、及び、境界シンボル103Aと境界シンボル103Bとの間の間隔αは広がって行く。逆に、ドラッグ操作の方向である境界シンボル103Cと境界シンボル103Dとの間、及び、境界シンボル103Dと表示画面5Gの下端部との間の間隔βは狭くなって行く。
 この場合、表示画面5Gの上端部と境界シンボル103Aとの間、及び、境界シンボル103Aと境界シンボル103Bとの間の間隔αはそれぞれ等しい。また、境界シンボル103Cと境界シンボル103Dとの間、及び、境界シンボル103Dと表示画面5Gの下端部との間の間隔βはそれぞれ等しい。また、ドラッグ開始時の境界シンボル103Bと開始点S、開始点Sと境界シンボル103Cの比率も一定になる。
 図5に示した場合において、ドラッグ操作の方向は、図5において右上から左下に向う実線の矢印で示したように、表示画面5Gにおいて下向き方向となる。したがって、ドラッグ操作の方向の入力検知デバイス1の操作面の端部とは、図5に示した例の場合には、表示画面5Gの下端部となる。
 したがって、図5に示した例の場合、表示画面5Gの上端部と境界シンボル103Aとの間と、境界シンボル103Aと境界シンボル103Bとの間の間隔αは広くなる。そして、境界シンボル103Cと境界シンボル103Dとの間、及び、境界シンボル103Dと表示画面5Gの下端部との間の間隔βは狭くなる。
 このように、この図5に示した例の場合、表示画面5Gの上端部と境界シンボル103Aとの間、及び、境界シンボル103Aと境界シンボル103Bとの間の間隔αは均等となる。また、境界シンボル103Cと境界シンボル103Dとの間、及び、境界シンボル103Dと表示画面5Gの下端部との間の間隔βは均等となる。そして、なぞり方向側の間隔が狭くなるので、間隔βのほうが間隔αよりも狭くなる。
 更に、図5の境界シンボル103Bと境界シンボル103Cの距離は図2のそれよりも狭くなる。ここで、この例ではドラッグ開始点Sを中心ガイドシンボルの中点よりやや上寄りとしているが、ドラッグ開始点Sを中心ガイドシンボルの中点とした場合、境界シンボル103Bと境界シンボル103Cの距離は常に一定に保たれるような動きとなる。
 そして、ドラッグ位置が、表示画面5Gの下端部に近づくにしたがって、ドラッグ操作の操作量は大きくなるので、境界シンボル間の間隔は徐々に狭められる。そして、最終的には、図5に示したように、最初のドラッグ開始点Sより下にあった境界シンボル103Cと境界シンボル103Dとの間隔、境界シンボル103Dと表示画面5Gの下端部との間隔は狭められて、同じ位置に重ねて表示されるようになる。
 また、上述したように、ドラッグ操作の方向が表示画面5Gに対して下向きとなり、ドラッグ操作の操作量が徐々に増加するようになると、これに応じて、項目等表示選択領域102の表示項目のスクロール方向とスクロール速度とが変更される。
 この場合、スクロール方向は、図5において、実線の矢印402が示すように、表示画面5Gにおいて下向きの方向となる。また、スクロールの速度は、上述もしたように、ドラッグ操作の操作量に応じて決まる加速度に基づいて決まる。
 そして、図5に示した例の場合には、ドラッグ位置がドラッグ操作の開始点Sよりも下側に位置するようになると、各境界シンボルは、表示画面5Gの下側に移動するようにされるので、ドラッグ操作の方向が逆向きになったことを明確に知ることができる。
  [ユーザーインターフェース領域の端部からドラッグ操作を行う場合]
 次に、図6、図7を用いて、ユーザーインターフェース領域の端部からドラッグ操作を開始する場合について説明する。
 図6は、情報処理装置100において、入力検知デバイス1に対してドラッグ操作がされる前の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。したがって、ユーザーインターフェース領域101、項目等表示選択領域102の表示態様は、図2を用いて説明した場合と同様の状態になっている。
 そして、図6に示すように、ユーザーインターフェース領域101の下端部近傍の入力検知デバイス1の操作面上にユーザーが指等を接触させ、矢印が示す方向にドラッグ操作を開始させたとする。この例においても、符号Sが示す位置が、ユーザーが指等を最初に接触させた開始点である。
 図7は、図6に示したドラッグ操作開始前の状態から、図6において矢印が示した方向にドラッグ操作が開始された直後の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。
 上述もしたように、入力検知デバイス1の操作面に対してドラッグ操作が行われると、入力検知デバイス1からは、ユーザーのドラッグ操作に応じて変化する入力検知デバイス1の操作面上の接触位置に応じた座標データが出力される。
 入力検知デバイス1からの座標データは、ユーザーインターフェース制御部2に供給され、ユーザーインターフェース制御部2において、ユーザーのドラッグ操作の方向と操作量とが把握される。そして、ユーザーインターフェース制御部2は、当該把握した内容にしたがって、表示メモリ部4のユーザーインターフェース領域101の境界シンボルの表示位置を変更する。
 この図6、図7に示す例の場合では、全ての境界シンボルが開始点Sよりもドラッグ操作方向にあるので、ユーザーインターフェース領域101の各境界シンボル103A、103B、103C、103Dのそれぞれは、図7に示すように、その表示位置が、図6に示した場合に比べてドラッグ操作の方向に移動するようにされる。
 また、図7に示すように、ユーザーインターフェース領域101の各境界シンボル103A、103B、103C、103Dの間隔が、ゴムが縮んだ際の模様のように詰まることにより、ユーザーのドラッグ操作の操作量を直感的に認識可能にしている。
 すなわち、図7において、ドラッグ操作の開始点は、位置Sが示しており、現在のドラッグ位置は、位置Eが示している。この場合の操作方向は、開始点Sから現在のドラッグ位置Eまでの実線矢印が示すように、表示画面5Gに対して上向き方向となる。また、この場合のドラッグ操作の操作量は、上述もしたように、開始点Sと現在のドラッグ位置Eとの差分に応じたものとなる。
 このため、ユーザーインターフェース制御部2は、表示メモリ部4を制御し、表示メモリ部4のユーザーインターフェース領域101の各境界シンボルの位置を、ドラッグ操作の操作量とその操作の方向に応じて、ドラッグ操作が行われた方向に移動させる。
 この図6、図7に示す例の場合にも、境界シンボル103A、103B、103C、104Dのそれぞれは、表示画面5Gの上端部を含めて、均等間隔に表示される。
 前述の通り、「ドラッグ開始時点を境にした線群と上端または下端の間隔は均等となる。」ので、境界シンボルの表示位置を制御することによって、ユーザーインターフェース領域101においてゴムの伸び縮みを表現するようにしている。このため、ドラッグ操作が開始される前の状態において、ドラッグ操作の開始点からドラッグ操作の方向に位置する境界シンボル間の間隔は等間隔となるように制御する。
 図6、図7に示した例の場合、ドラッグ操作の開始点Sは、ユーザーインターフェース領域101の下端部に近い位置にあり、ドラッグ操作の方向は、図6、図7において矢印が示すように、上向き方向である。したがって、各境界シンボル103A、103B、103C、103Dのそれぞれは、ドラッグ操作の開始点Sからドラッグ操作の方向に位置している。
 この場合には、図7に示したように、各シンボル間の間隔を均一にしながら、開始点Sを基準として求めるドラッグ操作の操作量と操作の方向に応じて、狭めたり、縮めたりするようにして表示する。
 これにより、ユーザーインターフェース領域101の境界シンボルの表示態様により、ドラッグ操作に応じて、ユーザーインターフェース領域101部分が、あたかもゴムが伸び縮みしているように表示することができるようにされる。
 なお、ここでは、ドラッグ操作の開始点Sを、表示画面5Gの下端部の近傍に位置するようにした場合を例にして説明した。しかし、ドラッグ操作の開始点Sを表示画面5Gの上端部の近傍に位置するようにする場合もある。
 この場合には、境界シンボルの移動方向は図7に示した場合と逆になる。しかし、境界シンボルの表示態様の変化は、図7に示した場合と同様に、ドラッグ操作が開始される前の状態において、ドラッグ操作の開始点からドラッグ操作の方向に位置する境界シンボル間の間隔は等間隔となるようにされる。
 また、項目等表示選択領域102の表示項目のスクロール表示については、図6、図7の示した例の場合にも、図2~図5を用いて説明した場合と同様にして行われる。
 すなわち、ユーザーインターフェース制御部2は、入力検知デバイス1からの座標データに応じて、ドラッグ操作の方向と、ドラッグ操作の操作量に応じて決まるスクロールの加速度とを求め、これらをデータオブジェクト制御部3に通知する。
 ユーザーインターフェース制御部2からの情報に基づいて、データオブジェクト制御部3は、表示メモリ部4の表示項目の表示位置を制御し、ドラッグ操作の方向に応じた方向に、ドラッグ操作の操作量に応じた加速度で、表示項目のスクロール表示を行う。
 このように、この実施の形態の情報処理装置100は、ユーザーのドラッグ操作に応じて単に表示項目をスクロール表示させるものではない。ユーザーインターフェース領域101に対して行うようにされるドラッグ操作に応じて、ユーザーインターフェース領域の境界シンボルの表示態様を、ゴムの伸び縮みに対応させて変化させるようにしている。
 これにより、ユーザーは、ユーザーインターフェース領域101の境界シンボルの表示態様の変化により、自分が行っているドラッグ操作が情報処理装置100においてどのように認識されているのかを視覚を通じて直感的に認識できるようにされる。
 したがって、ユーザーは、自分が行っているドラッグ操作が強すぎるのか、弱すぎるのかを適切に認識し、ドラッグ操作の強度を迅速に調整して、目的する態様で、表示項目をスクロールさせるようにすることができる。
 [情報処理装置100のドラッグ操作受け付け時の処理]
 図8は、この実施の形態の情報処理装置100において行われるドラッグ操作時の処理を説明するためのフローチャートである。
 図8に示す処理は、情報処理装置100に電源投入され、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対してドラッグ操作が行うようにされた場合に実行される。この図8に示す処理は、主に、ユーザーインターフェース制御部2とデータオブジェクト制御部3とによって実行される。
 すなわち、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対してドラッグ操作が行うようにされると、ユーザーインターフェース制御部2とデータオブジェクト制御部3とは、協働して図8に示す処理を実行する。
 まず、ユーザーインターフェース制御部2は、入力検知デバイス1からのユーザー操作情報を受け取る(ステップS101)。ここで、ユーザー操作情報は、ドラッグ操作に応じて変化する入力検知デバイス1の操作面に対応する座標データである。
 ユーザーインターフェース制御部2は、受け取ったユーザー操作情報に応じて、ドラッグ操作の開始点(ドラッグ開始点)と現在のドラッグ位置との差分を算出し、この差分の最大ドラッグ可能量に対する比率を算出する(ステップS102)。
 このステップS102においては、詳しくは後述もするが、ユーザーインターフェース領域101の上下方向の長さ(表示画面5Gの短辺方向の長さ)を最大ドラッグ可能量とする。そして、当該最大ドラッグ可能量に対する、ユーザーインターフェース領域101の表示画面の短辺方向におけるドラッグ開始点と現在のドラッグ位置との差分の比率を算出する。
 これにより、例えば、ユーザーインターフェース領域101において、表示画面の横方向(表示画面の長辺方向)の位置については考慮しないようにすることができ、ユーザーインターフェース領域101の縦方向のドラッグ操作を検知することができる。
 そして、ユーザーインターフェース制御部2は、開始点の位置、開始点に対するドラッグ操作の方向、ドラッグ操作の比率(操作量)に応じて、ユーザーインターフェース領域101に表示されている境界シンボルの表示位置を求める(ステップS103)。
 例えば、係数及びデータ格納部6には、ドラッグ操作の開始点のユーザーインターフェース領域101上の位置、開始点を基準とするドラッグ操作の方向、ドラッグ操作の操作量の3つの情報に対応させて、各境界シンボルの表示位置が記憶保持されている。
 ユーザーインターフェース制御部2は、上述したように求められる情報に基づいて、係数及びデータ格納部6を参照することにより、境界シンボルのユーザーインターフェース領域上101の表示位置を特定することができるようにされる。
 更に、ユーザーインターフェース制御部2は、ドラッグ操作の操作量(比率)に応じて、表示項目をスクロールさせる場合のスクロールの加速度を求める(ステップS104)。このステップS104の処理においても、ドラッグ操作の操作量に応じて、一意にスクロールの加速度を特定することができるようにされる。
 より具体的には、例えば、係数及びデータ格納部6には、ドラッグ操作の操作量に対応付けられて、スクロールの加速度が記憶保持されている。そして、求めたドラッグ操作の操作量に基づいて、係数及びデータ格納部6の所定のエリアから対応する加速度データを読み出す。このようにして、ドラッグ操作の操作量に応じて、スクロールの加速度を求めることができる。
 この後、ユーザーインターフェース制御部2は、求めた各境界シンボルの表示位置に基づいて、表示メモリ部4に記憶保持されているユーザーインターフェース領域101の各境界シンボルの表示位置を更新する(ステップS105)。
 また、ユーザーインターフェース制御部2は、ドラッグ操作の方向と求めたスクロールの加速度とを、データオブジェクト制御部3に通知する(ステップS106)。
 データオブジェクト制御部3は、ユーザーインターフェース制御部2からのドラッグ操作の方向とスクロールの加速度とに応じて、表示メモリ部4の項目等表示選択領域102の表示情報(表示項目の表示位置)を更新する(ステップS107)。
 この後、表示デバイス5が、表示メモリ部4の更新された表示情報(境界シンボル及び表示項目(データオブジェクト)を、自己の表示素子の表示画面に表示するようにする(ステップS108)。
 そして、この図8に示した処理は、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対して継続してドラッグ操作が行われている間においては、所定のタイミング毎に繰り返し行うようにする。
 ユーザーのドラッグ操作に応じて、ユーザーインターフェース領域101の境界シンボルの表示対応を変えることができると共に、項目等表示選択領域102に表示される表示項目(データオブジェクト)をスクロール表示させることができる。
 [項目等表示選択領域の表示項目のスクロール表示の詳細]
 次に、この実施の形態の情報処理装置100において行われる、ユーザーのドラッグ操作に応じた項目等表示選択領域102の表示項目のスクロール表示を行う処理について説明する。
  [ドラッグ操作の操作量の求め方]
 まず、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対して行われるドラッグ操作の操作量を求める場合の処理の一例について説明する。
 図9は、ドラッグ操作の操作量を求める場合の処理の一例について説明するための図である。図9にも示すように、ユーザーインターフェース領域101に対しては、主に、その縦方向(表示画面5Gの短辺に沿う方向)にドラッグ操作が行うようにされる。
 したがって、図9において両矢印Lが示すように、ユーザーインターフェース領域101の縦方向の長さLが、最大ドラッグ可能量ということになる。そして、図9に示した例においては、ユーザーインターフェース領域の下端部を値「0(ゼロ)」とし、上端部を値「100」として、最大ドラッグ可能量が値「100」となるようにしている場合を示している。
 そして、図9に示したように、ドラッグ操作の開始点を位置Sとし、ユーザーインターフェース領域101の上向き方向(上端方向)と、下向き方向(下端方向)とに、それぞれ同じ大きさγ分ドラッグ操作をした場合について考える。
 まず、開始点Sから上向き方向に大きさγ分ドラッグ操作を行い、ドラッグ位置E1に到達した場合について考える。この場合の開始点Sと現在のドラッグ位置E1との差分は、図9において(1)式に示すように、ドラッグ位置E1の縦方向の座標位置から開始点Sの縦方向の座標位置を減算することにより求められる。
 そして、この場合、ドラッグ位置E1の縦方向の座標位置が、開始点Sの縦方向の座標位より大きいので、求めた値はプラスの値になる。したがって、この場合の差分は、「+γ」と言うことになる。
 次に、開始点Sから下向き方向に大きさγ分ドラッグ操作を行い、ドラッグ位置E2に到達した場合について考える。この場合の開始点Sと現在のドラッグ位置E2との差分は、図9において(2)式に示すように、ドラッグ位置E2の縦方向の座標位置から開始点Sの縦方向の座標位置を減算することにより求められる。
 そして、この場合、ドラッグ位置E2の縦方向の座標位置が、開始点Sの縦方向の座標位より小さいので、求めた値はマイナスの値になる。したがって、この場合の差分は、「−γ」と言うことになる。
 そして、開始点Sからドラッグ位置E1までドラッグ操作を行った場合の差分の最大ドラッグ可能量に対する比率は、図9に示した(3)式により求められる。また、開始点Sからドラッグ位置E2までドラッグ操作を行った場合の差分の最大ドラッグ可能量に対する比率は、図9に示した(4)式により求められる。
 そして、この例の場合、図9の(3)式、(4)式により求めた比率が、ドラッグ操作の操作比率、すなわち、ドラッグ操作の操作量を示すことになる。そして、この場合、求めた比率の絶対値が操作量の大きさを示し、比率の符号がドラッグ操作の方向を示すものとなる。
 そして、ユーザーインターフェース制御部2は、求めたドラッグ操作の方向とドラッグ操作の操作量とに応じて、表示メモリ部4のユーザーインターフェース領域101に表示する境界シンボルの表示位置を決定して、その表示位置を制御する。
 また、ユーザーインターフェース制御部2は、求めたドラッグ操作の方向とドラッグ操作の操作量とに応じて、項目等表示選択領域102に表示される表示項目のスクロールの方向とスクロールの加速度とを求めるようにしている。
  [表示項目のスクロール加速度の求め方]
 次に、図9を用いて説明したようにして求められるドラッグ操作の方向とドラッグ操作の操作量とに基づいて求められる、表示項目のスクロールの方向とスクロールの加速度とを求める場合の処理について説明する。
 この例の場合、表示項目のスクロールの方向は、ドラッグ操作の方向に応じて一意に決められる。すなわち、上述もしたように、ドラッグ操作の方向は、ドラッグ操作の開始点Sに対する現在のドラッグ位置に応じて一意に決められる。
 具体的には、ドラッグ操作の開始点Sよりも上側にドラッグ位置がある場合には、スクロールの方向は上側方向となり、ドラッグ操作の開始点Sよりも下側にドラッグ位置がある場合には、スクロールの方向は下側方向となる。したがって、図9に示した例の場合には、ドラッグ操作の差分や比率の符号によって特定することが可能となる。
 また、スクロールの加速度は、ドラッグ操作の操作量の大きさ(操作量の絶対値)によって一意に特定することができるようにされる。図10は、ドラッグ操作の操作量の大きさに応じてスクロールの加速度を求める場合の処理について説明するための図である。
 図10において、横軸がドラッグ操作の操作量の大きさを示し、縦軸がスクロールの加速を示している。この図10に示したグラフに対応した情報が、例えば、係数及びデータ格納部6に記憶保持されており、ドラッグ操作の操作量の大きさが特定できれば、それに応じてスクロールの加速度も一意に求めることができるようにされている。
 そして、図10に示した例の場合、ドラッグ操作の開始点Sからドラッグ位置が遠ざかる方向に移動している場合には、はじめはなだらかにスクロールの加速度は上昇する。その後、ドラッグ操作の開始点Sからのドラッグ位置が所定量分離れると、スクロール速度は急激に上昇し、その後またなだらかな上昇となる。
 このように、この実施の形態の情報処理装置においては、ドラッグ操作の開始点Sに対するドラッグ位置に応じてスクロールの方向が特定される。また、ドラッグ操作の操作量の大きさに基づいて、スクロールの加速度が特定するようにされる。
  [スクロールの加速度に基づく表示項目のスクロール速度の求め方]
 次に、上述したように求められる、スクロールの方向とスクロールの加速度に基づいて、実際に表示項目をスクロールさせる場合のスクロール速度を決定する場合の処理について具体的に説明する。
 図11は、ユーザーのドラッグ操作に応じて、表示項目をスクロールさせる場合の処理を説明するための図である。図11において、右側の図は、ドラッグ操作に応じてスクロールが開始された後の現時点(時点t)における表示項目等の表示状態を示している。
 また、図11において、左側の図は、例えばデータオブジェクト制御部3のメモリに記憶保持されているスクロール表示される表示項目(データオブジェクト)の並びを示している。
 すなわち、図11に示すように、表示画面5Gの左端側に設けられるユーザーインターフェース領域101に対して、矢印が示すようにドラッグ操作が行われたとする。そして、上述もしたように、ドラッグ操作に応じて、ユーザーインターフェース領域101に表示される境界シンボルの表示位置を変更する処理が開始されると共に、項目等表示選択領域102に表示されている表示項目のスクロール処理が開始される。
 そして、現在時点tにおいて、表示画面5Gの項目等表示選択領域102には、図11に示すように、項目8の途中から、項目9、項目10、項目11、項目12の途中までが表示された状態にあるとする。すなわち、図11の右側の図に示すように、スクロール表示される表示項目の並びにおいては、点線で囲んだ領域が表示された状態になっている。
 そして、図10を用いて説明したように、時点tにおけるドラッグ操作の操作量の大きさに応じて、時点tにおけるスクロールの加速度aが一意に特定することができる。この時点tにおける加速度aは、単位時間に速度が変化する割合を意味する。
 ここで、単位時間は、ドラッグ操作の操作量に応じて加速度を検出するタイミングの間隔であり、加速度は、当該単位時間における表示項目のスクロール量(移動量)に相当する。
 このため、時点tより、1つ前のスクロールの加速度の検出タイミングである時点t−1におけるスクロールの目的位置に、時点tにおける加速度(単位時間当たりのスクロール量)を加算することにより、時点tにおけるスクロールの目的位置が求められる。
 より具体的に説明する。図11の右側の図において点線で囲んで示したように、時点tにおいて、表示画面5Gの項目等表示選択領域102には、項目8の途中から項目12の途中までが表示にされた状態にあるとする。したがって、時点tにおける表示の先頭は、図11に示したように項目8の途中の位置である。
 そして、図11の右側の図に示すように、時点tの1つ前の時点(時点tの1つ前の加速度の検出タイミング)である時点t−1におけるスクロールの目的位置が項目5の途中の位置であったとする。
 このスクロールの目的位置は、スクロールの開始時においては、スクロール開始時点において表示画面5Gに表示されている表示項目の先頭位置に対して、最初に特定されたスクロールの加速度を加算することにより求めることができる。
 これ以後においては、スクロールの加速度を特定する各タイミングにおいて、前回のスクロールの目的位置に対して、今回特定したスクロールの加速度を加算することにより、加速度の検出タイミング毎に、スクロールの目的位置を特定することができる。
 そして、時点tにおける加速度a、すなわち、単位時間当たりのスクロール量が、表示項目2つ分であったとする。そして、上述したように、時点t−1におけるスクロールの目的位置は、図11の右側の図に示したように、項目5の途中である。
 したがって、時点tにおけるスクロールの目的位置は、時点t−1におけるスクロールの目的位置(項目5の途中)に対して、時点tにおける加速度a(項目2つ分)を加算することにより求められる。この場合、時点tのスクロールの目的位置は、図11の右側の図に示したように、項目3の途中と言うことになる。
 そして、この例の場合、時点tにおける単位時間当たりのスクロールの速度は、時点tにおける目的位置から時点tにおける表示位置(表示項目の先頭位置)を減算し、更に予め決められた係数を乗算することにより求められる。
 図12は、スクロール速度を算出する場合の計算式を説明するための図である。ここでは、図11を用いて説明した例の場合について説明する。時点t(現時点)におけるスクロール速度Vを求めるためには、まず、時点tより1つ前の加速度の検出タイミングである時点t−1におけるスクロールの目的位置に対して、時点tにおける加速度を加算することにより、時点tのスクロールの目的位置を求める。
 そして、図12の(1)式に示すように、時点tにおけるスクロールの目的位置から時点tにおける表示項目の表示位置(表示されている表示項目の先頭位置)を減算する。これにより、時点tにおける表示されている表示項目の先頭位置からスクロールの目的位置までの距離が求められる。
 そして、図12の(1)式に示すように、減算により求めた距離に対して、予め決められた係数を乗算することにより、時点tにおける単位時間当たりのスクロール距離、すなわち、時点tにおける単位時間当たりのスクロール速度Vを求めることができる。
 これにより、時点tにおいては、ドラッグ操作の方向に応じたスクロールの方向に、表示項目をスクロール速度V分移動させるようにスクロールすることにより、ドラッグ操作に応じて、表示項目をスクロールさせることができる。
 つまり、図12の(2)式に示すように、時点tの1つ前の時点t−1におけるスクロール速度V1は、時点t−1における目的位置から時点t−1における表示されている表示項目の先頭位置を減算し、これに所定の係数を乗算することにより求められる。
 そして、時点tにおける表示項目の表示位置(表示項目の先頭位置)Xは、時点t−1からスクロール速度V1分進んだ位置である。このため、図12の(3)式に示したように、点tにおける表示項目の表示位置Xは、時点t−1におけるスクロール速度V1に、時点t−1における表示項目の表示位置を加算することによって特定する。
 このように、スクロールの加速度を求める時点において、スクロールの速度を特定し、現在の表示項目の表示位置(表示項目の先頭位置)に対して、スクロールの速度を加算する。これにより、次に項目等表示選択領域102の先頭部分に、どの表示項目を表示するかを特定することができる。
 なお、ここでも、単位時間は、加速度を求めるタイミング間の間隔であり、この実施の形態の情報処理装置においては、等間隔に発生する所定のタイミング毎に、ドラッグ位置を検出してドラッグ操作の操作量を求め、これに応じて加速度を求めるようにしている。
 そして、求めるスクロールの速度は、単位時間当たりの速度であるので、当該スクロールの速度は、そのまま単位時間当たりの表示項目のスクロールの距離(移動距離)であると言える。
 図13は、この実施の形態の情報処理装置100におけるスクロールの速度の変化について説明するための図である。図13においては、項目等表示選択領域102に表示されている表示項目が、スクロール方向に表示項目が多数存在する位置にあるとする。この場合に、ドラッグ操作が行われると、図13において矢印が示すように、表示候補の表示項目の数はどんどん少なくなる。
 そして、図10を用いて説明したように、スクロールの加速度は、ドラッグ操作の操作量の大きさに応じて決まる。また、表示項目のスクロールの速度は、上述したように、スクロールの加速度に応じて求められるスクロールの目的位置を考慮して求められる。
 このため、スクロール方向に表示項目が少なくなってきた場合には、最終的に、スクロールの目的位置が最端部の表示項目に固定される。この場合には、スクロールの速度は、自動的に徐々に遅くなるようにされる。
 つまり、図13に示すように、スクロールの加速度に応じて、スクロールの目的位置をスクロール方向に移動させることが可能な、位置Zまでの区間Aにおいては、スクロールの速度を、スクロールの加速度に対応させて上昇させていくことが可能である。
 しかし、図13において、位置Z以降の区間Bは、表示項目の数が少なくなり、スクロールの加速度に応じて、スクロールの目的位置をスクロール方向に移動させることができず、スクロールの目的位置が最端部の表示項目に固定される区間であるとする。
 この場合、区間Bにおいては、結果として、表示項目のスクロールの速度は徐々に遅くなるようにされる。これにより、スクロール速度が速いまま、表示項目のスクロールが表示項目の並びの最短部まで表示され、最短部分の表示項目を正確に確認できず、逆方向にドラッグ操作を行って、再度、表示項目を確認する必要が生じるといった不都合を回避することができる。
 なお、図11~図13においては、図11のユーザーインターフェース領域101において矢印で示したように、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対して、上側へのドラッグ操作が行われた場合を例にして説明した。
 しかし、ドラッグ操作の方向が、開始点から下側方向に行うようにされた場合であっても、表示項目のスクロール方向が変わるだけで、ドラッグ操作が開始点から上側方向に行うようにされた場合と同様にして表示項目のスクロールが行われる。
  [スクロールの速度の求め方のまとめ]
 次に、主にデータオブジェクト制御部3において行われる項目等表示選択領域102に表示される表示項目のスクロール処理についてまとめる。図14は、データオブジェクト制御部3において行われる表示項目のスクロール処理について説明するためのフローチャートである。
 この図14に示す処理は、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対して、ドラッグ操作が行われている間において、主にデータオブジェクト制御部3において所定のタイミング毎に繰り返し実行される処理である。
 まず、データオブジェクト制御部3は、上述もしたように、ユーザーインターフェース制御部2から、表示項目のスクロールの加速度を受け取る(ステップS201)。このステップS201において、データオブジェクト制御部3は、スクロールの加速度のほか、ユーザーインターフェース制御部2から例えばユーザーによるドラッグ操作の方向を示す情報などをも受け取ることになる。
 そして、データオブジェクト制御部3は、加速度を用いて、スクロールの目的位置を更新する(ステップS202)。具体的には、上述もしたように、前回のスクロールの目的位置に対して、今回の加速度を加算することによって、今回のスクロールの目的位置を求める。
 次に、データオブジェクト制御部3は、更新した目的位置(今回のスクロールの目的位置)と現在の表示項目の表示位置(表示項目の先頭位置)との差分を算出する(ステップS203)。
 そして、データオブジェクト制御部3は、ステップS203において求めた差分に対して、予め決められた係数を乗算することにより、現在時点の速度を算出する(ステップS204)。このステップS203とステップS204の処理が、図12を用いて説明した(1)式の処理である。
 そして、データオブジェクト制御部3は、ステップS204において求めたスクロールの速度と、ユーザーインターフェース制御部2からのドラッグ操作の操作方向とに基づいて、表示メモリ部4の表示項目の表示位置を更新する(ステップS205)。そして、この図14に示す処理を抜け、次の実行タイミングまで待つことになる。
 これにより、ユーザーのドラッグ操作に応じて、項目等表示選択領域102に表示される表示項目をスクロールさせることができる。
 [境界シンボル間の間隔の制御処理]
 この実施の形態の情報処理装置100においては、上述もしたように、ユーザーのドラッグ操作に応じて、ユーザーインターフェース領域101に表示させる境界シンボルの表示態様を変えるようにしている。
 図15、図16は、境界シンボルの初期表示状態(ドラッグ操作が行われる前の状態)の一例を説明するための図である。図15に示すように、また、図2~図7等にも示したように、この実施の形態の情報処理装置100においては、ユーザーインターフェース領域101に表示する境界シンボルとして4本の線分を用いるようにしている。
 なお、これは一例であり、例えば、図16に示すように、6本の線分1031、1032、1033、1034、1035、1036を境界シンボルとして用いるようにしても良い。この場合には、ユーザーインターフェース領域101は、R1~R7で示した7個の領域に分けられることになる。
 このように、多くの境界シンボルを用いることにより、ユーザーのドラッグ操作に応じた変化をより詳細に表現することが可能となる。しかし、あまり境界シンボルの数を多くすると、ドラッグ操作に応じた変化が見えにくくなる場合もあるので、その数は適度なものとすることが望ましい。
 そして、上述もしたように、この実施の形態の情報処理装置100においては、ドラッグ操作に応じて、境界シンボル間の間隔を変更する。この場合、第1の条件(原則)として、ドラッグ開始時にドラッグ開始点Sを境にした上部にある境界シンボル間と表示画面5Gの上端部と当該上端部に最も近い境界シンボルとの間の間隔はドラッグ中も均等に間隔αとなる。また、ドラッグ開始時にドラッグ開始点Sを境にした下部にある境界シンボル間と表示画面5Gの下端部と当該下端部に最も近い境界シンボルとの間の間隔はドラッグ中も均等に間隔βとなる。そして、なぞり方向側の間隔が狭くなる。
 具体的に、図2~図4を用いて説明した例の場合には、表示画面5Gの上端部と境界シンボル103Aとの間、及び、境界シンボル103Aと境界シンボル103Bと間の間隔は均等に間隔αとなる。また、境界シンボル103Cと境界シンボル103Dとの間、及び、境界シンボル103Dと表示画面5Gの下端部との間隔は均等に間隔βとなる。
 この原則はドラッグ中も変わらず、表示画面5Gの上端部、境界シンボル103A、境界シンボル103B、その時点のドラッグ点、境界シンボル103C、境界シンボル103D、表示画面5Gの下端部という順番は変わらない。そして、なぞり方向側の間隔が狭くなるので、間隔αのほうが間隔βよりも狭くなるように制御している。
 [ドラッグ操作終了後のユーザーインターフェース領域の表示態様]
 そして、上述したように、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対してドラッグ操作を行って、項目等表示選択領域102に表示されている表示項目をスクロールさせ、目的する表示項目が表示されたとする。
 この場合、ユーザーは、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対して接触させて指等を当該操作面から離すことによってドラッグ操作を終了する。
 このようにして、ドラッグ操作が終了するようにされた場合に、この実施の形態の情報処理装置100においては、ドラッグ操作が終了したことを、ユーザー自身が明確に知ることができるようにしている。
 図17は、ドラッグ操作が終了するようにされた直後の表示画面5Gの表示情報の表示状態の一例を説明するための図である。例えば、図2~図4を用いて説明したように、ドラッグ操作の開始点S→ドラッグ位置E1→ドラッグ位置E2の順にドラッグ操作が行われて、表示項目のスクロールが行われ、目的とする表示項目が表示されたので、ドラッグ操作を終了したとする。
 この場合には、例えば、ドラッグ操作終了時点において、項目等表示選択領域102の上端側に表示情報の全体が表示されていた表示項目(図4の例の場合には項目4)を、先頭の表示項目とし、図17に示したように、4つの表示項目が表示するようにされる。この後、項目等表示選択領域102における表示項目のスクロールが停止される。
 一方、ユーザーインターフェース領域101の境界シンボル103A、103B、103C、103Dのそれぞれは、ドラッグ操作が行われる前の初期状態の所定位置に戻るようにされる。しかし、単に初期状態の所定位置に戻るものではない。
 図17に示すように、境界シンボル103A、103B、103C、103Dのそれぞれは、ドラッグ操作が行われる前の初期状態の所定位置に戻り、各境界シンボル上の矢印が示すように、上下に震動するように表示される。
 この実施の形態の情報処理装置100においては、ユーザーのドラッグ操作に応じて、ユーザーインターフェース領域101の境界シンボルの表示態様により、ユーザーインターフェース領域101においてゴムの伸び縮みを表現するようにした。
 そして、伸びたり縮んだりしていたゴムが元の状態に戻る場合、ゴムが元の状態に引き戻されるときのエネルギーにより、若干振動した状態になる。
 そこで、この状態を表現するために、ドラッグ操作が終了し、ユーザーインターフェース領域101において、境界シンボルの位置を初期位置に戻した場合に、境界シンボルを上下に震動させることにより、ゴムの収縮状態が解除されたことを示すようにしている。
 なお、この実施の形態の情報処理装置100においては、ドラッグ操作の操作量に応じて、ドラッグ操作終了後の各境界シンボルの振動幅を制御する。すなわち、ドラッグ操作の操作量が大きいときには、ドラッグ操作終了後の各境界シンボルの振動幅は大きくし、ドラッグ操作の操作量が小さい場合には、ドラッグ操作終了後の各境界シンボルの振動幅は小さくなるようにしている。
 図18は、ドラッグ操作が終了するようにした場合に、ユーザーインターフェース領域101の境界シンボルの表示位置を初期状態に戻す場合の処理を説明するためのフローチャートである。
 図18に示す処理は、ユーザーによってドラッグ操作が開始された後において、ユーザーインターフェース制御部2において、適宜のタイミングで繰り返し実行するようにされる。
 すなわち、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対してドラッグ操作が行うようにされると、ユーザーインターフェース制御部2は、図18に示す処理も適宜のタイミングで繰り返し実行するようする。
 そして、図18に示す処理において、ユーザーインターフェース制御部2は、入力検知デバイス1からの検出出力を監視し、ユーザーインターフェース領域101上の操作面に対するユーザーの接触が終了したか否かを判断する(ステップS301)。
 ステップS301の判断処理において、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対するユーザーの接触が終了していないと判断したときには、この図18に示す処理を抜け、次の実行タイミングを待つ。
 ステップS301の判断処理において、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対するユーザーの接触が終了したと判断したときには、ドラッグ操作の操作量に基づいて、用いる加速度を選択する(ステップS302)。
 このステップS302の処理は、ドラッグ操作の開始点からドラッグ操作終了時のドラッグ位置までの操作量に応じて、境界シンボルを初期状態の位置に戻したときに、境界シンボルを振動させるために用いるものである。
 そして、ユーザーインターフェース制御部2は、まず、ユーザーインターフェース領域101の各境界シンボルを初期状態の位置に戻すと共に、選択した加速度と所定の物理モデルにしたがって、境界シンボルを振動させる(ステップS303)。
 このステップS303において用いられる物理モデルは、例えば、ゴムの伸縮運動であるが、その他にも、例えば、ばねの伸縮運動など、種々の物理モデルを用いるようにすることが可能である。
 そして、ステップS303の境界シンボルの振動は、徐々に収束し、最終的に各境界シンボルは初期状態の位置に静止した状態に戻ることになる。この後、ユーザーインターフェース制御部2は、図18に示した処理を終了し、ドラッグ操作が開始された場合にまた繰り返し実行されることになる。
 これにより、ユーザーは、自分がドラッグ操作をさせた場合に、ユーザーインターフェース領域101の各境界シンボルの表示位置と振動とによって、情報処理装置100の状態も、ドラッグ操作が終了した状態に遷移したことを認識することができる。
 [フリック操作の適用]
 上述した実施の形態においては、入力検知デバイス1の操作面に対してドラッグ操作を行うようにした場合を例にして説明した。
 しかし、ドラッグ操作とフリック操作とは、上述もしたように、動作の速さに違いがあるものの、操作面上にユーザーの指等を接触させた後に、当該操作面上を移動させる操作であり、移動距離と移動方向との2種類の情報によって把握できる操作である。
 このため、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対しフリック操作を行った場合にも、項目等表示選択領域102に表示される表示項目のスクロールを行うようにすることができる。
 図19は、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対しフリック操作を行った場合の項目等表示選択領域102に表示される表示項目のスクロール表示について説明するための図である。
 図19(A)は、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対しフリック操作が行われる前の表示画面5Gの表示状態を説明するための図である。
 図19(A)に示すように、ユーザーインターフェース領域101には、各境界シンボルなどが、ドラッグ操作やフリック操作が行われる前の初期状態の位置に表示されている。また、項目等表示選択領域102には、図2に示した場合と同様に、項目20から項目23までの4つの表示項目が表示され、上下方向のいずれにもスクロールすることができる状態になっている。
 そして、図19において、ユーザーインターフェース領域101の下側部分から点線矢印で示したように、表示画面5Gの上側方向(上端方向)にフリック操作が行われたとする。
 フリック操作は、上述もしたように、ユーザーの指等によって入力検知デバイス1の操作面上に接触させてから、そのまま任意の方向に素早く「はじく」ようにする動作である。したがって、ユーザーの指等の入力検知デバイス1の操作面に対する接触は、ドラッグ操作に比べると非常に短い時間となる。
 このため、図19(B)に示すように、フリック操作が行われた直後においては、そのフリック操作の開始点と操作方向と操作量とに応じて、ユーザーインターフェース領域101の各境界シンボルの表示態様を変える。同時に、図19(B)に示すように、フリック操作の操作方向と操作量とに応じて、項目等表示選択領域102の表示項目をスクロールさせる。
 この場合、ユーザーインターフェース領域101の各境界シンボルの表示態様の変更は、基本的は、上述したドラッグ操作の場合と同様に行うことが可能である。すなわち、フリック操作の場合であっても、ユーザーの指などの接触の開始点から終了点までの距離に応じて、フリック操作の操作量を把握することができる。また、ユーザーの指などの接触の開始点から終了点までの時間に応じて、フリック操作の操作量を把握することができる。
 しかし、フリック操作の場合、入力検知デバイス1の操作面に対する接触状態は非常に短い。このため、フリック操作の場合には、操作量を予め決められた量とするようにしてもよい。
 そして、上述したように、フリック操作は、入力検知デバイス1の操作面に対する接触状態は非常に短い。このため、フリック操作に応じて、図19(B)に示したような表示を行うようにした後、迅速に、ユーザーインターフェース領域101の境界シンボルの表示態様を初期状態に戻すと共に、項目等表示選択領域102のスクロールを停止させる。
 すなわち、フリック操作に応じて、図19(B)に示したように表示態様を変えた後、図19(C)に示すように、ユーザーインターフェース領域101の各境界シンボルの表示位置を初期状態の位置に戻し、各境界シンボルを上下に振動させるように表示する。
 この境界シンボルを振動させるように表示する処理は、図17、図18を用いて上述した場合と同様にして行われる。
 また、フリック操作に応じて、図19(B)に示したように表示を変えた後、図19(C)に示すように、項目等表示選択領域102の表示項目のスクロールを停止させる。この場合、フリック操作に応じた量分の表示項目のスクロールを実行した後に、項目等表示選択領域102の上端側に表示情報の全体が表示されている表示項目を、先頭の表示項目とし、図19(C)に示したように、4つの表示項目が表示するようにされる。
 このように、ドラッグ操作に替えてフリック操作を行うようにした場合であっても、そのフリック操作の操作方向と操作量とに応じて、ユーザーインターフェース領域101の境界シンボルの表示態様を変えることができる。同時に、フリック操作の操作方向と操作量とに応じて、項目等表示選択領域102の表示項目のスクロールを行うことができる。
 [情報処理装置100のフリック操作受け付け時の処理]
 図20は、この実施の形態の情報処理装置100において行われるフリック操作時の処理を説明するためのフローチャートである。
 図20に示す処理は、情報処理装置100に電源投入され、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対してフリック操作が行うようにされた場合に実行される。この図20に示す処理は、主に、ユーザーインターフェース制御部2とデータオブジェクト制御部3とによって実行される。
 すなわち、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対してフリック操作が行うようにされると、ユーザーインターフェース制御部2とデータオブジェクト制御部3とは、協働して図20に示す処理を実行する。
 まず、ユーザーインターフェース制御部2は、入力検知デバイス1からのユーザー操作情報を受け取る(ステップS401)。ここで、ユーザー操作情報は、フリック操作に応じて変化する入力検知デバイス1の操作面に対応する座標データである。
 ユーザーインターフェース制御部2は、受け取ったユーザー操作情報に応じて、ユーザー操作量(フリック操作量)を求め、当該ユーザー操作量に応じて境界シンボルの表示位置を求める(ステップS402)。
 なお、ユーザー操作量(フリック操作量)は、上述もしたように、フリック操作の開始点(フリック開始点)とフリック操作の終了点(フリック終了点)との差分として求めることができる。
 また、ユーザー操作量(フリック操作量)は、上述もしたように、フリック操作の開始点(フリック開始点)からフリック操作の終了点(フリック終了点)までの時間として求めることもできる。あるいは、ユーザー操作量(フリック操作量)として一定の値を用いるようにしてもよい。
 この例の場合、ステップS402においては、フリック操作の開始点のユーザーインターフェース領域101上の位置、開始点を基準とするフリック操作の方向、フリック操作の操作量(ユーザー操作量)に基づいて、各境界シンボルの表示位置がどこになるかを特定できる。
 例えば、係数及びデータ格納部6には、フリック操作の開始点のユーザーインターフェース領域101上の位置、開始点を基準とするフリック操作の方向、フリック操作の操作量の3つの情報に対応させて、各境界シンボルの位置が記憶保持されている。
 ユーザーインターフェース制御部2は、上述したように求められる情報に基づいて、係数及びデータ格納部6を参照することにより、境界シンボルのユーザーインターフェース領域101上の表示位置を特定することができるようにされる。
 更に、ユーザーインターフェース制御部2は、ユーザー操作量(フリック操作)に応じて、表示項目をスクロールさせる場合のスクロールの加速度を求める(ステップS403)。このステップS403の処理においても、フリック操作の操作量に応じて、一意にスクロールの加速度を特定することができるようにされる。
 より具体的には、例えば、係数及びデータ格納部6には、フリック操作の操作量に対応付けられて、スクロールの加速度が記憶保持されている。そして、求めたフリック操作の操作量に基づいて、係数及びデータ格納部6の所定のエリアから対応する加速度データを読み出す。このようにして、フリック操作の操作量に応じて、スクロールの加速度を求めることができる。
 この後、ユーザーインターフェース制御部2は、求めた各境界シンボルの表示位置に基づいて、表示メモリ部4に記憶保持されているユーザーインターフェース領域101の各境界シンボルの表示位置を更新する(ステップS404)。
 また、ユーザーインターフェース制御部2は、フリック操作の方向と求めたスクロールの加速度とを、データオブジェクト制御部3に通知する(ステップS405)。
 データオブジェクト制御部3は、ユーザーインターフェース制御部2からのフリック操作の方向とスクロールの加速度とに応じて、表示メモリ部4の項目等表示選択領域102の表示情報(表示項目の表示位置)を更新する(ステップS406)。
 この後、表示デバイス5が、表示メモリ部4の更新された表示情報(境界シンボル及び表示項目(データオブジェクト)を、自己の表示素子の表示画面に表示するようにする(ステップS407)。そして、この図20に示した処理を終了させ、次のフリック操作を待つことになる。
 このように、ユーザーのフリック操作に応じて、ユーザーインターフェース領域101の境界シンボルの表示対応を変えることができると共に、項目等表示選択領域102に表示される表示項目(データオブジェクト)をスクロール表示させることができる。
 [ドラッグ操作に応じた表示遷移の他の例]
 次に、ドラッグ操作に応じたユーザーインターフェース領域101の境界シンボルの表示態様の他の例について説明する。上述した実施の形態においては、ドラッグ操作の開始点Sを基準にして、ドラッグ開始時に当該開始点Sより上部に位置する境界シンボルと、下部に位置する境界シンボルとで、それらが形成する間隔を異ならせるようにした。しかしこれに限るものではない。
 例えば、境界シンボル103A、103B、103C、104Dのそれぞれを、それぞれ毎に表示位置を変えるようにし、各境界シンボル間の間隔を変更するようにしてもよい。図21~図27は、この実施の形態の情報処理装置100において、ドラッグ操作に応じて遷移する表示デバイス5の表示画面に表示される情報の表示態様の他の例について説明するための図である。
 まず、図21~図26を用いて、ユーザーインターフェース領域101の中央部分からドラッグ操作を開始する場合について説明する。
 図21は、上述した図2の場合と同様の状態を示しており、情報処理装置100において、入力検知デバイス1に対してドラッグ操作がされる前の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。
 この例の場合にも、図21に示すように、ユーザーインターフェース領域101は、線分である4つの境界シンボル103A、103B、103C、103Dによって、5つの部分に分けられるようにされている。
 この実施の形態において、境界シンボル103A、103B、103C、103Dは、通常時(ドラッグ操作が行われていない時)には、ユーザーインターフェース領域101の縦方向に、例えば、5つの領域を均等に分割する位置に表示するようにされる。
 また、図21に示すように、境界シンボル103Bと境界シンボル103Cとにより挟まれた、ユーザーインターフェース領域101の縦方向の中心部分には、中心であることを示す3本の線分である中心ガイドシンボル104が表示される。
 そして、項目等表示選択領域102には、表示項目群(データオブジェクト群)105が表示される。この実施の形態において、項目等表示選択領域102には、4つの表示項目(データオブジェクト)が表示するようにされている。この図21に示した例の場合にも、例えば、100項目ある表示項目のうち、20番目から23番目の表示項目が表示され、上下いずれの方向にもスクロール可能な状態になっている場合を示している。
 そして、図21に示すように、ユーザーインターフェース領域101の中心ガイドシンボル104が表示されている位置の入力検知デバイス1の操作面上にユーザーが指等を接触させ、矢印が示す方向にドラッグ操作を開始させたとする。この例において、符号Sが示す位置が、ユーザーが指等を最初に接触させた開始点である。
 図22は、図21に示したドラッグ操作開始前の状態から、図21において矢印が示した方向にドラッグ操作が開始された直後の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。
 ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対してドラッグ操作が行われると、入力検知デバイス1からは、ユーザーのドラッグ操作に応じて変化する入力検知デバイス1の操作面上の接触位置に応じた座標データが出力される。
 入力検知デバイス1からの座標データは、ユーザーインターフェース制御部2に供給される。ユーザーインターフェース制御部2は、入力検知デバイス1からの座標データに基づいて、ユーザーのドラッグ操作の方向と操作量とを把握する。そして、ユーザーインターフェース制御部2は、当該把握した内容にしたがって、表示メモリ部4のユーザーインターフェース領域101の境界シンボルの表示位置を変更する。
 この例の場合には、ユーザーインターフェース領域101の各境界シンボル103A、103B、103C、103Dのそれぞれは、図22に示すように、その表示位置が、図21に示した場合に比べてドラッグ操作の方向に移動するようにされる。
 また、図22に示すように、ユーザーインターフェース領域101の各境界シンボル103A、103B、103C、103Dの間隔が、ゴムが縮んだ際の模様のように詰まることにより、ユーザーのドラッグ操作の操作量を直感的に認識可能にしている。
 すなわち、図22において、ドラッグ操作の開始点は、位置Sが示しており、現在のドラッグ位置は、位置E1が示している。この場合の操作方向は、開始点Sから現在のドラッグ位置E1までの実線矢印が示すように、表示画面5Gに対して上向き方向となる。
 また、この場合のドラッグ操作の操作量は、上述もしたように、開始点Sと現在のドラッグ位置E1との差分に応じたものとなるから、図22において両矢印201が示す大きさとなる。
 このため、ユーザーインターフェース制御部2は、表示メモリ部4を制御し、表示メモリ部4のユーザーインターフェース領域101の各境界シンボルの位置を、ドラッグ操作の操作量とその操作の方向に応じて移動させる。
図22に示した例の場合には、境界シンボル103Aと103Bとの間、境界シンボル103Bと103Cとの間、境界シンボル103Cと103Dとの間は、それぞれ異なるようにされている。
 そして、図22に示した例の場合、ユーザーインターフェース制御部2は、ドラッグ操作の開始点Sに対する現在のドラッグ位置E1に応じて決まるドラッグ操作の方向の入力検知デバイス1の操作面の端部に近い境界シンボル間の間隔ほど狭くなるようにしている。
 この図22に示した場合において、ドラッグ操作の方向は、上述もしたように、表示画面5Gにおいて、開始点Sから現在のドラッグ位置E1へ向う方向(表示画面5Gにおいて上向き方向)となる。
 したがって、ドラッグ操作の方向の入力検知デバイス1の操作面の端部とは、図22に示した例の場合には、表示画面5Gの上端部となる。そして、図22に示した例の場合、表示画面5Gの上端部に近い境界シンボル間ほど狭くなるようにしている。
 このため、図22に示した例の場合には、境界シンボル103Aと103Bとの間が一番狭くなり、境界シンボル103Bと103Cとの間が2番目に狭くなり、境界シンボル103Cと103Dとの間が3番目に狭くなる。
 換言すれば、境界シンボル103Aと103Bとの間→境界シンボル103Bと103Cとの間→境界シンボル103Cと103Dとの間の順で、境界シンボル間の間隔が徐々に広くなるようにされる。
 なお、この場合において、項目等表示選択領域102に表示されている表示項目のスクロール表示は、図2~図5、及び、図9~図14を用いて説明した場合と同様にして行われることになる。
 そして、図22に示した状態からさらにドラッグ操作を続行することにより、項目等表示選択領域102に表示させる表示項目のスクロールの加速度を変更することが可能となる。この場合には、さらに、境界シンボル間の間隔が変更される。
 図23は、図22に示したドラッグ位置E1からさらにドラッグ操作が行うようにされた場合の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。
 図23において、位置E1から位置E2への矢印で示したように、ドラッグ位置E1からドラッグ操作が続行され、ドラッグ位置E2にまでドラッグ操作が行われたとする。この場合、新たに行われたドラッグ操作は、ドラッグ位置E1から現在のドラッグ位置E2までである。
 しかし、ドラッグ操作の開始点Sと現在のドラッグ位置E2との差分によって示されるドラッグ操作の操作量は、図23において両矢印301が示すように、図22に示した両矢印201に比べて大きなものとなる。
 そして、ユーザーインターフェース制御部2は、ドラッグ操作の方向と、両矢印301が示す最新のドラッグ操作の操作量に基づいて表示メモリ部4を制御し、境界シンボル103A、103B、103C、103Dの位置を変更する。
 この場合、図22に示した両矢印201と、図23に示した両矢印301とを比較すると分るように、ドラッグ操作の操作量は、図22に示した状態からさらに大きくなっている。このため、図22に示した状態から図23に示した状態へと、さらにドラッグ操作が同じ方向に継続された場合、境界シンボル間の間隔はより密となるようにされる。
 これにより、ユーザーは、自分がどちら側にドラッグ操作を実行しており、その状態がどのように情報処理装置100において認識されているのかを、ユーザーインターフェース領域101の境界シンボルの表示態様に応じて正確に知ることができる。
 また、この実施の形態の情報処理装置100において、ユーザーインターフェース領域101に対しては、どこからでも連続したドラッグ操作が可能である。
 図24は、図23に示したドラッグ位置E2から、それまでとは反対の方向に大きくドラッグ操作が行うようにされた場合の表示デバイス5の表示画面5Gに表示される情報の表示状態を説明するための図である。
 図21、図22、図23を用いて説明したように、ドラッグ操作が開始点S→位置E1→位置E2と言うように行われたとする。そして、図24に示すように、現在のドラッグ位置が位置E2まで到達した後に、ユーザーインターフェース領域101の入力検知デバイス1の操作面に対して接触させた指等を離すことなく、当該領域の右上から左下に向かって大きくドラッグ操作したとする。
 この場合にも、ユーザーインターフェース領域101の境界シンボルの表示位置は、ドラッグ操作の方向とドラッグ操作の操作量に基づいて変更するようにされる。同時に、項目等表示選択領域102に表示されている表示項目もまた、ドラッグ操作の方向と、ドラッグ操作の操作量に応じて決まる加速度とに基づいてスクロール表示するようにされる。
 この場合、ドラッグ操作の操作位置が位置E2から開始点Sに到達するまでの間においては、ユーザーインターフェース領域101の境界シンボル間の間隔が徐々に広くなるようにされる。そして、ドラッグ位置がドラッグ操作の開始点Sに戻ると、ユーザーインターフェース領域101の境界シンボルは図21に示した表示態様に戻る。
 そして、更にドラッグ操作が継続して行われ、表示画面5Gにおいて、ドラッグ位置が開始点Sの下側に位置するようになると、ドラッグ操作の方向は、表示画面5Gに対して下向きとなり、ドラッグ操作の操作量も徐々に増加していくことになる。
 そして、この場合、ユーザーインターフェース領域101の各境界シンボル103A、103B、103C、103Dのそれぞれは、ドラッグ操作の方向、すなわち、表示画面5Gの下端部に向う方向に移動するようにされる。
 この場合、境界シンボル103A、103B、103C、104Dのそれぞれは、それぞれ毎に表示位置が変えられ、各境界シンボル間の間隔が変更するようにされる。つまり、境界シンボル103Aと103Bとの間、境界シンボル103Bと103Cとの間、境界シンボル103Cと103Dとの間は、それぞれ異なるようにされる。
 そして、この図24に示した例の場合にも、ユーザーインターフェース制御部2は、ドラッグ操作の開始点Sに対する現在のドラッグ位置に応じて決まるドラッグ操作の方向の入力検知デバイス1の操作面の端部に近い境界シンボル間の間隔ほど狭くなるようにしている。
 図24に示した場合において、ドラッグ操作の方向は、図24において右上から左下に向う実線の矢印で示したように、表示画面5Gにおいて下向き方向となる。したがって、ドラッグ操作の方向の入力検知デバイス1の操作面の端部とは、図24に示した例の場合には、表示画面5Gの下端部となる。したがって、図24に示した例の場合、表示画面5Gの下端部に近い境界シンボル間ほど狭くなるようにしている。
 このため、図24に示した例の場合には、境界シンボル103Dと103Cとの間が一番狭くなり、境界シンボル103Cと103Bとの間が2番目に狭くなり、境界シンボル103Bと103Aとの間が3番目に狭くなる。
 換言すれば、境界シンボル103Dと103Cとの間→境界シンボル103Cと103Bとの間→境界シンボル103Bと103Aとの間の順で、境界シンボル間の間隔が徐々に広くなるようにされる。
 そして、ドラッグ位置が、表示画面5Gの下端部に近づくにしたがって、ドラッグ操作の操作量は大きくなるので、境界シンボル間の間隔は徐々に狭められる。そして、最終的には、図24に示したように、境界シンボル103A、103B、103C、103Dのそれぞれは、同じ位置に重ねて表示するようにされる。
 このようにして、ドラッグ操作に応じて、ユーザーインターフェース領域101に表示する各境界シンボル間の間隔を異ならせて表示することにより、その間隔によって、ドラッグ操作の方向と、ドラッグ操作の操作量とをユーザーに通知することができる。
 なお、例えば、図6に示したように、ユーザーインターフェース領域101の下端部や、その逆に上端部からドラッグした場合には、ドラッグ操作の開始点からドラッグ操作の方向に位置する境界シンボル間の間隔は等間隔となるように制御するようにしてもよい。
 以下においては、図21~図24を用いて説明した境界シンボル間の間隔の制御を行う場合の一例について説明する。以下においては、図21にも示し、また、図15にも示したように、線分である4本の境界シンボル103A、103B、103C、103Dが用いられる場合を例にして説明する。
 図15に示し、また、図21にも示したように、この例においては、境界シンボル103Bと103Cとによって挟まれた領域を領域Aとし、ユーザーインターフェース領域101の上端と境界シンボル103Aとで挟まれた領域を領域Bとする。また、境界シンボル103Aと103Bとによって挟まれた領域を領域Dとする。
 また、図15に示し、図21にも示したように、ユーザーインターフェース領域101の下端と境界シンボル103Dとで挟まれた領域を領域Cとし、境界シンボル103Cと103Dとによって挟まれた領域を領域Eとする。また、以下においては、図15に示したように、矢印aが示す方向を上側方向、また、矢印bが示す方向を下側方向として説明する。
 そして、この実施の形態の情報処理装置100においては、ドラッグ操作の開始点の位置とドラッグ操作の方向と、ドラッグ操作の操作量とに応じて、境界シンボル間の間隔を制御する。
 具体的には、例えば、図25、図26に示すような対応表を用いることによって、境界シンボル間の間隔を制御することができる。すなわち、図25、図26は、ユーザーインターフェース領域101上のドラッグ操作の開始点の位置とドラッグ操作の方向とドラッグ操作の操作量とに応じて、境界シンボル間の間隔をどのように制御するかを対応付けた対応表を説明するための図である。
 図25、図26において、ドラッグ開始領域欄はドラッグ操作の開始点が位置する領域を示す。また、ドラッグ操作方向は、ドラッグ操作の開始点に対する現在のドラッグ位置の方向(ドラッグ操作の方向)を示す。
 図25、図26において、操作量(比率)欄は、ドラッグ操作の操作量が示される。図25において、操作量(比率)欄のx1~xnは、ドラッグ操作の操作量(ドラッグ操作の開始点からドラッグ位置までの操作量)であり、この例の場合には、x1<x2<x3<x4<…<xnという関係にあるようにされる。
 また、図25、図26において、操作量(比率)欄は、ドラッグ操作の操作量の範囲を示す。すなわち、操作量(比率)欄において、「≦x1」は「0<操作量≦x1」である範囲を示し、「≦x2」は「x1<操作量≦x2」である範囲を示している。また、「≦x3」は「x2<操作量≦x3」である範囲を示し、「≦x4」は「x3<操作量≦x4」である範囲を示す。また、「≦xn」は「xn−1<操作量≦xn」である範囲を示す。
 また、図25、図26において、先頭シンボル位置欄は、先頭の境界シンボル(境界シンボルの移動方向)と、先頭の境界シンボルのユーザーインターフェース領域101における位置を示す。
 なお、図25、図26の先頭シンボル位置欄において、位置y1、y2、…、ynはユーザーインターフェース領域101の上端側の位置を示し、位置yy1、yy2、…、yynはユーザーインターフェース領域101の下端側の位置を示している。
 また、図25、図26において、シンボル間隔区分は、境界シンボル間の間隔の制御区分、すなわち、各境界シンボル間の間隔を不均等にするか、均等にするかの区別が示される。
 また、図25、図26において、シンボル間隔1、シンボル間隔2、シンボル間隔3のそれぞれは、境界シンボル間の間隔の大きさを示している。そして、シンボル間隔1は、ユーザーインターフェース領域101において、ドラッグ操作の方向の一番端に位置する境界シンボル間に対応する。また、シンボル間隔2はシンボル間隔1の次の境界シンボル間に対応し、シンボル間隔3はシンボル間隔2の次の境界シンボル間に対応する。
 例えば、図21に示した例において、領域Aから上側の領域A、B、Dのいずれかに指等を接触させることによりドラッグ操作の開始点を設け、そのまま図21において上側方向(図15の矢印aが示す方向)にドラッグ操作を行ったとする。
 この場合、ドラッグ操作の開始点からドラッグ操作の方向には、多くても2本の境界シンボルしか存在しない。このため、図25において、ドラッグ開始領域が領域A、B、Dのいずれかであり、ドラッグ操作の方向が上側である5つの行に示したように、ドラッグ操作の操作量に応じて、各境界シンボルの表示位置が制御される。
 この場合、図25に示したように、境界シンボル103Aを先頭の境界シンボルとし、図21において上側方向に各境界シンボルの表示位置が変わるように制御される。
 そして、先頭の境界シンボル103Aの表示位置は、値y1、y2、…によって示されるユーザーインターフェース領域101上の位置となるようにされる。そして、各境界シンボル間の間隔がシンボル間隔1、シンボル間隔2、シンボル間隔3が示す値によって制御される。
 この場合、(1)境界シンボル103Aと103Bとの間→(2)境界シンボル103Bと103Cとの間→(3)境界シンボル103Cと103Dとの間の順に、間隔は広くなるようにされる。
 そして、図25のシンボル間隔1、シンボル間隔2、シンボル間隔3の情報から分るように、ドラッグ操作の操作量が大きくなるしたがって、各境界シンボル間の間隔は徐々に狭くなる。
 したがって、この場合、各境界シンボルは、徐々にユーザーインターフェース領域101の上端側に移動し、最終的には、間隔は0(ゼロ)になって、4つの境界シンボルが同じ位置に重なって表示するようにされる。
 また、図21に示した例において、領域Aから下側の領域A、C、Eのいずれかに指等を接触させることによりドラッグ操作の開始点を設け、そのまま図21において下側方向(図15における矢印bが示す方向)にドラッグ操作を行ったとする。
 この場合、ドラッグ操作の開始点からドラッグ操作の方向には、多くても2本の境界シンボルしか存在しない。したがって、図25において、ドラッグ開始領域が領域A、C、Eのいずれかであり、ドラッグ操作の方向が下側である5つの行に示したように、ドラッグ操作の操作量に応じて、各境界シンボルの表示位置が制御される。
 この場合、図25に示したように、境界シンボル103Dを先頭の境界シンボルとし、図21において下側方向に各境界シンボルの表示位置が変わるように制御される。
 そして、先頭の境界シンボル103Dの表示位置は、値yy1、yy2、…によって示されるユーザーインターフェース領域101上の位置となるようにされる。そして、各境界シンボル間の間隔がシンボル間隔1、シンボル間隔2、シンボル間隔3が示す値によって制御される。
 この場合、(1)境界シンボル103Dと103Cとの間→(2)境界シンボル103Cと103Bとの間→(3)境界シンボル103Bと103Aとの間の順に、間隔は広くなるようにされる。
 そして、図25のシンボル間隔1、シンボル間隔2、シンボル間隔3の情報から分るように、ドラッグ操作の操作量が大きくなるしたがって、各境界シンボル間の間隔は徐々に狭くなる。
 したがって、この場合、各境界シンボルは、徐々にユーザーインターフェース領域101の下端側に移動し、最終的には、間隔は0(ゼロ)になって、4つの境界シンボルが同じ位置に重なって表示するようにされる。
 また、図21に示した例において、上端側の領域Bに指等を接触させることによりドラッグ操作の開始点を設け、そのまま図21において下側方向にドラッグ操作を行ったとする。
 この場合、ドラッグ操作の開始点からドラッグ操作の方向には、4つ全ての境界シンボルが存在し、境界シンボルで挟まれた3つの境界シンボル間が存在する。このため、図25において、ドラッグ開始領域が領域Bであり、ドラッグ操作の方向が下側である場合の各行に示したように、ドラッグ操作の操作量に応じて、各境界シンボルの表示位置が制御される。
 この場合、図25に示したように、境界シンボル103Dを先頭の境界シンボルとし、図21において矢印が示す方向と反対方向である下側方向に各境界シンボルの表示位置が変わるように制御される。
 そして、先頭の境界シンボル103Dの表示位置は、値yy1、yy2、…によって示されるユーザーインターフェース領域101上の位置となるようにされる。そして、各境界シンボル間の間隔がシンボル間隔1、シンボル間隔2、シンボル間隔3が示す値によって制御される。
 この場合、(1)境界シンボル103Aと103Bとの間、(2)境界シンボル103Bと103Cとの間、(3)境界シンボル103Cと103Dとの間のそれぞれの間隔は、均等になるように制御される。
 そして、この例の場合にも、図25のシンボル間隔1、シンボル間隔2、シンボル間隔3の情報から分るように、ドラッグ操作の操作量が大きくなるしたがって、各境界シンボル間の間隔は徐々に狭くなる。
 したがって、この場合、各境界シンボルは、各シンボル間の間隔が均等になるようにされながら、徐々にユーザーインターフェース領域101の下端側に移動する。そして、最終的には、間隔は0(ゼロ)になって、4つの境界シンボルが同じ位置に重なって表示するようにされる。
 また、図21に示した例において、下端側の領域Cに指等を接触させることによりドラッグ操作の開始点を設け、そのまま図21において上側方向にドラッグ操作を行ったとする。
 この場合においても、ドラッグ操作の開始点からドラッグ操作の方向には、4つ全ての境界シンボルが存在し、境界シンボルで挟まれた3つの境界シンボル間が存在する。したがって、図25において、ドラッグ開始領域が領域Cであり、ドラッグ操作の方向が上側である場合の各行に示したように、ドラッグ操作の操作量に応じて、各境界シンボルの表示位置が制御される。
 この場合、図25に示したように、境界シンボル103Aを先頭の境界シンボルとし、図21において上側方向に各境界シンボルの表示位置が変わるように制御される。
 そして、先頭の境界シンボル103Aの表示位置は、値y1、y2、…によって示されるユーザーインターフェース領域101上の位置となるようにされる。そして、各境界シンボル間の間隔がシンボル間隔1、シンボル間隔2、シンボル間隔3が示す値によって制御される。
 この場合、(1)境界シンボル103Aと103Bとの間、(2)境界シンボル103Bと103Cとの間、(3)境界シンボル103Cと103Dとの間のそれぞれの間隔は、均等になるように制御される。
 そして、この例の場合にも、図25のシンボル間隔1、シンボル間隔2、シンボル間隔3の情報から分るように、ドラッグ操作の操作量が大きくなるしたがって、各境界シンボル間の間隔は徐々に狭くなる。
 したがって、この場合、各境界シンボルは、各シンボル間の間隔が均等になるようにされながら、徐々にユーザーインターフェース領域101の上端側に移動する。そして、最終的には、間隔は0(ゼロ)になって、4つの境界シンボルが同じ位置に重なって表示するようにされる。
 また、図21に示した例において、上端側の領域Dに指等を接触させることによりドラッグ操作の開始点を設け、そのまま図21において下側方向にドラッグ操作を行ったとする。
 この場合、ドラッグ操作の開始点からドラッグ操作の方向には、3つの境界シンボルが存在し、境界シンボルで挟まれた2つの境界シンボル間が存在する。この場合、図26において、ドラッグ開始領域が領域Dであり、ドラッグ操作の方向が下側である場合の各行に示したように、ドラッグ操作の操作量に応じて、各境界シンボルの表示位置が制御される。
 この場合、図26に示したように、境界シンボル103Dを先頭の境界シンボルとし、図21において下側方向に各境界シンボルの表示位置が変わるように制御される。
 そして、先頭の境界シンボル103Dの表示位置は、値yy1、yy2、…によって示されるユーザーインターフェース領域101上の位置となるようにされる。そして、各境界シンボル間の間隔がシンボル間隔1、シンボル間隔2、シンボル間隔3が示す値によって制御される。
 この場合、(1)境界シンボル103Cと103Dとの間と(2)境界シンボル103Bと103Cとの間とは均等の間隔となるようにされる。しかし、(3)境界シンボル103Aと103Bとの間の間隔は、(1)境界シンボル103Cと103Dとの間や(2)境界シンボル103Bと103Cとの間の間隔よりは大きくなるように制御される。
 そして、この例の場合にも、図26のシンボル間隔1、シンボル間隔2、シンボル間隔3の情報から分るように、ドラッグ操作の操作量が大きくなるしたがって、各境界シンボル間の間隔は徐々に狭くなる。
 したがって、この場合、開始点から見てドラッグ操作の方向に位置する境界シンボルによって挟まれた2の境界シンボル間の間隔が均等になり、それ以外の境界シンボル間の間隔は、それら2つの境界シンボル間の間隔より長くなるようにされる。
 そして、各境界シンボルは、徐々にユーザーインターフェース領域101の下端側に移動する。そして、最終的には、間隔は0(ゼロ)になって、4つの境界シンボルが同じ位置に重なって表示するようにされる。
 また、図21に示した例において、下端側の領域Eに指等を接触させることによりドラッグ操作の開始点を設け、そのまま図21において上側方向にドラッグ操作を行ったとする。
 この場合、ドラッグ操作の開始点からドラッグ操作の方向には、3つの境界シンボルが存在し、境界シンボルで挟まれた2つの境界シンボル間が存在する。このため、図26において、ドラッグ開始領域が領域Eであり、ドラッグ操作の方向が上側である場合の各行に示したように、ドラッグ操作の操作量に応じて、各境界シンボルの表示位置が制御される。
 この場合、図26に示したように、境界シンボル103Aを先頭の境界シンボルとし、図21において上側方向に各境界シンボルの表示位置が変わるように制御される。
 そして、先頭の境界シンボル103Aの表示位置は、値y1、y2、…によって示されるユーザーインターフェース領域101上の位置となるようにされる。そして、各境界シンボル間の間隔がシンボル間隔1、シンボル間隔2、シンボル間隔3が示す値によって制御される。
 この場合、(1)境界シンボル103Aと103Bとの間と(2)境界シンボル103Bと103Cとの間とは均等の間隔となるようにされる。しかし、(3)境界シンボル103Cと103Dとの間の間隔は、(1)境界シンボル103Aと103Bとの間や(2)境界シンボル103Bと103Cとの間の間隔よりは大きくなるように制御される。
 そして、この例の場合にも、図26のシンボル間隔1、シンボル間隔2、シンボル間隔3の情報から分るように、ドラッグ操作の操作量が大きくなるしたがって、各境界シンボル間の間隔は徐々に狭くなる。
 したがって、この場合、開始点から見てドラッグ操作の方向に位置する境界シンボルによって挟まれた2の境界シンボル間の間隔が均等になり、それ以外の境界シンボル間の間隔は、それら2つの境界シンボル間の間隔より長くなるようにされる。
 そして、各境界シンボルは、徐々にユーザーインターフェース領域101の上端側に移動する。そして、最終的には、間隔は0(ゼロ)になって、4つの境界シンボルが同じ位置に重なって表示するようにされる。
 このように、この実施の形態の情報処理装置100は、ユーザーインターフェース領域101上におけるドラッグ操作の開始点の位置と、開始点に対するドラッグ操作の方向と、ドラッグ操作の操作量とに基づいて、境界シンボルの表示位置を制御する。
 この場合、ユーザーインターフェース領域101の境界シンボルの表示態様をユーザーのドラッグ操作に応じて変える。これにより、ユーザーインターフェース領域101の表示を、ゴムの伸び縮みに合致した態様で変化するようにすることができる。
 そして、上述もしたように、ユーザーのドラッグ操作に応じた態様で、ユーザーインターフェース領域101の表示が変えられる。これにより、ユーザーは、自分が行っているドラッグ操作が、情報処理装置100においてどのように認識されているのかを明確に知ることができる。
 そして、ユーザーインターフェース領域101の境界シンボルの表示態様の変化に基づいて、自己が行っているドラッグ操作について修正を施し、ユーザーが考えている通りに表示項目のスクロールを行うようにすることができる。
 なお、図25、図26を用いて説明した境界シンボル間の間隔の調整処理においては、以下の第1、第2の条件にしたがって、境界シンボル間の間隔を制御した。
 すなわち、第1の条件(原則)として、ドラッグ操作の開始点に対する現在のドラッグ位置に応じて決まるドラッグ操作の方向の入力検知デバイス1の操作面の端部に近い境界シンボル間の間隔ほど狭くなるように制御した。
 ただし、第2の条件として、ドラッグ操作が開始される前の状態において、ドラッグ操作の開始点からドラッグ操作の方向に位置する境界シンボル間の間隔は均等となるように制御した。
 これらの制御により、ユーザーインターフェース領域101の境界シンボルの表示態様をユーザーのドラッグ操作に応じて、ユーザーが行っているドラッグ操作が、当該情報処理装置においてどのように認識されているのかを視覚を通じて明確に把握できる。
 また、ユーザーインターフェース領域101の境界シンボルの表示態様は、あたかもゴムの伸び縮みのように変化させることができるので、操作しているユーザーにとって、自分が行っている操作状態を感覚的に理解しやすいと言うメリットがある。
 なお、図25、図26を用いて説明した境界シンボル間の間隔の調整処理は一例であり、この他にも種々の方式を用いることができる。
 例えば、(a)ユーザーインターフェース領域101上におけるドラッグ操作の開始点の位置と、(b)開始点に対するドラッグ操作の方向とに基づいて、各境界シンボル間の間隔の割合をどのようにするかを決めておく。
 そして、(c)ドラッグ操作の操作量に基づいて、各境界シンボル間の間隔の単位幅を変えるようにすることによって、境界シンボル間の間隔を適切に制御することができる。この場合、図25、図26に示したような詳細な対応表は必要ない。
 また、図2~図5を用いて説明した場合と同様に、表示画面5Gの上端部と境界シンボルとの間の間隔や、表示画面5Gの下端部と境界シンボルとの間の間隔についても、制御するようにすることももちろん可能である。
 つまり、操作方向の先頭の境界シンボルの表示位置もまた、最初の表示位置から、ユーザーのドラッグ操作の操作量に応じた量だけ、徐々にずらすようにすることもできる。
 また、各境界シンボル間の間隔を所定の関数に基づいて決めるようにするなどの方法を用いるようにすることもできる。
 要は、例えば、(a)ユーザーインターフェース領域101上におけるドラッグ操作の開始点の位置と、(b)開始点に対するドラッグ操作の方向と、(c)ドラッグ操作の操作量とに基づいて、境界シンボルの表示位置を制御するようにすればよい。
 この場合に、例えば、ゴムの伸び縮みや、ばねの伸び縮みなどといった、所定の物理モデルにしたがって、ユーザーのドラッグ操作に関連付けて、ユーザーインターフェース領域101の境界シンボルの表示態様が制御できればよい。
 なお、図21~図26を用いて説明した例は、ドラッグ操作を行った場合の例であるが、フリック操作を行った場合にも同様に境界シンボルの表示態様を変えることもできる。
 図27は、ユーザーインターフェース領域101上の入力検知デバイス1の操作面に対しフリック操作を行った場合の項目等表示選択領域102に表示される表示項目のスクロール表示について説明するための図である。
 図27(A)に示すように、ユーザーインターフェース領域101には、各境界シンボルなどが、ドラッグ操作やフリック操作が行われる前の初期状態の位置に表示されているとする。また、項目等表示選択領域102には、項目20から項目23までの4つの表示項目が表示され、上下方向のいずれにもスクロールすることができる状態になっているとする。
 そして、図27(A)において、ユーザーインターフェース領域101の中央部分から点線矢印で示したように、表示画面5Gの上側方向(上端方向)にフリック操作が行われたとする。
 この場合、図27(B)に示すように、フリック操作が行われた直後においては、そのフリック操作の開始点と操作方向と操作量とに応じて、ユーザーインターフェース領域101の各境界シンボルの表示態様を変える。同時に、図27(B)に示すように、フリック操作の操作方向と操作量とに応じて、項目等表示選択領域102の表示項目をスクロールさせる。
 例えば、図27(B)に示すように、境界シンボル103Aと境界シンボル103Bとの間→境界シンボル103Bと境界シンボル103Cとの間→境界シンボル103Cと境界シンボル103Dとの間の順に徐々に広くなるように制御される。
 つまり、フリック操作の方向の表示画面5Gの端部に近い境界シンボルの間ほど狭くなるようにされる。これにより、どちらの方向にフリック操作されたかを確実に知ることができると共に、どの位の操作量のフリック操作を行ったかを、ユーザーインターフェース領域の境界シンボルの表示態様によってユーザーは正確に把握することができる。
 なお、上述もしたように、フリック操作の場合、入力検知デバイス1の操作面に対する接触状態は非常に短い。このため、フリック操作の場合には、操作量を予め決められた量とするようにしてもよい。
 そして、上述したように、フリック操作は、入力検知デバイス1の操作面に対する接触状態は非常に短い。このため、フリック操作に応じて、図27(B)に示したような表示を行うようにした後、迅速に、ユーザーインターフェース領域101の境界シンボルの表示態様を初期状態に戻すと共に、項目等表示選択領域102のスクロールを停止させる。
 すなわち、フリック操作に応じて、図27(B)に示したように表示態様を変えた後、図27(C)に示すように、ユーザーインターフェース領域101の各境界シンボルの表示位置を初期状態の位置に戻し、各境界シンボルを上下に振動させるように表示する。
 この境界シンボルを振動させるように表示する処理は、図17、図18を用いて上述した場合と同様にして行われる。
 また、フリック操作に応じて、図27(B)に示したように表示を変えた後、図27(C)に示すように、項目等表示選択領域102の表示項目のスクロールを停止させる。この場合、フリック操作に応じた量分の表示項目のスクロールを実行した後に、項目等表示選択領域102の上端側に表示情報の全体が表示されている表示項目を、先頭の表示項目とし、図27(C)に示したように、4つの表示項目が表示するようにされる。
 このように、ドラッグ操作に替えてフリック操作を行うようにした場合であっても、各境界シンボル間の間隔をそのフリック操作の操作方向と操作量とに応じて異ならせるようにして変化させ、操作内容をユーザーに通知するようにすることができる。同時に、フリック操作の操作方向と操作量とに応じて、項目等表示選択領域102の表示項目のスクロールを行うことができる。
 [この発明の情報処理装置の撮像装置への適用]
 次に、この発明の情報処理装置をビデオカメラ(撮像装置)に適用した場合の例について説明する。
 図28は、この発明による情報処理装置が適用されたビデオカメラ200の構成例を説明するためのブロック図である。まず、ビデオカメラ200において、取り込むようにした映像や音声を記録媒体に記録する場合の動作について説明する。
 キー入力回路221は、撮影開始キー、撮影停止キー、スタンバイキー、再生キー、再生停止キー、早送りキー、早戻しキーなどの種々の操作キーを備え、ユーザーからの入力操作を受け付けて、これを制御部220に供給する。
 制御部220は、図示しないが、CPU、ROM、RAM、不揮発性メモリなどが、CPUバスを通じて接続されて形成されたマイクロコンピュータであり、図28に示したように、各部に制御信号を供給することにより各部を制御する。
 したがって、制御部220は、キー入力回路221を通じて受け付けたユーザーからの指示入力に応じて各部を制御し、ユーザーの指示に応じた処理をビデオカメラ200において実行することができるようにされる。
 そして、キー入力回路221を通じて撮影を開始することの指示入力を受け付けると、制御部220は、各部を制御し、撮影処理を開始する。
 そして、この場合、マイク部201が周囲の音声を集音して電気信号に変換し、これを音声信号処理回路202に供給する。音声信号処理回路202は、これに供給された音声信号に対して、増幅処理、ノイズ低減処理、A/D(Analog/Digital)変換処理などの種々の音声信号処理を行い、処理後のデジタル音声信号を重畳分離回路203に供給する。
 一方、レンズ204は、制御部220を通じて、露出やフォーカスが制御され、被写体の画像を取り込んで、当該画像を後段の受光部205が有する撮像素子の結像面に結像させるようにする。
 受光部205は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなど撮像素子を備えている。そして、受光部205は、自己の撮像素子の結像面に結像するようにされた画像を電気信号に変換し、これをカメラ信号処理回路206に供給する。
 カメラ信号処理回路206は、これに供給された映像信号をデジタル信号に変換し、検波処理、ホワイトバランス調整、同時化処理、ガンマ補正などの種々のカメラ信号処理を行って、処理後のデジタル映像信号を重畳分離回路203に供給する。
 重畳分離回路203は、これに供給されたデジタル音声信号やデジタル映像信号をデータ圧縮して、多重化処理し、記録データを形成して、この記録データを記録再生回路207に供給する。
 記録再生回路207は、重畳分離回路203からの記録データを、内蔵メモリ208やメモリースティック(登録商標)209に記録する。なお、メモリースティック209は、ソニー株式会社製のいわゆるメモリカードである。そして、ビデオカメラ200においては、メモリースティック209を用いるようにしたが、その他の種々のメモリカードを用いるようにすることもできる。
 また、上述したように、映像や音声の収録を行うようにしている場合においては、重畳分離回路203からデータ圧縮前の映像データが、重畳回路213に供給される。この重畳回路213には、オンスクリーンディスプレイ回路222からの表示対象の映像に重畳させるための表示情報も供給される。
 すなわち、オンスクリーンディスプレイ回路222は、制御部220の制御に応じて、後述するLCDパネル214の表示画面に表示する映像に重畳させる種々の表示情報を形成し、これを重畳回路213に供給する。
 オンスクリーンディスプレイ回路222において形成される表示情報としては、種々のガイダンスメッセージ、アイコン、音量調整バー、映像についての種々の調整バーなどを形成する。
 この他にも、オンスクリーンディスプレイ回路222は、例えば、ユーザーインターフェース領域101に表示する境界シンボルや中止ガイドシンボル、表示項目(データオブジェクト)等をも形成し、重畳回路213に供給する。
 重畳回路213は、重畳分離回路203からの映像信号に対して、オンスクリーンディスプレイ回路222からの表示情報を重畳し、これをアナログ信号に変換して、LCDパネル214に供給する。
 これにより、レンズ204が捉えている映像にオンスクリーンディスプレイ回路222で形成された映像を重畳した映像を、LCDパネル214の表示画面に表示して、ユーザーに提供することができる。
 なお、オンスクリーンディスプレイ回路222は、制御部220の制御に応じて必要な場合においてのみ、重畳する表示情報を形成するものであり、常に重畳する表示情報を形成するものではない。オンスクリーンディスプレイ回路222で表示情報が形成されていない場合には、レンズ204が捉えている映像のみがLCDパネル214に表示される。
 また、上述したように、映像や音声の収録を行うようにしている場合においては、重畳分離回路203からデータ圧縮前の音声データが、音声出力部211に供給される。音声出力部211は、これに供給された音声データをアナログ音声信号に変換し、制御部220からの制御に応じて増幅させるなどの処理を行って、処理後の音声信号をスピーカ212に供給する。
 これにより、マイク部201によって集音されている音声を、スピーカ212を通じて放音し、ユーザーに提供することができる。
 次に、内蔵メモリ208やメモリースティック209に記録された記録データ(映像データと音声データとが多重化されたもの)を再生する場合について説明する。
 キー入力回路221を通じてメモリに記録された記録データの再生を開始することの指示入力を受け付けると、制御部220は、各部を制御し、記録データの再生処理を開始される。
 この場合、記録再生回路207は、再生するように指示された記録データを、これが記録されている内蔵メモリ208あるいはメモリースティック209から読み出し、読み出した記録データを重畳分離回路203に供給する。
 重畳分離回路203は、記録再生回路207からの記録データを、これに多重化されている音声データと映像データとに分離すると共に、圧縮解凍(データ伸張)して、データ圧縮前の音声データと、映像データを復元する。
 そして、重畳分離回路203は、復元した映像データを、重畳回路213を通じてLCDパネル214に供給する。これにより、メモリに記録されていた映像データに応じた映像をLCDパネル214の表示画面に表示することができる。
 なお、この場合にも、制御部220は、必要に応じてオンスクリーンディスプレイ回路222を制御し、LCDパネル214の表示画面に表示されている映像に対して、種々の表示情報を重畳して表示することができるようにされる。
 一方、重畳分離回路203は、復元した音声データを音声出力部211に供給する。これにより、メモリに記録されていた音声データに応じた音声をスピーカ212から放音することができるようにされる。
 なお、ビデオカメラ200において、通信処理部223は、制御部220の制御に応じて外部機器との接続を可能にするための外部インターフェースである。
 そして、通信処理部223は、内蔵メモリ208やメモリースティック209に記録されている記録データから、送信用データを形成し、これを外部機器に対して送出するようにする。
 また、通信処理部223は、外部機器からの送信データを受け付けて、自機において利用可能な形式の信号に変換し、これを記録再生回路207に供給して、自己のメモリに記録したりすることもできるようにされている。
 また、電源回路240、バッテリ241、電源プラグ242、スイッチ回路243により、電源系を構成し、制御部220に対して常時電源を供給するようにしている。
 そして、ビデオカメラ200に電源が投入された場合には、制御部220がスイッチ回路243をオンにしてビデオカメラ200の各部に電源を供給して各部が駆動できるようにする。
 また、電源が投入されているビデオカメラ200の電源が落とすようにされた場合には、制御部220がスイッチ回路243をオフにしてビデオカメラ200の各部への電源の供給を停止させることができるようにしている。
 そして、この実施の形態のビデオカメラ200においても、図28に示すように、LCDパネル214の表示画面には、タッチパネル215が貼付するようにされ、表示画面の全面にタッチパネル215の操作面が形成されている。
 そして、このビデオカメラ200においては、制御部220、オンスクリーンディスプレイ回路222、重畳回路213、LCDパネル214、タッチパネル215により、この発明による情報処理装置100を実現している。
 すなわち、図28において、タッチパネル215が入力検知デバイス1を実現し、また、制御部220が、ユーザーインターフェース制御部2、データオブジェクト制御部3、係数及びデータ格納部6、全体制御部7のそれぞれの機能を実現している。
 また、オンスクリーンディスプレイ回路222及び重畳回路213が表示メモリ部4を実現し、また、LCDパネル214が表示デバイス5を実現している。
 これにより、このビデオカメラ200において、実行可能な種々の機能の中から目的とする機能を選択して実行する場合に、上述した情報処理装置100と同様に、ユーザーのドラッグ操作に応じて、表示態様を変えるようにすることができる。
 すなわち、制御部220、オンスクリーンディスプレイ回路222、重畳回路213の機能を用いて、LCDパネル214の表示画面に、図2~図7等に示したように、ユーザーインターフェース領域101や項目等表示選択領域102を設ける。
 そして、ユーザーインターフェース領域101上のタッチパネル215の操作面に対して、ドラッグ操作やフリック操作を行う。これにより、ユーザーインターフェース領域101の境界シンボルの表示態様を変えたり、項目等表示選択領域102の表示項目をスクロールさせたりすることができるようにされる。
 [実施の形態の効果]
 上述した実施の形態の情報処理装置によれば、なぞり操作に応じた表示項目のスクロールの加速度の度合いを、物体の伸縮表現を用いて表現するようにしたことにより、ユーザー操作量を直感的に把握・変更することが可能となった。また、ユーザーインターフェース領域のどこからでも再度なぞり操作を行えることにより、ユーザー利便性が高まった。
 また、スクロールの加速度を現在のなぞり位置ではなく、なぞり操作の開始点からの差分として把握することにより、ユーザーインターフェース領域の境界シンボルの表示形態を、我々に身近な伸縮表現とし、直感的に操作量を把握・変更することが可能となった。
 また、ユーザー自身のなぞり操作量を直感的に把握することが可能となったことにより、ユーザーが認知したなぞり操作量を元に、自分にとって快適なスクロール速度に容易に変更することが可能となった。
 また、ユーザー自身がスクロール速度を容易に変更することが可能となったことにより、表示項目(データオブジェクト)をゆっくりと確認したい場合と、すばやく移動したい場合の切り替えが容易になった。
 また、なぞり操作の終了時に、ユーザーインターフェース領域の各境界シンボルをゴムの伸び縮みのような動きに対応して表示することにより、直感的になぞり操作が終了したことを認識できるようになった。
 [この発明の方法、プログラム]
 なお、上述した実施の形態から明らかなように、この発明の方法、プログラムは、図8、図14、図18、図20に示したフローチャートを用いて説明した方法、プログラムとして実現可能である。
 すなわち、図8、図14、図18、図20を用いて説明した方法は、この発明の方法である。
 そして、図8、図14、図18、図20を用いて説明した処理を実行するプログラムが、この発明のプログラムである。
 したがって、この発明のプログラムを実現し、LCD等の表示デバイスとタッチパネル等の入力検知デバイスを備えた種々の電子機器に搭載することにより、この発明の情報処理装置を実現することができる。
 [その他]
 なお、上述した実施の形態の情報処理装置100において、表示素子の機能は、表示デバイス5が実現し、指示位置検出手段の機能は、入力検知デバイス1が実現ししている。また、検出手段の機能は、ユーザーインターフェース制御部2が実現している。
 また、上述した実施の形態の情報処理装置100において、操作シンボル表示制御手段の機能は、ユーザーインターフェース制御部2と表示メモリ部4とが実現し、スクロール制御手段の機能は、データオブジェクト制御部3と表示メモリ部4が実現している。
 また、上述した実施の形態のビデオカメラ200において、表示素子の機能は、LCDパネル214が実現し、指示位置検出手段の機能は、タッチパネル215が実現ししている。また、検出手段の機能は、制御部220が実現している。
 また、上述した実施の形態のビデオカメラ200において、操作シンボル表示制御手段やスクロール制御手段の機能は、制御部220とオンスクリーンディスプレイ回路222と重畳回路213が実現している。
 また、上述した実施の形態においては、この発明による情報処理装置の適用例として、ビデオカメラに適用した場合を例にして説明したが、これに限るものではない。例えば、デジタルスチルカメラ、ゲーム機、PDA(Personal Digital Assistant)等と呼ばれる携帯情報端末など、LCDなどの表示デバイスとタッチパネルなどの入力検知デバイスを有する種々の電子機器に適用することができる。
 また、上述した実施の形態においては、初期状態において、境界シンボル間の間隔は均等であるものとして説明したが、これに限るものではない。初期状態の境界シンボル間の間隔や境界シンボルの数などは適宜のものとすることができる。
 また、境界シンボルは、線分に限るものではない。ユーザーインターフェース領域を複数の領域に分割し、そのそれぞれの領域に絵や図形を表示したり、異なる色で潰すようにしたりしてもよい。
 この場合には、各領域の境界部分が、上述した境界シンボルの表示位置となる。そして、上述した境界シンボルの場合と同様に、各領域の境界位置を変更するように制御する。これにより、上述した実施の形態の場合のように、ユーザーインターフェース領域において、ゴムの伸び縮みのような表示を表現することができる。
 この場合、ユーザーインターフェース領域の分割された領域の広さが変えられることに応じて、表示されている絵や図形を変化させ、また、表示されている色の範囲を変化させ
ることになる。
 各領域に表示されている絵や図形を変化させる場合には、表示されている絵や図形を引き伸ばしたり、縮めたりする表現となり、表示されている色の範囲を変化させる場合には、同一の色により塗り潰す範囲が変更される領域の広さに応じて変わる表現となる。
 また、上述した実施の形態の情報処理装置の場合には、ユーザーインターフェース領域は、図2等に示したように、表示画面に対して、向って左側に設けるようにしたが、これに限るものではない。表示画面に対して向って右側に設けるようにしてもよい。
 また、表示画面の上端側や下端側にユーザーインターフェース領域を設け、表示画面の左右方向になぞり操作を行うように構成することも可能である。
 すなわち、ユーザーインターフェース領域や項目等表示選択領域は、表示画面上の適宜の位置に適宜の大きさで設けることができる。
 また、上述した実施の形態において、入力検知デバイスは、感圧式や静電式のいわゆる接触型のタッチパネルであるものとして説明したが、これに限るものではない。例えば、ユーザーが指を近づけることにより、パネルの静電容量の変化に応じてユーザーからの指示を受けることが可能な非接触型のパネルを用いるようにした場合にもこの発明を適用できる。
 また、ユーザーが指などを近づけることにより、パネル上の明暗の変化に応じてユーザーからの指示を受けることが可能な非接触型のパネルを用いるようにした場合にもこの発明を適用できる。
 1…入力検知デバイス、2…ユーザーインターフェース制御部、3…データオブジェクト制御部、4…表示メモリ部、5…表示デバイス、6…係数及びデータ格納部、7…全体制御部

Claims (8)

  1.  表示素子と、
     前記表示素子の表示画面に操作面が設けるようにされ、使用者からの指示操作を受け付けて、当該指示操作に応じた指示位置を示す座標情報を検出して出力する指示位置検出手段と、
     前記指示位置検出手段の前記操作面に対してなぞり操作が行われた場合に、前記指示位置検出手段からの前記座標情報に基づいて、当該なぞり操作の開始位置を基準とする操作量と操作方向とを検出する検出手段と、
     使用者からのなぞり操作に応じて変化させるようにする操作シンボルを前記表示素子の表示画面の所定の位置に表示させると共に、前記検出手段からの検出出力に基づいて、使用者によるなぞり操作状況を認識可能なように前記操作シンボルの表示態様を変化させるようにする操作シンボル表示制御手段と
     を備える情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記操作シンボル表示制御手段は、複数の操作シンボルを表示するようにしている場合に、前記検出手段からの検出出力に基づいて、前記操作シンボル間の間隔を変更する情報処理装置。
  3.  請求項1に記載の情報処理装置であって、
     前記操作シンボル表示制御手段は、複数の操作シンボルを表示するようにしている場合に、前記検出手段からの検出出力に基づいて、前記操作シンボルを伸ばし、あるいは、縮めるように、その表示態様を変化させる情報処理装置。
  4.  請求項2に記載の情報処理装置であって、
     前記操作シンボル表示制御手段は、なぞり操作が行われた場合の隣り合う操作シンボル間の間隔を、なぞり操作の開始位置に対する現在のなぞり操作の指示位置に応じて決まるなぞり操作の方向の前記指示位置検出手段の前記操作面の端部に近い操作シンボル間の間隔ほど狭くなるように制御する情報処理装置。
  5.  請求項4に記載の情報処理装置であって、
     前記操作シンボル表示制御手段は、なぞり操作が開始される前の状態において、なぞり操作の開始位置からなぞり操作の方向に位置する操作シンボル間の間隔は等間隔となるように制御する情報処理装置。
  6.  請求項1に記載の情報処理装置であって、
     前記表示素子の表示画面に、スクロール対象の表示項目を表示させると共に、前記検出手段からの検出出力に基づいて、前記表示項目をスクロールさせる場合のスクロールの方向と加速度とを求め、当該方向と加速度とに応じて前記表示項目をスクロールさせるように制御するスクロール制御手段を備える情報処理装置。
  7.  表示素子の表示画面に操作面が設けるようにされ、使用者からの指示操作を受け付けて、当該指示操作に応じた指示位置を示す座標情報を検出して出力する指示位置検出手段を通じて、使用者からの指示操作を受け付ける受付工程と、
     前記受付工程において、使用者からのなぞり操作を受け付けた場合に、前記指示位置検出手段から出力される前記座標情報に基づいて、検出手段が、当該なぞり操作の開始位置を基準とする操作量と操作方向とを検出する検出工程と、
     使用者からのなぞり操作に応じて変化させるようにする操作シンボルを前記表示素子の表示画面の所定の位置に表示させた後に、前記検出工程において検出した前記操作量と前記操作方向とに基づいて、使用者による操作状況を認識可能なように、操作シンボル表示制御手段が前記操作シンボルの表示態様を変化させるようにする操作シンボル表示制御工程と
     を有する情報処理方法。
  8.  表示素子の表示画面に操作面が設けるようにされ、使用者からの指示操作を受け付けて、当該指示操作に応じた指示位置を示す座標情報を検出して出力する指示位置検出手段を通じて、使用者からの指示操作を受け付ける受付ステップと、
     前記受付ステップにおいて、使用者からのなぞり操作を受け付けた場合に、前記指示位置検出手段から出力される前記座標情報に基づいて、検出手段が、当該なぞり操作の開始位置を基準とする操作量と操作方向とを検出する検出ステップと、
     使用者からのなぞり操作に応じて変化させるようにする操作シンボルを前記表示素子の表示画面の所定の位置に表示させた後に、前記検出工程において検出した前記操作量と前記操作方向とに基づいて、使用者による操作状況を認識可能なように、操作シンボル表示制御手段が前記操作シンボルの表示態様を変化させるようにする操作シンボル表示制御ステップと
     をコンピュータに実行させるコンピュータ読み取り可能な情報処理プログラム。
PCT/JP2010/053701 2009-03-31 2010-03-01 情報処理装置、情報処理方法および情報処理プログラム WO2010113597A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
BRPI1001270A BRPI1001270A2 (pt) 2009-03-31 2010-03-01 dispositivo e método de processamento de informação, e, programa de processamento de informação legível por computador.
CN2010800016476A CN102037438A (zh) 2009-03-31 2010-03-01 信息处理装置、信息处理方法和信息处理程序
US12/991,130 US8935636B2 (en) 2009-03-31 2010-03-01 Information processing apparatus, information processing method and information processing program for performing a tracing operation
EP10758373A EP2418570A4 (en) 2009-03-31 2010-03-01 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-084105 2009-03-31
JP2009084105A JP5487679B2 (ja) 2009-03-31 2009-03-31 情報処理装置、情報処理方法および情報処理プログラム

Publications (1)

Publication Number Publication Date
WO2010113597A1 true WO2010113597A1 (ja) 2010-10-07

Family

ID=42827897

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/053701 WO2010113597A1 (ja) 2009-03-31 2010-03-01 情報処理装置、情報処理方法および情報処理プログラム

Country Status (6)

Country Link
US (1) US8935636B2 (ja)
EP (1) EP2418570A4 (ja)
JP (1) JP5487679B2 (ja)
CN (1) CN102037438A (ja)
BR (1) BRPI1001270A2 (ja)
WO (1) WO2010113597A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158922A (ja) * 2015-03-23 2015-09-03 シャープ株式会社 画像表示操作装置、及び、画像形成装置
US10165134B2 (en) 2010-10-20 2018-12-25 Sharp Kabushiki Kaisha Image display control device and image forming apparatus including the image display control device

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
DE102010020895A1 (de) * 2010-05-18 2011-11-24 Volkswagen Ag Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle
JP2012028955A (ja) * 2010-07-22 2012-02-09 Sharp Corp 画像形成装置
EP2600231A4 (en) * 2010-07-30 2016-04-27 Sony Computer Entertainment Inc ELECTRONIC DEVICE, DISPLAYED OBJECT DISPLAY METHOD, AND SEARCH METHOD
JP5707794B2 (ja) * 2010-09-08 2015-04-30 コニカミノルタ株式会社 表示処理装置およびコンピュータプログラム
JP5605186B2 (ja) * 2010-11-23 2014-10-15 アイシン・エィ・ダブリュ株式会社 制御装置、制御装置の制御方法及びコンピュータプログラム
JP5479414B2 (ja) * 2010-11-24 2014-04-23 キヤノン株式会社 情報処理装置およびその制御方法
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
JP5614275B2 (ja) * 2010-12-21 2014-10-29 ソニー株式会社 画像表示制御装置および画像表示制御方法
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9423951B2 (en) * 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
JP5618858B2 (ja) * 2011-02-16 2014-11-05 株式会社Nttドコモ 表示装置、通信装置及びプログラム
JP2012213093A (ja) * 2011-03-31 2012-11-01 Sony Corp 情報処理装置、情報処理方法及びプログラム
US9182897B2 (en) * 2011-04-22 2015-11-10 Qualcomm Incorporated Method and apparatus for intuitive wrapping of lists in a user interface
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
JP5891540B2 (ja) * 2011-10-05 2016-03-23 シャープ株式会社 文字入力装置、文字入力方法、およびプログラム
JP5866957B2 (ja) * 2011-10-17 2016-02-24 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US9372612B2 (en) * 2011-10-31 2016-06-21 Microsoft Technology Licensing, Llc Exposing inertial snap points
CN102768607B (zh) * 2011-11-02 2014-12-31 联想(北京)有限公司 一种实现触控操作应用程序的方法及装置
DE102012110278A1 (de) 2011-11-02 2013-05-02 Beijing Lenovo Software Ltd. Verfahren und Vorrichtungen zur Fensterdarstellung und Verfahren und Vorrichtungen zur Berührungsbedienung von Anwendungen
JP5423772B2 (ja) * 2011-11-21 2014-02-19 コニカミノルタ株式会社 表示システム、表示システムの制御プログラム、および表示装置
KR20130063196A (ko) * 2011-12-06 2013-06-14 현대자동차주식회사 다이나믹 터치 인터렉션을 이용한 분할 화면 연동 표시 제어방법 및 그 장치
JP5773858B2 (ja) * 2011-12-16 2015-09-02 シャープ株式会社 情報表示方法、情報表示装置、情報表示プログラム、およびコンピュータ読取可能な記録媒体
US9569057B2 (en) 2012-01-05 2017-02-14 Sony Corporation Information processing apparatus and method for outputting a guiding operation to a user
JP6123155B2 (ja) * 2012-02-08 2017-05-10 ソニー株式会社 再生装置および再生方法、並びにプログラム
JP5704655B2 (ja) 2012-04-12 2015-04-22 株式会社Nttドコモ 表示装置及びプログラム
US9696898B2 (en) * 2012-11-14 2017-07-04 Facebook, Inc. Scrolling through a series of content items
EP2741194A1 (en) * 2012-12-04 2014-06-11 BlackBerry Limited Scroll jump interface for touchscreen input/output device
US10474342B2 (en) * 2012-12-17 2019-11-12 Microsoft Technology Licensing, Llc Scrollable user interface control
JP6128533B2 (ja) * 2012-12-21 2017-05-17 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 装置
US20150020009A1 (en) * 2013-06-07 2015-01-15 Keane and Able Limited Joystick Controller Swipe Method
CN105474156B (zh) * 2013-12-25 2020-03-17 宇龙计算机通信科技(深圳)有限公司 暂态界面的显示处理方法和终端
JP6046602B2 (ja) * 2013-12-25 2016-12-21 日本電信電話株式会社 表示装置、表示方法及び表示プログラム
JP2015176471A (ja) * 2014-03-17 2015-10-05 パイオニア株式会社 表示制御装置、表示制御方法、および、表示制御装置用プログラム
JP2015194795A (ja) * 2014-03-31 2015-11-05 シャープ株式会社 表示装置及び表示方法
JP6390213B2 (ja) * 2014-06-30 2018-09-19 ブラザー工業株式会社 表示制御装置、表示制御方法及び表示制御プログラム
KR20160004125A (ko) * 2014-07-02 2016-01-12 삼성전자주식회사 전자장치의 스크롤 입력 처리 장치 및 방법
CN111475088B (zh) * 2019-01-23 2021-07-20 百度在线网络技术(北京)有限公司 页面滚动的方法、装置、存储介质和终端设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175587A (ja) * 1993-10-28 1995-07-14 Hitachi Ltd 情報処理装置
JP2004343662A (ja) 2003-05-19 2004-12-02 Sony Corp 撮像装置
JP2006040050A (ja) * 2004-07-28 2006-02-09 Olympus Corp 再生装置、カメラおよび再生装置の表示切換方法
WO2007086386A1 (ja) * 2006-01-27 2007-08-02 Matsushita Electric Industrial Co., Ltd. タッチセンサーを備えた装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0685145B2 (ja) * 1990-11-28 1994-10-26 インターナショナル・ビジネス・マシーンズ・コーポレイション 複数の選択されたオブジェクトの位置表示方法
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
US20020126161A1 (en) 1994-07-05 2002-09-12 Hitachi, Ltd. Information processing system
US6266057B1 (en) 1995-07-05 2001-07-24 Hitachi, Ltd. Information processing system
US5611060A (en) * 1995-02-22 1997-03-11 Microsoft Corporation Auto-scrolling during a drag and drop operation
US6157381A (en) * 1997-11-18 2000-12-05 International Business Machines Corporation Computer system, user interface component and method utilizing non-linear scroll bar
US20060129933A1 (en) * 2000-12-19 2006-06-15 Sparkpoint Software, Inc. System and method for multimedia authoring and playback
US20020186252A1 (en) * 2001-06-07 2002-12-12 International Business Machines Corporation Method, apparatus and computer program product for providing context to a computer display window
US7278111B2 (en) * 2002-12-26 2007-10-02 Yahoo! Inc. Systems and methods for selecting a date or range of dates
EP1510911A3 (en) * 2003-08-28 2006-03-22 Sony Corporation Information processing apparatus, information processing method, information processing program and storage medium containing information processing program
US7269801B2 (en) * 2004-03-30 2007-09-11 Autodesk, Inc. System for managing the navigational usability of an interactive map
WO2008057785A2 (en) * 2006-11-08 2008-05-15 Cubic Design Studios Llc Asymmetric shuffle keyboard
US7958456B2 (en) * 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US20070143705A1 (en) * 2005-12-16 2007-06-21 Sap Ag Indexed scrollbar
US20080034316A1 (en) * 2006-08-01 2008-02-07 Johan Thoresson Scalable scrollbar markers
US7813774B2 (en) * 2006-08-18 2010-10-12 Microsoft Corporation Contact, motion and position sensing circuitry providing data entry associated with keypad and touchpad
US7689928B1 (en) * 2006-09-29 2010-03-30 Adobe Systems Inc. Methods and apparatus for placing and interpreting reference marks on scrollbars
US9043726B2 (en) * 2008-07-03 2015-05-26 Ebay Inc. Position editing tool of collage multi-media
US8665216B2 (en) * 2008-12-03 2014-03-04 Tactile World Ltd. System and method of tactile access and navigation for the visually impaired within a computer system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175587A (ja) * 1993-10-28 1995-07-14 Hitachi Ltd 情報処理装置
JP2004343662A (ja) 2003-05-19 2004-12-02 Sony Corp 撮像装置
JP2006040050A (ja) * 2004-07-28 2006-02-09 Olympus Corp 再生装置、カメラおよび再生装置の表示切換方法
WO2007086386A1 (ja) * 2006-01-27 2007-08-02 Matsushita Electric Industrial Co., Ltd. タッチセンサーを備えた装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2418570A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10165134B2 (en) 2010-10-20 2018-12-25 Sharp Kabushiki Kaisha Image display control device and image forming apparatus including the image display control device
JP2015158922A (ja) * 2015-03-23 2015-09-03 シャープ株式会社 画像表示操作装置、及び、画像形成装置

Also Published As

Publication number Publication date
US8935636B2 (en) 2015-01-13
JP2010237902A (ja) 2010-10-21
CN102037438A (zh) 2011-04-27
BRPI1001270A2 (pt) 2016-02-16
US20110055775A1 (en) 2011-03-03
JP5487679B2 (ja) 2014-05-07
EP2418570A4 (en) 2013-01-23
EP2418570A1 (en) 2012-02-15

Similar Documents

Publication Publication Date Title
JP5487679B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US11816303B2 (en) Device, method, and graphical user interface for navigating media content
US8434015B2 (en) Information processing apparatus, information processing method, and information processing program
JP4811452B2 (ja) 画像処理装置、画像表示方法および画像表示プログラム
US10152222B2 (en) Digital image processing device and associated methodology of performing touch-based image scaling
EP3125524A1 (en) Mobile terminal and method for controlling the same
JP6012384B2 (ja) 動画再生装置、表示制御方法、プログラム及び記憶媒体
US20130038546A1 (en) Electronic device, adjustment amount control method and recording medium
JP5340075B2 (ja) 表示制御装置、その制御方法及びプログラム
EP2469394A1 (en) Information Processing Device, Method of Processing Information, and Computer Program Storage Device
US20120032988A1 (en) Display control apparatus that displays list of images onto display unit, display control method, and storage medium storing control program therefor
KR101971982B1 (ko) 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
KR20100123475A (ko) 휴대 단말기의 이미지 처리 방법
WO2012104288A1 (en) A device having a multipoint sensing surface
US20140078370A1 (en) Display control apparatus and control method thereof
US9535604B2 (en) Display device, method for controlling display, and recording medium
KR20130082102A (ko) 표시 제어장치 및 그 제어 방법
US20130208163A1 (en) Camera shutter key display apparatus and method
JP6663131B2 (ja) 表示装置、表示制御方法及びプログラム
CN107526460A (zh) 输出控制装置、输出控制方法以及存储介质
JP2013115692A (ja) 撮像装置及び撮像装置に用いる制御プログラム
JP2013115691A (ja) 撮像装置及び撮像装置に用いる制御プログラム
US20240045572A1 (en) Device, method, and graphical user interface for navigating media content
JP2021051103A (ja) 電子機器、画像表示装置、キャプチャ方法、及びキャプチャプログラム
JP4811469B2 (ja) 画像再生装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080001647.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 12991130

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010758373

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 8280/DELNP/2010

Country of ref document: IN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10758373

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI1001270

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20101123