WO2014136372A1 - 情報処理装置及び情報処理方法、非一時的なコンピュータ可読媒体 - Google Patents

情報処理装置及び情報処理方法、非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2014136372A1
WO2014136372A1 PCT/JP2014/000219 JP2014000219W WO2014136372A1 WO 2014136372 A1 WO2014136372 A1 WO 2014136372A1 JP 2014000219 W JP2014000219 W JP 2014000219W WO 2014136372 A1 WO2014136372 A1 WO 2014136372A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
information processing
displayed
touch panel
lcd
Prior art date
Application number
PCT/JP2014/000219
Other languages
English (en)
French (fr)
Inventor
亮二 蓮井
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Publication of WO2014136372A1 publication Critical patent/WO2014136372A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, and a non-transitory computer-readable medium.
  • Patent Document 1 discloses a technology related to dragging a display object that straddles a plurality of touch screen displays.
  • a display object approaches the end of the touch screen display by dragging the display object on the touch screen display, a target display as a touch screen display to which the display object is moved is determined. Move the display object towards the target display.
  • dragging of the display object is resumed on the target display.
  • An object of the present invention is to provide a technique for allowing a user to execute a drag with confidence when dragging an object so as to straddle between adjacent touch screen displays.
  • a first touch screen display having a first display and a first touch panel provided on the first display, a second display, An object for displaying an object on a logical display formed by integrating the first display and the second display; and a second touch screen display having a second touch panel provided to overlap the second display.
  • the object displayed on the first display is 1 of the display, when moved to the specific area is a region closer to the second display, and displays said object in a particular embodiment, the information processing apparatus is provided.
  • a first touch screen display having a first display and a first touch panel provided on the first display, a second display,
  • An information processing method for an information processing apparatus comprising: a second touch screen display having a second touch panel provided to overlap the second display, wherein the first display and the second display
  • An object display step for displaying an object on a logical display obtained by integrating the above and the object displayed on the first display are moved based on a drag operation performed on the first touch panel.
  • An object moving step which is displayed on the first display Serial object, the first display, when moved to the specific area is a region closer to the second display, and displays said object in a particular embodiment, the information processing method is provided.
  • a first touch screen display having a first display and a first touch panel provided on the first display, a second display
  • a non-transitory computer-readable medium for storing an information processing program of an information processing apparatus comprising: a second touch screen display having a second touch panel provided to overlap the second display,
  • An information processing program includes: an object display step for displaying an object on a logical display formed by integrating the first display and the second display on a computer; and a drag operation performed on the first touch panel. Based on the object displayed on the first display An object moving step for moving the object, and the object displayed on the first display is moved into a specific area of the first display that is close to the second display. A non-transitory computer readable medium is then provided that causes the object to be displayed in a special manner.
  • the object moves into a specific area and is displayed in a special manner according to the above configuration. Therefore, the user can confirm that the information processing apparatus grasps the user's intention to drag the object so as to straddle between adjacent touch screen displays. As a result, when dragging an object so as to straddle between adjacent touch screen displays, the user can execute the drag with peace of mind.
  • FIG. 1 is a functional block diagram of the information processing apparatus.
  • FIG. 2 is a perspective view of the information processing apparatus.
  • FIG. 3 is a front view illustrating a usage mode of the information processing apparatus.
  • FIG. 4 is a functional block diagram of the information processing apparatus.
  • FIG. 5 is a diagram illustrating a logical TSD (touch screen display).
  • FIG. 6 is a control flow of the information processing apparatus.
  • FIG. 7 is a control flow of the information processing apparatus.
  • FIG. 8 is a control flow of the information processing apparatus.
  • FIG. 9 is a diagram illustrating how an object moves by a drag operation.
  • FIG. 10 is a diagram illustrating a state in which an object is enlarged and displayed.
  • FIG. 11 is a diagram illustrating a state in which an object is enlarged and displayed.
  • the multi-display mobile terminal 1 (information processing apparatus) includes a left LCD 2 (first display) and a left touch panel 3 (first touch panel) provided to overlap the left LCD 2.
  • a right TSD 7 (second touch screen) having a left TSD 4 (first touch screen display), a right LCD 5 (second display), and a right touch panel 6 (second touch panel) provided over the right LCD 5 Display), an object display unit 8 (object display means) for displaying an object on a logical display formed by integrating the left LCD 2 and the right LCD 5, and the left LCD 2 based on a drag operation performed on the left touch panel 3.
  • an object moving unit 9 (object moving means) for moving the object displayed on the screen.
  • the object moves into a specific area and is displayed in a special manner according to the above configuration. Therefore, the user can confirm that the multi-display portable terminal 1 grasps the user's intention to drag the object so as to straddle between adjacent touch screen displays. As a result, when dragging an object so as to straddle between adjacent touch screen displays, the user can execute the drag with peace of mind.
  • FIG. 2 shows a multi-display portable terminal 10 as an information processing apparatus.
  • the multi-display portable terminal 10 has a base 11 (first housing), a cover 12 (second housing), and a cover for the base 11 so that the cover 12 can freely rotate with respect to the base 11. And a hinge 13 (casing connection means) for connecting 12 to each other.
  • the base 11 includes a left TSD 14 (first touch screen display) and a control unit 15 (control means).
  • the left TSD 14 is configured in a rectangular shape having a short side 14a and a long side 14b.
  • the cover 12 includes a right TSD 16 (second touch screen display).
  • the right TSD 16 is configured in a rectangular shape having a short side 16a and a long side 16b.
  • the description will be made on the assumption that the multi-display portable terminal 10 is completely opened so that the angle formed by the base 11 and the cover 12 is 180 degrees.
  • the angle formed by the base 11 and the cover 12 may be other than 180 degrees.
  • the left TSD 14 includes a left LCD 17 (first display) and a left touch panel 18 (first touch panel).
  • the left LCD 17 displays a desired image based on the image signal output from the control unit 15.
  • the left touch panel 18 is provided so as to overlap the left LCD 17.
  • the left touch panel 18 outputs touch data corresponding to the touch position of the left touch panel 18 touched with a finger or a touch pen to the control unit 15.
  • the touch data is composed of an X coordinate and a Y coordinate with the upper left corner of the left touch panel 18 as the origin. When the left touch panel 18 is not touched, empty touch data is output to the control unit 15.
  • the right TSD 16 includes a right LCD 19 (second display) and a right touch panel 20 (second touch panel).
  • the right LCD 19 displays a desired image based on the image signal output from the control unit 15.
  • the right touch panel 20 is provided so as to overlap the right LCD 19.
  • the right touch panel 20 outputs touch data corresponding to the touch position of the right touch panel 20 touched with a finger or a touch pen to the control unit 15.
  • the touch data is composed of an X coordinate and a Y coordinate with the upper left corner of the right touch panel 20 as the origin. When the right touch panel 20 is not touched, empty touch data is output to the control unit 15.
  • the control unit 15 includes a CPU 30 (Central Processing Unit), a RAM 31 (Random Access Memory), and a ROM 32 (Read Only Memory).
  • the ROM 32 stores a game program (information processing program).
  • the game program is read on the CPU 30 and executed on the CPU 30, so that the hardware such as the CPU 30, the object display unit 33 (object display unit), the object moving unit 34 (object moving unit), and the counter 35 are displayed. And let it function as.
  • the control unit 15 integrates the left TSD 14 and the right TSD 16 to form a single logical TSD 36. Specifically, the control unit 15 integrates the left LCD 17 and the right LCD 19 to constitute a single logical LCD 37. Similarly, the control unit 15 integrates the left touch panel 18 and the right touch panel 20 to configure a single logical touch panel 38.
  • the control unit 15 converts the touch data output from the right touch panel 20 into touch data having the upper left corner of the left touch panel 18 as the origin by executing predetermined coordinate conversion in order to realize the logical touch panel 38. Specifically, assuming that the width of the left touch panel 18 is 600 pixels, the control unit 15 performs coordinate conversion that adds 600 to the X coordinate of touch data output from the right touch panel 20.
  • control unit 15 When the control unit 15 outputs an image signal corresponding to an image formed on the logical LCD 37 to the right LCD 19 in order to realize the logical LCD 37, the control unit 15 performs an inverse conversion of the above coordinate conversion in advance on the image signal output to the right LCD 19. Execute.
  • touch event information includes the touch start event information when the previous step is no touch and the current step is touch, the touch end event information when the previous step is touch and the current step is no touch, both the previous step and the current step Touch movement event information when there is a touch, long touch event information when there is touch and the touch data is the same in both the previous step and the current step, and the like.
  • Each touch event information includes the touch data of this step.
  • the object display unit 33 is a part for displaying the object 40 on the logical LCD 37.
  • the object moving unit 34 is a part that moves the object 40 displayed on the logical LCD 37 based on a drag operation performed on the logical touch panel 38.
  • the object display unit 33 enlarges and displays the object 40 as shown in FIG. More specifically, when the object 40 displayed on the left LCD 17 moves into the left specific area 41, the object display section 33 is a portion of the object 40 displayed on the right LCD 19 as shown in FIG. The object 40 is enlarged and displayed so that is enlarged and displayed.
  • the left specific area 41 will be described in detail.
  • the left specific area 41 is a partial area of the left LCD 17 and an area close to the right LCD 19.
  • the left specific area 41 is an area adjacent to the right LCD 19.
  • the left specific area 41 is a band-shaped area.
  • the left specific area 41 in the present embodiment has a coordinate of the upper left corner of the logical LCD 37 (599 ⁇ w). / 2,0), and is a rectangular area whose coordinates in the lower right corner are (599,799).
  • the right specific area 42 is a partial area of the right LCD 19 and is an area close to the left LCD 17.
  • the right specific area 42 is an area adjacent to the left LCD 17.
  • the right specific area 42 is a band-shaped area.
  • the right specific area 42 is a rectangular area in the logical LCD 37 whose upper left corner coordinates are (600, 0) and whose lower right corner coordinates are (600 + w / 2,799).
  • the state of the control unit 15 transitions between three states of “drag state”, “drag interruption state”, and “no drag state”.
  • “Drag state” means a state in which the object 40 is being dragged.
  • “Drag interrupted state” means a state in which dragging of the object 40 is interrupted.
  • the “no drag state” means a state where the object 40 is dropped.
  • the object display unit 33 displays the object 40 on the left LCD 17 as shown in (a) of FIG. 9 (S110).
  • the initial state of the control unit 15 is a no-drag state.
  • the control unit 15 determines whether the state of the control unit 15 is a drag state (S120). In S120, when it is determined that the state of the control unit 15 is not the drag state (S120: NO), the control unit 15 advances the process to S130 in FIG. In S130, the control unit 15 determines whether the state of the control unit 15 is the dragging suspended state (S130). In S130, when it is determined that the state of the control unit 15 is not the drag interruption state (S130: NO), the control unit 15 determines whether the object 40 has been long touched based on the touch event information (S140). Here, the control unit 15 determines whether or not the object 40 is long touched based on the presence or absence of the long touch event information. If it is determined in S140 that the object 40 has not been touched long (S140: NO), the control unit 15 returns the process to S120.
  • S140 touch event information
  • the control unit 15 determines whether the object 40 has been released based on the touch event information (S160). Here, the control unit 15 determines whether the object 40 has been released based on the presence / absence of the touch end event information. In S160, when it is determined that the object 40 has not been released (S160: NO), the object moving unit 34 moves the object 40 based on the touch event information (S170). Here, the control unit 15 is based on a difference between the touch data included in the touch event information of the previous step stored in the RAM 31 in advance and the touch data included in the touch event information of the current step. The object 40 is moved.
  • the object display unit 33 determines whether the object 40 is in the left specific area 41 (S180). Specifically, the object display unit 33 determines whether the reference point (reference pixel) of the object 40 is in the left specific area 41 (S180). The reference point of the object 40 is the center point of the object 40 in the present embodiment. If it is determined in S180 that the object 40 is not within the left specific area 41 (S180: NO), the object display unit 33 displays the object 40 in the same normal size as the previous time as shown in FIG. 9B. (S190), and the process returns to S120. On the other hand, in S180, when it is determined that the object 40 is in the left specific area 41 (S180: YES) as shown in FIG. 9C, the object display unit 33 displays the object as shown in FIG. The object 40 is enlarged and displayed (S200), and the process returns to S120.
  • S180 when it is determined that the object 40 is in the left specific area 41 (S180: YES) as shown in FIG. 9C, the object display unit 33 displays
  • the enlarged display of the object 40 by the object display unit 33 will be described in detail.
  • the outer frame 40a before the object 40 is enlarged is indicated by a broken line
  • the outer frame 40b after the object 40 is enlarged is indicated by a solid line.
  • the object display unit 33 enlarges the object 40 so that the outer frame 40 a is uniformly spaced from the reference point of the object 40 as indicated by a thick arrow.
  • the object display unit 33 enlarges the object 40 with a constant aspect ratio, as indicated by a thick arrow.
  • the object display unit 33 enlarges the object 40 so that the portion of the object 40 displayed on the right LCD 19 is enlarged and displayed as shown in FIG. Specifically, the object display unit 33 enlarges the object 40 so that a portion of the object 40 on the right LCD 19 side with respect to the boundary line 50 is enlarged and displayed.
  • a boundary line 50 is a boundary line between the left LCD 17 and the right LCD 19.
  • the control unit 15 determines whether the object 40 is in the left specific area 41 based on the touch event information (S210). .
  • the control unit 15 changes the state of the control unit 15 from the drag state to the drag suspension state (S220), and performs processing. Return to S120.
  • control unit 15 changes the state of the control unit 15 from the drag state to the no-drag state, and also moves the object 40 Drop (S230) and return to S120.
  • the object 40 is released in the left specific area 41, it is considered that the drag is temporarily interrupted without dropping the object 40.
  • the control unit 15 If it is determined in S130 that the state of the control unit 15 is the drag interruption state (S130: YES), the control unit 15 starts the counter 35 (S240). Next, the control unit 15 determines whether or not the object 40 is touched based on the touch event information (S250). In S250, when the control unit 15 determines that the object 40 has been touched, the object display unit 33 displays the object 40 in a normal size (S255), and the control unit 15 interrupts the state of the control unit 15 by dragging. The state is changed to the drag state (S150), and the process returns to S120. On the other hand, when it is determined that the object 40 has not been touched, the control unit 15 determines whether the counter 35 has counted a predetermined time (S260).
  • S260 when it is determined that the counter 35 has not counted the predetermined time (S260: NO), the control unit 15 returns the process to S250.
  • S260 when the control unit 15 determines that the counter 35 has counted a predetermined time (S260: YES), the object display unit 33 displays the object 40 in a normal size (S265), and the control unit 15 The state of the control unit 15 is changed from the drag interruption state to the no drag state, the object 40 is dropped (S270), and the process returns to S120.
  • the second embodiment has been described above, the second embodiment has the following features.
  • the multi-display portable terminal 10 includes a left TSD 14 (first touch panel) having a left LCD 17 (first display) and a left touch panel 18 (first touch panel) provided to overlap the left LCD 17. 1 right touch screen display), a right LCD 19 (second display), and a right touch panel 20 (second touch panel) provided to overlap the right LCD 19; a right TSD 16 (second touch screen display); Based on the object display unit 33 (object display means) for displaying the object display unit 33 on the logical LCD 37 (logical display) formed by integrating the left LCD 17 and the right LCD 19, and a drag operation performed on the left LCD 17, An object moving unit 34 (object for moving the object 40 displayed on the left LCD 17 Comprising a moving means), a.
  • the object 40 displayed on the left LCD 17 moves into the left specific area 41 (specific area) that is an area close to the right LCD 19 of the left LCD 17, as shown in FIG.
  • the object 40 moves into the left specific area 41 and is displayed in a special manner according to the above configuration. Therefore, the user can confirm that the control unit 15 of the multi-display portable terminal 10 grasps the user's intention to drag the object 40 so as to straddle between the adjacent left TSD 14 and right TSD 16.
  • the user can execute the drag with peace of mind.
  • the object display unit 33 enlarges and displays the object 40. Such a display mode is easily recognized by the user.
  • the object display unit 33 displays an enlarged portion of the object 40 displayed on the right LCD 19 so as to be displayed.
  • the object 40 is enlarged and displayed. According to the above configuration, there is a merit that it is easy to touch the object 40 when dragging the object 40 with the right TSD 16 is resumed in S250 of FIG.
  • An information processing method of the multi-display portable terminal 10 includes an object display step (S110 in FIG. 6) for displaying an object on an integrated display formed by integrating the left LCD 17 and the right LCD 19, and a line for the left LCD 17.
  • An object moving step (S170 in FIG. 6) for moving the object 40 displayed on the left LCD 17 based on the drag operation.
  • the object 40 displayed on the left LCD 17 moves into the left specific area 41 that is an area close to the right LCD 19 of the left LCD 17, the object 40 is displayed in a special manner. According to the above method, when dragging the object 40 so as to straddle between the adjacent left TSD 14 and right TSD 16, the user can perform the drag with peace of mind.
  • the width of the left specific area 41 and the right specific area 42 is half of the width w of the object 40. According to this, when the reference point (center point) of the object 40 enters the left specific area 41 regardless of the display size of the object 40, the object 40 is displayed across the left LCD 17 and the right LCD 19. Become. However, instead of this, the widths of the left specific area 41 and the right specific area 42 may be set freely.
  • the object display unit 33 enlarges the object 40 with a constant aspect ratio, as indicated by a thick arrow in FIG.
  • the object display unit 33 may enlarge and display the object 40 with a certain direction as shown by a thick arrow in FIG.
  • the drag operation is performed based on the difference between the touch data included in the touch event information of the previous step stored in the RAM 31 in advance and the touch data included in the touch event information of the current step.
  • the object 40 is enlarged and displayed so that the object 40 is stretched in the same direction as the drag direction.
  • the drag direction of the drag operation is the right direction on the paper surface, and the object 40 is enlarged and displayed so as to be particularly extended toward the right LCD 19. Further, when the drag direction of the drag operation is diagonally upward to the right, the object 40 can be enlarged and displayed so as to be particularly stretched diagonally upward to the right.
  • Non-transitory computer readable media include various types of tangible storage media (tangible storage medium).
  • Examples of non-transitory computer-readable media include magnetic recording media (eg flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable ROM), flash ROM, RAM (random access memory)) are included.
  • the program may also be supplied to the computer by various types of temporary computer-readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • Multi-display mobile terminal 11
  • Base 12 Cover 13 Hinge 14 Left TSD 14a Short side 14b Long side 15
  • Control unit 16 Right TSD 16a Short side 16b Long side 17
  • Left LCD 18 Left touch panel 19
  • Right LCD 20 Right touch panel 33
  • Object display unit 34 Object movement unit 35
  • Counter 36 Logic TSD 37
  • logic LCD 38 logical touch panel 40 object 41 left specific area 42 right specific area 40a outer frame 40b outer frame 50 boundary line

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 マルチディスプレイ型携帯端末(10)は、左TSD(14)と、右TSD(16)と、左LCD(17)と右LCD(19)を統合して成る論理LCD(37)上にオブジェクト表示部(33)を表示するオブジェクト表示部(33)と、左LCD(17)に対して行われたドラッグ操作に基づいて、左LCD(17)に表示されているオブジェクト(40)を移動させるオブジェクト移動部(34)と、を備える。オブジェクト表示部(33)は、左LCD(17)に表示されているオブジェクト(40)が、左LCD(17)の、右LCD(19)に近い領域である左特定領域(41)内に移動したら、オブジェクト(40)を特別な態様で表示する。

Description

情報処理装置及び情報処理方法、非一時的なコンピュータ可読媒体
 本発明は、情報処理装置及び情報処理方法、非一時的なコンピュータ可読媒体に関する。
 この種の技術として、特許文献1には、複数のタッチスクリーンディスプレイを跨ぐような表示オブジェクトのドラッグに関する技術を開示している。特許文献1では、タッチスクリーンディスプレイ上で表示オブジェクトをドラッグすることで表示オブジェクトがこのタッチスクリーンディスプレイの端部に近づいたら、表示オブジェクトの移動先であるタッチスクリーンディスプレイとしてのターゲットディスプレイを決定し、この表示オブジェクトをターゲットディスプレイに向けて移動させる。そして、所定時間内に、ターゲットディスプレイ上で表示オブジェクトに対してタッチ操作が行われたら、ターゲットディスプレイ上で表示オブジェクトのドラッグを再開させる。
特開2012-64232号公報
 昨今、隣り合うタッチスクリーンディスプレイの間を跨ぐようにオブジェクトをドラッグするに際し、ユーザーが安心してドラッグを実行することができるようにしたいという要請があった。
 本発明の目的は、隣り合うタッチスクリーンディスプレイの間を跨ぐようにオブジェクトをドラッグするに際し、ユーザーが安心してドラッグを実行することができるようするための技術を提供することにある。
 本願発明の第1の観点によれば、第1のディスプレイと、前記第1のディスプレイに重ねて設けられる第1のタッチパネルと、を有する第1のタッチスクリーンディスプレイと、第2のディスプレイと、前記第2のディスプレイに重ねて設けられる第2のタッチパネルと、を有する第2のタッチスクリーンディスプレイと、前記第1のディスプレイと前記第2のディスプレイを統合して成る論理ディスプレイ上にオブジェクトを表示するオブジェクト表示手段と、前記第1のタッチパネルに対して行われたドラッグ操作に基づいて、前記第1のディスプレイに表示されている前記オブジェクトを移動させるオブジェクト移動手段と、を備え、前記オブジェクト表示手段は、前記第1のディスプレイに表示されている前記オブジェクトが、前記第1のディスプレイの、前記第2のディスプレイに近い領域である特定領域内に移動したら、前記オブジェクトを特別な態様で表示する、情報処理装置が提供される。
 本願発明の第2の観点によれば、第1のディスプレイと、前記第1のディスプレイに重ねて設けられる第1のタッチパネルと、を有する第1のタッチスクリーンディスプレイと、第2のディスプレイと、前記第2のディスプレイに重ねて設けられる第2のタッチパネルと、を有する第2のタッチスクリーンディスプレイと、を備えた情報処理装置の情報処理方法であって、前記第1のディスプレイと前記第2のディスプレイを統合して成る論理ディスプレイ上にオブジェクトを表示するオブジェクト表示ステップと、前記第1のタッチパネルに対して行われたドラッグ操作に基づいて、前記第1のディスプレイに表示されている前記オブジェクトを移動させるオブジェクト移動ステップと、を含み、前記第1のディスプレイに表示されている前記オブジェクトが、前記第1のディスプレイの、前記第2のディスプレイに近い領域である特定領域内に移動したら、前記オブジェクトを特別な態様で表示する、情報処理方法が提供される。
 本願発明の第3の観点によれば、第1のディスプレイと、前記第1のディスプレイに重ねて設けられる第1のタッチパネルと、を有する第1のタッチスクリーンディスプレイと、第2のディスプレイと、前記第2のディスプレイに重ねて設けられる第2のタッチパネルと、を有する第2のタッチスクリーンディスプレイと、を備えた情報処理装置の情報処理プログラムを格納する非一時的なコンピュータ可読媒体であって、前記情報処理プログラムは、コンピュータに、前記第1のディスプレイと前記第2のディスプレイを統合して成る論理ディスプレイ上にオブジェクトを表示するオブジェクト表示ステップと、前記第1のタッチパネルに対して行われたドラッグ操作に基づいて、前記第1のディスプレイに表示されている前記オブジェクトを移動させるオブジェクト移動ステップと、を実行させ、更に、前記第1のディスプレイに表示されている前記オブジェクトが、前記第1のディスプレイの、前記第2のディスプレイに近い領域である特定領域内に移動したら、前記オブジェクトを特別な態様で表示させる、非一時的なコンピュータ可読媒体が提供される。
 即ち、隣り合うタッチスクリーンディスプレイの間を跨ぐようにオブジェクトをドラッグする場合、オブジェクトは特定領域内に移動し、そして上記構成によれば特別な態様で表示される。従って、ユーザーは、情報処理装置が、ユーザーの、隣り合うタッチスクリーンディスプレイの間を跨ぐようにオブジェクトをドラッグする意思を把握していることを確認できる。これにより、隣り合うタッチスクリーンディスプレイの間を跨ぐようにオブジェクトをドラッグするに際し、ユーザーは安心してドラッグを実行することができるようになる。
図1は、情報処理装置の機能ブロック図である。(第1実施形態) 図2は、情報処理装置の斜視図である。(第2実施形態) 図3は、情報処理装置の使用態様を例示する正面図である。(第2実施形態) 図4は、情報処理装置の機能ブロック図である。(第2実施形態) 図5は、論理TSD(タッチスクリーンディスプレイ)を示す図である。(第2実施形態) 図6は、情報処理装置の制御フローである。(第2実施形態) 図7は、情報処理装置の制御フローである。(第2実施形態) 図8は、情報処理装置の制御フローである。(第2実施形態) 図9は、ドラッグ操作によりオブジェクトが移動する様子を示す図である。(第2実施形態) 図10は、オブジェクトが拡大表示される様子を示す図である。(第2実施形態) 図11は、オブジェクトが拡大表示される様子を示す図である。(第3実施形態)
(第1実施形態)
 以下、図1を参照して、第1実施形態を説明する。
 図1に示すように、マルチディスプレイ型携帯端末1(情報処理装置)は、左LCD2(第1のディスプレイ)と、左LCD2に重ねて設けられる左タッチパネル3(第1のタッチパネル)と、を有する左TSD4(第1のタッチスクリーンディスプレイ)と、右LCD5(第2のディスプレイ)と、右LCD5に重ねて設けられる右タッチパネル6(第2のタッチパネル)と、を有する右TSD7(第2のタッチスクリーンディスプレイ)と、左LCD2と右LCD5を統合して成る論理ディスプレイ上にオブジェクトを表示するオブジェクト表示部8(オブジェクト表示手段)と、左タッチパネル3に対して行われたドラッグ操作に基づいて、左LCD2に表示されているオブジェクトを移動させるオブジェクト移動部9(オブジェクト移動手段)と、を備える。オブジェクト表示部8は、左LCD2に表示されているオブジェクトが、左LCD2の、右LCD5に近い領域である特定領域内に移動したら、オブジェクトを特別な態様で表示する。
 即ち、隣り合うタッチスクリーンディスプレイの間を跨ぐようにオブジェクトをドラッグする場合、オブジェクトは特定領域内に移動し、そして上記構成によれば特別な態様で表示される。従って、ユーザーは、マルチディスプレイ型携帯端末1が、ユーザーの、隣り合うタッチスクリーンディスプレイの間を跨ぐようにオブジェクトをドラッグする意思を把握していることを確認できる。これにより、隣り合うタッチスクリーンディスプレイの間を跨ぐようにオブジェクトをドラッグするに際し、ユーザーは安心してドラッグを実行することができるようになる。
(第2実施形態)
 次に、図2~図10を参照して、第2実施形態を説明する。
 図2には、情報処理装置としてのマルチディスプレイ型携帯端末10を示している。
 マルチディスプレイ型携帯端末10は、ベース11(第1の筐体)と、カバー12(第2の筐体)と、ベース11に対してカバー12が自由に回転できるようにベース11に対してカバー12を連結するヒンジ13(筐体連結手段)と、によって構成されている。
 ベース11は、左TSD14(第1のタッチスクリーンディスプレイ)と、制御部15(制御手段)と、を備えて構成されている。左TSD14は、短辺14aと長辺14bを有する長方形状に構成されている。
 カバー12は、右TSD16(第2のタッチスクリーンディスプレイ)を備えて構成されている。右TSD16は、短辺16aと長辺16bを有する長方形状に構成されている。
 以下、本実施形態では、図3に示すように、ベース11とカバー12が成す角度が180度となるように、マルチディスプレイ型携帯端末10を完全に開いた状態を前提に説明する。しかし、ベース11とカバー12が成す角度は180度以外であってもよい。
(左TSD14)
 図4に示すように、左TSD14は、左LCD17(第1のディスプレイ)と、左タッチパネル18(第1のタッチパネル)と、によって構成されている。
 左LCD17は、制御部15から出力された画像信号に基づいて、所望の画像を表示する。左タッチパネル18は、左LCD17に重ねて設けられている。左タッチパネル18は、指やタッチペンによってタッチされた左タッチパネル18のタッチ位置に相当するタッチデータを制御部15に出力する。タッチデータは、左タッチパネル18の左上隅を原点とするX座標及びY座標によって構成されている。左タッチパネル18がタッチされていない場合は、空のタッチデータが制御部15に出力される。
(右TSD16)
 右TSD16は、右LCD19(第2のディスプレイ)と、右タッチパネル20(第2のタッチパネル)と、によって構成されている。
 右LCD19は、制御部15から出力された画像信号に基づいて、所望の画像を表示する。右タッチパネル20は、右LCD19に重ねて設けられている。右タッチパネル20は、指やタッチペンによってタッチされた右タッチパネル20のタッチ位置に相当するタッチデータを制御部15に出力する。タッチデータは、右タッチパネル20の左上隅を原点とするX座標及びY座標によって構成されている。右タッチパネル20がタッチされていない場合は、空のタッチデータが制御部15に出力される。
 制御部15は、CPU30(Central Proccessing Unit)とRAM31(Random Access Memory)、ROM32(Read Only Memory)によって構成されている。ROM32には、ゲームプログラム(情報処理プログラム)が記憶されている。ゲームプログラムは、CPU30上に読み込まれ、CPU30上で実行されることで、CPU30等のハードウェアを、オブジェクト表示部33(オブジェクト表示手段)と、オブジェクト移動部34(オブジェクト移動手段)と、カウンター35と、として機能させる。
 図5に示すように、制御部15は、左TSD14と右TSD16を統合して単一の論理TSD36を構成している。具体的には、制御部15は、左LCD17と右LCD19を統合して単一の論理LCD37を構成している。同様に、制御部15は、左タッチパネル18と右タッチパネル20を統合して単一の論理タッチパネル38を構成している。
 制御部15は、論理タッチパネル38を実現するために、右タッチパネル20から出力されたタッチデータを、所定の座標変換を実行することで左タッチパネル18の左上隅を原点とするタッチデータに変換する。具体的には、左タッチパネル18の幅が600ピクセルだとすると、制御部15は、右タッチパネル20から出力されたタッチデータのX座標に600を加えるような座標変換を実行する。
 制御部15は、論理LCD37を実現するために、論理LCD37上で形成された画像に対応する画像信号を右LCD19に出力する際、右LCD19に出力する画像信号に予め上記の座標変換の逆変換を実行する。
 そして、制御部15は、座標変換後のタッチデータ(以下、単にタッチデータと称する。)に基づいて、タッチイベント情報を生成する。タッチイベント情報は、前回ステップがタッチなしであり今回ステップがタッチありの場合のタッチ開始イベント情報、前回ステップがタッチありで今回ステップがタッチなしの場合のタッチ終了イベント情報、前回ステップも今回ステップもタッチありの場合のタッチ移動イベント情報、前回ステップも今回ステップもタッチありでありタッチデータも等しい場合のロングタッチイベント情報などに分類される。各タッチイベント情報は、今回ステップのタッチデータを含む。
 オブジェクト表示部33は、論理LCD37上にオブジェクト40を表示する部分である。
 オブジェクト移動部34は、論理タッチパネル38に対して行われたドラッグ操作に基づいて、論理LCD37に表示されているオブジェクト40を移動させる部分である。
 そして、オブジェクト表示部33は、図9に示すように、左LCD17に表示されているオブジェクト40が左LCD17の左特定領域41(特定領域)内に移動したら、オブジェクト40を通常とは異なる特別な態様で表示する。具体的には、オブジェクト表示部33は、左LCD17に表示されているオブジェクト40が左LCD17の左特定領域41内に移動したら、図10に示すように、オブジェクト40を拡大して表示する。更に具体的には、オブジェクト表示部33は、左LCD17に表示されているオブジェクト40が左特定領域41内に移動したら、図10に示すように、オブジェクト40のうち右LCD19に表示されている部分が拡大して表示されるように、オブジェクト40を拡大して表示する。
 ここで、左特定領域41について詳しく説明する。左特定領域41は、図9に示すように、左LCD17の部分的な領域であって、右LCD19に近い領域である。左特定領域41は、右LCD19に隣接する領域である。左特定領域41は、帯状の領域である。図5に示すように、論理TSD36の高さを800ピクセルとし、オブジェクト40の幅をwピクセルとすると、本実施形態において左特定領域41は、論理LCD37において、左上隅の座標が(599- w /2,0)であり、右下隅の座標が(599,799)である矩形領域である。
 同様に、右TSD16の右特定領域42についても説明する。右特定領域42は、右LCD19の部分的な領域であって、左LCD17に近い領域である。右特定領域42は、左LCD17に隣接する領域である。右特定領域42は、帯状の領域である。本実施形態において右特定領域42は、論理LCD37において、左上隅の座標が(600,0)であり、右下隅の座標が(600+w/2,799)である矩形領域である。
 次に、図6~図10を参照して、マルチディスプレイ型携帯端末10の作動を説明する。以下の作動において、制御部15の状態は、「ドラッグ状態」「ドラッグ中断状態」「ドラッグなし状態」の3つの状態の間で遷移する。「ドラッグ状態」は、オブジェクト40がドラッグされている状態を意味する。「ドラッグ中断状態」は、オブジェクト40のドラッグが中断されている状態を意味する。「ドラッグなし状態」は、オブジェクト40がドロップされている状態を意味する。
 先ず、マルチディスプレイ型携帯端末10の電源を投入すると(S100)、オブジェクト表示部33は、図9の(a)で示すように、左LCD17にオブジェクト40を表示させる(S110)。制御部15の初期状態はドラッグなし状態である。
(アイドリング状態)
 次に、制御部15は、制御部15の状態がドラッグ状態であるか判定する(S120)。S120において、制御部15の状態がドラッグ状態でないと判定した場合は(S120:NO)、制御部15は、処理を図7のS130に進める。S130において、制御部15は、制御部15の状態がドラッグ中断状態であるか判定する(S130)。S130において、制御部15の状態がドラッグ中断状態でないと判定した場合は(S130:NO)、制御部15は、タッチイベント情報に基づいて、オブジェクト40がロングタッチされたか判定する(S140)。ここで、制御部15は、ロングタッチイベント情報の有無に基づいて、オブジェクト40がロングタッチされたか判定する。S140において、オブジェクト40がロングタッチされていないと判定した場合は(S140:NO)、制御部15は、処理をS120に戻す。
(ドラッグ開始)
 S140において、オブジェクト40がロングタッチされたと判定した場合は(S140:YES)、制御部15は、制御部15の状態をドラッグなし状態からドラッグ状態に遷移させ(S150)、処理をS120に戻す。
(ドラッグ状態)
 S120において、制御部15の状態がドラッグ状態であると判定した場合は(S120:YES)、制御部15は、タッチイベント情報に基づいて、オブジェクト40がリリースされたか判定する(S160)。ここで、制御部15は、タッチ終了イベント情報の有無に基づいて、オブジェクト40がリリースされたか判定する。S160において、オブジェクト40がリリースされていないと判定した場合は(S160:NO)、オブジェクト移動部34は、タッチイベント情報に基づいて、オブジェクト40を移動させる(S170)。ここで、制御部15は、予めRAM31に記憶しておいた前回ステップのタッチイベント情報に含まれていたタッチデータと、今回ステップのタッチイベント情報に含まれているタッチデータと、の差分に基づいてオブジェクト40を移動させる。次に、オブジェクト表示部33は、オブジェクト40が左特定領域41内か判定する(S180)。具体的には、オブジェクト表示部33は、オブジェクト40の基準点(基準ピクセル)が左特定領域41内か判定する(S180)。オブジェクト40の基準点は、本実施形態において、オブジェクト40の中心点である。S180において、オブジェクト40が左特定領域41内でないと判定した場合は(S180:NO)、オブジェクト表示部33は、図9の(b)で示すように前回と同じ通常のサイズでオブジェクト40を表示させ(S190)、処理をS120に戻す。一方、S180において、図9の(c)で示すように、オブジェクト40が左特定領域41内であると判定した場合は(S180:YES)、オブジェクト表示部33は、図10に示すように、オブジェクト40を拡大表示し(S200)、処理をS120に戻す。
(拡大表示)
 ここで、オブジェクト表示部33によるオブジェクト40の拡大表示について詳しく説明する。図10において、オブジェクト40の拡大前の外枠40aを破線で示し、オブジェクト40の拡大後の外枠40bを実線で示す。図10に示すように、本実施形態においてオブジェクト表示部33は、太線矢印で示すように、外枠40aがオブジェクト40の基準点から一様に遠ざかるようにオブジェクト40を拡大する。また、オブジェクト表示部33は、太線矢印で示すように、オブジェクト40を縦横比一定のまま拡大する。
 また、図9の(c)で示すように、オブジェクト40が左特定領域41内に入ると、オブジェクト40の一部が必ず右LCD19内に表示されることになる。そこで、オブジェクト表示部33は、図10に示すように、オブジェクト40のうち右LCD19に表示されている部分が拡大して表示されるように、オブジェクト40を拡大する。具体的には、オブジェクト表示部33は、オブジェクト40のうち境界線50よりも右LCD19側の部分が拡大して表示されるように、オブジェクト40を拡大する。境界線50は、左LCD17と右LCD19の境界線である。
(タッチリリース)
 図6に戻り、S160において、オブジェクト40がリリースされたと判定した場合は(S160:YES)、制御部15は、タッチイベント情報に基づいて、オブジェクト40が左特定領域41内か判定する(S210)。S210において、オブジェクト40が左特定領域41内であると判定した場合は(S210:YES)、制御部15は、制御部15の状態をドラッグ状態からドラッグ中断状態に遷移させ(S220)、処理をS120に戻す。一方、S210において、オブジェクト40が左特定領域41内でないと判定した場合は(S210:NO)、制御部15は、制御部15の状態をドラッグ状態からドラッグなし状態に遷移させると共に、オブジェクト40をドロップし(S230)、処理をS120に戻す。このように、本実施形態では、オブジェクト40が左特定領域41内でリリースされた場合、オブジェクト40をドロップさせることなく、一時的にドラッグが中断されたものとみなすようにしている。
(ドラッグ中断状態)
 S130において、制御部15の状態がドラッグ中断状態であると判定した場合は(S130:YES)、制御部15は、カウンター35をスタートさせる(S240)。次に、制御部15は、タッチイベント情報に基づいて、オブジェクト40がタッチされたか判定する(S250)。S250において、オブジェクト40がタッチされたと制御部15が判定した場合は、オブジェクト表示部33がオブジェクト40を通常のサイズで表示させると共に(S255)、制御部15は、制御部15の状態をドラッグ中断状態からドラッグ状態へと遷移させ(S150)、処理をS120に戻す。一方、オブジェクト40がタッチされなかったと判定した場合は、制御部15は、カウンター35が所定時間をカウントしたか判定する(S260)。S260において、カウンター35が所定時間をカウントしていないと判定した場合は(S260:NO)、制御部15は、処理をS250に戻す。S260において、カウンター35が所定時間をカウントしたと制御部15が判定した場合は(S260:YES)、オブジェクト表示部33がオブジェクト40を通常のサイズで表示させると共に(S265)、制御部15は、制御部15の状態をドラッグ中断状態からドラッグなし状態に遷移させ、オブジェクト40をドロップし(S270)、処理をS120に戻す。
 以上に、第2実施形態を説明したが、第2実施形態は、以下の特長を有している。
(1)マルチディスプレイ型携帯端末10(情報処理装置)は、左LCD17(第1のディスプレイ)と、左LCD17に重ねて設けられる左タッチパネル18(第1のタッチパネル)と、を有する左TSD14(第1のタッチスクリーンディスプレイ)と、右LCD19(第2のディスプレイ)と、右LCD19に重ねて設けられる右タッチパネル20(第2のタッチパネル)と、を有する右TSD16(第2のタッチスクリーンディスプレイ)と、左LCD17と右LCD19を統合して成る論理LCD37(論理ディスプレイ)上にオブジェクト表示部33を表示するオブジェクト表示部33(オブジェクト表示手段)と、左LCD17に対して行われたドラッグ操作に基づいて、左LCD17に表示されているオブジェクト40を移動させるオブジェクト移動部34(オブジェクト移動手段)と、を備える。オブジェクト表示部33は、左LCD17に表示されているオブジェクト40が、左LCD17の、右LCD19に近い領域である左特定領域41(特定領域)内に移動したら、図10に示すように、オブジェクト40を特別な態様で表示する。即ち、隣り合う左TSD14及び右TSD16の間を跨ぐようにオブジェクト40をドラッグする場合、オブジェクト40は左特定領域41内に移動し、そして上記構成によれば特別な態様で表示される。従って、ユーザーは、マルチディスプレイ型携帯端末10の制御部15が、ユーザーの、隣り合う左TSD14及び右TSD16の間を跨ぐようにオブジェクト40をドラッグする意思を把握していることを確認できる。これにより、隣り合う左TSD14及び右TSD16の間を跨ぐようにオブジェクト40をドラッグするに際し、ユーザーは安心してドラッグを実行することができるようになる。
(2)オブジェクト表示部33は、左LCD17に表示されているオブジェクト40が左特定領域41内に移動したら、オブジェクト40を拡大して表示する。このような表示態様は、ユーザーにとって認識されやすい。
(3)オブジェクト表示部33は、左LCD17に表示されているオブジェクト40が左特定領域41内に移動したら、オブジェクト40のうち右LCD19に表示されている部分が拡大して表示されるように、オブジェクト40を拡大して表示する。以上の構成によれば、図7のS250において、右TSD16でオブジェクト40のドラッグを再開するに際し、オブジェクト40をタッチしやすいメリットがある。
(5)マルチディスプレイ型携帯端末10の情報処理方法は、左LCD17と右LCD19を統合して成る統合ディスプレイ上にオブジェクトを表示するオブジェクト表示ステップ(図6のS110)と、左LCD17に対して行われたドラッグ操作に基づいて、左LCD17に表示されているオブジェクト40を移動させるオブジェクト移動ステップ(図6のS170)と、を含む。左LCD17に表示されているオブジェクト40が、左LCD17の、右LCD19に近い領域である左特定領域41内に移動したら、オブジェクト40を特別な態様で表示する。以上の方法によれば、隣り合う左TSD14及び右TSD16の間を跨ぐようにオブジェクト40をドラッグするに際し、ユーザーは安心してドラッグを実行することができるようになる。
 以上に、第2実施形態を説明したが、上記第2実施形態は、以下のように変更できる。
 上記第2実施形態において、左特定領域41及び右特定領域42の幅は、オブジェクト40の幅wの半分とした。これによれば、オブジェクト40の表示サイズの大小に拘わらず、オブジェクト40の基準点(中心点)が左特定領域41に入ると、オブジェクト40が左LCD17と右LCD19に跨って表示されるようになる。しかし、これに代えて、左特定領域41及び右特定領域42の幅は、自由に設定してもよい。
(第3実施形態)
 次に、図11を参照しつつ、本願発明の第3実施形態を説明する。ここでは、本実施形態が上記第2実施形態と異なる点を中心に説明し、重複する説明は適宜省略する。また、上記第2実施形態の各構成要素に対応する構成要素には原則として同一の符号を付すこととする。
 上記第2実施形態では、図10において太線矢印で示すように、オブジェクト表示部33は、オブジェクト40を縦横比一定のまま拡大している。しかし、これに代えて、オブジェクト表示部33は、図11において太線矢印で示すように、ある方向性をもってオブジェクト40を拡大して表示してもよい。本実施形態では、予めRAM31に記憶しておいた前回ステップのタッチイベント情報に含まれていたタッチデータと、今回ステップのタッチイベント情報に含まれているタッチデータと、の差分に基づいてドラッグ操作のドラッグ方向を演算し、このドラッグ方向と同一の方向にオブジェクト40を引き伸ばすように、オブジェクト40を拡大して表示している。図11の例では、ドラッグ操作のドラッグ方向が紙面右方向であり、オブジェクト40が右LCD19に向かって特段引き伸ばされるように拡大して表示されている。また、ドラッグ操作のドラッグ方向が右斜め上方である場合は、オブジェクト40が右斜め上方に向かって特段引き伸ばされるように拡大して表示することができる。
 上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2013年3月8日に出願された日本出願特願2013-046067を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 マルチディスプレイ型携帯端末
11 ベース
12 カバー
13 ヒンジ
14 左TSD
14a 短辺
14b 長辺
15 制御部
16 右TSD
16a 短辺
16b 長辺
17 左LCD
18 左タッチパネル
19 右LCD
20 右タッチパネル
33 オブジェクト表示部
34 オブジェクト移動部
35 カウンター
36 論理TSD
37 論理LCD
38 論理タッチパネル
40 オブジェクト
41 左特定領域
42 右特定領域
40a 外枠
40b 外枠
50 境界線

Claims (6)

  1. 第1のディスプレイと、前記第1のディスプレイに重ねて設けられる第1のタッチパネルと、を有する第1のタッチスクリーンディスプレイと、
    第2のディスプレイと、前記第2のディスプレイに重ねて設けられる第2のタッチパネルと、を有する第2のタッチスクリーンディスプレイと、
    前記第1のディスプレイと前記第2のディスプレイを統合して成る論理ディスプレイ上にオブジェクトを表示するオブジェクト表示手段と、
    前記第1のタッチパネルに対して行われたドラッグ操作に基づいて、前記第1のディスプレイに表示されている前記オブジェクトを移動させるオブジェクト移動手段と、
    を備え、
    前記オブジェクト表示手段は、前記第1のディスプレイに表示されている前記オブジェクトが、前記第1のディスプレイの、前記第2のディスプレイに近い領域である特定領域内に移動したら、前記オブジェクトを特別な態様で表示する、
    情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記オブジェクト表示手段は、前記第1のディスプレイに表示されている前記オブジェクトが前記特定領域内に移動したら、前記オブジェクトを拡大して表示する、
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記オブジェクト表示手段は、前記第1のディスプレイに表示されている前記オブジェクトが前記特定領域内に移動したら、前記オブジェクトのうち前記第2のディスプレイに表示されている部分が拡大して表示されるように、前記オブジェクトを拡大して表示する、
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記オブジェクト表示手段は、前記第1のディスプレイに表示されている前記オブジェクトが前記特定領域内に移動したら、前記オブジェクトのうち前記第2のディスプレイに表示されている部分が拡大して表示されるように、直前に行われたドラッグ操作のドラッグ方向と同一の方向に前記オブジェクトを引き伸ばして表示する、
    情報処理装置。
  5. 第1のディスプレイと、前記第1のディスプレイに重ねて設けられる第1のタッチパネルと、を有する第1のタッチスクリーンディスプレイと、第2のディスプレイと、前記第2のディスプレイに重ねて設けられる第2のタッチパネルと、を有する第2のタッチスクリーンディスプレイと、を備えた情報処理装置の情報処理方法であって、
    前記第1のディスプレイと前記第2のディスプレイを統合して成る論理ディスプレイ上にオブジェクトを表示するオブジェクト表示ステップと、
    前記第1のタッチパネルに対して行われたドラッグ操作に基づいて、前記第1のディスプレイに表示されている前記オブジェクトを移動させるオブジェクト移動ステップと、
    を含み、
    前記第1のディスプレイに表示されている前記オブジェクトが、前記第1のディスプレイの、前記第2のディスプレイに近い領域である特定領域内に移動したら、前記オブジェクトを特別な態様で表示する、
    情報処理方法。
  6. 第1のディスプレイと、前記第1のディスプレイに重ねて設けられる第1のタッチパネルと、を有する第1のタッチスクリーンディスプレイと、第2のディスプレイと、前記第2のディスプレイに重ねて設けられる第2のタッチパネルと、を有する第2のタッチスクリーンディスプレイと、を備えた情報処理装置の情報処理プログラムを格納する非一時的なコンピュータ可読媒体であって、
    前記情報処理プログラムは、コンピュータに、
    前記第1のディスプレイと前記第2のディスプレイを統合して成る論理ディスプレイ上にオブジェクトを表示するオブジェクト表示ステップと、
    前記第1のタッチパネルに対して行われたドラッグ操作に基づいて、前記第1のディスプレイに表示されている前記オブジェクトを移動させるオブジェクト移動ステップと、
    を実行させ、
    更に、
    前記第1のディスプレイに表示されている前記オブジェクトが、前記第1のディスプレイの、前記第2のディスプレイに近い領域である特定領域内に移動したら、前記オブジェクトを特別な態様で表示させる、
    非一時的なコンピュータ可読媒体。
PCT/JP2014/000219 2013-03-08 2014-01-17 情報処理装置及び情報処理方法、非一時的なコンピュータ可読媒体 WO2014136372A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-046067 2013-03-08
JP2013046067 2013-03-08

Publications (1)

Publication Number Publication Date
WO2014136372A1 true WO2014136372A1 (ja) 2014-09-12

Family

ID=51490912

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000219 WO2014136372A1 (ja) 2013-03-08 2014-01-17 情報処理装置及び情報処理方法、非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2014136372A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242393A (ja) * 1999-02-23 2000-09-08 Canon Inc 情報処理装置及びその制御方法
JP2005149322A (ja) * 2003-11-18 2005-06-09 Canon Inc 表示装置、情報処理装置、表示システムおよびそれらの制御方法
JP2012185297A (ja) * 2011-03-04 2012-09-27 Sharp Corp マルチディスプレイシステム、情報処理端末装置、情報処理方法及びコンピュータプログラム
JP2012216223A (ja) * 2012-06-08 2012-11-08 Casio Comput Co Ltd 表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242393A (ja) * 1999-02-23 2000-09-08 Canon Inc 情報処理装置及びその制御方法
JP2005149322A (ja) * 2003-11-18 2005-06-09 Canon Inc 表示装置、情報処理装置、表示システムおよびそれらの制御方法
JP2012185297A (ja) * 2011-03-04 2012-09-27 Sharp Corp マルチディスプレイシステム、情報処理端末装置、情報処理方法及びコンピュータプログラム
JP2012216223A (ja) * 2012-06-08 2012-11-08 Casio Comput Co Ltd 表示装置

Similar Documents

Publication Publication Date Title
US10452333B2 (en) User terminal device providing user interaction and method therefor
KR101838031B1 (ko) 휴대용 단말기에서 아이콘 관리 방법 및 장치
EP2987068B1 (en) Method for adjusting display area and electronic device thereof
JP5805588B2 (ja) 電子機器、制御方法及び制御プログラム
WO2016015585A1 (zh) 一种终端设备的截屏方法及其终端设备、计算机程序产品和计算机可读记录介质
US20140053097A1 (en) Method for providing user interface having multi-tasking function, mobile communication device, and computer readable recording medium for providing the same
US10067666B2 (en) User terminal device and method for controlling the same
WO2013175770A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR20120066122A (ko) 타임라인 바를 이용한 터치스크린 제어방법, 장치 및 이를 위한 프로그램이 기록된 기록매체 및 사용자 단말
US20140292697A1 (en) Portable terminal having double-sided touch screens, and control method and storage medium therefor
JP2014071724A (ja) 電子機器、制御方法及び制御プログラム
US9933895B2 (en) Electronic device, control method for the same, and non-transitory computer-readable storage medium
WO2014044133A1 (zh) 应用界面及控制应用界面操作的方法和装置
JP2015523649A (ja) 画像表示処理方法、画像表示処理装置、プログラム、及び記録媒体
JP2011107781A (ja) 表示制御装置、及びその制御方法
JP2015524132A (ja) ラップアラウンド・ナビゲーション
KR102113509B1 (ko) 가상 키패드 제어 방법 및 그 전자 장치
CN104571814B (zh) 一种投影方法及电子设备
JP2016057759A (ja) 電子機器、方法およびプログラム
US9823890B1 (en) Modifiable bezel for media device
JP2010262636A (ja) タッチセンシティブディスプレイ上のメニュー項目に対する標的ゾーン
JP5775432B2 (ja) 装置、方法、及びプログラム
JP5762885B2 (ja) 装置、方法、及びプログラム
WO2014136372A1 (ja) 情報処理装置及び情報処理方法、非一時的なコンピュータ可読媒体
JP2013065291A (ja) 装置、方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14760142

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14760142

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP