WO2013111202A1 - 表示装置および表示方法 - Google Patents

表示装置および表示方法 Download PDF

Info

Publication number
WO2013111202A1
WO2013111202A1 PCT/JP2012/003961 JP2012003961W WO2013111202A1 WO 2013111202 A1 WO2013111202 A1 WO 2013111202A1 JP 2012003961 W JP2012003961 W JP 2012003961W WO 2013111202 A1 WO2013111202 A1 WO 2013111202A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
area
screen
unit
region
Prior art date
Application number
PCT/JP2012/003961
Other languages
English (en)
French (fr)
Inventor
篤雨 成田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012548265A priority Critical patent/JP5248715B1/ja
Priority to US13/793,484 priority patent/US8963867B2/en
Publication of WO2013111202A1 publication Critical patent/WO2013111202A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • G09G3/3648Control of matrices with row and column drivers using an active matrix
    • G09G3/3666Control of matrices with row and column drivers using an active matrix with the matrix divided into sections

Definitions

  • the present invention relates to a display device and a display method.
  • Patent Document 1 a display device that divides a display screen by an intuitive operation by moving a finger on the display surface and displays a different screen in each divided area is known (for example, Patent Document 1).
  • Patent Literature 1 when an icon displayed on the display screen is dragged with a finger in a predetermined direction, the display screen is divided based on the direction, and the divided display areas are different. It is disclosed that an image is displayed, and the screen can be divided by an intuitive operation such as finger movement.
  • the present invention has been made to solve the above-described problem, and an object of the present invention is to provide a display device or the like that directs the direction of a display area newly generated by a screen division operation in the direction in which the operator exists. .
  • a display device includes a display unit that displays an image and a position on the display unit that is designated by each of two or more fingers of an operator.
  • the operation detection unit that detects a specified position and the operation detection unit detect that two or more specified positions are translated in the first region of the display unit, Based on two or more moving directions of the designated positions, the position of the second area, which is a newly generated area in the first area, and the display direction of the image displayed in the second area are determined.
  • an operation analysis unit configured to display the image in the second region according to the position of the second region determined by the operation analysis unit and a display direction of the image displayed in the second region.
  • a display control unit for controlling.
  • the display device of the present invention it is possible to match the display direction of the divided screen with the direction in which the operator exists by an intuitive screen division operation.
  • FIG. 1 is a front view illustrating an example of an external configuration of a display device according to Embodiment 1.
  • FIG. FIG. 2 is a block diagram illustrating an example of a functional configuration of the display device according to the first embodiment.
  • FIG. 3 is a flowchart illustrating processing of the operation analysis unit.
  • FIG. 4 is a diagram illustrating an example of a display device before screen division according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of the operation of the entrant according to the first embodiment.
  • FIG. 6 is a diagram illustrating an example of a display device after screen division according to the first embodiment.
  • FIG. 7 is a diagram illustrating an example of a display device before screen division according to the second embodiment.
  • FIG. 8 is a diagram illustrating an example of the operation of the entrant according to the second embodiment.
  • FIG. 9 is a diagram illustrating an example of a display device after screen division according to the second embodiment.
  • FIG. 10 is a diagram illustrating a state of the display device before screen division according to the third embodiment.
  • FIG. 11 is a diagram illustrating an example of the operation of the entrant according to the third embodiment.
  • FIG. 12 is a diagram illustrating an example of a display device after screen division according to the third embodiment.
  • FIG. 13 is a diagram illustrating another example of the operation of the entrant according to the third embodiment.
  • FIG. 14 is a diagram illustrating another example of the display device after screen division according to the third embodiment.
  • Patent Document 1 allows intuitive screen division with a finger, it does not control the screen display direction after division. For example, when a plurality of people want to use a screen, there may occur a case where images displayed in each area after the screen division are not directed in an appropriate direction. In this case, setting by the operator such as changing the screen display direction after dividing the screen is required.
  • the present invention has been made to solve the above-described problem, and an object of the present invention is to provide a display device or the like that directs the direction of a display area newly generated by a screen division operation in the direction in which the operator exists. .
  • a display device includes a display unit that displays an image and a position on the display unit that is designated by each of two or more fingers of an operator.
  • the operation detection unit that detects a specified position and the operation detection unit detect that two or more specified positions are translated in the first region of the display unit, Based on two or more moving directions of the designated positions, the position of the second area, which is a newly generated area in the first area, and the display direction of the image displayed in the second area are determined.
  • an operation analysis unit configured to display the image in the second region according to the position of the second region determined by the operation analysis unit and a display direction of the image displayed in the second region.
  • a display control unit for controlling.
  • a new display area (second area) is added to the display area (first area) of the display device by an operator who intends to newly use the display apparatus by operating his / her two or more fingers. ) Can be created.
  • the display device manipulates the display direction of the new display area based on the relative positional relationship between the designated positions caused by the difference in the finger length of the operator and the moving direction of the designated position. Can be directed in the direction where the person exists. Therefore, the direction of the display area newly generated by the screen division operation can be directed to the direction in which the operator exists without setting the screen display direction.
  • the operation analysis unit estimates the operator's direction viewed from the display device based on an arrangement direction and a movement direction of the two or more designated positions, and displays the direction in the second region.
  • the display direction of the image to be displayed may be determined.
  • the display device in the operation of the operator who intends to newly use the display device, the display device exists based on the arrangement direction and the moving direction of the contact positions of two or more fingers of the operator. Estimate the direction. Then, the display direction of the new display area (second area) is determined so as to have a natural orientation when used by an operator existing in the estimated direction. Therefore, the direction of the display area newly generated by the screen division operation can be directed to the direction in which the operator exists.
  • the operation analysis unit estimates the direction of the operator as viewed from the display device based on an arrangement direction and a movement direction of the two or more designated positions, and the first region is the position of the designated position.
  • An area closer to the operator may be determined as the position of the second area among areas formed by being divided by lines corresponding to the trajectory.
  • the operator can use, as his / her own display area, a display area formed after the division operation. Therefore, a display area newly generated by the screen division operation is formed near the operator, and the operator can use the display area without performing an operation such as separate position adjustment.
  • the display control unit displays the image displayed in the first area in a third area that is an area in the first area and not included in the second area, An image for the operator may be displayed in the second area.
  • an operation screen for a new operator can be displayed in a new display area (second area) formed near the new operator.
  • the contents displayed on the display device (first area) used by the user are displayed in the area (third area) near the user remaining after the new display area is formed.
  • the user can continue to view the display content for himself / herself near the user. Therefore, the user and the new operator can browse the display area for themselves after forming a new display area.
  • the display control unit may determine the display direction of the image displayed in the third area as a direction that matches the display direction of the image displayed in the first area.
  • the user can continue to use the display contents that the user has displayed on the display device (first area) before the new operator appears in the display direction. Therefore, the user can continue to use the display area for himself / herself after forming a new display area.
  • the display control unit may display the image displayed in the first area in at least one of the second area and the third area.
  • the area near the user (third area) Can be displayed.
  • the display content that the user has displayed on the display device (first area) before the new operator appears is divided and then displayed in the area near the new operator (second area). Can be displayed. Either method can be used depending on the selection of the user and the new operator.
  • the operation analysis unit detects that the two designated positions are translated in the first region
  • the operation position of the two designated positions, the arrangement direction of the two designated positions, and The position of the second area and the display direction of the image displayed in the second area may be determined based on the moving direction.
  • the display method according to one aspect of the present invention is a display method in a display device including a display unit that displays an image, at a position on the display unit specified by each of two or more fingers of an operator.
  • the operation detecting step for detecting a specified position and in the operation detecting step, if it is detected that two or more specified positions are translated in the first region of the display unit, the two or more specified positions are detected.
  • the position of the second area which is a newly generated area in the first area, and the display direction of the image displayed in the second area
  • An operation analysis step for determining the image, and an image is displayed in the second region in accordance with the position of the second region determined in the operation analysis step and the display direction of the image displayed in the second region.
  • a display control step of controlling the display unit In including a display control step of controlling the display unit.
  • the display method has the same effect as the display device.
  • a program that is one embodiment of the present invention causes a computer to execute the above display method.
  • the computer has the same effect as the display device.
  • FIG. 1 is a front view showing an example of an external configuration of the display device according to the first embodiment.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the display device according to the first embodiment.
  • the display device 100 includes an operation detection unit 101, an operation analysis unit 102, a display control unit 103, and a display unit 104.
  • the operation detection unit 101 detects contact between the screen surface of the display device 100 and the operator's finger.
  • the operation detection unit 101 generates detection information such as coordinate data of a contact point when the operator's finger contacts the screen surface, and notifies the operation analysis unit 102 of the detection information.
  • the operation detection unit 101 is realized by a touch panel, for example.
  • the object detected by the operation detection unit 101 is not limited to direct contact between the screen surface and the operator's finger, but the operation performed by the operator's finger is indirectly transmitted to the screen surface via an object such as a stylus. The contact between the screen surface and the object may be possible.
  • the operation analysis unit 102 analyzes the number of contact points between the operator's finger and the screen surface, the moving direction or moving distance in the contact state, and the like from the detection information generated by the operation detecting unit 101. Further, the screen division position and the image display direction after division are determined from the analysis result.
  • the display control unit 103 creates display data based on information such as the screen division position determined by the operation analysis unit 102 and the image display direction after division, and transmits the display data to the display unit 104.
  • the display unit 104 displays an image based on the image display information from the display control unit 103.
  • a touch panel (not shown), which is the operation detection unit 101, is disposed on the upper portion of the display unit 104.
  • a specific example of the display device 100 is a tablet terminal, a large-screen touch panel display, a smartphone, or a mobile phone terminal.
  • FIG. 3 is a flowchart showing the operation of the operation analysis unit 102.
  • FIG. 4 is a diagram illustrating a state of the display device before screen division according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of the operation of the entrant according to the first embodiment.
  • FIG. 6 is a diagram illustrating a state after screen division according to the first embodiment.
  • the operator designates the boundary line of the division by an intuitive operation of sliding the finger on the display unit along the line to be the boundary line of the division.
  • the operation of sliding is natural.
  • a right-handed operator naturally performs an operation of sliding his / her finger from the left to the right on the screen as viewed from the operator.
  • the dominant hand of the operator may be set in advance. Alternatively, the operator may be identified by user authentication or the like, and the dominant hand may be determined using predetermined operator dominant hand information.
  • the image display direction is a direction from the center of the screen toward the position D.
  • the image display direction is a direction from the top to the bottom of the image (display contents).
  • the entrant U2 enters the position B as shown in FIG.
  • the entrant U2 divides the screen by bringing two fingers (for example, an index finger and a middle finger) into contact with the position A and moving them toward the position C while keeping the two fingers in contact.
  • the white circle indicates the contact position of the index finger
  • the black circle indicates the contact position of the middle finger.
  • the operation analysis unit 102 clears the operation start position when the display device 100 is activated by turning on the power (step S301).
  • the operation detection unit 101 detects the operation of the participant, the operation detection unit 101 generates contact point detection information (for example, coordinate data) on the screen surface and notifies the operation analysis unit 102 of the detection information.
  • the operation analysis unit 102 analyzes the number of contact points on the screen surface (how many points have been touched) from the notified detection information.
  • the operation analysis unit 102 is in a waiting state until detection information is notified from the operation detection unit 101.
  • step S303 determines whether or not the number of contact points is two (step S303). If it is determined that the number of contact points is two (Y in step S303), the operation analysis unit 102 determines whether or not the operation start position is held (step S304). If it is determined in step S304 that the operation start position is not held (N in step S304), the operation analysis unit 102 holds the two detected contact points as the operation start position (step S310). The process returns to step S302.
  • step S303 determines that the number of contact points is not two (N in step S303)
  • the operation analysis unit 102 determines that a normal operation on the display device is performed instead of the screen division operation, and the normal operation is performed.
  • step S309 the process returns to step S301.
  • the operation analysis unit 102 determines in step S303 that the number of contact points is 0, the operation analysis unit 102 determines that the division operation has been completed halfway.
  • step S304 determines whether or not the two detected contact points are translated (step S304).
  • Step S305 the operation analysis unit 102 determines that the movement is parallel when the contact point detected this time is on the line connecting the operation start position and the previous detection point. In this determination, the contact point detected this time does not necessarily exist on the line. That is, if the position is within a predetermined distance from the line connecting the operation start position and the previous detection point, it may be determined that the movement is parallel. Further, if the angle between the line connecting the operation start position and the previous detection point and the line connecting the operation start position and the current detection point is within a predetermined angle, it is determined that the movement is parallel. You may do it. Further, the operation analysis unit 102 may determine that the translation has been performed when there is no previous detection point.
  • step S305 If the operation analysis unit 102 determines in step S305 that the two detected contact points are not translated from the operation start position (N in step S305), the operation analysis unit 102 performs a normal pinch-out instead of the screen division operation. After performing the normal operation analysis process (step S309), the process returns to step S301.
  • step S305 when the operation analysis unit 102 determines that the two points are moving in parallel (Y in step S305), the parallel movement distance from the start position to the detected contact point is set in advance. Comparison with a predetermined distance is performed (step S306). If the operation analysis unit 102 determines in step S306 that the parallel movement distance is shorter than the preset default distance (N in step S306), the operation analysis unit 102 returns to step S302.
  • step S306 determines in step S306 that the translated distance is greater than or equal to the predetermined distance (Y in step S306), the operation analysis unit 102 determines that the screen division operation has been completed, and the position of the participant U2 The identification is performed (step S307).
  • the operation analysis unit 102 determines the position of the entrant U2 with respect to the display device 100.
  • the reason why the two translation directions are from the position A to the position C is that the entrant U2 enters the position B and translates the finger from left to right (position A to position C). Or the entry U2 enters the position C and translates the finger from top to bottom (position A to position C). It is determined in any of the above cases by the processing described below.
  • the operation analysis unit 102 analyzes the positional relationship (alignment direction) between the operation start points P1 and Q1 in FIG.
  • the operation analysis unit 102 uses the fact that the lengths of the index finger and the middle finger are different, and when the left point is closer to the candidate position than the right point as seen from the candidate position (candidate of the position where the entrant entered), It is determined that the candidate position is the entry position. A specific determination process will be described below.
  • the candidate position is set to position B, and the determination is performed as follows.
  • Q1 is the index finger
  • P1 is the middle finger, that is, the white circle in FIG. 5 is the index finger
  • the black circle is the contact position of the middle finger.
  • the determination is as follows. Since the left point Q1 is farther from the candidate position C than the right point P1 when viewed from the position C, it is determined that the position where the entrant U2 has entered is not the position C. Therefore, it is consistent with the determination when the candidate position is the position B.
  • the operation analysis unit 102 analyzes the relationship between the entry position of the identified participant U2 and the direction in which the finger is moved for screen division, and the screen division direction and the division after division.
  • the image display direction on the screen is determined and notified to the display control unit 103 as image display direction information (step S308).
  • the operation analysis unit 102 divides the display screen into the divided screen 601 on the position D side and the divided screen on the position B side when the screen dividing direction (finger moving direction) is from the position A to the position C. It is decided to divide into the screen 602.
  • the operation analysis unit 102 since the entry position is the position B, the operation analysis unit 102 has a divided screen 602 on the side of the position B that is closer to the entry position after the division, and the screen that was being used before the division is It is determined to be displayed on the divided screen 601 at the position D.
  • the content displayed on the divided screen 601 may be a reduced content of the screen before the division, or may be the same size as the conventional one.
  • a screen for entrants may be displayed on the divided screen 602.
  • the screen displayed on the divided screen 602 may be the same as the content of the screen before the division.
  • the operation analysis unit 102 determines the entry position and the image display direction of the divided divided screen, the entry position is the position B. Therefore, the image display direction when displaying in the new area is from the position D to the position B. It is determined that the image display direction to be displayed on the divided screen 601 that displays the screen that was being used is the direction from position B to position D. The operation analysis unit 102 notifies the display control unit 103 of the determined division direction and the image display direction on the divided screen.
  • the display control unit 103 controls the display unit 104 based on the division direction and the image display direction information notified from the operation analysis unit 102, and as shown in FIG. Each screen is divided into two. The screen is displayed in the direction from position B to position D on the divided screen 601 on the position D side, and the screen is displayed in the direction from position D to position B on the divided screen 602 on the position B side.
  • the entrant simply splits the screen intuitively using two fingers, and the two positions of the moving direction and the contact start point of the two fingers.
  • the entry position of the entrant can be specified from the relationship, and the screen can be displayed in an appropriate direction after dividing the screen.
  • the expression of dividing the screen is used. However, it can be expressed that a new second area is generated in the first area of the display unit.
  • an operator who intends to newly use the display device operates the display region ( A new display area (second area) can be created in the first area).
  • the display device manipulates the display direction of the new display area based on the relative positional relationship between the designated positions caused by the difference in the finger length of the operator and the moving direction of the designated position. Can be directed in the direction where the person exists. Therefore, the direction of the display area newly generated by the screen division operation can be directed to the direction in which the operator exists without setting the screen display direction.
  • the display device determines the direction in which the operator exists based on the arrangement direction and the moving direction of the contact positions of two or more fingers of the operator. presume. Then, the display direction of the new display area (second area) is determined so as to have a natural orientation when used by an operator existing in the estimated direction. Therefore, the direction of the display area newly generated by the screen division operation can be directed to the direction in which the operator exists.
  • the operator can use the display area formed after the division operation as the display area closer to the operator. Therefore, a display area newly generated by the screen division operation is formed near the operator, and the operator can use the display area without performing an operation such as separate position adjustment.
  • an operation screen for a new operator can be displayed in a new display area (second area) formed near the new operator.
  • the contents displayed on the display device (first area) used by the user are displayed in the area (third area) near the user remaining after the new display area is formed.
  • the user can continue to view the display content for himself / herself near the user. Therefore, the user and the new operator can browse the display area for themselves after forming a new display area.
  • the display contents that the user has displayed on the display device (first area) before the new operator appears can be used by the user in the display direction. Therefore, the user can continue to use the display area for himself / herself after forming a new display area.
  • the display contents that the user has displayed on the display device (first area) before the new operator appears are displayed in the area (third area) near the user after the division operation. be able to.
  • the display content that the user has displayed on the display device (first area) before the new operator appears is divided and then displayed in the area near the new operator (second area). Can be displayed. Either method can be used depending on the selection of the user and the new operator.
  • the screen can be divided and the display direction of a new screen image can be determined by the operation of the operator by moving the two fingers in parallel.
  • the user U3 exists at the position D, and the screen direction is in the direction of the position D.
  • the entrant U4 enters the position A, and two fingers (for example, the index finger and the middle finger) are brought into contact with the vicinity of the position C and moved toward the position A.
  • the operation detection unit 101 performs the same processing as in the first embodiment, generates detection information when two fingers move in contact with the screen surface, and notifies the operation analysis unit 102 of the detection information.
  • the operation analysis unit 102 specifies the position of the entrant based on the detection information.
  • the operation analysis unit 102 determines the position of the entrant U4 with respect to the display device 100.
  • the translation direction of the two points is the direction from the position C to the position A because the entrant U4 enters the position D and translates the finger from left to right (position C to position A). Or the entrant U4 enters the position A and translates the finger from top to bottom (position C to position A). It is determined in any of the above cases by the processing described below.
  • the operation analysis unit 102 analyzes the positional relationship between the start point P2 and the start point Q2 in FIG.
  • the operation analysis unit 102 uses the difference between the lengths of the index finger and the middle finger, and determines that the candidate position is the entry position when the left point is closer to the candidate position than the right point when viewed from the candidate position. To do. A specific determination process will be described below.
  • the determination is as follows. Since the left point P2 is farther from the candidate position D than the right point Q2 when viewed from the position D, it is determined that the position where the entrant U4 has entered is not the position D. Therefore, this is consistent with the determination when the candidate position is position A.
  • the operation analysis unit 102 analyzes the relationship between the entry position of the identified participant U4 and the direction in which the finger is moved for screen division, and the screen division direction and division after division.
  • the image display direction on the screen is determined and notified to the display control unit 103 as image display direction information.
  • the operation analysis unit 102 divides the display screen into the divided screen 901 on the position D side and the divided screen on the position B side when the screen dividing direction (finger moving direction) is from the position C to the position A. It is divided into a screen 902. Since the entry position is position A, the operation analysis unit 102 displays the new area after the division on the divided screen 902 on the position B side, and displays the conventional screen that was in use on the divided screen 901 at the position D. To decide.
  • the operation analysis unit 102 determines the entry position and the position of the new area after the division, the entry position is the position A, so the image display direction when displaying in the new area is the direction from the position C to the position A. It is determined that the image display direction to be displayed on the divided screen 901 that displays the screen being used is the direction from position B to position D.
  • the operation analysis unit 102 notifies the display control unit 103 of the determined division direction and the image display direction on the divided screen.
  • the display control unit 103 controls the display unit 104 based on the division direction and the image display direction information notified from the operation analysis unit 102, and as shown in FIG. Each screen is divided into two. Then, the screen is displayed in the direction from position B to position D on the divided screen 901 on the position D side, and the screen is displayed in the direction from position C to position A on the divided screen 902 on the position B side.
  • the entrant simply splits the screen intuitively using two fingers, and the two positions of the moving direction and the contact start point of the two fingers.
  • the entry position of the entrant can be specified from the relationship, and the screen can be displayed in an appropriate direction after dividing the screen.
  • the entrant demonstrated the case where it entered into the position A with respect to the user who exists in the position D, the same process is performed also when it enters into the position C, and it divides
  • the finger position is the position where the index finger and the middle finger are opposite, the finger direction is from position A to position C, and the image display direction of the divided divided screen 902 is from position A to position C. It becomes.
  • the position A since the user exists at the position D, the position A may be determined without considering the case where the position of the entrant is the position D.
  • the image display direction of the divided display area is the same as the screen of the user.
  • the image display direction of the divided screen 902 is the direction from the same position B to the position D as the divided screen 901.
  • the entry U6 has entered the position A, so that the screen is positioned.
  • An example of dividing from C to position A will be described.
  • a case is considered in which the entrant U6 performs a split operation using two fingers, the index finger and the middle finger.
  • the screen direction is in the direction of the position C as shown in FIG.
  • the entrant enters position A, touches two fingers (for example, index finger and middle finger) near position C, and keeps the two fingers in contact with position A.
  • the white circle indicates the contact position of the index finger
  • the black circle indicates the contact position of the middle finger.
  • the operation detection unit 101 performs the same processing as in the first embodiment, generates detection information when two fingers move in contact with the screen surface, and notifies the operation analysis unit 102 of the detection information.
  • the operation analysis unit 102 specifies the position of the entrant based on the detection information.
  • the operation analysis unit 102 determines the position of the entrant U6 with respect to the display device 100.
  • the two translation directions are from the position C to the position A because the entrant U6 enters the position D and translates the finger from left to right (position C to position A). Or the entrant U6 enters the position A and translates the finger from top to bottom (position C to position A). It is determined in any of the above cases by the processing described below.
  • the operation analysis unit 102 analyzes the positional relationship between the start point P3 and the start point Q3 in FIG.
  • the operation analysis unit 102 uses the difference between the lengths of the index finger and the middle finger, and determines that the candidate position is the entry position when the left point is closer to the candidate position than the right point when viewed from the candidate position. To do. A specific determination process will be described below.
  • the candidate position is set to position A, and determination is performed as follows.
  • P3 is the middle finger
  • Q3 is the index finger, that is, the white circle in FIG. 11 is the index finger
  • the black circle is the middle finger contact position.
  • the determination is as follows. Since the left point P3 is farther from the candidate position D than the right point Q3 when viewed from the position D, the position where the entrant U6 has entered is determined not to be the position D. Therefore, this is consistent with the determination when the candidate position is position A.
  • the operation analysis unit 102 analyzes the relationship between the entry position of the identified participant U6 and the direction in which the finger has been moved for screen division, and the screen division direction and the post-division The image display direction in the divided screen is determined and notified to the display control unit 103 as image display direction information.
  • the operation analysis unit 102 divides the display screen into the divided screen 1201 on the position D side and the divided screen on the position B side when the screen dividing direction (finger moving direction) is from the position C to the position A. It is divided into a screen 1202. In this case, the operation analysis unit 102 determines that the new area after the division is the divided screen 1202 on the position B side, and the conventional screen that has been used is displayed on the divided screen 1201 on the position D side. It may be determined that the new area after the division is the divided screen 1201 and the conventional screen that has been used is displayed on the divided screen 1202.
  • the operation analysis unit 102 determines the entry position and the position of the new area after the division, the entry position is the position A, so the image display direction when displaying in the new area is the direction from the position C to the position A. It is determined that the image display direction to be displayed on the divided screen 1201 that displays the screen that was being used is the direction from position A to position C.
  • the operation analysis unit 102 notifies the display control unit 103 of the determined division direction and the image display direction on the divided screen.
  • the display control unit 103 controls the display unit 104 based on the information on the division direction and the image display direction notified from the operation analysis unit 102, and the screen is displayed on the positions D and B as shown in FIG. Is divided into two. After the division, the screen is displayed from the position A to the position C on the divided screen 1201 on the position D side, and the screen is displayed from the position C to the position A on the divided screen 1202 on the position B side.
  • the entrant U8 can enter the position A on the same side as the user U7 with respect to the display device 100 (display area 1301). In this case, the entrant U8 divides the screen from the position C to the position A.
  • the operation of the participant's finger and the process for recognizing the operation are the same as described above.
  • a new area for the entrant U8 is formed as shown in FIG. That is, the display screen is divided into a divided screen 1401 on the position D side and a divided screen 1402 on the position B side.
  • the image display direction of the screen 1402 after the screen is the direction of the position of the entrant U8.
  • which of the split screen 1401 on the position D side and the split screen on the position B side is to display the screen for the user (where the screen for the entrant is to be displayed). May be set in advance and determined according to the setting.
  • the entrant uses only two fingers to intuitively divide the screen and specifies the entry position of the entrant from the positional relationship between the moving direction and the contact start point of the two fingers.
  • the screen can be displayed in an appropriate direction after the screen is divided.
  • the case where two fingers of the index finger and the middle finger are used as the fingers to be used for dividing the screen has been described, but the other two fingers or two or more fingers are used. May be.
  • the position of the participant can be specified from the positional relationship of each finger.
  • the position of the participant may be specified from the positions of two of the two or more fingers.
  • the display device in each embodiment may be a device having a display unit capable of displaying an image.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the software that realizes the image decoding apparatus of each of the above embodiments is the following program.
  • this program is a display method in a display device including a display unit for displaying an image on a computer, and a designated position that is a position on the display unit designated by each of two or more fingers of an operator.
  • the operation detecting step to detect and the operation detecting step when it is detected that two or more specified positions are translated in the first region of the display unit, two or more specified positions, 2
  • An image is displayed in the second area according to the analysis step, the position of the second area determined in the operation analysis step, and the display direction of the image displayed in the second area.
  • a display control step of controlling the display unit so.
  • the display device of the present invention is useful when a plurality of operators use one terminal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 画面分割操作により新たに生成される表示領域の向きを操作者が存在する方向へ向ける表示装置(100)であって、画像を表示する表示部(104)と、操作者の2以上の指のそれぞれにより指定される表示部(104)上の位置である指定位置を検出する操作検出部(101)と、操作検出部(101)が表示部(104)の第一領域において2以上の指定位置が平行移動していることを検出した場合に、2以上の指定位置と2以上の指定位置の移動方向とに基づいて、第一領域内に新たに生成される領域である第二領域の位置と第二領域に表示される画像の表示方向とを決定する操作解析部(102)と、操作解析部(102)が決定した第二領域の位置と第二領域に表示される画像の表示方向に従って、第二領域に画像を表示させるように表示部(104)を制御する表示制御部(103)とを備える。

Description

表示装置および表示方法
 本発明は、表示装置および表示方法に関する。
 従来、ディスプレイを有する表示装置において、ディスプレイ表面上で指を移動させることにより、直感的な操作により表示画面を分割し、分割された各領域に異なる画面を映し出す表示装置が知られている(例えば、特許文献1)。
 特許文献1に開示される技術によれば、表示画面上に表示されたアイコンを所定の方向へ指でドラッグさせると、その方向に基づいて表示画面を分割し、分割された各表示領域に異なる画像を表示させることが開示されており、指の移動のような直感的な操作による画面分割が可能である。
特開平9-134270号公報
 しかしながら、従来技術による画面分割操作では、分割後の画面の表示の向きが操作者の意図する方向と異なる場合に、操作者が画面の表示方向を変更するための操作を別途行わなければならないという問題がある。
 本発明は、上記の問題を解決すべくなされたものであり、画面分割操作により新たに生成される表示領域の向きを操作者が存在する方向へ向ける表示装置等を提供することを目的とする。
 このような目的を達成するために、本発明の一態様にかかる表示装置は、画像を表示する表示部と、操作者の2以上の指のそれぞれにより指定される前記表示部上の位置である指定位置を検出する操作検出部と、前記操作検出部が、前記表示部の第一領域において2以上の前記指定位置が平行移動していることを検出した場合に、2以上の前記指定位置と、2以上の前記指定位置の移動方向とに基づいて、前記第一領域内に新たに生成される領域である第二領域の位置と前記第二領域に表示される画像の表示方向とを決定する操作解析部と、前記操作解析部が決定した前記第二領域の位置と前記第二領域に表示される画像の表示方向とに従って、前記第二領域に画像を表示させるように前記表示部を制御する表示制御部とを備える。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明の表示装置によれば、直感的な画面分割操作により、分割後の画面の表示の向きを操作者が存在する向きに一致させることが可能となる。
図1は、実施の形態1に係る表示装置の外観構成の一例を示す正面図である。 図2は、実施の形態1に係る表示装置の機能構成の一例を示すブロック図である。 図3は、操作解析部の処理を示すフローチャートである。 図4は、実施の形態1に係る画面分割前の表示装置の一例を示す図である。 図5は、実施の形態1に係る参入者の操作の一例を示す図である。 図6は、実施の形態1に係る画面分割後の表示装置の一例を示す図である。 図7は、実施の形態2に係る画面分割前の表示装置の一例を示す図である。 図8は、実施の形態2に係る参入者の操作の一例を示す図である。 図9は、実施の形態2に係る画面分割後の表示装置の一例を示す図である。 図10は、実施の形態3に係る画面分割前の表示装置の状態を示す図である。 図11は、実施の形態3に係る参入者の操作の一例を示す図である。 図12は、実施の形態3に係る画面分割後の表示装置の一例を示す図である。 図13は、実施の形態3に係る参入者の操作の他の一例を示す図である。 図14は、実施の形態3に係る画面分割後の表示装置の他の一例を示す図である。
 (本発明の基礎となった知見)
 本発明者は、「背景技術」の欄において記載した表示装置に関し、以下の問題が生じることを見出した。
 特許文献1に示される従来技術は、指による直感的な画面分割は可能であるものの、分割後の画面表示方向まで制御するものではない。例えば、複数人で画面を使用したい場合に、画面分割後に各領域で表示される画像が適切な方向に向けられていない場合が生じ得る。この場合に、画面分割後に画面表示方向を変更するなどの操作者による設定が必要となる。
 本発明は、上記の問題を解決すべくなされたものであり、画面分割操作により新たに生成される表示領域の向きを操作者が存在する方向へ向ける表示装置等を提供することを目的とする。
 このような目的を達成するために、本発明の一態様にかかる表示装置は、画像を表示する表示部と、操作者の2以上の指のそれぞれにより指定される前記表示部上の位置である指定位置を検出する操作検出部と、前記操作検出部が、前記表示部の第一領域において2以上の前記指定位置が平行移動していることを検出した場合に、2以上の前記指定位置と、2以上の前記指定位置の移動方向とに基づいて、前記第一領域内に新たに生成される領域である第二領域の位置と前記第二領域に表示される画像の表示方向とを決定する操作解析部と、前記操作解析部が決定した前記第二領域の位置と前記第二領域に表示される画像の表示方向とに従って、前記第二領域に画像を表示させるように前記表示部を制御する表示制御部とを備える。
 これによれば、新たに表示装置を使用しようとする操作者が、自身の2以上の指によって操作することにより、当該表示装置の表示領域(第一領域)に新たな表示領域(第二領域)を作成することができる。その際に、表示装置は、操作者の指の長さの差によって生ずる指定位置の相対的な位置関係と、指定位置の移動方向とに基づいて、当該新たな表示領域の表示の向きを操作者の存在する方向へ向けることができる。よって、画面表示方向の設定などによらずに、画面分割操作により新たに生成される表示領域の向きを操作者が存在する方向へ向けることができる。
 また、例えば、前記操作解析部は、2以上の前記指定位置の並び方向及び移動方向に基づいて、前記表示装置から見た前記操作者の方向を推定し、当該方向を前記第二領域に表示される画像の表示方向として決定するとしてもよい。
 これによれば、表示装置は、新たに表示装置を使用しようとする操作者の操作において、操作者の2以上の指の接触位置の並び方向と移動方向とに基づいて、当該操作者が存在する方向を推定する。そして、推定された方向に存在する操作者から使用される場合に自然な向きとなるように、新たな表示領域(第二領域)の表示方向を決定する。よって、画面分割操作により新たに生成される表示領域の向きを操作者が存在する方向へ向けることができる。
 また、例えば、前記操作解析部は、2以上の前記指定位置の並び方向及び移動方向に基づいて、前記表示装置から見た前記操作者の方向を推定し、前記第一領域が前記指定位置の軌跡に対応する線により分割されて形成される領域のうち前記操作者に近い方の領域を前記第二領域の位置として決定するとしてもよい。
 これによれば、操作者は、分割の操作をした後に形成される表示領域のうち自身に近い方を自身の表示領域として利用できる。よって、画面分割操作により新たに生成される表示領域が操作者の近くに形成され、別途位置調整などの操作をすることなく、操作者は当該表示領域を使用することができる。
 また、例えば、前記表示制御部は、前記第一領域に表示されていた画像を、前記第一領域内の領域であって前記第二領域に含まれない領域である第三領域に表示し、前記操作者のための画像を前記第二領域に表示するとしてもよい。
 これによれば、新たな操作者の近くに形成される新たな表示領域(第二領域)に、新たな操作者のための操作画面を表示することができる。また、新たな表示領域を形成した後に残存する当該使用者の近くの領域(第三領域)に当該使用者が使用していた表示装置(第一領域)に表示されていた内容を表示することで、使用者は引き続き自身の近くで自身のための表示内容を閲覧することができる。よって、使用者及び新たな操作者は、新たな表示領域を形成した後に、それぞれ自身のための表示領域を閲覧することができる。
 また、例えば、前記表示制御部は、前記第三領域に表示される画像の表示方向を、前記第一領域に表示される画像の表示方向に一致する方向に決定するとしてもよい。
 これによれば、新たな操作者が現れる前に使用者が表示装置(第一領域)に表示させていた表示内容を、その表示方向のままで当該使用者が引き続き使用することができる。よって、使用者は、新たな表示領域を形成した後にも引き続き、自身のための表示領域を使用することができる。
 また、例えば、前記表示制御部は、前記第一領域に表示されていた画像を、前記第二領域及び前記第三領域のうち少なくとも一方に表示するとしてもよい。
 これによれば、新たな操作者が現れる前に使用者が表示装置(第一領域)に表示させていた表示内容を、分割の操作をした後に、使用者の近くの領域(第三領域)に表示することができる。同時に、新たな操作者が現れる前に使用者が表示装置(第一領域)に表示させていた表示内容を、分割の操作をした後に、新たな操作者の近くの領域(第二領域)に表示することができる。使用者及び新たな操作者の選択により、いずれかの方法を利用することができる。
 また、例えば、前記操作解析部は、前記第一領域内において2の前記指定位置が平行移動していることを検出した場合に、2の前記指定位置と、2の前記指定位置の並び方向及び移動方向とに基づいて、前記第二領域の位置と前記第二領域に表示される画像の表示方向とを決定するとしてもよい。
 これによれば、操作者の2本の指の平行移動による操作により、画面分割と新たな画面の画像の表示方向の決定を行うことができる。
 また、本発明の一態様にかかる表示方法は、画像を表示する表示部を備える表示装置における表示方法であって、操作者の2以上の指のそれぞれにより指定される前記表示部上の位置である指定位置を検出する操作検出ステップと、前記操作検出ステップにおいて、前記表示部の第一領域において2以上の前記指定位置が平行移動していることが検出された場合に、2以上の前記指定位置と、2以上の前記指定位置の移動方向とに基づいて、前記第一領域内に新たに生成される領域である第二領域の位置と前記第二領域に表示される画像の表示方向とを決定する操作解析ステップと、前記操作解析ステップにおいて決定された前記第二領域の位置と前記第二領域に表示される画像の表示方向とに従って、前記第二領域に画像を表示させるように前記表示部を制御する表示制御ステップとを含む。
 これにより、当該表示方法は、上記表示装置と同様の効果を奏する。
 また、本発明の一様態であるプログラムは、上記表示方法をコンピュータに実行させる。
 これにより、当該コンピュータは、上記表示装置と同様の効果を奏する。
 以下、本発明の一態様に係る表示装置について図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 以下、本発明の一態様に係る表示装置100について図面を用いて説明する。
 図1は、実施の形態1に係る表示装置の外観構成の一例を示す正面図である。図2は、実施の形態1の表示装置の機能構成の一例を示すブロック図である。
 図1及び図2に示されるように、表示装置100は、操作検出部101と、操作解析部102と、表示制御部103と、表示部104とを備える。
 操作検出部101は、表示装置100の画面表面と操作者の指との接触を検出する。操作検出部101は、操作者の指と画面表面とが接触した際、接触点の座標データのような検出情報を生成し、操作解析部102へ通知する。操作検出部101は、例えば、タッチパネルで実現される。なお、操作検出部101が検出する対象は、画面表面と操作者の指との直接的な接触に限られず、操作者の指による操作がスタイラスなどの物体を介して間接的に画面表面に伝えられる場合における、画面表面と当該物体との接触であってもよい。
 操作解析部102は、操作検出部101が生成した検出情報から、操作者の指と画面表面との接触点数、接触状態での移動方向または移動距離などを解析する。また、その解析結果から画面分割位置及び分割後の画像表示方向を決定する。
 表示制御部103は、操作解析部102が決定した画面分割位置及び分割後の画像表示方向などの情報に基づいて表示データを作成し、表示部104に表示データを送信する。
 表示部104は、表示制御部103からの画像表示情報に基づいて画像を表示する。ここで、図1において、表示部104の上部に操作検出部101であるタッチパネル(不図示)が配置されている。
 なお、表示装置100の具体例は、タブレット端末、大画面のタッチパネル搭載ディスプレイ、スマートフォン、または、携帯電話端末などである。
 以下、本実施の形態の表示装置の動作について図3から図6を用いて説明する。
 図3は、操作解析部102の動作を示すフローチャートである。図4は、実施の形態1に係る画面分割前の表示装置の状態を示す図である。図5は、実施の形態1に係る参入者の操作の一例を示す図である。図6は、実施の形態1に係る画面分割後の状態を示す図である。
 本実施の形態では、図4に示されるように、使用者U1が位置Dにおいて表示装置100(表示領域401)を使用している時に、位置Bに新たな使用者である参入者U2が参入する際に、位置Aから位置Cを結ぶ直線に沿って画面を分割する場合の例を説明する。また、画面分割のための分割操作は、参入者U2の人差し指及び中指の2本の指による操作を例として説明する。なお、上記の分割操作について、表示部の第一領域内に新たに第二領域を生成する、と表現することもできる。
 また、操作者は、分割の境界線とする線に沿って、表示部上で指を滑らせるという直感的な操作により、分割の境界線を指定する。ここで、画面を左右の領域に分割する場合には、分割の境界線とする線に沿って、操作者から見て画面上の上から下への方向(奥から手前への方向)に指を滑らせる操作が自然である。また、画面を上下(奥と手前)に分割する場合には、右利きの操作者の場合、操作者から見て画面上の左から右への方向に指を滑らせる操作が自然である。なお、左利きの操作者の場合は、操作者から見て画面上の右から左への方向に指を滑らせる操作が自然である。操作者の利き手は、あらかじめ設定されていてもよい。また、ユーザ認証などにより操作者を識別し、あらかじめ定められた操作者の利き手情報を用いて利き手を判定してもよい。
 本実施の形態について、より詳細に説明する。まず、参入者U2が参入する前に位置Dに使用者U1が存在する。画像表示方向は、画面中央から位置Dへ向かう方向となっている。ここで、画像表示方向とは、画像(表示内容)の上から下へ向かう方向のことである。
 次に、図5に示されるように、参入者U2が位置Bに参入する。参入者U2は、2本の指(例えば、人差し指と中指)を位置A付近に接触させ、2本の指を接触させたまま位置Cの方向に向かって移動させることにより画面を分割する。図5において、白丸は人差し指、黒丸は中指の接触位置を示している。
 以上の動作を実現させる処理について、図3のフローチャートを参照し以下で説明する。
 操作解析部102は、表示装置100が電源投入などにより起動された時に、操作開始位置をクリアする(ステップS301)。操作検出部101は、参入者の操作を検知すると、画面表面上の接触点の検出情報(例えは、座標データ)を生成し、操作解析部102に通知する。
 次に、操作解析部102は、操作検出部101から検出情報を通知されると(ステップS302)、通知された検出情報から画面表面上の接触点数(何点タッチされたか)を解析する。操作解析部102は、操作検出部101から検出情報を通知されるまで、待ち状態となる。
 次に、操作解析部102は、接触点数が2つであるか否かを判定する(ステップS303)。操作解析部102は、接触点数が2つであると判定した場合(ステップS303でY)、操作開始位置を保持しているか否かを判定する(ステップS304)。操作解析部102は、ステップS304で、操作開始位置を保持していないと判定した場合(ステップS304でN)には、検出された2つの接触点を操作開始位置として保持し(ステップS310)、ステップS302に戻る。
 操作解析部102はステップS303において、接触点数が2つではないと判定した場合(ステップS303でN)には、画面分割操作ではなく、表示装置における通常の操作が行われたと判定し、通常の操作解析処理(ステップS309)を行った後、ステップS301に戻る。ここで、操作解析部102は、ステップS303において、接触点数が0であると判定した場合には、分割操作が途中で終了したと判断する。
 操作解析部102は、ステップS304において、操作開始位置を保持していると判定した場合(ステップS304でY)には、検出された2つの接触点が平行移動しているか否かを判定する(ステップS305)。具体的には、操作解析部102は、操作開始位置と前回の検出点を結んだ線上に、今回検出された接触点がある場合に、平行移動したと判定する。なお、この判定においては、必ずしも今回検出された接触点が当該線上に存在しなくてもよい。つまり、操作開始位置及び前回の検出点を結んだ線から所定の距離以内の位置にあれば、平行移動したと判定するようにしてもよい。また、操作開始位置及び前回の検出点を結んだ線と、操作開始位置及び今回の検出点とを結んだ線とのなす角の角度が所定の角度以内であれば、平行移動したと判定するようにしてもよい。また、操作解析部102は、前回の検出点が存在しない場合には、平行移動したと判定するようにしてもよい。
 操作解析部102は、ステップS305において、検出された2つの接触点が操作開始位置より平行移動していないと判定した場合(ステップS305でN)には、画面分割操作ではなく、通常のピンチアウトなどの2点を同時に画面表面に接触させて行う操作などが行われたと判断し、通常の操作解析処理を行った後(ステップS309)、ステップS301に戻る。
 ステップS305において、操作解析部102は、2点が平行移動していると判定した場合(ステップS305でY)には、開始位置から検出された接触点までの平行移動距離と、予め設定されている既定距離との比較を行う(ステップS306)。操作解析部102は、ステップS306において、予め設定されている既定距離よりも平行移動距離が小さいと判断した場合(ステップS306でN)には、ステップS302に戻る。
 操作解析部102は、ステップS306において、平行移動された距離が既定距離以上であると判断した場合(ステップS306でY)には、画面分割の操作が完了したと判断し、参入者U2の位置特定を行う(ステップS307)。
 次に、操作解析部102は、表示装置100に対する参入者U2の位置を判定する。ここで、2点の平行移動方向が位置Aから位置Cへの方向であるのは、参入者U2が位置Bに参入して指を左から右(位置Aから位置C)に平行移動させた場合か、或いは、参入者U2が位置Cに参入して指を上から下(位置Aから位置C)に平行移動させた場合かのいずれかである。以下に示す処理により、上記のいずれの場合であるかを判定する。
 操作解析部102は、図5における操作開始点P1及びQ1の位置関係(並び方向)を解析する。操作解析部102は、人差し指及び中指の長さが異なることを利用し、候補位置(参入者が参入した位置の候補)より見て、左側の点が右側の点よりも候補位置に近い場合、その候補位置が参入位置であると判定する。以下で、具体的な判定処理について説明する。
 図5の場合で、候補位置を位置Bとし、以下のように判定を行う。位置Bから見て、左側の点であるQ1が、右側の点であるP1より候補位置である位置Bに近いことから、参入者U2が位置Bに参入したと判定する。このとき、Q1が人差し指、P1が中指、すなわち図5の白丸が人差し指、黒丸は中指の接触位置である。
 なお、候補位置を位置Cとすると、以下のように判定される。位置Cから見て、左側の点であるQ1が、右側の点であるP1より候補位置である位置Cから遠いことから、参入者U2が参入した位置は位置Cではないと判定される。よって、候補位置を位置Bとしたときの判定と矛盾しない。
 参入者U2の位置を特定すると、操作解析部102は、特定した参入者U2の参入位置と、画面分割のために指を移動させた方向の関係を解析し、画面分割方向と分割後の分割画面における画像表示方向とを決定し、画像表示方向情報として表示制御部103に通知する(ステップS308)。
 操作解析部102は、図6に示すように、画面分割方向(指の移動方向)が位置Aから位置Cの方向である場合、表示画面は位置D側の分割画面601と位置B側の分割画面602とに分割することを決定する。また、操作解析部102は、参入位置が位置Bであることから、分割後の新領域は参入位置に近い側である位置B側の分割画面602であり、分割前に使用中だった画面は位置Dの分割画面601に表示することを決定する。なお、分割画面601に表示される内容は、分割前の画面の内容を縮小したものでもよいし、従来と同一の大きさであってもよい。さらに、縮小されるか、または、従来と同一の大きさとするかをアプリケーションまたはデータ種別によって決定するようにしてもよい。また、分割画面602には、参入者のための画面を表示してもよい。分割画面602に表示される画面は、分割前の画面の内容と同一であってもよい。
 操作解析部102は、参入位置と分割後の分割画面の画像表示方向とを決定した後、参入位置が位置Bであることから、新領域に表示する際の画像表示方向は位置Dから位置Bの向きであり、使用中であった画面を表示する分割画面601に表示する画像表示方向は位置Bから位置Dの向きであることを決定する。操作解析部102は、決定した分割方向と分割画面における画像表示方向とを表示制御部103に通知する。
 表示制御部103は、操作解析部102から通知された分割方向及び画像表示方向の情報に基づいて、表示部104を制御し、図6に示されるように、位置D側と位置B側とのそれぞれに画面を2分割する。そして、位置D側の分割画面601には位置Bから位置Dの方向に画面表示し、位置B側の分割画面602には位置Dから位置Bの方向に画面表示を行う。
 以上で説明したように、本実施の形態においては、参入者が2本指を使用して直感的に画面分割を行うだけで、その移動方向と2本指の接触開始点の2点の位置関係から参入者の参入位置を特定し、画面分割後に適切な方向へ画面表示を行うことができる。
 なお、本実施の形態において、画面を分割するという表現を用いたが、表示部の第一領域内に新たな第二領域を生成すると表現することもできる。
 以上のように、本発明の一態様に係る表示装置によれば、新たに表示装置を使用しようとする操作者が、自身の2以上の指によって操作することにより、当該表示装置の表示領域(第一領域)に新たな表示領域(第二領域)を作成することができる。その際に、表示装置は、操作者の指の長さの差によって生ずる指定位置の相対的な位置関係と、指定位置の移動方向とに基づいて、当該新たな表示領域の表示の向きを操作者の存在する方向へ向けることができる。よって、画面表示方向の設定などによらずに、画面分割操作により新たに生成される表示領域の向きを操作者が存在する方向へ向けることができる。
 また、表示装置は、新たに表示装置を使用しようとする操作者の操作において、操作者の2以上の指の接触位置の並び方向と移動方向とに基づいて、当該操作者が存在する方向を推定する。そして、推定された方向に存在する操作者から使用される場合に自然な向きとなるように、新たな表示領域(第二領域)の表示方向を決定する。よって、画面分割操作により新たに生成される表示領域の向きを操作者が存在する方向へ向けることができる。
 また、操作者は、分割の操作をした後に形成される表示領域のうち自身に近い方を自身の表示領域として利用できる。よって、画面分割操作により新たに生成される表示領域が操作者の近くに形成され、別途位置調整などの操作をすることなく、操作者は当該表示領域を使用することができる。
 また、新たな操作者の近くに形成される新たな表示領域(第二領域)に、新たな操作者のための操作画面を表示することができる。また、新たな表示領域を形成した後に残存する当該使用者の近くの領域(第三領域)に当該使用者が使用していた表示装置(第一領域)に表示されていた内容を表示することで、使用者は引き続き自身の近くで自身のための表示内容を閲覧することができる。よって、使用者及び新たな操作者は、新たな表示領域を形成した後に、それぞれ自身のための表示領域を閲覧することができる。
 また、新たな操作者が現れる前に使用者が表示装置(第一領域)に表示させていた表示内容を、その表示方向のままで当該使用者が引き続き使用することができる。よって、使用者は、新たな表示領域を形成した後にも引き続き、自身のための表示領域を使用することができる。
 また、新たな操作者が現れる前に使用者が表示装置(第一領域)に表示させていた表示内容を、分割の操作をした後に、使用者の近くの領域(第三領域)に表示することができる。同時に、新たな操作者が現れる前に使用者が表示装置(第一領域)に表示させていた表示内容を、分割の操作をした後に、新たな操作者の近くの領域(第二領域)に表示することができる。使用者及び新たな操作者の選択により、いずれかの方法を利用することができる。
 また、操作者の2本の指の平行移動による操作により、画面分割と新たな画面の画像の表示方向の決定を行うことができる。
 (実施の形態2)
 実施の形態1では、使用者U1が位置Dにいる状態で、位置Bに参入者U2が参入してきた場合の分割表示方法について説明したが、本実施の形態では、使用者U3が位置Dにいる状態で、位置Aに参入者U4が参入してきた場合について説明する。
 実施の形態2では、図7に示すように、使用者U3が位置Dにおいて表示装置100(表示領域701)を使用している時に、参入者U4が位置Aに参入して画面を位置Cから位置Aの方向に分割する場合の例を説明する。
 まず、図7に示すように、参入前においては、位置Dに使用者U3が存在し、画面方向は位置Dの方向に向いている。次に、図8に示すように、参入者U4が位置Aに参入し、2本の指(例えば、人差し指と中指)を位置C付近に接触させて位置Aの方向に向かって移動させる。
 操作検出部101は、実施の形態1と同様の処理を行い、2本の指が画面表面と接触して移動する際の検出情報を生成して操作解析部102に通知する。操作解析部102は、検出情報に基づき参入者の位置特定を行う。
 次に、操作解析部102は、表示装置100に対する参入者U4の位置を判定する。ここで、2点の平行移動方向が位置Cから位置Aへの方向であるのは、参入者U4が位置Dに参入して指を左から右(位置Cから位置A)に平行移動させた場合か、或いは、参入者U4が位置Aに参入して指を上から下(位置Cから位置A)に平行移動させた場合かのいずれかである。以下に示す処理により、上記のいずれの場合であるかを判定する。
 操作解析部102は、図8における開始点P2及び開始点Q2の位置関係を解析する。操作解析部102は、人差し指及び中指の長さが異なることを利用し、候補位置より見て、左側の点が右側の点よりも候補位置に近い場合、その候補位置が参入位置であると判定する。以下で、具体的な判定処理について説明する。
 図8の場合、左側の点であるQ2が、右側の点であるP2より候補位置である位置Aに近いことから、参入者U4が位置Aに参入したと判定する。このとき、P2が中指、Q2が人指し指、すなわち図8の白丸は人差し指、黒丸は中指の接触位置である。
 なお、候補位置を位置Dとすると、以下のように判定される。位置Dから見て、左側の点であるP2が、右側の点であるQ2より候補位置である位置Dから遠いことから、参入者U4が参入した位置は位置Dではないと判定される。よって、候補位置を位置Aとしたときの判定と矛盾しない。
 参入者U4の位置を特定すると、操作解析部102は、特定した参入者U4の参入位置と、画面分割のために指を移動させた方向の関係を解析し、画面分割方向と分割後の分割画面における画像表示方向とを決定し、画像表示方向情報として表示制御部103に通知する。
 操作解析部102は、図9に示すように、画面分割方向(指の移動方向)が位置Cから位置Aの方向である場合、表示画面は位置D側の分割画面901と位置B側の分割画面902とに分割される。操作解析部102は、参入位置が位置Aであることから、分割後の新領域は位置B側の分割画面902であり、使用中だった従来の画面は位置Dの分割画面901に表示することを決定する。
 操作解析部102は、参入位置と分割後の新領域の位置とを決定した後、参入位置が位置Aであることから、新領域に表示する際の画像表示方向は位置Cから位置Aの向きであり、使用中であった画面を表示する分割画面901に表示する画像表示方向は位置Bから位置Dの向きであることを決定する。操作解析部102は、決定した分割方向と分割画面における画像表示方向とを表示制御部103に通知する。
 表示制御部103は、操作解析部102から通知された分割方向及び画像表示方向の情報に基づいて、表示部104を制御し、図9に示されるように、位置D側と位置B側とのそれぞれに画面を2分割する。そして、位置D側の分割画面901には位置Bから位置Dの方向に画面表示し、位置B側の分割画面902には位置Cから位置Aの方向に画面表示を行う。
 以上で説明したように、本実施の形態においては、参入者が2本指を使用して直感的に画面分割を行うだけで、その移動方向と2本指の接触開始点の2点の位置関係から参入者の参入位置を特定し、画面分割後に適切な方向へ画面表示を行うことができる。
 なお、本実施の形態においては、参入者は位置Dにいる使用者に対して、位置Aに参入してきた場合について説明したが、位置Cに参入してきた場合も同様の処理を行って、分割表示を行う。この場合、指の位置は、図8において、人差し指と中指とが反対の位置で、かつ指の方向が位置Aから位置Cとなり、分割後の分割画面902の画像表示方向が位置Aから位置Cとなる。
 また、本実施の形態の場合、使用者が位置Dに存在することから、参入者の位置が位置Dである場合を考慮することなく、位置Aと判定してもよい。
 また、参入者の位置が使用者の位置と同じでもよいことを許可する場合は、分割表示領域の画像表示方向が使用者の画面と同じ画像表示方向になる。例えば、図9において、参入者の位置が位置Dである場合は、分割画面902の画像表示方向は、分割画面901と同じ位置Bから位置Dの方向となる。
 (実施の形態3)
 実施の形態1では、使用者の正面に参入者が参入してきた場合について説明したが、本実施の形態では、使用者の正面に参入者が参入してきた場合の他の操作の例及び画面分割の例について説明する。
 実施の形態3では、図10に示すように、使用者U5が位置Cにおいて表示装置100(表示領域1001)を使用している時に、位置Aに参入者U6が参入したことにより、画面を位置Cから位置Aの方向に分割する場合を例にとって説明する。本実施の形態では、参入者U6が人差し指及び中指の2本の指を使って、分割操作をした場合を考える。
 まず、参入者が参入する前においては、位置Cに使用者が存在することから、図10に示すように、画面方向は位置Cの方向に向いている。次に、図11に示すように、参入者が位置Aに参入し、2本の指(例えば、人差し指と中指)を位置C付近に接触させ、2本の指を接触させたまま位置Aの方向に向かって移動させたとする。ここで、図11において、白丸は人差し指、黒丸は中指の接触位置を示している。
 操作検出部101は、実施の形態1と同様の処理を行い、2本の指が画面表面と接触して移動する際の検出情報を生成して操作解析部102に通知する。操作解析部102は、検出情報に基づき参入者の位置特定を行う。
 次に、操作解析部102は、表示装置100に対する参入者U6の位置を判定する。ここで、2点の平行移動方向が位置Cから位置Aへの方向であるのは、参入者U6が位置Dに参入して指を左から右(位置Cから位置A)に平行移動させた場合か、或いは、参入者U6が位置Aに参入して指を上から下(位置Cから位置A)に平行移動させた場合かのいずれかである。以下に示す処理により、上記のいずれの場合であるかを判定する。
 操作解析部102は、図11における開始点P3及び開始点Q3の位置関係を解析する。操作解析部102は、人差し指及び中指の長さが異なることを利用し、候補位置より見て、左側の点が右側の点よりも候補位置に近い場合、その候補位置が参入位置であると判定する。以下で、具体的な判定処理について説明する。
 図11の場合で、候補位置を位置Aとし、以下のように判定を行う。位置Aから見て、左側の点であるQ3が、右側の点であるP3より候補位置である位置に近いことから、参入者U6が位置Aに参入したと判定する。このとき、P3が中指、Q3が人指し指、すなわち図11の白丸は人差し指、黒丸は中指の接触位置である。
 なお、候補位置を位置Dとすると、以下のように判定される。位置Dから見て、左側の点であるP3が、右側の点であるQ3より候補位置である位置Dから遠いことから、参入者U6が参入した位置は位置Dではないと判定される。よって、候補位置を位置Aとしたときの判定と矛盾しない。
 参入者U6の位置を特定すると、操作解析部102は、特定した参入者U6の参入位置と、画面分割のために指を移動させた方向との関係を解析し、画面分割方向と分割後の分割画面における画像表示方向とを決定し、画像表示方向情報として表示制御部103に通知する。
 操作解析部102は、図12に示すように、画面分割方向(指の移動方向)が位置Cから位置Aの方向である場合、表示画面は位置D側の分割画面1201と位置B側の分割画面1202とに分割される。操作解析部102は、この場合、分割後の新領域は位置B側の分割画面1202とし、使用中だった従来の画面は位置D側の分割画面1201に表示することを決定する。なお、分割後の新領域を分割画面1201とし、使用中だった従来の画面を分割画面1202に表示することを決定してもよい。
 操作解析部102は、参入位置と分割後の新領域の位置とを決定した後、参入位置が位置Aであることから、新領域に表示する際の画像表示方向は位置Cから位置Aの向きであり、使用中であった画面を表示する分割画面1201に表示する画像表示方向は位置Aから位置Cの向きであることを決定する。操作解析部102は、決定した分割方向と分割画面における画像表示方向を表示制御部103に通知する。
 表示制御部103は、操作解析部102から通知された分割方向と、画像表示方向の情報に基づいて、表示部104を制御し、図12に示されるように、位置Dと位置B側に画面を2分割する。分割後、位置D側の分割画面1201には位置Aから位置Cの方向に画面表示し、位置B側の分割画面1202には位置Cから位置Aの方向に画面表示を行う。
 なお、図13に示されるように、表示装置100(表示領域1301)に対して使用者U7と同じ側である位置Aに参入者U8が参入することも可能である。この場合、参入者U8は位置Cから位置Aの方向に画面を分割する。参入者の指の操作及びその操作を認識する処理は、上記と同様である。
 このようにすると、図14に示されるように、参入者U8のための新領域が形成される。つまり、表示画面は位置D側の分割画面1401と位置B側の分割画面1402とに分割される。画面後の画面1402の画像表示方向は、参入者U8の位置の向きとなる。
 なお、このような場合に、位置D側の分割画面1401と位置B側の分割画面とのどちらに使用者のための画面を表示させるか(どちらに参入者のための画面を表示させるか)について、あらかじめ設定しておき、当該設定に従って決定するようにしてもよい。
 以上により、参入者が2本指を使用して直感的に画面分割を行うだけで、その移動方向と2本指の接触開始点の2点の位置関係から参入者の参入位置を特定し、画面分割後に適切な方向へ画面表示を行うことができる。
 なお、各実施の形態においては、画面分割する際に使用する指として、人差し指及び中指の2本指を使用する場合について説明したが、他の2本指、又は、2本以上の指を使用してもよい。他の2本指、または2本以上の指の場合も、各指の位置関係から参入者の位置を特定することができる。
 また、2本以上の指を使用した場合、その2本以上の指のうちの2本の指の位置から参入者の位置を特定してもよい。
 また、画面分割を解除することに関しては、分割時と同じ操作、つまり、分割された画面の境界線上付近に沿って、画面分割した際と同じ方向に2本以上の指を移動させることで、画面分割を解除してもよい。また、分割時と逆の方向に指を移動させることで解除してもよい。解除の操作方法にはこれら以外の方法を用いてもかまわない。
 また、各実施の形態における表示装置は、画像を表示可能な表示部を有する機器であればよい。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の画像復号化装置などを実現するソフトウェアは、次のようなプログラムである。
 すなわち、このプログラムは、コンピュータに、画像を表示する表示部を備える表示装置における表示方法であって、操作者の2以上の指のそれぞれにより指定される前記表示部上の位置である指定位置を検出する操作検出ステップと、前記操作検出ステップにおいて、前記表示部の第一領域において2以上の前記指定位置が平行移動していることが検出された場合に、2以上の前記指定位置と、2以上の前記指定位置の移動方向とに基づいて、前記第一領域内に新たに生成される領域である第二領域の位置と前記第二領域に表示される画像の表示方向とを決定する操作解析ステップと、前記操作解析ステップにおいて決定された前記第二領域の位置と前記第二領域に表示される画像の表示方向とに従って、前記第二領域に画像を表示させるように前記表示部を制御する表示制御ステップとを実行させる。
 本発明の表示装置は、複数の操作者が1台の端末を利用する際に有用である。
 100 表示装置
 101 操作検出部
 102 操作解析部
 103 表示制御部
 104 表示部

Claims (9)

  1.  画像を表示する表示部と、
     操作者の2以上の指のそれぞれにより指定される前記表示部上の位置である指定位置を検出する操作検出部と、
     前記操作検出部が、前記表示部の第一領域において2以上の前記指定位置が平行移動していることを検出した場合に、2以上の前記指定位置と、2以上の前記指定位置の移動方向とに基づいて、前記第一領域内に新たに生成される領域である第二領域の位置と前記第二領域に表示される画像の表示方向とを決定する操作解析部と、
     前記操作解析部が決定した前記第二領域の位置と前記第二領域に表示される画像の表示方向とに従って、前記第二領域に画像を表示させるように前記表示部を制御する表示制御部とを備える
     表示装置。
  2.  前記操作解析部は、
     2以上の前記指定位置の並び方向及び移動方向に基づいて、前記表示装置から見た前記操作者の方向を推定し、当該方向を前記第二領域に表示される画像の表示方向として決定する
     請求項1に記載の表示装置。
  3.  前記操作解析部は、
     2以上の前記指定位置の並び方向及び移動方向に基づいて、前記表示装置から見た前記操作者の方向を推定し、前記第一領域が前記指定位置の軌跡に対応する線により分割されて形成される領域のうち前記操作者に近い方の領域を前記第二領域の位置として決定する
     請求項1または請求項2に記載の表示装置。
  4.  前記表示制御部は、
     前記第一領域に表示されていた画像を、前記第一領域内の領域であって前記第二領域に含まれない領域である第三領域に表示し、前記操作者のための画像を前記第二領域に表示する
     請求項1~3のいずれか1項に記載の表示装置。
  5.  前記表示制御部は、
     前記第三領域に表示される画像の表示方向を、前記第一領域に表示される画像の表示方向に一致する方向に決定する
     請求項4に記載の表示装置。
  6.  前記表示制御部は、
     前記第一領域に表示されていた画像を、前記第二領域及び前記第三領域のうち少なくとも一方に表示する
     請求項4または請求項5に記載の表示装置。
  7.  前記操作解析部は、
     前記第一領域内において2の前記指定位置が平行移動していることを検出した場合に、2の前記指定位置と、2の前記指定位置の並び方向及び移動方向とに基づいて、前記第二領域の位置と前記第二領域に表示される画像の表示方向とを決定する
     請求項1~6のいずれか1項に記載の表示装置。
  8.  画像を表示する表示部を備える表示装置における表示方法であって、
     操作者の2以上の指のそれぞれにより指定される前記表示部上の位置である指定位置を検出する操作検出ステップと、
     前記操作検出ステップにおいて、前記表示部の第一領域において2以上の前記指定位置が平行移動していることが検出された場合に、2以上の前記指定位置と、2以上の前記指定位置の移動方向とに基づいて、前記第一領域内に新たに生成される領域である第二領域の位置と前記第二領域に表示される画像の表示方向とを決定する操作解析ステップと、
     前記操作解析ステップにおいて決定された前記第二領域の位置と前記第二領域に表示される画像の表示方向とに従って、前記第二領域に画像を表示させるように前記表示部を制御する表示制御ステップとを含む
     表示方法。
  9.  請求項8の表示方法をコンピュータに実行させるためのプログラム。
PCT/JP2012/003961 2012-01-27 2012-06-18 表示装置および表示方法 WO2013111202A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012548265A JP5248715B1 (ja) 2012-01-27 2012-06-18 表示装置および表示方法
US13/793,484 US8963867B2 (en) 2012-01-27 2013-03-11 Display device and display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-015183 2012-01-27
JP2012015183 2012-01-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/793,484 Continuation US8963867B2 (en) 2012-01-27 2013-03-11 Display device and display method

Publications (1)

Publication Number Publication Date
WO2013111202A1 true WO2013111202A1 (ja) 2013-08-01

Family

ID=48872981

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003961 WO2013111202A1 (ja) 2012-01-27 2012-06-18 表示装置および表示方法

Country Status (2)

Country Link
JP (1) JP5248715B1 (ja)
WO (1) WO2013111202A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161866A (ja) * 2015-03-04 2016-09-05 セイコーエプソン株式会社 表示装置および表示制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257220A (ja) * 2006-03-22 2007-10-04 Matsushita Electric Ind Co Ltd 表示装置
JP2010097473A (ja) * 2008-10-17 2010-04-30 Sony Corp 表示装置、表示方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257220A (ja) * 2006-03-22 2007-10-04 Matsushita Electric Ind Co Ltd 表示装置
JP2010097473A (ja) * 2008-10-17 2010-04-30 Sony Corp 表示装置、表示方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161866A (ja) * 2015-03-04 2016-09-05 セイコーエプソン株式会社 表示装置および表示制御方法

Also Published As

Publication number Publication date
JP5248715B1 (ja) 2013-07-31
JPWO2013111202A1 (ja) 2015-05-11

Similar Documents

Publication Publication Date Title
US9652146B2 (en) Ergonomic motion detection for receiving character input to electronic devices
JP6215534B2 (ja) 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
US8686946B2 (en) Dual-mode input device
JP4734435B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
EP2474896A2 (en) Information processing apparatus, information processing method, and computer program
KR102205283B1 (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
KR20140047515A (ko) 데이터 입력을 위한 전자 장치 및 그 운용 방법
US9778780B2 (en) Method for providing user interface using multi-point touch and apparatus for same
TW200941303A (en) Multi-object direction touch selection method and device, electronic device, computer accessible recording media and computer program product
US8963867B2 (en) Display device and display method
JP5248715B1 (ja) 表示装置および表示方法
US20140225854A1 (en) Display Apparatus, Display Method, and Program
KR102067295B1 (ko) 전자 장치, 표시 제어 방법, 및 기록 매체
US20180300035A1 (en) Visual cues for scrolling
JP2018023792A (ja) ゲーム装置及びプログラム
CN104516653A (zh) 电子设备以及显示信息的方法
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
JP5769841B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP5841023B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP6126639B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置及びゲームプログラム。
JP5795113B1 (ja) ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP5523381B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP6204414B2 (ja) ゲーム装置及びプログラム
WO2014013752A1 (ja) 表示装置とその制御方法、および、プログラム
JP5769765B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2012548265

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12866785

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12866785

Country of ref document: EP

Kind code of ref document: A1