WO2015068709A1 - 表示装置及びプログラム - Google Patents

表示装置及びプログラム Download PDF

Info

Publication number
WO2015068709A1
WO2015068709A1 PCT/JP2014/079292 JP2014079292W WO2015068709A1 WO 2015068709 A1 WO2015068709 A1 WO 2015068709A1 JP 2014079292 W JP2014079292 W JP 2014079292W WO 2015068709 A1 WO2015068709 A1 WO 2015068709A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
boundary line
display screen
touch position
display
Prior art date
Application number
PCT/JP2014/079292
Other languages
English (en)
French (fr)
Inventor
加納英和
北田宏明
井上貴文
斉藤誠人
森健一
Original Assignee
株式会社村田製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社村田製作所 filed Critical 株式会社村田製作所
Publication of WO2015068709A1 publication Critical patent/WO2015068709A1/ja
Priority to US15/098,739 priority Critical patent/US10120486B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present invention relates to a display device and a program that accept a touch operation on a display screen.
  • Patent Document 1 discloses a display device capable of displaying a plurality of videos on a display device.
  • the display device described in Patent Literature 1 touches two points on the touch panel provided on the front surface of the display device within a predetermined time, and based on a line segment defined by the position coordinates of the two touched points.
  • the display screen is divided, and video images of different sources are displayed on the respective display screens.
  • Patent Literature 1 after designating one point, when an operation is performed such that the finger is released from the screen and another one point is designated, a divided region having an unintended size is formed for the user. In addition, there is a risk of division at an unintended position.
  • an object of the present invention is to provide a display device and a program that can divide a display screen at a desired position and that can divide the divided display screen into a desired position.
  • the display device includes a touch position detection unit that detects a touch position on the display screen, a press detection unit that detects that the display screen is pressed, and the press detection unit that detects a press.
  • a display screen dividing means for setting a boundary line based on the touch position detected by the touch position detecting means, and dividing the display screen into a first screen and a second screen based on the boundary line;
  • a first control unit that performs display control for one screen and a second control unit that performs display control for the second screen are provided.
  • the display screen can be divided into the first screen and the second screen at the boundary line based on the position where the display screen is pressed, and image display control can be performed on each screen.
  • image display control can be performed on each screen.
  • a boundary line automatic setting unit configured to set a boundary line extending from the touch position in a preset direction when the touch position is in the vicinity of an end of the display screen when the press detection unit detects a press;
  • the display screen dividing means divides the display screen on the basis of the boundary line set by the boundary line automatic setting means.
  • the boundary line can be automatically set in a predetermined direction, so that the display screen can be easily divided.
  • the touch position detecting means detects the touch position as needed, and the display screen dividing means divides the display screen based on the changed touch position when the touch position detected by the touch position detecting means changes. It is preferable to do so.
  • the user can easily set the first screen and the second screen to a desired size or shape. For example, when drawing a boundary line on the display screen and dividing the display screen into the first screen and the second screen with the boundary line as the boundary, the user touches an arbitrary position on the display screen and then sets the boundary line
  • the first screen and the second screen having a desired size or shape can be set by moving the touch position in the desired direction.
  • the display device has a touch position when it is detected that the press detection means is pressed as a start point, an end point determination means for determining an end point of the touch position to be changed, the start point, and the end point determination means Boundary line setting means for setting a boundary line passing through the end point, and the display screen dividing means divides the display screen based on the boundary line set by the boundary line setting means. Is preferred.
  • a boundary line that divides the display area into the first screen and the second screen can be easily set.
  • the boundary line can be set by moving the touch position from an arbitrary point (start point) in the display area to another point (end point) (sliding a finger or the like).
  • start point an arbitrary point
  • end point another point
  • the finger or the like is slid from the start point to the end point without leaving the display area, the user can easily grasp the boundary line to be set.
  • the boundary line setting means sets a straight boundary line.
  • the user can set a straight boundary line without sliding the finger linearly.
  • the boundary line setting means sets a boundary line along the locus of the touch position that changes.
  • the boundary line between the first screen and the second screen can be curved or straight, and the boundary line can be set freely.
  • the boundary line setting means is a boundary that forms a closed region based on the locus on the loop when the locus of the touch position is in a loop shape and the end point determined by the end point determining means is within a predetermined range from the start point. It is preferable to set a line.
  • the first screen can be formed in the second screen (or the second screen can be formed in the first screen).
  • the first screen can be formed in the second screen (or the second screen can be formed in the first screen).
  • you want to set the first screen in a rectangular shape you cannot form a closed area with the boundary line unless the start point and the end point match when setting the boundary line, but if the end point is near the start point, By assuming that it coincides with the start point, there is no need to change the touch position (slide the finger) so that the first screen is completely closed. Thereby, the 1st screen (or 2nd screen) of a closed region can be formed easily.
  • the display device includes a boundary line moving unit that moves the boundary line.
  • the display screen dividing unit is configured to divide the display screen when the press detection unit continues to detect a press while the touch position is changed. Since the display screen is divided when the touch position is changed, it is possible to prevent the display screen from being divided against the user's intention.
  • the press detection means preferably includes a flat film-like piezoelectric film provided along the plane of the operation region and formed from a chiral polymer.
  • the chiral polymer is preferably polylactic acid.
  • the body temperature of the user's finger may be transmitted to the piezoelectric film and affect the detection by the piezoelectric film, but polylactic acid having no pyroelectricity is used. Thus, it is possible to accurately detect the pressing by the piezoelectric film.
  • the chiral polymer is preferably L-type polylactic acid.
  • the body temperature of the user's finger is transmitted to the piezoelectric film, which may affect the detection by the piezoelectric film, but L-type polylactic acid that does not have pyroelectricity By using this, it is possible to accurately detect pressing by the piezoelectric film.
  • the display screen can be divided into the first screen and the second screen at the boundary line based on the position where the display screen is pressed, and image display control can be performed on each screen.
  • image display control can be performed on each screen.
  • FIG. 1 The figure for demonstrating the display mode of the portable terminal device which concerns on Embodiment 1.
  • FIG. 1 The figure for demonstrating the display mode of the portable terminal device which concerns on Embodiment 1.
  • FIG. 1 The figure for explaining the case where the boundary line which inclines is set Diagram for explaining the case of setting a bent boundary line
  • FIG. 1 The figure for demonstrating the case where the boundary line which forms a closed region is set External perspective view of portable terminal device according to embodiment Sectional view taken along line AA in FIG.
  • Block diagram showing configuration of arithmetic circuit module Flow chart of processing executed in arithmetic circuit module The figure which shows the flowchart of screen division processing The figure for explaining the case where the display screen is divided into three Figure for explaining the case of changing the set boundary Block diagram showing configuration of arithmetic circuit module Flow chart of processing executed in arithmetic circuit module The figure for explaining the case where a boundary is set by pressing one point Block diagram showing configuration of arithmetic circuit module Flow chart of processing executed in arithmetic circuit module
  • the portable terminal device is a portable electronic device that can be operated via a touch panel. Examples thereof include a mobile phone, a tablet-type terminal device, and a music player.
  • the mobile terminal device 1 includes a substantially rectangular parallelepiped housing 50.
  • casing 50 be an X direction
  • the direction (height direction) orthogonal to it be a Y direction
  • the thickness direction of the housing 50 is defined as the Z direction.
  • the mobile terminal device 1 has a display screen 2. On the display screen 2, an image having contents corresponding to the function executed by the mobile terminal device 1 is displayed. For example, when the mobile terminal device 1 is executing the television function, a television image is displayed on the display screen 2, and when the mobile terminal device 1 is executing the web browsing function, the display screen 2 is displayed. Displays a browser image.
  • the mobile terminal device 1 accepts a touch operation by the user.
  • the touch operation refers to an operation performed by the user with the finger (or dedicated pen) on the display screen 2.
  • a resin protective cover is provided so as to cover the display screen 2, and the touch operation refers to touching or pressing the protective cover.
  • touching the protective cover includes a case where the user's finger does not actually contact the protective cover, and the case where the protective cover and the finger are in contact via capacitance.
  • a parameter indicating how much the protective cover is pressed is referred to as a pressing amount.
  • the user performs a predetermined touch operation on the display screen 2, thereby changing the display screen 2 to the first screen 3 as shown in the lower part of FIG. 1.
  • the second screen 4 can be divided into two. Note that the division of the display screen 2 means that images having contents corresponding to the two functions can be simultaneously displayed on one screen.
  • the display screen 2 is not divided, only an image having a content corresponding to one function executed by the mobile terminal device 1 is displayed.
  • the first screen 3 and the second screen 4 are displayed.
  • images with contents corresponding to different functions can be displayed simultaneously.
  • the search function execution image can be displayed on the first screen 3 and the TV image can be displayed on the second screen 4.
  • an image for the same function may be displayed on each of the first screen 3 and the second screen 4.
  • a touch operation for dividing the display screen 2 (hereinafter, referred to as a division operation) is performed by pressing any point on the display screen 2 with the user's finger, and the finger is moved in the Y direction It is performed by being slid substantially linearly along.
  • a linear boundary line 2B is set on the display screen 2 along the locus 2A (shown by a broken line in the figure) of the slide user's finger.
  • the display screen 2 is divided into a first screen 3 and a second screen 4 with reference to the boundary line 2B.
  • This split operation may be an operation of sliding a finger while being pressed at the start of the operation, or pressing the finger only at the start of the operation and then not pressing it, that is, a state where the finger only touches the screen. It may be an operation of sliding a finger.
  • the boundary line 2B is set linearly. Even if the start position and the end position of the division operation are not the end of the display screen 2, the boundary line 2B is set from the end to the end of the display screen 2. Furthermore, even if the end position of the division operation in the X direction is different from the start position, if the distance in the X direction between the start position and the end position is equal to or less than a threshold (for example, 1 cm), the boundary line is A straight boundary line 2B passing through the position and parallel to the Y direction is set. For this reason, the user does not need to perform a careful division operation such as sliding the display screen 2 in a straight line parallel to the Y direction without wobbling the finger from end to end.
  • a threshold for example, 1 cm
  • the display screen 2 When the display screen 2 is divided into the first screen 3 and the second screen 4, as shown in the upper part of FIG. 2, an operation opposite to the division operation, that is, the boundary from the end position of the division operation to the start position is performed.
  • the first screen 3 and the second screen 4 By tracing the line 2B, the first screen 3 and the second screen 4 can be combined as shown in the lower part of FIG.
  • the touch operation in which the finger is slid along the boundary line 2B is referred to as a combination operation.
  • This combining operation may be an operation opposite to the dividing operation as described above, or may be an operation of tracing on the boundary line 2B regardless of the direction.
  • the display screen 2 is divided into the first screen 3 and the second screen 4 and the images are displayed on the first screen 3 and the second screen 4 respectively, so that the user can perform the two processes in parallel. Can be executed.
  • the boundary line 2B along the finger locus 2A is set, the user can easily understand how the display screen 2 is divided by the division operation performed by the user.
  • the first screen 3 and the second screen can be combined by a combining operation that traces the boundary line 2B, the user resets the portable terminal device 1 when the user wants to return the divided screens together. No need for trouble.
  • 1 and 2 show an example in which a straight boundary line 2B along the Y direction is set, the boundary line is not limited to a straight line along the Y direction.
  • FIG. 3 is a diagram for explaining a case where an inclined boundary line is set.
  • the boundary line 2C inclined from the X direction and the Y direction is set by the user sliding his / her finger in a direction inclined with respect to the X direction and the Y direction. Then, the display screen 2 is divided into a first screen 3 and a second screen 4 on the basis of the boundary line 2C.
  • FIG. 4 is a diagram for explaining a case where a bent boundary line is set.
  • the user can slide the finger along the Y direction from the start position of the division operation, and then slide the finger along the X direction to set the bent boundary line 2D. Then, the display screen 2 is divided into a first screen 3 and a second screen 4 on the basis of the boundary line 2D.
  • FIG. 5 is a diagram for explaining a case where a boundary line forming a closed region is set.
  • the boundary line 2E is set by sliding the finger in a loop shape (rectangular shape in the drawing) so as to form a closed region from the start position X1 of the division operation.
  • the end position X2 of the division operation is within a predetermined range from the start position X1, it is considered that the start position X1 and the end position X2 substantially coincide with each other, and a loop boundary line 2F that forms a closed region is set. Is done. For this reason, the user does not need to slide the finger accurately so that the closed region is formed, and can easily set the loop-shaped boundary line 2F.
  • the display screen 2 is divided into a first screen 3 and a second screen 4 based on the boundary line 2E.
  • the boundary line 2E is rectangular, but it may be circular.
  • FIG. 6 is an external perspective view of the mobile terminal device 1 according to the present embodiment.
  • FIG. 7 is a cross-sectional view taken along line AA in FIG.
  • the casing 50 is formed with an opening (not shown), and an operation surface 51 for receiving a touch operation and a pressing operation by a user is provided in the opening.
  • the operation surface 51 is a resin protective cover provided to cover the display screen 2 described above.
  • a display input unit 10 is provided in the housing 50 on the back side of the operation surface 51.
  • the display input unit 10 includes a press sensor unit 20, a display panel unit 30, and a position detection sensor unit 40.
  • a mounting board (not shown) is disposed on the rear side of the display input unit 10, and the arithmetic circuit module 60 is mounted on the mounting board.
  • the display panel unit 30 includes a flat liquid crystal panel 301, a front polarizing plate 302, a back polarizing plate 303, and a backlight 304.
  • the driving electrode is applied from the outside, and the alignment state of the liquid crystal changes so as to form a predetermined image pattern.
  • the display screen 2 is a screen displayed on the liquid crystal panel 301.
  • the front polarizing plate 302 and the back polarizing plate 303 are arranged so as to sandwich the liquid crystal panel 301 therebetween.
  • the backlight 304 is disposed on the opposite side of the liquid crystal panel 301 with the back polarizing plate 303 interposed therebetween.
  • the pressure sensor unit 20 and the position detection sensor unit 40 are disposed between the liquid crystal panel 301 and the surface polarizing plate 302 of the display panel unit 30, the pressure sensor unit 20 and the position detection sensor unit 40 are disposed.
  • the position detection sensor unit 40 is located on the surface polarizing plate 302 side, and the pressure sensor unit 20 is located on the liquid crystal panel 301 side.
  • a translucent insulating layer 501 is formed between the pressure sensor unit 20 and the display panel unit 30.
  • the press sensor unit 20 and the position detection sensor unit 40 may be provided between the surface polarizing plate 302 and the operation surface 51.
  • the position detection sensor unit 40 includes a flat insulating substrate 401.
  • the insulating substrate 401 is made of a material having translucency and not birefringence.
  • a plurality of electrodes 402 are formed on one plane of the insulating substrate 401.
  • a plurality of electrodes 403 are formed on the other plane.
  • the plurality of electrodes 402 are long and long in the X direction, and are arranged at intervals along the Y direction.
  • the plurality of electrodes 403 are long and long in the Y direction, and are arranged at intervals along the X direction. That is, the plurality of electrodes 402 and 403 are arranged so as to intersect at approximately 90 ° when viewed from the Z direction.
  • the plurality of electrodes 402 and 403 are made of a light-transmitting material.
  • Each of the electrodes 402 and 403 of the position detection sensor unit 40 forms a pair, and detects a change in capacitance when a user's finger or the like approaches the operation surface 51.
  • the pair of electrodes 402 and 403 that has detected a change in capacitance outputs one of the electrodes 402 and 403 as a reference potential and outputs a capacitance detection signal corresponding to the change in capacitance.
  • the output electrostatic capacitance detection signal is input to the arithmetic circuit module 60 via a wiring (not shown).
  • the press sensor unit 20 includes a flat film-like piezoelectric film 201. Electrodes 202 and 203 are formed on both flat plate surfaces of the piezoelectric film 201. The electrodes 202 and 203 are formed on substantially the entire flat plate surface of the piezoelectric film 201.
  • the piezoelectric film 201 is a film formed from a chiral polymer.
  • polylactic acid (PLA) particularly L-type polylactic acid (PLLA) is used as the chiral polymer.
  • PLLA is uniaxially stretched. Since the chiral polymer has higher transparency than PVDF, the image displayed on the display panel unit 30 is easily visible by forming the piezoelectric film 201 from the chiral polymer.
  • PLLA made of chiral polymer has a helical structure in the main chain.
  • PLLA has piezoelectricity when uniaxially stretched and molecules are oriented.
  • the uniaxially stretched PLLA generates electric charges when the flat plate surface of the piezoelectric film 201 is pressed.
  • the amount of charge generated depends on the amount of displacement by which the flat plate surface is displaced in the direction orthogonal to the flat plate surface by the pressing amount.
  • PLLA generates piezoelectricity by molecular orientation treatment such as stretching, and does not need to be polled like other polymers such as PVDF or piezoelectric ceramics. That is, the piezoelectricity of PLLA that does not belong to ferroelectrics is not expressed by the polarization of ions like ferroelectrics such as PVDF and PZT, but is derived from a helical structure that is a characteristic structure of molecules. is there. For this reason, the pyroelectricity generated in other ferroelectric piezoelectric materials does not occur in PLLA.
  • PVDF or the like shows a change in piezoelectric constant over time, and in some cases, the piezoelectric constant may be significantly reduced, but the piezoelectric constant of PLLA is extremely stable over time. Therefore, it is possible to detect displacement due to pressing with high sensitivity without being affected by the surrounding environment.
  • the electrodes 202 and 203 are preferably any of inorganic electrodes such as ITO, ZnO, silver nanowires, carbon nanotubes, and graphene, and organic electrodes mainly composed of polythiophene, polyaniline, and the like. By using these materials, a highly translucent conductor pattern can be formed. By providing such electrodes 202 and 203, the charge generated by the piezoelectric film 201 can be acquired as a potential difference, and a pressing amount detection signal having a voltage value corresponding to the pressing amount can be output to the outside. The pressing amount detection signal is output to the arithmetic circuit module 60 via a wiring (not shown).
  • the operation surface 51, the pressure sensor unit 20, and the position detection sensor unit 40 have translucency, and an image displayed on the display panel unit 30 can be visually recognized through these.
  • the arithmetic circuit module 60 detects the touch position by the touch operation from the combination of the electrodes 402 and 403 that output the capacitance detection signal.
  • the arithmetic circuit module 60 calculates the pressing amount from the pressing amount detection signal output from the pressing sensor unit 20.
  • the arithmetic circuit module 60 determines that pressing on the operation surface 51 by the touch operation is performed when the pressing amount exceeds a threshold value. In other words, when the calculated pressing amount does not exceed the threshold value, the arithmetic circuit module 60 determines that the operation surface 51 is not pressed even if the operation surface 51 is pressed by the user. For this reason, in a touch operation, when there is no intention of the user pressing, it is possible to prevent the possibility of erroneous determination that the user has pressed.
  • FIG. 8 is a block diagram showing the configuration of the arithmetic circuit module 60.
  • the arithmetic circuit module 60 includes a control unit 61, a memory 62, a display control circuit 63, an input circuit 64, and the like.
  • the control unit 61 is a CPU or the like and controls the operation of the entire arithmetic circuit module 60 according to a program stored in the memory 62.
  • the memory 62 is a RAM, a ROM, or the like, stores a control program, and sequentially stores calculation processing results and the like.
  • the display control circuit 63 displays an image on the display panel unit 30 in accordance with a control signal from the control unit 61.
  • the input circuit 64 inputs a plurality of electrostatic capacitance detection signals from the position detection sensor unit 40, and inputs a pressing amount detection signal from the pressing sensor unit 20.
  • the control unit 61 executes a program stored in the memory 62 to thereby perform a touch position detection unit 621, a pressing amount detection unit 622, a start / end position determination unit 623, a boundary line setting unit 624, a screen division unit 625, and a screen combination.
  • the function of the unit 626 is provided.
  • the touch position detection unit 621 detects a touch position from a plurality of capacitance detection signals input from the input circuit 64. As described above, the capacitance detection signal is output from the set of electrodes 402 and 403 in which the capacitance change occurs during the user's touch operation. The touch position detection unit 621 detects a pair of electrodes 402 and 403 having the highest signal level from a plurality of capacitance detection signals.
  • the memory 62 stores information (position coordinates) in which a set of electrodes 402 and 403 and an operation input detection position are associated with each other. The touch position detection unit 621 reads position coordinates associated with the set having the highest signal level from the memory 62.
  • the pressing amount detection unit 622 detects the pressing amount by the user's touch operation from the pressing amount detection signal input from the input circuit 64. As described above, the pressing amount detection signal is output from the electrodes 202 and 203 due to a potential difference generated in the piezoelectric film 201 that is curved by pressing the operation surface 51 by the user's finger.
  • the memory 62 stores the signal level of the pressing amount detection signal and the pressing amount in association with each other.
  • the pressing amount detection unit 622 reads the pressing amount associated with the signal level of the input pressing amount detection signal from the memory 62.
  • the start / end position determination unit 623 determines the start position and the end position of the division operation when setting the boundary line.
  • the start / end position determination unit 623 determines whether or not the pressing amount detected by the pressing amount detection unit 622 is greater than or equal to a threshold value. Then, the start / end position determination unit 623 determines the detected position coordinates as the start position when the detected pressing amount is equal to or greater than the threshold value.
  • This threshold value can be changed as appropriate.
  • the detected position coordinate is not determined as the start position, so that it is possible to prevent a possibility that a touch operation unintended by the user is erroneously determined as a division operation.
  • the start / end position determination unit 623 determines the end position of the division operation after determining the start position.
  • the start / end position determination unit 623 may determine the coordinate position detected immediately before the touch position detection unit 621 no longer detects the coordinate position as the end position of the division operation.
  • the start / end position determination unit 623 may determine the position as the end position when the operation surface 51 is pressed at a touch position that the user wants to set as the end position with a pressing amount equal to or greater than a predetermined value. In this case, the end of the user's division operation can be clarified.
  • the boundary line setting unit 624 sets a boundary line. Specifically, the boundary line setting unit 624 extends from the start position determined by the start / end position determination unit 623 to the end position determined by the start / end position determination unit 623 along the locus 2A of the user's finger (see FIG. 1). Generate a line. At this time, when the locus 2A of the user's finger fluctuates in the X direction or the Y direction, that is, when the locus 2A is curved, the boundary line setting unit 624 makes the curved line portion of the locus 2A a straight line. to correct.
  • the boundary line setting unit 624 connects the boundary lines 2B and 2C connecting the start position and the end position along the finger trajectory. , 2D. At this time, if the start position and the end position are not the end of the display screen 2, the boundary line setting unit 624 extends the generated boundary line until the end of the display screen 2 is reached.
  • the boundary line setting unit 624 when the start position and the end position substantially coincide, the boundary line setting unit 624 generates a loop-shaped boundary line 2E along the finger trajectory.
  • the case where they substantially coincide is a case where the length of the straight line connecting the start position and the end position is, for example, 1 cm or less.
  • the screen dividing unit 625 divides the display screen 2 based on the boundary line set by the boundary line setting unit 624.
  • the display screen 2 is divided into a first screen 3 and a second screen 4 as shown in FIG.
  • the screen combining unit 626 detects the combining operation of the user and combines the first screen 3 and the second screen 4.
  • the screen combination unit 626 indicates that the position coordinate is on (or in the vicinity of) the set boundary line. It is determined whether or not the pressing amount detected by the pressing amount detection unit 622 at that time is equal to or greater than a threshold value.
  • the screen combining unit 626 acquires the position coordinates of the touch position detected by the touch position detecting unit 621 as needed, and the boundary It is determined whether or not the finger has been slid along the line.
  • the screen combining unit 626 When the finger is slid along the boundary line, the screen combining unit 626 combines the first screen 3 and the second screen 4 on the assumption that the combining operation has been performed by the user. Thereby, only the image of the content according to one function which the portable terminal device 1 performs is displayed on the display screen 2.
  • FIG. 9 is a diagram showing a flowchart of processing executed by the arithmetic circuit module 60.
  • the control unit 61 determines whether a touch operation has been performed, that is, whether a capacitance detection signal is input from the position detection sensor unit 40 (S1). When the touch operation is not performed (S1: NO), the control unit 61 proceeds to the process of S8. When the touch operation is performed (S1: YES), the control unit 61 determines whether or not the display screen 2 is divided (S2).
  • the position coordinate of the touch position is detected from the input capacitance detection signal (S3), and the pressing amount at that time is detected (S4).
  • the control unit 61 determines whether or not the pressing amount is a threshold value (S5). If the pressing amount is not equal to or greater than the threshold value (S5: NO), the control unit 61 determines that the touch operation is not a division operation and executes the process of S8. To do. If it is equal to or greater than the threshold (S5: YES), the control unit 61 executes a screen division process (S6).
  • FIG. 10 is a flowchart of the screen division process.
  • the control unit 61 determines the touch position detected in S3 as the start position of the division operation (S21). Next, the control unit 61 detects the touch position (S22), and determines whether or not the division operation is completed (S23). Whether or not the division operation has ended may be determined based on whether or not the touch position detection unit 621 has detected the touch position, or whether or not the operation surface 51 has been pressed with a pressing amount equal to or greater than a predetermined value. May be performed. When the division operation has not ended (S23: NO), the control unit 61 returns to the process of S22. In this manner, until the division operation is completed, the control unit 61 detects the touch position and detects the locus of the finger.
  • the control unit 61 determines the end position of the split operation (S24). In determining the end position, the touch position detected immediately before the touch position detecting unit 621 no longer detects the coordinate position may be determined as the end position, or the touch position where a pressing amount equal to or greater than a predetermined value is detected is ended. The position may be determined.
  • the control unit 61 sets a boundary line connecting the start position and the end position along the locus of the slid finger (S25). At this time, when the trajectory of the user's finger fluctuates in the X direction or the Y direction, that is, when the trajectory of the finger is curved, the control unit 61 corrects the trajectory to a straight line, A boundary line connecting the start position and the end position is generated along the trajectory.
  • the control unit 61 determines whether or not each of the start position and the end position of the division operation is an end of the display screen 2 (S26). When each of the start position and the end position is not the end of the display screen 2 (S26: NO), the control unit 61 extends the boundary line to the end of the display screen 2 (S27). And the control part 61 divides
  • the control unit 61 performs image display control of the divided first screen 3 and second screen 4 (S7). For example, the control unit 61 outputs the generated position coordinates of the first screen 3 and the second screen 4 to the display control circuit 63, and the display control circuit 63 follows the first screen 3 and the second screen according to the position coordinates. An image with two screens 4 is displayed.
  • the control unit 61 determines whether or not to end the process, such as turning off the power of the mobile terminal device 1 (S8). If not finished (S8: NO), the process returns to S1. When the process ends (S8: YES), this process ends.
  • the control unit 61 detects the position coordinates of the touch position from the input capacitance detection signal (S9).
  • the control unit 61 determines whether or not a combining operation has been performed (S10). Specifically, it is determined whether or not the touch position detected in S9 is located on (or in the vicinity of) the set boundary line, and the trajectory of the slid finger is along the boundary line.
  • the control unit 61 When the combining operation is performed (S10: YES), the control unit 61 combines the first screen 3 and the second screen 4 (S11). And the control part 61 performs process S7. When the joining operation is not performed (S10: NO), the control unit 61 executes the process S8.
  • the display screen 2 is divided into two, but the display screen 2 may be divided into three or more.
  • FIG. 11 is a diagram for explaining a case where the display screen 2 is divided into three parts.
  • a boundary line 2B is set by pressing the boundary line 2B with a finger and sliding the finger in the X direction from the position.
  • the second screen 4 is further divided into the third screen 4A and the fourth screen 4B, and the display screen 2 is divided into three.
  • the boundary line 2F when the start position is located on the boundary line 2B, a straight line from the start position to the end position is set as the boundary line 2F.
  • the display screen 2 is divided into a first screen 3, a third screen 4A, and a fourth screen 4B on the boundary lines 2B and 2F.
  • the boundary line is set by correcting it to a straight line, but the boundary line is set according to the locus of the user's finger without correction. You may do it.
  • FIG. 12 is a diagram for explaining a case where the set boundary line is changed.
  • the linear boundary line 2B along the Y direction When the linear boundary line 2B along the Y direction is set on the display screen 2, when the user presses an arbitrary position on the boundary line 2B with a finger and slides the finger in the state X direction, The boundary line 2B moves in the X direction together with the finger slide. As the boundary line 2B moves, the first screen 3 expands and the second screen 4 narrows. Thus, even after the first screen 3 and the second screen 4 are set once, the sizes of the first screen 3 and the second screen 4 can be easily changed.
  • the touch operation for changing the boundary line 2B is referred to as a change operation.
  • the configuration of the mobile terminal device 1 is the same as the configuration described in FIG. 6 and FIG.
  • FIG. 13 is a block diagram showing the configuration of the arithmetic circuit module 60.
  • the arithmetic circuit module 60 includes a control unit 61, a memory 62, a display control circuit 63, an input circuit 64, and the like.
  • the control unit 61 has functions of a touch position detection unit 621, a pressing amount detection unit 622, a start / end position determination unit 623, a boundary line setting unit 624, a screen division unit 625, and a boundary change unit 627 by executing a program. .
  • the boundary changing unit 627 determines whether the position coordinates detected by the touch position detecting unit 621 are on the boundary line 2B (or near the boundary line 2B) set by the boundary line setting unit 624. Determine. When the detected position coordinates are on the boundary line 2B, the boundary changing unit 627 determines that the performed touch operation is a change operation, and the subsequent touch position changes in the X direction. In addition, the position of the boundary line 2B is changed. When the changing operation ends, the boundary changing unit 627 sets the boundary line 2B so that the boundary line 2B is positioned on the end position of the changing operation.
  • the boundary changing unit 627 may determine that the change operation is ended when the touch position is not detected after the touch position has changed, or at a position where the user wants to end the change operation at a predetermined value or more. When the pressing amount is pressed, it may be determined that the changing operation is finished.
  • FIG. 14 is a diagram showing a flowchart of processing executed by the arithmetic circuit module 60.
  • the flowchart shown in FIG. 14 is executed in a state where the boundary 2B is set and the first screen 3 and the second screen 4 are set.
  • the control unit 61 determines whether or not a touch operation has been detected, that is, whether or not a capacitance detection signal has been input from the position detection sensor unit 40 (S31). When the touch operation is not detected (S31: NO), the control unit 61 executes the process of S29. When the touch operation is detected (S31: YES), the control unit 61 detects the position coordinates of the touch position from the input capacitance detection signal (S32), and detects the pressing amount at that time (S33).
  • the control unit 61 determines whether or not the detected touch operation is a change operation (S34). Specifically, the control unit 61 determines whether or not the touch position detected in S22 is on the boundary line 2B (or in the vicinity of the boundary line 2B) and the pressing amount detected in S33 is equal to or greater than a threshold value. . When the detected touch position is on the boundary line 2B and the detected pressing amount is greater than or equal to the threshold value, the control unit 61 determines that the detected touch operation is a change operation.
  • the control unit 61 executes the process of S39.
  • the detected touch operation is a change operation (S34: YES)
  • the moving process of the boundary line 2B is performed (S35). For example, the control unit 61 detects the touch position at any time, and moves the boundary line 2B according to the variation along the X direction of the touch position.
  • the control unit 61 determines whether or not the change operation has been completed (S36). When the touch position is no longer detected, the control unit 61 may determine that the changing operation has ended, or when the user presses the pressing operation with a predetermined amount or more at a position where the user wants to end the changing operation. You may determine with the end of.
  • the control unit 61 executes the process of S35.
  • the control unit 61 sets the boundary line 2B at the end position of the change operation (S37), and the first screen 3 and the second screen based on the set boundary line 2B. 4 is reset (S38). Thereby, the size of the first screen 3 and the second screen 4 once set can be changed.
  • the control unit 61 determines whether or not to end the process, such as turning off the power of the mobile terminal device 1 (S39). When not ending (S39: NO), control part 61 performs processing of S31. If the process is to be ended (S39: YES), this process ends.
  • the size of the first screen 3 and the second screen 4 set once can be changed by enabling the position of the boundary line to be changed.
  • the set boundary line may be deleted so that the first screen 3 and the second screen 4 can be combined.
  • FIG. 15 is a diagram for explaining a case where a boundary line is set by pressing one point.
  • a boundary line 2G extending from the pressed position in a predetermined direction (Y direction in the drawing) is set.
  • the setting operation becomes easy.
  • the pressing position may be near the end of the display screen 2 in the X direction.
  • the direction in which the boundary line is set from the pressed position may be the X direction, or may be a direction inclined in the X direction and the Y direction.
  • the configuration of the mobile terminal device 1 is the same as that described with reference to FIGS.
  • FIG. 16 is a block diagram showing a configuration of the arithmetic circuit module 60.
  • the arithmetic circuit module 60 includes a control unit 61, a memory 62, a display control circuit 63, an input circuit 64, and the like.
  • the control unit 61 has functions of a touch position detection unit 621, a press amount detection unit 622, a press position determination unit 628, a boundary line setting unit 629, and a screen division unit 625 by executing a program.
  • the press position determination unit 628 determines whether or not the press amount detected by the press amount detection unit 622 is greater than or equal to a threshold value. Then, the pressed position determination unit 628 determines whether or not the detected position coordinate is near the end of the display screen 2 when the detected pressing amount is equal to or greater than the threshold value.
  • the boundary line setting unit 629 sets a boundary line extending in a preset direction from the pressed position when the pressed position determining unit 628 determines that the pressed position is in the vicinity of the end of the display screen 2.
  • FIG. 17 is a diagram showing a flowchart of processing executed by the arithmetic circuit module 60.
  • the control unit 61 determines whether a touch operation has been performed, that is, whether a capacitance detection signal is input from the position detection sensor unit 40 (S41). When the touch operation is not performed (S41: NO), the control unit 61 proceeds to the process of S48. When a touch operation is performed (S41: YES), the control unit 61 detects the position coordinates of the touch position from the input capacitance detection signal (S42), and detects the pressing amount at that time (S43).
  • the control unit 61 determines whether or not the pressing amount is a threshold value (S44). If the pressing amount is not equal to or greater than the threshold value (S44: NO), the control unit 61 determines that the touch operation is not a division operation and executes the process of S48. To do. When it is equal to or greater than the threshold (S44: YES), the control unit 61 sets a boundary line extending in a predetermined direction from the touch position detected in S42 (S45).
  • the control unit 61 divides the display screen 2 into the first screen 3 and the second screen 4 based on the set boundary line (S46), and controls image display on the first screen 3 and the second screen 4, respectively. (S47). And the control part 61 determines whether a process is complete
  • the boundary line can be set and the display screen 2 can be divided by pressing only one point of the display screen 2.
  • the divided first screen 3 and second screen 4 may be combined, and the set boundary line may be changed as in the second embodiment. .
  • the boundary line is set when the end of the display screen 2 is pressed. However, even when the boundary is away from the end of the display screen 2, the boundary is set in advance. A boundary line extending in the specified direction may be set. Furthermore, a plurality of directions in which the boundary line extends may be prepared in advance so that the direction can be changed according to the pressing amount.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 携帯端末装置(1)は、表示画面(2)に対するタッチ位置を検出し、また、表示画面(2)が押圧されたことを検知する。押圧を検知したときのタッチ位置を基準とした境界線(2B)を設定する。境界線(2B)を基準に、表示画面(2)を第1画面(3)と第2画面(4)とに分割する。分割した第1画面(3)と第2画面(4)とのそれぞれに、携帯端末装置(1)が実行する機能に応じた画像を表示する。

Description

表示装置及びプログラム
 本発明は、表示画面へのタッチ操作を受け付ける表示装置及びプログラムに関する。
 近年、携帯電話機等の電子機器は、表示画面が大型化している。表示画面に複数の異なる情報を表示した場合、大型化した表示画面を有効活用することができる。特許文献1には、表示デバイスに複数の映像を表示することの可能な表示装置が開示されている。特許文献1に記載の表示装置は、表示デバイスの前面に設けられたタッチパネル上の2点を、所定時間内にタッチし、そのタッチされた2点の位置座標により定義される線分に基づいて、表示画面を分割し、それぞれの表示画面に互いに異なるソースの映像を表示する。
特開2007-241410号公報
 しかしながら、特許文献1に記載に記載のように、一点を指定した後、指を画面から離し、他の一点を指定するといった操作の場合、ユーザにとって、意図しない大きさの分割領域が形成され、また、意図しない位置で分割されるなどのおそれがある。
 そこで、本発明の目的は、所望の位置で表示画面を分割でき、また、分割した表示画面を所望の位置大きさにできる表示装置及びプログラムを提供することにある。
 本発明に係る表示装置は、表示画面に対するタッチ位置を検出するタッチ位置検出手段と、前記表示画面が押圧されたことを検知する押圧検知手段と、前記押圧検知手段が押圧を検知したときの、前記タッチ位置検出手段が検出したタッチ位置を基準とした境界線を設定し、前記境界線を基準に、前記表示画面を第1画面と第2画面とに分割する表示画面分割手段と、前記第1画面に対する表示制御を行う第1制御手段と、前記第2画面に対する表示制御を行う第2制御手段とを備えることを特徴とする。
 この構成では、表示画面を押圧した位置を基準とした境界線で、表示画面を第1画面及び第2画面に分割でき、それぞれの画面に対し画像表示制御を行える。表示画面を分割するには、表示画面の少なくとも一点を押圧すればよく、画面分割操作がユーザにとって容易である。
 前記押圧検知手段が押圧を検知したとき、前記タッチ位置が前記表示画面の端部近傍である場合、前記タッチ位置から予め設定された方向へ延びる境界線を設定する境界線自動設定手段、を備え、前記表示画面分割手段は、前記境界線自動設定手段が設定した境界線を基準に、前記表示画面を分割するようにしてあることが好ましい。
 この構成では、表示領域の端部を押圧すれば、所定の方向に境界線が自動で設定できるため、容易に表示画面を分割できる。
 前記タッチ位置検出手段は、タッチ位置を随時検出し、前記表示画面分割手段は、前記タッチ位置検出手段が検出したタッチ位置が変化した場合、変化した前記タッチ位置に基づいて、前記表示画面を分割するようにしてあることが好ましい。
 この構成では、第1画面と第2画面とを、ユーザが所望の大きさ又は形状に設定しやすい。例えば、表示画面に境界線を引き、その境界線を境に表示画面を第1画面と第2画面とに分割する場合、ユーザは、表示画面の任意の位置をタッチした後、境界線を設定したい方向にタッチ位置を移動させることで、所望の大きさ又は形状の第1画面と第2画面とを設定できる。
 前記表示装置は、前記押圧検知手段が押圧されたことを検知したときのタッチ位置を始点とし、変化するタッチ位置の終点を決定する終点決定手段と、前記始点と、前記終点決定手段が決定した終点とを通る境界線を設定する境界線設定手段と、を備え、前記表示画面分割手段は、前記境界線設定手段が設定した境界線を基準に、前記表示画面を分割するようにしてあることが好ましい。
 この構成では、表示領域を第1画面と第2画面と分割する境界線を容易に設定できる。具体的には、表示領域内の任意の点(始点)から他の点(終点)にタッチ位置を移動させる(指等をスライドさせる)ことで、境界線を設定できる。また、始点から終点まで、指等を表示領域から離すことなくスライドさせるため、ユーザは、設定する境界線を把握しやすい。
 前記境界線設定手段は一直線状の境界線を設定するようにしてあることが好ましい。
 この構成では、ユーザは、直線状に指をスライドさせなくても、一直線状の境界線が設定できる。
 前記境界線設定手段は、変化する前記タッチ位置の軌跡に沿った境界線を設定するようにしてあることが好ましい。
 この構成では、第1画面と第2画面との境界線を、曲線状にしたり、直線状にしたりでき、境界線を自由に設定できる。
 前記境界線設定手段は、タッチ位置の軌跡がループ状であり、前記終点決定手段が決定した終点が前記始点から所定範囲内にあるとき、前記ループ上の軌跡に基づいた閉領域を形成する境界線を設定するようにしてあることが好ましい。
 この構成では、第2画面内に第1画面を(又は、第1画面内に第2画面を)形成できる。例えば第1画面を矩形状に設定したい場合、その境界線の設定時に始点と終点とを一致させないと、境界線で閉じた領域を形成できないが、終点が始点近傍である場合には、終点が始点と一致するとみなすことで、第1画面が完全に閉じたようにタッチ位置を変化させる(指をスライドさせる)必要がない。これにより、閉領域の第1画面(又は、第2画面)を容易に形成できる。
 前記表示装置は、前記境界線を移動させる境界線移動手段を備えていることが好ましい。
 この構成では、一度設定した境界線を移動させることができるため、設定した第1画面と第2画面との大きさを変更できる。
 前記表示画面分割手段は、タッチ位置が変化している間、前記押圧検知手段が押圧を検知し続けた場合、前記表示画面を分割するようにしてある
 この構成では、押圧し続けた状態で、タッチ位置を変化させた場合に、表示画面が分割されるため、ユーザの意図に反して表示画面が分割されるおそれを防止できる。
 前記押圧検知手段は、前記操作領域の平面に沿って設けられ、キラル高分子から形成された平膜状の圧電フィルムを有することが好ましい。
 前記キラル高分子はポリ乳酸であることが好ましい。
 例えば、圧電フィルムにPVDF(ポリフッ化ビニリデン)を用いた場合、ユーザの指の体温が圧電フィルムに伝わって、圧電フィルムによる検出に影響を及ぼすおそれがあるが、焦電性がないポリ乳酸を用いることで、圧電フィルムによる押圧の検出を精度よく行える。
 前記キラル高分子はL型ポリ乳酸であることが好ましい。
 例えば、圧電フィルムにPVDF(ポリフッ化ビニリデン)を用いた場合、ユーザの指の体温が圧電フィルムに伝わって、圧電フィルムによる検出に影響を及ぼすおそれがあるが、焦電性がないL型ポリ乳酸を用いることで、圧電フィルムによる押圧の検出を精度よく行える。
 本発明によれば、表示画面を押圧した位置を基準とした境界線で、表示画面を第1画面及び第2画面に分割でき、それぞれの画面に対し画像表示制御を行える。表示画面を分割するには、表示画面の少なくとも一点を押圧すればよく、画面分割操作がユーザにとって容易である。
実施形態1に係る携帯端末装置の表示態様を説明するための図 実施形態1に係る携帯端末装置の表示態様を説明するための図 傾斜する境界線を設定する場合について説明するための図 屈曲した境界線を設定する場合について説明するための図 閉領域を形成する境界線を設定する場合について説明するための図 実施形態に係る携帯端末装置の外観斜視図 図6のA-A線における断面図 演算回路モジュールの構成を示すブロック図 演算回路モジュールで実行される処理のフローチャート 画面分割処理のフローチャートを示す図 表示画面を三分割する場合について説明するための図 設定した境界線を変更する場合について説明するための図 演算回路モジュールの構成を示すブロック図 演算回路モジュールで実行される処理のフローチャート 一点を押圧して境界線を設定する場合について説明するための図 演算回路モジュールの構成を示すブロック図 演算回路モジュールで実行される処理のフローチャート
 以下、本発明に係る表示装置の好適な実施の形態について図面を参照して説明する。以下では、実施形態として、本発明に係る表示装置を備えた携帯端末装置を例に挙げて説明する。携帯端末装置は、タッチパネルを介した操作が可能な携帯型電子機器であって、例えば、携帯電話機、タブレット型端末装置又は音楽プレーヤなどが挙げられる。
 図1及び図2は、本実施形態に係る携帯端末装置1の表示態様を説明するための図である。携帯端末装置1は略直方体形状の筐体50を備えている。以下では、筐体50の長手方向(幅方向)をX方向とし、それに直交する方向(高さ方向)をY方向とする。また、筐体50の厚み方向をZ方向とする。
 携帯端末装置1は表示画面2を備えている。この表示画面2には、携帯端末装置1が実行している機能に応じた内容の画像が表示される。例えば、携帯端末装置1がテレビ機能を実行している場合には、表示画面2にはテレビ映像が表示され、携帯端末装置1がウェブブラウジング機能を実行している場合には、表示画面2にはブラウザ画像が表示される。
 携帯端末装置1は、ユーザによるタッチ操作を受け付ける。タッチ操作とは、表示画面2に対してユーザが指(又は専用ペン)で行う操作を言う。詳しくは後述するが、表示画面2を覆うよう樹脂製の保護カバーが設けられていて、タッチ操作は、その保護カバーに触れる、又は保護カバーを押圧することを言う。ここで、保護カバーに触れるとは、保護カバーに対してユーザの指が実際に接触していなくてもよく、保護カバーと指との間が静電容量を介して接触する場合も含むものとする。また、タッチ操作により、保護カバーを押圧した場合、保護カバーがどれだけ押し込まれたかを示すパラメータを、押圧量という。
 本実施形態では、ユーザは、図1の上部に示すように、表示画面2に対して所定のタッチ操作を行うことで、図1の下部に示すように、表示画面2を第1画面3と第2画面4とに二分割できる。なお、表示画面2の分割とは、二つの機能それぞれに応じた内容の画像を一つの画面に同時に表示できるようにすることを言う。表示画面2を分割しない場合、携帯端末装置1が実行する一つの機能に応じた内容の画像のみが表示されるが、表示画面2を二分割することで、第1画面3と第2画面4とに、それぞれ別の機能に応じた内容の画像を同時に表示できる。例えば、ユーザがテレビ機能と、検索機能との二つの機能の画像を同時に表示させたい場合、検索機能実行画像を第1画面3に表示し、テレビ映像を第2画面4に表示するようできる。なお、第1画面3と第2画面4とのそれぞれには、同じ機能に対する画像を表示してもよい。
 表示画面2の分割するためのタッチ操作(以下、分割操作という。)は、図1の上部に示すように、ユーザの指により、表示画面2における任意の点が押圧され、その指がY方向に沿って略直線状にスライドされることで行われる。分割操作が行われると、表示画面2には、スライドのユーザの指の軌跡2A(図中の破線で示す)に沿った直線状の境界線2Bが設定される。そして、表示画面2は、境界線2Bを基準に第1画面3と第2画面4とに分割される。
 この分割操作は、操作開始時に押圧した状態で指をスライドさせる操作であってもよいし、操作開始時のみ指を押圧し、その後、押圧しない状態、すなわち、画面に指が触れるだけの状態で指をスライドさせる操作であってもよい。
 分割操作がなされた場合、軌跡2AがX方向に変動する(すなわち、軌跡2Aが曲線状となる)ときであっても、変動幅が所定値内であれば、その変動が補正され、境界線2Bは直線状に設定される。また、分割操作の開始位置及び終了位置が表示画面2の端でない場合であっても、境界線2Bは表示画面2の端から端まで設定される。さらに、X方向における分割操作の終了位置が、開始位置と異なっていても、開始位置と終了位置とのX方向における距離が閾値以下(例えば1cm)であれば、境界線は、分割操作の開始位置を通るY方向に平行な直線の境界線2Bが設定される。このため、ユーザは、表示画面2の端から端まで指をふらつくことなく、Y方向に平行に一直線にスライドさせるといった、丁寧な分割操作を行う必要がない。
 表示画面2を第1画面3と第2画面4とに分割した場合、図2の上部に示すように、分割操作と逆の操作、すなわち、分割操作の終了位置から開始位置に向かって、境界線2Bをなぞることで、図2の下部に示すように、第1画面3と第2画面4とを結合できる。以下、境界線2Bに沿って指をスライドさせるタッチ操作を、結合操作と言う。この結合操作は、前記のように分割操作と逆の操作であってもよいし、方向に関係なく、境界線2B上をなぞる操作であってもよい。
 このように、表示画面2を第1画面3と第2画面4とに分割し、第1画面3と第2画面4とそれぞれに画像を表示することで、ユーザは、2つの処理を平行に実行できる。また、指の軌跡2Aに沿った境界線2Bが設定されるため、ユーザは、自身が行った分割操作により、表示画面2がどのように分割されるかを把握しやすい。さらに、境界線2Bをなぞる結合操作により、第1画面3と第2画面とを結合することができるため、ユーザは、分割した画面をも共に戻したい場合に、携帯端末装置1をリセットするなどの手間を要しない。
 なお、図1及び図2では、Y方向に沿った直線の境界線2Bを設定する例を示しているが、境界線はY方向に沿った直線に限定されない。
 図3は、傾斜する境界線を設定する場合について説明するための図である。この例では、ユーザが指をX方向及びY方向に対し、傾斜する方向にスライドさせることで、X方向及びY方向から傾斜した境界線2Cが設定される。そして、この境界線2Cを基準に、表示画面2は第1画面3と第2画面4とに分割される。
 図4は、屈曲した境界線を設定する場合について説明するための図である。この例では、ユーザが分割操作の開始位置から、Y方向に沿って指をスライドさせ、その後、X方向に沿って指をスライドさせることで、屈曲した境界線2Dが設定される。そして、この境界線2Dを基準に、表示画面2は第1画面3と第2画面4とに分割される。
 図5は、閉領域を形成する境界線を設定する場合について説明するための図である。この例では、分割操作の開始位置X1から、閉領域を形成するように指をループ状(図中では矩形状)にスライドさせ、境界線2Eが設定される。この場合、分割操作の終了位置X2が、開始位置X1から所定範囲内であれば、開始位置X1と終了位置X2とはほぼ一致するとみなされ、閉領域を形成するループ状の境界線2Fが設定される。このため、ユーザは、閉領域が形成されるように、指を正確にスライドする必要がなく、容易にループ状の境界線2Fを設定できる。この境界線2Eを基準に、表示画面2を第1画面3と第2画面4とに分割する。なお、図5では、境界線2Eは矩形状としているが、円形状であってもよい。
 図6は本実施形態に係る携帯端末装置1の外観斜視図である。図7は、図6のA-A線における断面図である。
 筐体50には、不図示の開口が形成されていて、この開口に、ユーザによるタッチ操作及び押圧操作を受け付ける操作面51が設けられている。この操作面51は、前記した表示画面2を覆うよう設けられた樹脂製の保護カバーである。操作面51の背面側の筐体50内には表示入力部10が設けられている。
 表示入力部10は、押圧センサ部20と、表示パネル部30と、位置検出センサ部40とを備える。表示入力部10のさらに背面側には、実装基板(図示せず)が配置されており、その実装基板上に演算回路モジュール60が実装されている。
 表示パネル部30は、平板状の液晶パネル301、表面偏光板302、裏面偏光板303及びバックライト304を備える。液晶パネル301は、外部から駆動電極が印加されることで、所定の画像パターンを形成するように液晶の配向状態が変化する。前記の表示画面2は、液晶パネル301に表示される画面である。表面偏光板302と裏面偏光板303とは、液晶パネル301を挟むように配置されている。バックライト304は、裏面偏光板303を挟んで、液晶パネル301と反対側に配置されている。
 表示パネル部30の液晶パネル301と表面偏光板302との間には、押圧センサ部20及び位置検出センサ部40が配置されている。位置検出センサ部40が表面偏光板302側に位置し、押圧センサ部20が液晶パネル301側に位置している。押圧センサ部20と表示パネル部30との間には、透光性の絶縁層501が形成されている。なお、押圧センサ部20及び位置検出センサ部40は、表面偏光板302と操作面51との間に設けられていてもよい。
 位置検出センサ部40は平板状の絶縁性基板401を備える。絶縁性基板401は、透光性を有し、複屈折性を有さない材料からなる。絶縁性基板401の一方の平面には、複数の電極402が形成されている。他方の平面には、複数の電極403が形成されている。複数の電極402はX方向に長い長尺状であり、Y方向に沿って間隔を空けて配置されている。複数の電極403はY方向に長い長尺状であり、X方向に沿って間隔を空けて配置されている。すなわち、複数の電極402,403は、Z方向から視た場合に、略90°に交差するよう配置されている。これら複数の電極402,403は、透光性を有する材料からなる。
 位置検出センサ部40の電極402,403それぞれは組をなしており、ユーザの指等が操作面51に近接した際に静電容量変化を検出する。静電容量変化を検出した電極402,403の組は、電極402,403の一方を基準電位とし、静電容量変化に応じた静電容量検出信号を出力する。出力された静電容量検出信号は、図示しない配線を介して演算回路モジュール60に入力される。
 押圧センサ部20は平膜状の圧電フィルム201を備える。圧電フィルム201の両平板面には、電極202,203が形成されている。電極202,203は、圧電フィルム201の平板面の略全面に形成されている。
 圧電フィルム201は、キラル高分子から形成されるフィルムである。キラル高分子として、本実施形態では、ポリ乳酸(PLA)、特にL型ポリ乳酸(PLLA)を用いている。PLLAは、一軸延伸されている。キラル高分子はPVDFと比べて透明度が高いため、圧電フィルム201をキラル高分子から形成することで、表示パネル部30に表示される画像が視認しやすい。
 キラル高分子からなるPLLAは、主鎖が螺旋構造を有する。PLLAは、一軸延伸されて分子が配向すると圧電性を有する。そして、一軸延伸されたPLLAは、圧電フィルム201の平板面が押圧されることにより、電荷を発生する。この際、発生する電荷量は、押圧量により平板面が当該平板面に直交する方向へ変位する変位量に依存する。
 PLLAは、延伸等による分子の配向処理で圧電性を生じ、PVDF等の他のポリマーや圧電セラミックスのように、ポーリング処理を行う必要がない。すなわち、強誘電体に属さないPLLAの圧電性は、PVDFやPZT等の強誘電体のようにイオンの分極によって発現するものではなく、分子の特徴的な構造である螺旋構造に由来するものである。このため、PLLAには、他の強誘電性の圧電体で生じる焦電性が生じない。さらに、PVDF等は経時的に圧電定数の変動が見られ、場合によっては圧電定数が著しく低下する場合があるが、PLLAの圧電定数は経時的に極めて安定している。したがって、周囲環境に影響されることなく、押圧による変位を高感度に検出することができる。
 電極202,203は、ITO、ZnO、銀ナノワイヤ、カーボンナノチューブ、グラフェン等の無機系の電極、ポリチオフェン、ポリアニリン等を主成分とする有機系の電極のいずれかを用いるのが好適である。これらの材料を用いることで、透光性の高い導体パターンを形成できる。このような電極202,203を設けることで、圧電フィルム201が発生する電荷を電位差として取得でき、押圧量に応じた電圧値の押圧量検出信号を外部へ出力することができる。押圧量検出信号は、図示しない配線を介して演算回路モジュール60に出力される。
 操作面51、押圧センサ部20及び位置検出センサ部40は、透光性を有していて、これらを介して、表示パネル部30に表示される画像を視認できるようになっている。
 演算回路モジュール60は、静電容量検出信号を出力した電極402,403の組合せから、タッチ操作によるタッチ位置を検出する。また、演算回路モジュール60は、押圧センサ部20から出力された押圧量検出信号から押圧量を算出する。演算回路モジュール60は、押圧量を算出した場合、その押圧量が閾値を超えるとき、タッチ操作による操作面51への押圧がなされたと判定する。換言すれば、算出した押圧量が閾値を超えない場合、演算回路モジュール60は、ユーザにより操作面51が押圧されていても押圧されていないと判定する。このため、タッチ操作において、ユーザが押圧する意思がない場合に、押圧されたと誤判定されるおそれを防止できる。
 以下に、演算回路モジュール60についてさらに詳述する。
 図8は、演算回路モジュール60の構成を示すブロック図である。演算回路モジュール60は、制御部61、メモリ62、表示制御回路63、及び入力回路64等を備えている。
 制御部61は、CPU等であり、メモリ62に記憶されたプログラムに従って、演算回路モジュール60全体の動作を制御する。メモリ62は、RAM及びROM等であり、制御プログラムを記憶し、また、演算処理結果等を逐次記憶する。表示制御回路63は、制御部61からの制御信号に従い、表示パネル部30に画像を表示する。入力回路64は、位置検出センサ部40から複数の静電容量検出信号を入力し、また、押圧センサ部20から押圧量検出信号を入力する。
 制御部61は、メモリ62に記憶されたプログラムを実行することで、タッチ位置検出部621、押圧量検出部622、開始終了位置決定部623、境界線設定部624、画面分割部625及び画面結合部626の機能を有する。
 タッチ位置検出部621は、入力回路64から入力された複数の静電容量検出信号からタッチ位置を検出する。静電容量検出信号は、上述したように、ユーザのタッチ操作の際に静電容量変化が生じた電極402,403の組から出力される。タッチ位置検出部621は、複数の静電容量検出信号から、信号レベルが最も高い組の電極402,403を検出する。メモリ62には、電極402,403の組と操作入力検出位置とが関連付けされた情報(位置座標)が記憶されている。タッチ位置検出部621は、信号レベルの最も高い組に関連付けられた位置座標をメモリ62から読み出す。
 押圧量検出部622は、入力回路64から入力された押圧量検出信号から、ユーザのタッチ操作による押圧量を検出する。押圧量検出信号は、上述したように、ユーザの指が操作面51を押圧して湾曲した圧電フィルム201に生じる電位差により、電極202,203から出力される。メモリ62には、押圧量検出信号の信号レベルと押圧量とが関連付けられて記憶されている。押圧量検出部622は、入力された押圧量検出信号の信号レベルに関連付けられた押圧量をメモリ62から読み出す。
 開始終了位置決定部623は、境界線を設定する際の分割操作の開始位置及び終了位置を決定する。開始終了位置決定部623は、タッチ位置検出部621が位置座標を検出した場合、そのときに押圧量検出部622が検出した押圧量が閾値以上であるか否かを判定する。そして、開始終了位置決定部623は、検出された押圧量が閾値以上である場合には、検出された位置座標を開始位置に決定する。この閾値は適宜変更可能である。押圧量が閾値未満である場合には、検出された位置座標を開始位置に決定しないため、ユーザの意図しないタッチ操作が分割操作であると誤判定されるおそれを防止できる。
 開始終了位置決定部623は、開始位置を決定した後、分割操作の終了位置を決定する。開始終了位置決定部623は、タッチ位置検出部621が座標位置を検出しなくなる直前に検出した座標位置を、分割操作の終了位置に決定してもよい。また、開始終了位置決定部623は、ユーザが終了位置としたいタッチ位置で、所定値以上の押圧量で操作面51が押圧されたときに、その位置を終了位置に決定してもよい。この場合、ユーザの分割操作の終了を明確にできる。
 境界線設定部624は境界線を設定する。詳しくは、境界線設定部624は、開始終了位置決定部623が決定した開始位置から、ユーザの指の軌跡2A(図1参照)に沿って、開始終了位置決定部623が決定した終了位置までの線を生成する。このとき、ユーザの指の軌跡2Aが、X方向又はY方向の正逆に変動した場合、すなわち、軌跡2Aが曲線状である場合、境界線設定部624は、軌跡2Aの曲線部分を直線に補正する。
 図1~図4に示すように、開始位置及び終了位置が離れている場合には、境界線設定部624は、指の軌跡に沿って、開始位置と終了位置とを繋ぐ境界線2B,2C,2Dを生成する。このとき、開始位置及び終了位置が表示画面2の端でない場合には、境界線設定部624は、生成した境界線を、表示画面2の端に達するまで延長する。
 一方、図5に示すように、開始位置及び終了位置が略一致する場合には、境界線設定部624は、指の軌跡に沿ったループ状の境界線2Eを生成する。略一致する場合とは、開始位置及び終了位置を結ぶ直線の長さが、例えば1cm以下である場合である。
 画面分割部625は、境界線設定部624が設定した境界線に基づいて、表示画面2を分割する。本実施形態では、図1等に示すように、表示画面2を第1画面3と第2画面4とに分割する。
 画面結合部626は、ユーザの結合操作を検出し、第1画面3と第2画面4とを結合する。画面結合部626は、第1画面3と第2画面4とが生成された状態で、タッチ位置検出部621が位置座標を検出した場合、その位置座標が、設定された境界線上(又はその近傍)であって、そのときに押圧量検出部622が検出した押圧量が閾値以上であるか否かを判定する。検出された位置座標が境界線上であり、かつ、検出された押圧量が閾値以上である場合、画面結合部626は、タッチ位置検出部621が検出したタッチ位置の位置座標を随時取得し、境界線に沿って指がスライドされたか否かを判定する。境界線に沿って指がスライドされた場合、画面結合部626は、ユーザによる結合操作が行われたとして、第1画面3と第2画面4とを結合する。これにより、表示画面2には、携帯端末装置1が実行する一つの機能に応じた内容の画像のみが表示される。
 図9は、演算回路モジュール60で実行される処理のフローチャートを示す図である。
 制御部61は、タッチ操作がなされたか、すなわち、位置検出センサ部40から静電容量検出信号を入力したか否か判定する(S1)。制御部61は、タッチ操作がなされていない場合(S1:NO)、制御部61は、S8の処理に移る。タッチ操作がなされた場合(S1:YES)、制御部61は、表示画面2が分割されているか否かを判定する(S2)。
 画面が分割されていない場合(S2:NO)、入力した静電容量検出信号からタッチ位置の位置座標を検出し(S3)、そのときの押圧量を検出する(S4)。制御部61は押圧量が閾値であるか否かを判定し(S5)、閾値以上でない場合(S5:NO)、制御部61は、タッチ操作は分割操作でないと判定し、S8の処理を実行する。閾値以上である場合に(S5:YES)、制御部61は、画面分割処理を実行する(S6)。
 図10は、画面分割処理のフローチャートを示す図である。
 制御部61は、S3で検出したタッチ位置を分割操作の開始位置に決定する(S21)。次に、制御部61は、タッチ位置を検出し(S22)、分割操作が終了したか否かを判定する(S23)。分割操作が終了したか否かの判定は、タッチ位置検出部621がタッチ位置を検出しなくなったか否かにより行ってもよいし、所定値以上の押圧量で操作面51が押圧されたか否かにより行ってもよい。分割操作が終了していない場合(S23:NO)、制御部61はS22の処理に戻る。このように、分割操作が終了するまでの間、制御部61は、タッチ位置を随時検出して、指の軌跡を検出する。
 分割操作が終了した場合(S23:YES)、制御部61は、分割操作の終了位置を決定する(S24)。この終了位置の決定は、タッチ位置検出部621が座標位置を検出しなくなる直前に検出したタッチ位置を、終了位置に決定してもよいし、所定値以上の押圧量を検出したタッチ位置を終了位置に決定してもよい。
 制御部61は、スライドした指の軌跡に沿って、開始位置と終了位置とを繋ぐ境界線を設定する(S25)。このとき、ユーザの指の軌跡が、X方向又はY方向の正逆に変動した場合、すなわち、指の軌跡が曲線状である場合、制御部61は、軌跡を直線に補正し、補正後の軌跡に沿って、開始位置と終了位置とを結ぶ境界線を生成する。
 制御部61は、分割操作の開始位置、及び終了位置それぞれが、表示画面2の端であるか否かを判定する(S26)。開始位置、及び終了位置それぞれが、表示画面2の端でない場合(S26:NO)、制御部61は、表示画面2の端まで境界線を延長する(S27)。そして、制御部61は、表示画面2を設定した境界線を境に、第1画面3と第2画面4とに分割する(S28)。分割操作の開始位置、及び終了位置それぞれが、表示画面2の端である場合(S26:NO)、制御部61は、S28の処理を実行する。
 図9に戻り、画面分割処理(S6)を終了すると、制御部61は、分割した第1画面3と第2画面4とのそれぞれの画像表示制御を行う(S7)。例えば、制御部61は、表示制御回路63に対し、生成した第1画面3と第2画面4との位置座標を出力し、表示制御回路63は、その位置座標に従い、第1画面3と第2画面4との画像を表示する。
 制御部61は、携帯端末装置1の電源がオフにされるなど、処理を終了するか否かを判定する(S8)。終了しない場合(S8:NO)、処理はS1に戻る。終了する場合(S8:YES)、本処理は終了する。
 一方、S2において、画面が分割されていると判定した場合(S2:YES)、制御部61は、入力した静電容量検出信号からタッチ位置の位置座標を検出する(S9)。制御部61は、結合操作が行われたか否かを判定する(S10)。具体的には、S9で検出したタッチ位置が、設定されている境界線上(又はその近傍)に位置し、スライドした指の軌跡が、境界線に沿ったものであるか否かを判定する。
 結合操作が行われた場合(S10:YES)、制御部61は、第1画面3と第2画面4とを結合する(S11)。そして、制御部61は処理S7を実行する。結合操作が行われていない場合(S10:NO)、制御部61は処理S8を実行する。
 なお、本実施形態では、表示画面2を二分割しているが、表示画面2を三以上に分割してもよい。
 図11は、表示画面2を三分割する場合について説明するための図である。この例では、境界線2B上を指で押圧し、その位置からX方向に指をスライドさせて、境界線2Fを設定する。これにより、第2画面4は、第3画面4Aと第4画面4Bとさらに分割され、表示画面2は三分割される。この境界線2Fの設定方法は、開始位置が境界線2Bの線上に位置している場合、その開始位置から終了位置に向かう直線を境界線2Fに設定する。この境界線2B,2Fを境に、表示画面2は第1画面3と第3画面4Aと第4画面4Bとに分割される。
 また、本実施形態では、ユーザの指の軌跡が曲線状である場合、直線に補正して境界線を設定しているが、補正せずに、ユーザの指の軌跡通りに境界線を設定するようにしてもよい。
(実施形態2)
 以下に、実施形態2について説明する。この例では、設定した境界線を変更(移動)させることができる携帯端末装置について説明する。
 図12は、設定した境界線を変更する場合について説明するための図である。
 表示画面2にY方向に沿った直線状の境界線2Bが設定されている場合、ユーザが、境界線2B上の任意の位置を指で押圧し、その状態X方向に指をスライドさせると、境界線2Bが指のスライドと共に、X方向に移動する。境界線2Bの移動に伴い、第1画面3が広がり、第2画面4を狭まる。これにより、第1画面3及び第2画面4を一度設定した後であっても、第1画面3及び第2画面4の大きさを容易に変更できる。以下では、境界線2Bを変更するためのタッチ操作を、変更操作と言う。
 なお、携帯端末装置1の構成は、図6及び図7で説明した構成と同じであるため、説明は省略する。
 図13は、演算回路モジュール60の構成を示すブロック図である。演算回路モジュール60は、制御部61、メモリ62、表示制御回路63、及び入力回路64等を備えている。制御部61は、プログラムを実行することで、タッチ位置検出部621、押圧量検出部622、開始終了位置決定部623、境界線設定部624、画面分割部625及び境界変更部627の機能を有する。
 境界変更部627は、タッチ操作が行われた場合、タッチ位置検出部621が検出した位置座標が、境界線設定部624が設定した境界線2B上(又は境界線2B近傍)であるか否かを判定する。境界変更部627は、検出した位置座標が境界線2B上である場合には、行われたタッチ操作が変更操作であると判定し、その後のタッチ位置がX方向に変動したとき、その変動に合わせて境界線2Bの位置を変動させる。変更操作が終了した場合、境界変更部627は、変更操作の終了位置上に境界線2Bが位置するように、境界線2Bを設定する。
 なお、境界変更部627は、タッチ位置が変動した後、タッチ位置が検出されなくなった時を、変更操作の終了と判定してもよいし、ユーザが変更操作を終了したい位置で所定値以上の押圧量で押圧された場合に、変更操作の終了と判定してもよい。
 図14は、演算回路モジュール60で実行される処理のフローチャートを示す図である。図14に示すフローチャートは、境界線2Bが設定され、第1画面3と第2画面4とが設定された状態で実行される。
 制御部61は、タッチ操作を検出したか否か、すなわち、位置検出センサ部40から静電容量検出信号を入力したか否か判定する(S31)。タッチ操作を検出しない場合(S31:NO)、制御部61はS29の処理を実行する。タッチ操作を検出した場合(S31:YES)、制御部61は、入力した静電容量検出信号からタッチ位置の位置座標を検出し(S32)、そのときの押圧量を検出する(S33)。
 制御部61は、検出したタッチ操作が変更操作であるか否かを判定する(S34)。詳しくは、制御部61は、S22で検出したタッチ位置が境界線2B上(又は境界線2Bの近傍)であって、かつ、S33で検出した押圧量が閾値以上であるか否かを判定する。検出したタッチ位置が境界線2B上で、かつ、検出した押圧量が閾値以上である場合には、制御部61は、検出したタッチ操作が変更操作であると判定する。
 検出したタッチ操作が変更操作でない場合(S34:NO)、制御部61は、S39の処理を実行する。検出したタッチ操作が変更操作である場合(S34:YES)、境界線2Bの移動処理を行う(S35)。例えば、制御部61は、随時タッチ位置を検出し、そのタッチ位置のX方向に沿った変動に伴い境界線2Bを移動させる。
 制御部61は、変更操作が終了したか否かを判定する(S36)。制御部61は、タッチ位置が検出されなくなった時に、変更操作の終了と判定してもよいし、ユーザが変更操作を終了したい位置で所定値以上の押圧量で押圧された場合に、変更操作の終了と判定してもよい。変更操作が終了していない場合(S36:NO)、制御部61はS35の処理を実行する。変更操作が終了した場合(S36:YES)、制御部61は、変更操作の終了位置に境界線2Bを設定し(S37)、設定した境界線2Bを基準に、第1画面3と第2画面4とを再設定する(S38)。これにより、一度設定した第1画面3と第2画面4との大きさを変更できる。
 制御部61は、携帯端末装置1の電源がオフにされるなど、処理を終了するか否かを判定する(S39)。終了しない場合(S39:NO)、制御部61は、S31の処理を実行する。終了する場合(S39:YES)、本処理は終了する。
 このように、本実施形態では、境界線の位置を変更できるようにすることで、一度設定した第1画面3と第2画面4との大きさを変更できる。なお、本実施形態において、実施形態1と同様に、設定した境界線を削除し、第1画面3と第2画面4とを結合できるようにしてもよい。
(実施形態3)
 以下に、実施形態3について説明する。この例では、表示画面の端部近傍を押圧することで、境界線を設定できる携帯端末装置について説明する。
 図15は、一点を押圧して境界線を設定する場合について説明するための図である。この例では、ユーザは、Y方向における表示画面2の端部近傍を押圧した場合、その押圧位置から予め決められた方向(図中ではY方向)に延びる境界線2Gが設定される。この場合、ユーザは、一点のみを押圧すれば境界線を設定できるため、その設定操作が容易となる。
 なお、押圧位置はX方向における表示画面2の端部近傍であってもよい。また、押圧位置から境界線を設定する方向は、X方向であってもよいし、X方向、及びY方向に傾斜した方向であってもよい。
 携帯端末装置1の構成は、図6及び図7で説明した構成と同じであるため、説明は省略する。
 図16は、演算回路モジュール60の構成を示すブロック図である。演算回路モジュール60は、制御部61、メモリ62、表示制御回路63、及び入力回路64等を備えている。制御部61は、プログラムを実行することで、タッチ位置検出部621、押圧量検出部622、押圧位置判定部628、境界線設定部629、及び画面分割部625の機能を有する。
 押圧位置判定部628は、タッチ位置検出部621が位置座標を検出した場合、そのときに押圧量検出部622が検出した押圧量が閾値以上であるか否かを判定する。そして、押圧位置判定部628は、検出された押圧量が閾値以上である場合には、検出された位置座標が、表示画面2の端部近傍であるか否かを判定する。
 境界線設定部629は、押圧位置判定部628により、押圧位置が表示画面2の端部近傍であると判定された場合、その押圧位置から、予め設定された方向に延びる境界線を設定する。
 図17は、演算回路モジュール60で実行される処理のフローチャートを示す図である。
 制御部61は、タッチ操作がなされたか、すなわち、位置検出センサ部40から静電容量検出信号を入力したか否か判定する(S41)。制御部61は、タッチ操作がなされていない場合(S41:NO)、制御部61は、S48の処理に移る。タッチ操作がなされた場合(S41:YES)、制御部61は、入力した静電容量検出信号からタッチ位置の位置座標を検出し(S42)、そのときの押圧量を検出する(S43)。
 制御部61は押圧量が閾値であるか否かを判定し(S44)、閾値以上でない場合(S44:NO)、制御部61は、タッチ操作は分割操作でないと判定し、S48の処理を実行する。閾値以上である場合に(S44:YES)、制御部61は、S42で検出したタッチ位置から予め決められた方向へ延びる境界線を設定する(S45)。
 制御部61は、設定した境界線を基準に、表示画面2を第1画面3と第2画面4とに分割し(S46)、第1画面3と第2画面4とのそれぞれの画像表示制御を行う(S47)。そして、制御部61は、携帯端末装置1の電源がオフにされるなど、処理を終了するか否かを判定する(S48)。終了しない場合(S48:NO)、処理はS41に戻る。終了する場合(S48:YES)、本処理は終了する。
 以上のように、本実施形態では、表示画面2の一点のみを押圧するだけで、境界線を設定でき、表示画面2を分割できる。なお、実施形態1と同様に、分割した第1画面3と第2画面4とを結合できるようにしてもよいし、実施形態2と同様に、設定した境界線を変更できるようにしてもよい。
 また、本実施形態では、表示画面2の端部を押圧した場合に境界線を設定するようにしているが、表示画面2の端部から離れている場合であっても、押圧位置から予め設定された方向へ延びる境界線が設定されるようにしてもよい。さらに、境界線が延びる方向を予め複数用意しておき、押圧量に応じて、その方向が変更できるようにしてもよい。
1…携帯端末装置
2…表示画面
2A…軌跡
2B,2C,2D,2E,2F,2G…境界線
3…第1画面
4…第2画面
4A…第3画面
4B…第4画面
10…表示入力部
20…押圧センサ部(押圧検知手段)
30…表示パネル部
40…位置検出センサ部(タッチ位置検出手段)
50…筐体
51…操作面
60…演算回路モジュール(タッチ位置検出手段、押圧検知手段、表示画面分割手段、第1制御手段、第2制御手段)
61…制御部
62…メモリ
63…表示制御回路(第1制御手段、第2制御手段)
64…入力回路
201…圧電フィルム
202,203…電極
301…液晶パネル
302…表面偏光板
303…裏面偏光板
304…バックライト
401…絶縁性基板
402,403…電極
501…絶縁層
621…タッチ位置検出部(タッチ位置検出手段)
622…押圧量検出部(押圧検知手段)
623…開始終了位置決定部(終点決定手段)
624…境界線設定部(境界線設定手段)
625…画面分割部(表示画面分割手段)
626…画面結合部(画面結合手段)
627…境界変更部(境界線移動手段)
628…押圧位置判定部
629…境界線設定部(境界線自動設定手段)

Claims (14)

  1.  表示画面に対するタッチ位置を検出するタッチ位置検出手段と、
     前記表示画面が押圧されたことを検知する押圧検知手段と、
     前記押圧検知手段が押圧を検知したときの、前記タッチ位置検出手段が検出したタッチ位置を基準とした境界線を設定し、前記境界線を基準に、前記表示画面を第1画面と第2画面とに分割する表示画面分割手段と、
     前記第1画面に対する表示制御を行う第1制御手段と、
     前記第2画面に対する表示制御を行う第2制御手段と、
     を備える表示装置。
  2.  前記押圧検知手段が押圧を検知したとき、前記タッチ位置が前記表示画面の端部近傍である場合、前記タッチ位置から予め設定された方向へ延びる境界線を設定する境界線自動設定手段、
     を備え、
     前記表示画面分割手段は、前記境界線自動設定手段が設定した境界線を基準に、前記表示画面を分割するようにしてある、
     請求項1に記載の表示装置。
  3.  前記タッチ位置検出手段は、タッチ位置を随時検出し、
     前記表示画面分割手段は、前記タッチ位置検出手段が検出したタッチ位置が変化した場合、変化した前記タッチ位置に基づいて、前記表示画面を分割するようにしてある、請求項1に記載の表示装置。
  4.  前記押圧検知手段が押圧されたことを検知したときのタッチ位置を始点とし、
     変化するタッチ位置の終点を決定する終点決定手段と、
     前記始点と、前記終点決定手段が決定した終点とを通る境界線を設定する境界線設定手段と、
     を備え、
     前記表示画面分割手段は、前記境界線設定手段が設定した境界線を基準に、前記表示画面を分割するようにしてある、
     請求項3に記載の表示装置。
  5.  前記境界線設定手段は一直線状の境界線を設定するようにしてある、
     請求項4に記載の表示装置。
  6.  前記境界線設定手段は、変化するタッチ位置の軌跡に沿った境界線を設定するようにしてある、
     請求項4に記載の表示装置。
  7.  前記境界線設定手段は、タッチ位置の軌跡がループ状であり、前記終点決定手段が決定した終点が前記始点から所定範囲内にあるとき、前記ループ上の軌跡に基づいた閉領域を形成する境界線を設定するようにしてある、
     請求項4に記載の表示装置。
  8.  前記境界線を移動させる境界線移動手段を備えている、
     請求項1から7の何れかに記載の表示装置。
  9.  前記表示画面分割手段は、タッチ位置が変化している間、前記押圧検知手段が押圧を検知し続けた場合、前記表示画面を分割するようにしてある、請求項3から8の何れかに記載の表示装置。
  10.  前記第1画面と前記第2画面とを結合する画面結合手段、を備える、請求項1から9の何れかに記載の表示装置。
  11.  前記押圧検知手段は、前記表示画面の平面に沿って設けられ、キラル高分子から形成された平膜状の圧電フィルムを有する、
     請求項1から10の何れかに記載の表示装置。
  12.  前記キラル高分子はポリ乳酸である、請求項11に記載の表示装置。
  13.  前記キラル高分子はL型ポリ乳酸である、請求項12に記載の表示装置。
  14.  画像を表示する表示画面に設けられ、タッチ操作を受け付ける操作部と、前記操作部へのタッチ位置を検出するタッチ位置検出手段と、前記タッチ操作による前記操作部が押圧されたことを検知する押圧検知手段とを備えたコンピュータに実行させるプログラムにおいて、
     前記コンピュータを、
     前記押圧検知手段が押圧を検知したときに、前記タッチ位置検出手段が検知したタッチ位置を基準とし、前記表示画面を第1画面と第2画面とに分割する表示画面分割手段、
     前記第1画面における画像表示制御を行う第1制御手段、及び、
     前記第2画面における画像表示制御を行う第2制御手段、
     として機能させるプログラム。
PCT/JP2014/079292 2013-11-08 2014-11-05 表示装置及びプログラム WO2015068709A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/098,739 US10120486B2 (en) 2013-11-08 2016-04-14 Display device that can be divided into multiple sections by user input and program for achieving the division

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-231737 2013-11-08
JP2013231737 2013-11-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/098,739 Continuation US10120486B2 (en) 2013-11-08 2016-04-14 Display device that can be divided into multiple sections by user input and program for achieving the division

Publications (1)

Publication Number Publication Date
WO2015068709A1 true WO2015068709A1 (ja) 2015-05-14

Family

ID=53041486

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/079292 WO2015068709A1 (ja) 2013-11-08 2014-11-05 表示装置及びプログラム

Country Status (2)

Country Link
US (1) US10120486B2 (ja)
WO (1) WO2015068709A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108958606A (zh) * 2018-07-06 2018-12-07 Oppo广东移动通信有限公司 分屏显示方法、装置、存储介质和电子设备
CN113327514A (zh) * 2021-05-25 2021-08-31 上海天马微电子有限公司 显示装置和交通载具

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6206604B2 (ja) * 2014-12-17 2017-10-04 株式会社村田製作所 押圧検知装置
KR102476610B1 (ko) 2015-10-02 2022-12-12 삼성전자주식회사 터치 패드, 이를 이용한 터치 스크린 및 전자 장치, 및 터치 패드의 제조 방법
US10635222B2 (en) * 2015-10-02 2020-04-28 Samsung Electronics Co., Ltd. Touch pad and electronic apparatus using the same, and method of producing touch pad
KR20180062851A (ko) * 2016-12-01 2018-06-11 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US10318130B2 (en) * 2016-12-12 2019-06-11 Google Llc Controlling window using touch-sensitive edge
CN106843732A (zh) * 2017-01-24 2017-06-13 维沃移动通信有限公司 一种分屏显示的方法及移动终端
CN110688182B (zh) * 2019-09-24 2023-06-09 Oppo广东移动通信有限公司 显示控制方法及装置、存储介质和电子设备
CN110908574B (zh) * 2019-12-04 2020-12-29 深圳市超时空探索科技有限公司 一种显示调节方法、装置、终端及存储介质
KR20210116936A (ko) * 2020-03-18 2021-09-28 주식회사 실리콘웍스 터치 감지 장치 및 그 방법
CN116016744B (zh) * 2022-11-28 2024-01-26 深圳市磐锋精密技术有限公司 一种手机显示屏触屏智能校验设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003319244A (ja) * 2002-04-24 2003-11-07 Ricoh Co Ltd タッチパネル付きカメラ
WO2009139237A1 (ja) * 2008-05-12 2009-11-19 学校法人関西大学 圧電素子および音響機器
WO2012050174A1 (ja) * 2010-10-15 2012-04-19 シャープ株式会社 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体
JP2012113645A (ja) * 2010-11-26 2012-06-14 Kyocera Corp 電子機器
WO2012094656A1 (en) * 2011-01-07 2012-07-12 Qualcomm Incorporated Systems and methods to present multiple frames on a touch screen
JP2013114558A (ja) * 2011-11-30 2013-06-10 Canon Inc 情報処理装置、表示制御方法、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241410A (ja) 2006-03-06 2007-09-20 Pioneer Electronic Corp 表示装置及び表示制御方法
US8677284B2 (en) * 2009-11-04 2014-03-18 Alpine Electronics, Inc. Method and apparatus for controlling and displaying contents in a user interface
JP5232889B2 (ja) * 2011-03-30 2013-07-10 本田技研工業株式会社 車両用操作装置
JP2012243116A (ja) * 2011-05-20 2012-12-10 Kyocera Corp 携帯端末、制御方法及びプログラム
US9696880B2 (en) * 2011-12-26 2017-07-04 Inadev Corporation Screen management system
KR101871718B1 (ko) * 2012-06-25 2018-06-27 엘지전자 주식회사 이동단말기 및 그 제어방법
US9983715B2 (en) * 2012-12-17 2018-05-29 Apple Inc. Force detection in touch devices using piezoelectric sensors
KR102010955B1 (ko) * 2013-01-07 2019-08-14 삼성전자 주식회사 프리뷰 제어 방법 및 이를 구현하는 휴대 단말
US9639199B2 (en) * 2013-06-07 2017-05-02 Samsung Electronics Co., Ltd. Method and device for controlling a user interface
US20150033193A1 (en) * 2013-07-25 2015-01-29 Here Global B.V. Methods for modifying images and related aspects
CN105573639B (zh) * 2014-10-17 2018-11-20 国际商业机器公司 用于触发应用的显示的方法和***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003319244A (ja) * 2002-04-24 2003-11-07 Ricoh Co Ltd タッチパネル付きカメラ
WO2009139237A1 (ja) * 2008-05-12 2009-11-19 学校法人関西大学 圧電素子および音響機器
WO2012050174A1 (ja) * 2010-10-15 2012-04-19 シャープ株式会社 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体
JP2012113645A (ja) * 2010-11-26 2012-06-14 Kyocera Corp 電子機器
WO2012094656A1 (en) * 2011-01-07 2012-07-12 Qualcomm Incorporated Systems and methods to present multiple frames on a touch screen
JP2013114558A (ja) * 2011-11-30 2013-06-10 Canon Inc 情報処理装置、表示制御方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108958606A (zh) * 2018-07-06 2018-12-07 Oppo广东移动通信有限公司 分屏显示方法、装置、存储介质和电子设备
CN108958606B (zh) * 2018-07-06 2020-04-10 Oppo广东移动通信有限公司 分屏显示方法、装置、存储介质和电子设备
CN113327514A (zh) * 2021-05-25 2021-08-31 上海天马微电子有限公司 显示装置和交通载具

Also Published As

Publication number Publication date
US20160231857A1 (en) 2016-08-11
US10120486B2 (en) 2018-11-06

Similar Documents

Publication Publication Date Title
WO2015068709A1 (ja) 表示装置及びプログラム
US10013093B2 (en) Touch input device and touch input detecting method
US10007386B2 (en) Input device and program
JP5854174B2 (ja) タッチ式入力装置および表示装置
JP6020745B2 (ja) タッチセンサ
US10365809B2 (en) Touch input device
US20140184561A1 (en) Touch sensor ic, touch sensing apparatus, and coordinate correcting method of the touch sensing apparatus
KR20170040071A (ko) 터치 패드, 이를 이용한 터치 스크린 및 전자 장치, 및 터치 패드의 제조 방법
JP6037046B2 (ja) タッチ式入力装置及び携帯型表示装置
JP6677355B2 (ja) 操作検出装置および表示装置
JP6015866B2 (ja) 携帯端末用表示装置
JP5975183B2 (ja) 表示装置
JPWO2015076320A1 (ja) 表示装置及びプログラム
WO2015064488A1 (ja) タッチ式入力装置
JP5954502B2 (ja) 入力装置及びプログラム
JP5971430B2 (ja) タッチ式入力装置
JP5983892B2 (ja) 表示装置
JP6237899B2 (ja) タッチパネル、および入力操作端末
JP6079895B2 (ja) タッチ式入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14859555

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14859555

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP