WO2013186844A1 - 電子機器、及び駆動制御プログラム - Google Patents

電子機器、及び駆動制御プログラム Download PDF

Info

Publication number
WO2013186844A1
WO2013186844A1 PCT/JP2012/064945 JP2012064945W WO2013186844A1 WO 2013186844 A1 WO2013186844 A1 WO 2013186844A1 JP 2012064945 W JP2012064945 W JP 2012064945W WO 2013186844 A1 WO2013186844 A1 WO 2013186844A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch panel
vibration
actuator
drive command
lra
Prior art date
Application number
PCT/JP2012/064945
Other languages
English (en)
French (fr)
Inventor
遠藤 康浩
谷中 聖志
裕一 鎌田
矢吹 彰彦
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2014520830A priority Critical patent/JP5822022B2/ja
Priority to PCT/JP2012/064945 priority patent/WO2013186844A1/ja
Publication of WO2013186844A1 publication Critical patent/WO2013186844A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to an electronic device and a drive control program.
  • the touch panel detects contact with the operation surface as an operation input, and does not provide a tactile sensation when a button or the like is pressed. For this reason, in the conventional touch panel, mounting of the apparatus which provides the tactile sense according to the operation input was desired.
  • a conventional mechanical key switch using a metal dome or the like has a protrusion on the surface of a specific key, so that a user can identify a specific key only by touch.
  • the touch panel has a flat surface on which a user performs operation input, and a GUI (Graphic User Interface) button is displayed on the touch panel.
  • GUI Graphic User Interface
  • an object is to provide an electronic device and a drive control program that can identify a specific GUI button by tactile sensation.
  • the electronic device includes a touch panel, an actuator that vibrates the touch panel, a load detection unit that detects a load of a user's operation input to the touch panel, and an operation input to the touch panel.
  • the load position is within a predetermined area of the touch panel and the load detected by the load detector is equal to or greater than a first predetermined value and less than a second predetermined value greater than the first predetermined value,
  • a drive control unit that drives the actuator with a first drive command that causes the touch panel to generate vibration according to the first vibration pattern.
  • FIG. 11 illustrates an electronic device of an embodiment. It is a flowchart which shows the process at the time of the drive device of embodiment driving LRA. It is a figure which shows two types of threshold values for determining the magnitude
  • FIG. 6 is a flowchart showing processing when electronic device 300 of the embodiment vibrates touch panel 120. It is a figure which shows the operation example of 300 A of smart phones of embodiment. It is a figure which shows the operation example of 300 A of smart phones of embodiment. It is a figure which shows the operation example of 300 A of smart phones of embodiment. It is a figure which shows the operation example of 300 A of smart phones of embodiment. It is a figure for demonstrating the principle of operation of LRA. It is a figure which shows the example of the input waveform applied to LRA. It is a figure explaining the displacement of LRA. It is a figure which shows the example of the displacement of a vibration of LRA, a speed, and an acceleration.
  • FIG. 1A is a diagram showing a waveform 11 of acceleration of vibration generated when the accelerometer 1 is attached to a human finger and the button 2 is pressed.
  • FIG. 1B is a diagram showing a waveform 12 of acceleration of vibration generated when the accelerometer 1 is attached to a human finger and a touch panel 3 to which an LRA (Linear Resonant Actuator) is attached is touched.
  • the button 2 is, for example, a metal dome type button.
  • the button 2 and the touch panel 3 are provided in the electronic device.
  • the vibration indicated by waveform 11 is rapidly damped in one to several cycles.
  • the vibration indicated by the waveform 12 continues until the free vibration due to the natural frequency of the LRA is attenuated even after the supply of the drive command is stopped.
  • a human finger cannot sense vibration when the vibration acceleration is 0.02 G or less at a vibration frequency of 200 Hz.
  • the vibration frequency is the number of vibrations per second.
  • the acceleration of vibration indicates the speed change amount of vibration per unit time.
  • FIG. 2 is a diagram showing the sensitivity of an organ that detects acceleration included in human tissue.
  • human mechanical stimulus receptors Merkel cells that sense displacement, Meissner bodies that sense speed, and Patini bodies that sense acceleration.
  • the finger does not sense the vibration because the acceleration of the vibration is 0.02 G or less within 0.01 sec.
  • waveform 12 0.1 sec is required until the acceleration of vibration becomes 0.02 G or less, and the finger continues to sense vibration until 0.1 sec elapses. Therefore, the vibration indicated by the waveform 11 and the vibration indicated by the waveform 12 are completely different as tactile sensations that humans sense.
  • FIG. 3 is a diagram illustrating a cross-sectional structure of the electronic apparatus according to the embodiment.
  • the electronic apparatus 300 includes a housing 110, a touch panel 120, a double-sided tape 130, an LRA 140, a substrate 150, and a load sensor 160.
  • the electronic device 300 is a portable terminal device such as a smartphone, for example.
  • the electronic device 300 is not limited to a mobile terminal device such as a smartphone, and may be any device that uses the touch panel 120 as an operation input unit.
  • the electronic device 300 is installed in a specific place such as ATM (Automatic Teller Machine). It may be a device to be used.
  • the touch panel 120 is fixed to the housing 110 by the double-sided tape 130.
  • the LRA 140 is attached to the surface of the touch panel 120 on the housing side.
  • the LRA 140 is a combination of a vibration system having a resonance frequency designed in advance and an actuator.
  • the LRA 140 is a vibration device that generates vibration by driving mainly at the resonance frequency. The amount of vibration changes depending on the amplitude of the drive waveform. .
  • the substrate 150 is disposed inside the housing 110.
  • the board 150 is mounted with a driver IC (Integrated Circuit) that outputs a drive command to the LRA 140 in order to control the drive of the LRA 140.
  • a driver IC Integrated Circuit
  • FIG. 3 the driver IC and the like are omitted.
  • the electronic device 300 when a user's finger contacts the touch panel 120, the contact is detected and the LRA 140 is driven by the driving device mounted on the substrate 150 to propagate the vibration of the LRA 140 to the touch panel 120.
  • the load sensor 160 is an example of a load detection unit that detects a load input to the surface of the touch panel 120.
  • the load sensor 160 is disposed on both sides of the substrate 150 inside the housing 110. Note that the number and position of the load sensor 160 in a plan view are arbitrary. For example, one load sensor 160 may be provided at each of the four corners of the touch panel 120 or one at the center.
  • the load sensor 160 may be any type of load sensor as long as it can detect a load input to the touch panel 120. Therefore, for example, the sensor may be a sensor that is built in the touch panel 120 and detects a load based on a change in capacitance that occurs when a user touches the surface of the touch panel 120. Alternatively, a sheet-like sensor that is disposed on the back surface (the lower surface in FIG. 3) side of the touch panel 120 and detects the capacitance with the touch panel 120 may be used.
  • FIG. 4 is a diagram showing cross-sectional structures of two types of LRAs.
  • FIG. 4A is a diagram showing an LRA using a voice coil
  • FIG. 4B is a diagram showing an LRA using a piezoelectric element.
  • the 4A includes a spring 31, a magnet 32, and a coil 33.
  • An LRA 40 illustrated in FIG. 4B includes a weight 41, a beam 42, and a piezoelectric element 43.
  • the mass of the weight 41 is m
  • the Young's modulus of the beam 42 is E
  • the cross-sectional secondary moment of the beam 42 is I
  • the natural frequency f0 is expressed by the following formula 2. Note that L is the length in the longitudinal direction of the beam.
  • an LRA 30 using a voice coil may be applied, or an LRA 40 using a piezoelectric element 43 may be applied.
  • FIG. 5 is a diagram illustrating the electronic apparatus according to the embodiment.
  • the electronic device 300 includes a driving device 200, a driver IC (Integrated Circuit) 260, an LRA 140, a load sensor 160, a display 301, a touch sensor 302, an input unit 303, and a signal processing unit as main components. 304, a communication unit 305, and a recording medium I / F (Interface) unit 308.
  • a driving device 200 a driver IC (Integrated Circuit) 260, an LRA 140, a load sensor 160, a display 301, a touch sensor 302, an input unit 303, and a signal processing unit as main components.
  • 304 a communication unit 305, and a recording medium I / F (Interface) unit 308.
  • the driving device 200 includes a control unit 210 and a memory 220.
  • the control unit 210 includes a drive control unit 211, a position determination unit 212, and a load determination unit 213.
  • the control unit 210 is realized by a CPU (Central Processing Unit).
  • the drive control unit 211 reads and executes the drive control program 230 stored in the memory 220 and generates a drive command based on the waveform data, thereby driving the LRA 140 described later using the drive command.
  • the drive control unit 211 generates a drive command representing a voltage value, a current value, and the like to be supplied to the LRA 140 based on the waveform data representing the drive waveform of the LRA 140.
  • the position determination unit 212 determines whether the position (operation position) where the user's finger touches the touch panel 120 is inside or outside the predetermined area.
  • the load determination unit 213 compares the load detected by the load sensor 160 with the first threshold value and the second threshold value, and determines whether or not the load detected by the load sensor 160 is greater than or equal to the first threshold value and the second threshold value. To do. Threshold data representing the first threshold and the second threshold is stored in the threshold database 350.
  • the memory 220 stores a storage area for storing a drive control program 230 for controlling the driving of the LRA 140, a storage area for storing waveform data (waveform database 240), and a storage for storing an API (Application Programming Interface) 250. And an area. Further, the memory 220 is further provided with a storage area in which a threshold database 350 representing the threshold value of the load sensor 160 is stored.
  • the waveform database 240 and the threshold database 350 are storage areas in the memory 220.
  • the waveform database 240 and the threshold database 350 are stored in separate memories that are physically separated from the memory 220. It may be stored.
  • the drive control program 230 is a computer program executed by the control unit 210 when causing the control unit 210 to execute drive control of the LRA 140.
  • the waveform database 240 is a database that stores waveform data used when generating a drive command for driving the LRA 140.
  • four types of waveform data for driving LRA 140 are stored in waveform database 240.
  • the API 250 is activated by the drive control program 230 and performs various processes for presenting a tactile sensation.
  • the API 250 is stored in the memory 220, but may be stored in another memory mounted on the substrate 150.
  • the threshold database 350 is a database that stores two types of threshold data for determining the magnitude of the load detected by the load sensor 160.
  • the driver IC 260 drives the LRA 140 based on the drive command input from the control unit 210.
  • the driver IC 260 amplifies the drive command input from the control unit 210 and inputs it to the LRA 140.
  • the display 301 is, for example, an LCD (Liquid Crystal Display).
  • LCD Liquid Crystal Display
  • GUI Graphic User Interface
  • a GUI component for example, when the electronic device 300 is a smartphone, a keypad for inputting a telephone number is a typical example.
  • the display content of the display 301 is controlled by the control unit 210.
  • the touch sensor 302 is disposed on the surface side of the display 301 and detects the coordinates of the position where the user touches the finger. Coordinates detected by the touch sensor 302 are input to the control unit 210. Note that an electronic component including the display 301 and the touch sensor 302 is a touch panel 120.
  • the input unit 303 is, for example, a switch other than the touch panel of the smartphone when the electronic device 300 is a smartphone. Examples of such a switch include a home key and a volume adjustment button.
  • the signal processing unit 304 controls data that is uploaded from the electronic device 300 to the server 400 and data that the electronic device 300 downloads from the server 400.
  • 210 is a processing unit that exchanges data with 210.
  • the signal processing unit 304 functions as a communication interface of the electronic device 300.
  • the communication unit 305 performs data communication when the electronic device 300 communicates with the server 400 via the Internet 401.
  • the server 400 is, for example, a mail server or a cloud server.
  • the recording medium I / F unit 308 is an interface between the electronic device 300 and a recording medium 309 (for example, a flash memory) connected via a data transmission path such as USB (Universal Serial Bus).
  • a recording medium 309 for example, a flash memory
  • USB Universal Serial Bus
  • a predetermined program is stored in the recording medium 309, and the program stored in the recording medium 309 is installed in the electronic device 300 via the recording medium I / F unit 308.
  • the installed predetermined program can be executed by the electronic device 300.
  • FIG. 6 is a flowchart illustrating processing when the electronic apparatus 300 according to the embodiment drives the LRA 140.
  • the electronic device 300 When the electronic device 300 according to the embodiment detects that the user has touched the touch panel 120 (step S601), the electronic device 300 activates the API 250 (step S602). Specifically, the electronic device 300 activates the API 250 when, for example, the user touches a GUI button displayed on the touch panel 120.
  • the API 250 reads the waveform data stored in the memory 220 and outputs a drive command generated based on the waveform data to the driver IC 260 (step S603).
  • the driver IC 260 converts the drive command to D / A (Digital-to-Analog) (step S604), and amplifies it with an amplifier or the like (step S605).
  • the driver IC 260 outputs the amplified signal to the LRA 140 (step S606).
  • FIG. 6 is performed when the user's finger touches the touch panel 120 regardless of the type of the GUI button operated by the user on the touch panel 120 and the load detected by the load sensor 160.
  • FIG. 6 illustrates basic processing that the electronic device 300 performs to drive the LRA 140.
  • the electronic device 300 seems to have touched a protrusion provided on a specific switch of a mechanical key switch by driving the LRA 140 when the user touches a specific GUI button on the touch panel 120. This provides a tactile feel to the user.
  • FIG. 7 is a diagram illustrating two types of threshold values for determining the magnitude of the operation input load to the touch panel 120 in the electronic device 300 according to the embodiment. These two types of threshold values are represented by two types of threshold data stored in the threshold value database 350.
  • the first threshold value of the two types of threshold values is set to a value lower than the second threshold value
  • the second threshold value of the two types of threshold values is set to a value higher than the first threshold value. What is necessary is just to set a 1st threshold value and a 2nd threshold value based on the average value of the load applied to the touch panel 120 from a fingertip, for example, when a user operates the touch panel 120.
  • the first threshold value is, for example, a value that the user has pressed the touch panel 120 lightly
  • the second threshold value is, for example, the value that the user has pressed the touch panel 120 relatively strongly.
  • the operation input to the touch panel 120 is accepted when the user lifts his / her finger or hand from the touch panel 120.
  • the value detected by the load sensor 160 is equal to or greater than the first threshold value.
  • the LRA 140 is driven with the first vibration pattern.
  • the touch panel 120 is vibrated by the first vibration pattern.
  • the electronic device 300 does not accept an operation input to a predetermined GUI button.
  • the electronic device 300 is different from the first vibration pattern.
  • the LRA 140 is driven with the vibration pattern.
  • the touch panel 120 is vibrated by the second vibration pattern.
  • the electronic device 300 also accepts an operation input to a predetermined GUI button when the second threshold value is reached.
  • the electronic device 300 vibrates the touch panel 120 with two types of vibration patterns according to the magnitude of the force with which the user presses the touch panel 120 as described above.
  • the electronic device 300 first vibrates the touch panel 120 with the first vibration pattern before accepting an operation input to the predetermined GUI button.
  • the electronic device 300 causes the touch panel 120 to vibrate with the second vibration pattern.
  • the user when the user lightly presses the touch panel 120, the user can recognize that the predetermined GUI button is being pressed only by touch.
  • the electronic device 300 accepts an operation input to the predetermined GUI button when the predetermined GUI button is pressed more strongly, and at that time, the touch panel 120 is vibrated with the second vibration pattern, and only the tactile sensation is received. It is possible to recognize that the operation input has been accepted.
  • the electronic device 300 does not accept the operation of the GUI button.
  • the electronic device 300 vibrates the touch panel 120 with the second vibration pattern, and operates the GUI button. Accept input.
  • the position of the predetermined GUI button can be recognized by the user with only the tactile sensation with the first vibration pattern, and the completion of the operation input with the second vibration pattern is tactile. Just let the user recognize.
  • FIG. 8 is a flowchart illustrating processing when the electronic device 300 according to the embodiment vibrates the touch panel 120. The processing shown in FIG. 8 is executed by the control unit 210.
  • step S801 determines whether or not there is an operation input.
  • the process of step S801 is performed by determining whether or not the control unit 210 has received coordinate data representing coordinate values for which an operation input has been made from the touch panel 120.
  • control part 210 repeats the process of step S801, when it determines with there being no operation input by step S801 (S801: NO). This is because the control unit 210 performs a series of processes shown in FIG. 8 when there is a user operation input.
  • step S802 determines whether or not the position where the operation input is within a predetermined area (step S802).
  • the process in step S802 is performed by determining whether or not the coordinates represented by the coordinate data received from the touch panel 120 in step S801 by the control unit 210 are within a predetermined area. Further, the process of step S802 is a process performed by the position determination unit 212 of the control unit 210.
  • the predetermined area may be specified by expressing the area where the predetermined GUI button is displayed by coordinates. If the coordinates with the operation input are included in the coordinates representing the area where the predetermined GUI button is displayed, the control unit 210 determines that the position with the operation input is within the predetermined area.
  • step S803 determines whether or not the load is greater than or equal to the first threshold.
  • the process of step S803 is performed by determining whether or not the load represented by the load data received by the control unit 210 from the load sensor 160 (see FIG. 5) is greater than or equal to the first threshold value.
  • the process in step S803 is a process performed by the load determination unit of the control unit 210.
  • step S804 determines whether or not the load is less than the second threshold.
  • the process of step S804 is performed by determining whether or not the load represented by the load data received by the control unit 210 from the load sensor 160 (see FIG. 5) is less than the second threshold value. Further, the process of step S804 is a process performed by the load determination unit of the control unit 210.
  • the controller 210 determines that the load is less than the second threshold (S804: YES)
  • the controller 210 drives the LRA 140 with the first drive command (step S805).
  • the first drive command is a drive command for causing the touch panel 120 to generate a vibration according to the first vibration pattern.
  • step S805 is performed when the control unit 210 inputs a first drive command to the driver IC 260. Note that the process of step S805 is performed by the drive control unit 211 of the control unit 210.
  • the touch panel 120 is vibrated by the first vibration pattern by lightly pressing a predetermined GUI button on the touch panel 120. This is equivalent to In this case, the user can recognize that he / she is touching a predetermined GUI button only with the finger touch.
  • the control unit 210 determines whether or not the power of the electronic device 300 has been turned off following the process of step S805 (step S806). This is because it is not necessary to continue the process when the power is turned off.
  • control unit 210 determines that the power is not turned off (S806: NO)
  • the flow returns to step S801.
  • step S803 When the controller 210 determines in step S803 that the load is not equal to or greater than the first threshold (S803: NO), the flow returns to step S801.
  • This case corresponds to, for example, a case where the user touches a predetermined GUI button very lightly. In such a case, since it is considered that the user is not in a state of searching for a predetermined GUI button, the flow is returned to S801 to determine whether or not there is an operation input.
  • step S804 determines in step S804 that the load is not less than the second threshold (S804: NO)
  • the flow proceeds to step S807.
  • the controller 210 drives the LRA 140 with the second drive command (step S807).
  • the second drive command is a drive command for causing the touch panel 120 to generate a vibration according to the second vibration pattern.
  • step S807 is performed when the control unit 210 inputs a second drive command to the driver IC 260. Note that the process of step S807 is performed by the drive control unit 211 of the control unit 210.
  • step S807 the flow proceeds to steps S801, S802, S803, S804, S805, and S806, the flow returns to S801, and proceeds to S802, S803, S804, and S807. It is.
  • step S804 the load is less than the second threshold, This is because the process proceeds to S805.
  • the first vibration pattern vibration is first generated on the touch panel 120 by the process of step S805, and then the second vibration pattern is displayed on the touch panel 120 by the process of step S807. Vibration will occur.
  • the user can recognize that the predetermined GUI button is first touched by the vibration according to the first vibration pattern, and then the operation of the predetermined GUI button is performed on the electronic device 300 by the vibration according to the second vibration pattern. You can recognize that it was accepted.
  • step S802 determines in step S802 that the position where the operation input has been made is outside the predetermined region (S802: NO), the flow proceeds to step S808.
  • the control unit 210 determines whether or not the load is equal to or greater than the first threshold value (step S808).
  • the process of step S808 is performed by determining whether or not the load represented by the load data received from the load sensor 160 (see FIG. 5) is equal to or greater than the first threshold, similarly to the process of step S803. Is called. Further, the process of step S808 is a process performed by the load determination unit of the control unit 210.
  • step S809 When the control unit 210 determines that the load is equal to or greater than the first threshold (S808: YES), the control unit 210 determines whether the load is less than the second threshold (step S809).
  • the process in step S809 is performed by determining whether or not the load represented by the load data received from the load sensor 160 (see FIG. 5) is less than the second threshold, similarly to the process in step S804. Is called. Further, the process of step S809 is a process performed by the load determination unit of the control unit 210.
  • the controller 210 drives the LRA 140 with the third drive command (step S810).
  • the third drive command is a drive command for causing the touch panel 120 to generate a vibration according to the third vibration pattern.
  • step S810 is performed when the control unit 210 inputs a third drive command to the driver IC 260. Note that the process of step S810 is performed by the drive control unit 211 of the control unit 210.
  • the third vibration pattern may be a vibration pattern that does not drive the touch panel 120 without driving the LRA 140.
  • the touch panel 120 can be vibrated (in the first vibration pattern) only when the user lightly touches a predetermined GUI button of the touch panel 120.
  • step S809 determines in step S809 that the load is not less than the second threshold (S809: NO)
  • the flow proceeds to step S811.
  • the controller 210 drives the LRA 140 with the fourth drive command (step S811).
  • the fourth drive command is a drive command for causing the touch panel 120 to generate a vibration according to the fourth vibration pattern.
  • step S811 is performed when the control unit 210 inputs a fourth drive command to the driver IC 260. Note that the process of step S811 is performed by the drive control unit 211 of the control unit 210.
  • step S811 the flow proceeds to steps S801, S802, S808, S809, S810, and S806, the flow returns to S801, and proceeds to S802, S808, S809, and S811. It is.
  • step S809 the load is less than the second threshold, This is because the process proceeds to S810.
  • the vibration of the third vibration pattern is first generated on the touch panel 120 by the process of step S810, and then the touch panel 120 is processed by the process of step S811. Four vibration patterns are generated.
  • the user can recognize that the GUI button other than the predetermined GUI button is first touched by the vibration by the third vibration pattern, and then the GUI other than the predetermined GUI button by the vibration by the fourth vibration pattern. It can be recognized that the button operation is accepted by the electronic device 300.
  • the fourth drive command may be the same drive command as the second drive command.
  • the vibration provided to the user when the operation input is received by the electronic device 300 using a predetermined GUI button and when the operation input is received by the electronic device 300 using a GUI button other than the predetermined GUI button. Can be unified.
  • vibration of the first vibration pattern is first generated on touch panel 120, and then the second Vibration of the vibration pattern is generated on the touch panel 120.
  • the user can first recognize that the predetermined GUI button is touched by the vibration according to the first vibration pattern only by tactile sensation, and then input the operation to the predetermined GUI button by the vibration according to the second vibration pattern. Can be recognized only by touch.
  • the touch panel 120 when a user lightly presses a predetermined GUI button on the touch panel 120, the touch panel 120 generates vibration of the first vibration pattern, which is provided in a specific key switch of a conventional mechanical key switch. As in the case of touching the protrusion, the user can recognize the position of a specific GUI button only by touch.
  • the electronic device 300 accepts an operation input to the predetermined GUI button when the predetermined GUI button is pressed more strongly, and the operation input is performed only by tactile sensation by vibrating the touch panel 120 with the second vibration pattern. Can be recognized.
  • the position of the predetermined GUI button can be recognized by the user with only the tactile sensation with the first vibration pattern, and the completion of the operation input with the second vibration pattern is tactile. Just let the user recognize.
  • the third vibration pattern is a pattern that does not vibrate the touch panel 120.
  • 9 to 12 are diagrams illustrating an operation example of the smartphone 300A according to the embodiment.
  • GUI buttons 121A, 121B, 121C, 121D, 121E, 121F are displayed on the touch panel 120 of the smartphone 300A.
  • the GUI button 121A is a GUI button that is pressed when using a telephone function
  • the GUI button 121B is a GUI button that is pressed when using a mail function
  • the GUI button 121C is a GUI button that is pressed when using the telephone directory.
  • the GUI buttons 121D to 121F are GUI buttons to which a specific operation can be assigned. For example, the GUI buttons 121D to 121F can be used as shortening buttons for making a call to a specific contact.
  • the GUI button 121A is set as a predetermined GUI button in the smartphone 300A.
  • the color of the button of the GUI button 121A may be changed.
  • the touch panel 120 does not vibrate.
  • the GUI button 121E is a GUI button other than the predetermined GUI button, and here, the third vibration pattern is a pattern that does not vibrate the touch panel 120.
  • the touch panel 120 is vibrated with the fourth vibration pattern, and the user can recognize that the operation input has been accepted.
  • the smartphone 300A first vibrates the touch panel 120 with the first vibration pattern, and when the GUI button 121A is further strongly pressed, 120 is vibrated with the second vibration pattern.
  • the user can recognize the position of the GUI button 121A only by tactile sensation and can recognize that the operation input has been accepted by the smartphone 300A.
  • a GUI button representing a numeric keypad for a calculator is displayed on the touch panel of the smartphone 300A.
  • the touch panel 120 does not vibrate.
  • the “9” GUI button is a GUI button other than the predetermined GUI button, and here, the third vibration pattern is a pattern that does not vibrate the touch panel 120.
  • the touch panel 120 is vibrated in the fourth vibration pattern, and the user can recognize that the operation input has been accepted.
  • the smartphone 300A When the user's finger touches the '5' GUI button, the smartphone 300A first vibrates the touch panel 120 with the first vibration pattern, and when the '5' GUI button is further strongly pressed, Vibrate in the second vibration pattern.
  • the user can recognize the position of the “5” GUI button only by tactile sensation and can recognize that the operation input has been accepted by the smartphone 300A.
  • first vibration of the first vibration pattern is generated on the touch panel 120, and then the second vibration is generated.
  • a vibration of the pattern is generated on the touch panel 120.
  • the user can recognize from the tactile sensation that the user first touches the predetermined GUI button with the vibration according to the first vibration pattern, and then the operation of the predetermined GUI button is performed with the vibration according to the second vibration pattern. It can be recognized only by tactile sensation that it has been accepted by 300A.
  • GUI button 121A shown in FIG. 9B and '5' GUI button shown in FIG. 11B the first vibration pattern is displayed. Vibration is generated on the touch panel 120. Accordingly, it is possible to provide a smartphone 300A that allows a user to recognize the position of a specific GUI button only with a tactile sensation, in the same manner as when a protrusion provided on a specific key switch of a conventional mechanical key switch is touched. Can do.
  • the embodiments of the electronic device 300 and the smartphone 300A that can identify a specific GUI button by touch have been described above.
  • the rising or rising shape of the waveform represented by the waveform data described above may be any shape.
  • the vibration waveform corresponding to the operation input can be freely generated by combining the vibration waveforms.
  • the smartphone 300A can be provided to the user with a tactile sensation as if a mechanical button other than the touch panel 120 was pressed (a feeling as if the button was clicked), it would be easier for the user to recognize various vibration waveforms.
  • the LRA driving method according to the first method, the second method, and the third method is a driving method that provides a tactile sensation that makes it easier for the user to recognize the vibration waveform of the touch panel 120.
  • the waveform data generated by the first method, the second method, and the third method described below is the same as the first drive command, the second drive command, the third drive command, and the fourth drive command described above. It can be used as waveform data for generation.
  • the first vibration pattern generated by the first drive command is made to have a tactile sensation as if a mechanical button was clicked, when the user's finger lightly touches the predetermined GUI button, the position of the predetermined GUI button is changed. You can quickly communicate to users.
  • the second vibration pattern generated by the second drive command is made to have a tactile sensation as if a mechanical button was clicked, when a user's finger strongly touches to operate the predetermined GUI button, the predetermined GUI is displayed. It becomes easier for the user to recognize that the operation input to the button has been accepted.
  • the third vibration pattern generated by the third drive command has a tactile sensation as if a mechanical button was clicked, when a user's finger lightly touches a GUI button other than the predetermined GUI button, the predetermined GUI is displayed.
  • the position of the GUI button other than the buttons can be quickly transmitted to the user.
  • the fourth vibration pattern generated by the fourth drive command has a tactile sensation as if a mechanical button was clicked, when a user's finger touches strongly to operate a GUI button other than a predetermined GUI button, The user can easily recognize that the operation input to the GUI buttons other than the predetermined GUI button has been accepted.
  • the second vibration pattern and the fourth vibration pattern may be the same vibration pattern, but the first vibration pattern and the third vibration pattern are set to different vibration patterns. This is to allow the user to recognize the position of a predetermined GUI button only by touch when the user starts touching the touch panel 120.
  • the LRA vibration pattern is changed using three methods to express a tactile sensation as if a mechanical button was clicked.
  • the first method is a method of suppressing free vibration due to the natural frequency of the LRA that continues even after the supply of the drive command is stopped.
  • the free vibration due to the natural frequency of the LRA that continues even after the supply of the drive command is stopped is referred to as residual vibration.
  • the vibration of the LRA 140 stops in one to several cycles when a drive command that satisfies a specific condition described later is supplied to the LRA 140.
  • a drive command that satisfies a specific condition is applied to the LRA 140 to stop the residual vibration, so that a vibration that rapidly attenuates in one to several cycles is generated and a mechanical button is clicked.
  • Express tactile sensation
  • FIG. 13 is a diagram for explaining the operating principle of the LRA
  • FIG. 14 is a diagram illustrating an example of an input waveform applied to the LRA.
  • the LRA 140 When the sine wave F is applied to the LRA 140, the LRA 140 generates a vibration having a natural frequency (resonance frequency) f0 of the LRA 140. That is, the LRA 140 generates a combined wave in which the sine wave having the frequency f1 and the sine wave having the natural frequency f0 of the LRA 140 are combined, and the LRA 140 is displaced according to the combined wave.
  • FIG. 15 is a diagram showing the acceleration of vibration of the LRA when the input of FIG. 14 is applied as a drive command.
  • FIG. 15A is a diagram illustrating a forced displacement component and a free vibration component of the displacement generated in the LRA 140
  • FIG. 15B is a diagram illustrating a combined wave.
  • a waveform y1 indicated by a dotted line indicates a forced vibration displacement of the LRA 140 generated when the sine wave F is applied to the LRA 140
  • a waveform y2 indicated by a solid line indicates a free vibration displacement.
  • the displacement y3 generated in the LRA 140 is a composite wave of the waveform y1 and the waveform y2.
  • FIG. 15B is a diagram illustrating an example of a combined wave y3 of the waveform y1 and the waveform y2. It can be seen that the synthesized wave y3 becomes 0 at the timing T when the sine wave F becomes 0.
  • FIG. 16 is a diagram illustrating an example of the vibration speed and vibration acceleration of the LRA.
  • FIG. 16A shows the waveform of the composite wave y3
  • FIG. 16B shows the velocity waveform y3 ′ obtained by differentiating the displacement of the composite wave y3
  • FIG. It is a figure which shows the waveform y3 '' of the acceleration obtained by differentiating the displacement of the synthetic wave y3 twice.
  • the velocity waveform y3 ′ and the acceleration waveform y3 ′′ become 0 when the synthesized wave y3 becomes 0. That is, the vibration of the LRA 140 stops at the timing T.
  • the vibration acceleration waveform y3 ′′ of the LRA 140 stops in two cycles within 0.01 sec. Therefore, in the example of FIG. 16, the acceleration of vibration falls within the human detection limit of 0.02 G within 0.01 sec. A click feeling as if the button 2 was pressed can be expressed.
  • FIG. 17 is a diagram illustrating vibration acceleration of the LRA 140 when a drive command is a sine wave having the natural frequency of the LRA.
  • FIG. 17B shows the acceleration of vibration of the LRA 140 when a simulation is performed using the sine wave of FIG. 17A as a drive command.
  • the vibration acceleration of the touch panel 120 is measured by installing an accelerometer in the center of the touch panel 120.
  • FIG. 18 is a diagram showing acceleration measured by an electronic device when a conventional method of applying a voltage having an antiphase (180 degree phase shift) of vibration generated in the LRA 140 after the drive signal is stopped.
  • FIG. 18B shows the LRA 140 when the sine wave of FIG. 18A is used as a drive command in an actual machine equipped with the LRA 140, and a voltage having an opposite phase of the residual vibration generated in the LRA 140 after the drive command is stopped is applied. Indicates the acceleration of vibration.
  • the residual vibration is smaller than that of FIG. 17, but it takes 0.05 sec or more until the acceleration of the vibration becomes 0.02 G or less of the human detection lower limit.
  • FIG. 19 is a diagram illustrating an LRA acceleration response simulation when a signal that does not satisfy the conditions of the embodiment is used as an input drive signal, and an acceleration measurement result in an actual electronic device.
  • FIG. 19A shows a sine wave having a frequency of 300 Hz that does not satisfy the specific condition according to the embodiment.
  • FIG. 19B shows the acceleration of vibration when a simulation is performed using the sine wave of FIG. 19A as a drive command.
  • FIG. 20 is a diagram illustrating an LRA acceleration response simulation when a signal satisfying the conditions of the embodiment is an input drive signal, and an acceleration measurement result in an actual electronic device.
  • FIG. 20 (A) shows a sine wave having a frequency of 350 Hz that satisfies a specific condition.
  • FIG. 20B shows the acceleration of vibration of the LRA 140 when a simulation is performed using the sine wave of FIG. 20A as a drive command.
  • the acceleration of the residual vibration is 0.02 G or less of the detection lower limit, and the vibration waveform is a short-time waveform.
  • the natural frequency f0 may be the natural frequency of the LRA 140 after the LRA 140 is incorporated into the electronic device 300.
  • the frequency f1 is preferably set so that the error is 1% or less with respect to m / n ⁇ f0. If the frequency f1 is set in this way, even if residual vibration occurs after the application of the drive command is stopped, the acceleration of the vibration is 0.02 G or less, which is the lower limit of human detection, and is not detected by humans. There is no loss of tactile feel like clicking a button.
  • the touch panel 120 itself fixed to the housing 110 is also a vibrating body that vibrates at a high frequency.
  • the drive command for the LRA 140 is a signal for stopping the excitation of the LRA 140 when the amplitude reaches its peak, and the high frequency vibration of the touch panel 120 itself is excited to rapidly attenuate in one to several cycles. Expresses the tactile sensation of clicking a mechanical button by generating vibration.
  • FIG. 21 is a diagram for explaining excitation of vibration by the resonance frequency of the touch panel.
  • FIG. 21A shows a sine waveform of a drive command applied to the LRA 140
  • FIG. 21B shows a waveform of vibration acceleration of the touch panel 120.
  • the drive command is a voltage.
  • the resonance frequency of the LRA 140 is 225 Hz
  • the resonance frequency of the touch panel 120 is 1 kHz. That is, it can be said that the vibration of the LRA 140 is a low-frequency vibration, and the vibration of the touch panel 120 is a high-frequency vibration.
  • the resonance frequency of the touch panel 120 is a resonance frequency in a state where the four sides of the touch panel 120 are fixed to the housing 110.
  • the drive command is a signal for stopping the excitation to the LRA 140 at the point P ⁇ b> 1 where the amplitude reaches a peak.
  • the amplitude of the drive command shown in FIG. 21A becomes 0 immediately after the excitation to the LRA 140 is stopped.
  • the vibration of the LRA 140 is removed from the harmonic vibration by setting the amplitude of the drive command to 0 from the peak.
  • the drive time of the LRA 140 by the drive command is set to 7/4 period, and the point P1 at which the amplitude reaches the peak is the end of the drive command. Note that the end of the drive command is a point at which the vibration to the LRA 140 is stopped.
  • FIG. 22 is a diagram showing acceleration of vibration of the touch panel when the voltage of the resonance frequency of the LRA is used as a drive command.
  • the acceleration of vibration of the touch panel 120 when attempting to express a tactile sensation as if the driving time of the LRA 140 is shortened and a mechanical button is clicked is shown.
  • the vibration of the touch panel 120 requires a rise time for amplifying the vibration amount and a time until the acceleration of the amplified vibration is attenuated to 0.02 G or less, even if the driving time of the LRA 140 is shortened.
  • the vibration continues for several cycles. In the example of FIG. 22, it can be seen that it takes about 25 msec from the rise to the decay, and the vibration continues for about 4 cycles. Therefore, it is difficult to present a sharp tactile sensation as if a mechanical button was clicked.
  • FIG. 21B it can be seen that the high frequency vibration of 1 kHz frequency is excited, and the vibration is attenuated in about two cycles.
  • the high frequency vibration is excited at the point P1, which is the end of the drive command, and the acceleration of the high frequency vibration reaches its peak. Therefore, the timing at which the acceleration of the high-frequency vibration reaches a peak slightly deviates from the timing at which the drive command becomes the point P1.
  • FIG. 23 is a diagram illustrating an example in which the location for exciting the high-frequency vibration is shifted from the point P1.
  • 23A shows a sine waveform of a drive command applied to the LRA 140
  • FIG. 23B shows a waveform of acceleration of vibration of the LRA 140.
  • the drive command ends at a point P2 slightly deviated from the amplitude peak.
  • the acceleration of the superimposed low frequency vibration is smaller than the maximum value, and the acceleration peak of the high frequency vibration is the value shown in FIG. Although smaller than that, the same effect as the example of FIG. 21 can be obtained.
  • the waveform representing the driving command of the LRA 140 generated using the first method and the second method is held in the waveform database 240 in the memory 220 as waveform data.
  • a drive command is a signal that satisfies the specific condition described in the first method and ends at a point where the amplitude reaches a peak as described in the second method.
  • FIG. 24 is a diagram showing an example of the LRA drive command of the third method.
  • FIG. 24A shows the waveform of the drive command G of the third method
  • FIG. 24B shows the acceleration of vibration of the touch panel 120 when the drive command G of the third method is applied to the LRA 140.
  • FIG. 24A shows the waveform of the drive command G of the third method
  • FIG. 24B shows the acceleration of vibration of the touch panel 120 when the drive command G of the third method is applied to the LRA 140.
  • the drive command G of the third method terminates at a point P3 where the amplitude becomes the maximum value.
  • the drive command G is a cosine wave whose phase is shifted by ⁇ / 2 from the sine wave waveform so that the drive command G is an m-cycle signal and the signal whose amplitude peak ends.
  • the drive command G is a cosine wave, whereby the drive command G can be a signal that satisfies a specific condition and has a peak at the end.
  • the resonance frequency of the touch panel 120 is the resonance frequency in a state where the four sides of the touch panel 120 are fixed to the housing 110.
  • the resonance frequency of the touch panel 120 is the resonance frequency of the touch panel 120 in a state where the touch panel 120 is incorporated in the housing 110, for example, when the LRA 140 is disposed inside the housing 110.
  • the waveform data of the driving device 200 of the third method includes the frequency f1, the amplitude, the phase, the period (value of m), etc. of the driving command G.
  • the waveform data of the third method may include an expression representing the waveform of the drive command G.
  • step S603 of FIG. 6 the driving device 200 of the third method reads waveform data indicating the driving command G by the API 250 and outputs a driving command corresponding to the waveform data to the driver IC 260.
  • the driver IC 260 D / A converts and amplifies the waveform data and outputs it to the LRA 140.
  • FIG. 25 is a diagram showing an input waveform for the LRA in the third method.
  • the waveform shown in FIG. 25 shows the force applied to the LRA 140 by applying the drive command G to the LRA 140.
  • the waveform shown in FIG. 25 is a cosine wave G1 in which the phase of the sine wave F is shifted by ⁇ / 2 when the frequency of the drive command G is f1.
  • the LRA 140 When the cosine wave G1 is applied to the LRA 140, the LRA 140 is vibrated at the natural frequency f0 of the LRA 140 (ie, the resonance frequency). That is, the LRA 140 generates a combined wave obtained by combining the cosine wave G1 having the frequency f1 and the cosine wave having the natural frequency f0 of the LRA 140, and the LRA 140 is displaced according to the combined wave.
  • FIG. 26 is a diagram showing the displacement of the LRA by the third method.
  • FIG. 26A is a first diagram for explaining the displacement
  • FIG. 26B is a second diagram for explaining the displacement.
  • a waveform y11 indicated by a dotted line indicates a forced vibration component of vibration displacement generated when a cosine wave G1 is applied to the LRA 140
  • a waveform y12 indicated by a solid line indicates a free vibration component.
  • the response displacement y13 when the cosine wave G1 is applied to the LRA 140 is a composite wave of the waveform y11 and the waveform y12.
  • FIG. 26B is a diagram illustrating an example of the displacement of the composite wave y13 of the waveform y11 and the waveform y12. It can be seen that the synthesized wave y13 becomes 0 at the timing T1 when the cosine wave G1 becomes 0.
  • FIG. 27 is a diagram showing an example of the vibration speed and vibration acceleration of the LRA in the third method.
  • FIG. 27A shows the waveform of the composite wave y13
  • FIG. 27B shows the velocity waveform y13 ′ obtained by differentiating the displacement of the composite wave y13
  • FIG. It is a figure which shows the waveform y13 '' of the acceleration obtained by differentiating the displacement of the synthetic wave y13 twice.
  • the velocity waveform y13 ′ and the acceleration waveform y13 ′′ become 0 at the timing T1 when the synthesized wave y13 becomes 0. That is, the vibration of the LRA 140 stops at the timing T1.
  • the acceleration waveform y13 ′′ stops in three cycles within 0.01 sec. Therefore, in the third method, the vibration acceleration becomes 0.02 G or less within 0.01 sec, and the metal dome type button 2 is clicked. It is possible to express a tactile feeling like that.
  • the excitation is stopped at the point where the amplitude of the cosine wave G1 reaches a peak, but the present invention is not limited to this.
  • the end of the drive command may be any point that can generate a steep peak representing a click feeling in a waveform indicating acceleration of vibration of the touch panel 120, for example.
  • the end of the drive command may be other than 0, which is the center point of the amplitude, and the end of the drive command is better as the point is closer to the peak of the amplitude.
  • the LRA 140 is attached to the surface of the touch panel 120 on the housing side, but is not limited thereto.
  • the LRA 140 may be disposed in the vicinity of the substrate 150 disposed in the housing 110.
  • FIG. 28 is a diagram illustrating an example of an electronic device in which the LRA 140 is provided in the housing.
  • the LRA 140 is disposed in the vicinity of the substrate 150 provided in the housing 110.
  • the third method can also be applied to the electronic device 100A. Further, when the third method is applied to the electronic device 100A, it is possible to express a tactile sensation as if the metal dome type button 2 was clicked, similarly to the electronic device 300 of the third method.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 特定のGUIボタンを触感で識別できる電子機器、及び駆動制御プログラムを提供する。 電子機器は、タッチパネルと、前記タッチパネルを振動させるアクチュエータと、利用者の前記タッチパネルへの操作入力の荷重を検出する荷重検出部と、前記タッチパネルへの操作入力が行われた位置が前記タッチパネルの所定領域内であり、かつ、前記荷重検出部によって検出される荷重が第1所定値以上で、前記第1所定値よりも大きい第2所定値未満である場合に、前記タッチパネルに第1振動パターンによる振動を発生させる第1駆動指令で前記アクチュエータを駆動する駆動制御部とを含む。

Description

電子機器、及び駆動制御プログラム
 本発明は、電子機器、及び駆動制御プログラムに関する。
 従来から、タッチパネルを入力手段とする電子機器がある。タッチパネルは、操作面への接触を操作入力として検出するものであり、ボタン等を押す際の触感は得られない。このため、従来のタッチパネルでは、操作入力に応じた触感を提供する装置の搭載が望まれていた。
 そこで、近年では、例えばLRA(Linear Resonant Actuator)のようなアクチュエータを駆動してタッチパネルを振動させることにより、操作入力に応じた触感を提示することが考えられている。
特表2008-521597
 ところで、例えばメタルドーム等を用いた従来の機械式のキースイッチは、特定のキーの表面に突起が設けられているため、利用者が触感だけで特定のキーを識別することができる。
 しかしながら、タッチパネルは、利用者が操作入力を行う面が平坦であり、タッチパネルにはGUI(Graphic User Interface)ボタンが表示される。
 このため、タッチパネルを用いた電子機器では、従来のキースイッチのように特定のスイッチを識別することはできない。
 そこで、特定のGUIボタンを触感で識別できる電子機器、及び駆動制御プログラムを提供することを目的とする。
 本発明の実施の形態の電子機器は、タッチパネルと、前記タッチパネルを振動させるアクチュエータと、利用者の前記タッチパネルへの操作入力の荷重を検出する荷重検出部と、前記タッチパネルへの操作入力が行われた位置が前記タッチパネルの所定領域内であり、かつ、前記荷重検出部によって検出される荷重が第1所定値以上で、前記第1所定値よりも大きい第2所定値未満である場合に、前記タッチパネルに第1振動パターンによる振動を発生させる第1駆動指令で前記アクチュエータを駆動する駆動制御部とを含む。
 特定のGUIボタンを触感で識別できる電子機器、及び駆動制御プログラムを提供することができる。
キースイッチの押下で生じる振動加速度の波形と、タッチパネルの接触で生じる振動加速度の波形を示す図である。 人体の組織に含まれる加速度を検出する器官の感度を示す図である。 実施の形態の電子機器の断面構造を示す図である。 2種類のLRAの断面構造を示す図である。 実施の形態の電子機器を説明する図である。 実施の形態の駆動装置がLRAを駆動する際の処理を示すフローチャートである。 実施の形態の電子機器300においてタッチパネル120への操作入力の荷重の大きさを判定するための2種類の閾値を示す図である。 実施の形態の電子機器300がタッチパネル120を振動させる際の処理を示すフローチャートである。 実施の形態のスマートフォン300Aの動作例を示す図である。 実施の形態のスマートフォン300Aの動作例を示す図である。 実施の形態のスマートフォン300Aの動作例を示す図である。 実施の形態のスマートフォン300Aの動作例を示す図である。 LRAの動作原理を説明するための図である。 LRAに印加される入力波形の例を示す図である。 LRAの変位を説明する図である。 LRAの振動の変位、速度及び加速度の例を示す図である。 LRAの固有振動数の正弦波を駆動指令としたときのLRAの振動の加速度を示す図である。 駆動指令停止後にLRAに発生する残留振動に対し逆位相の(180度位相のずれた)信号を印加した際に電子機器で測定した加速度を示す図である。 実施形態の条件を満たさない信号を入力駆動信号としたときのLRAの加速度応答シミュレーションと、実際の電子機器での加速度測定結果を示す図である。 実施形態の条件を満たす信号を入力駆動信号としたときのLRAの加速度応答シミュレーションと、実際の電子機器での加速度測定結果を示す図である。 タッチパネルの共振周波数による振動の励起を説明する図である。 LRAの共振周波数の電圧を駆動指令としたときのタッチパネルの振動の加速度を示す図である。 高周波振動を励起する箇所をずらした例を示す図である。 実施の形態のLRAの駆動指令の例を示す図である。 実施の形態のLRAに対する入力波形を示す図である。 実施の形態のLRAの変位を説明する図である。 実施の形態のLRAの振動の変位、速度及び加速度の例を示す図である。 LRAが筐体に設けられた電子機器の例を示す図である。
 以下、本発明の電子機器、及び駆動制御プログラムを適用した実施の形態について説明する。
 <実施の形態1>
 図1(A)は、人間の指に加速度計1を取り付けてボタン2を押下した際に生じる振動の加速度の波形11を示す図である。図1(B)は、人間の指に加速度計1を取り付けて、LRA(Linear Resonant Actuator)が取り付けられたタッチパネル3をタッチした際に生じる振動の加速度の波形12を示す図である。図1の例では、ボタン2は例えばメタルドーム式のボタンである。またボタン2とタッチパネル3は、電子機器に設けられたものである。
 波形11で示される振動は、1~数周期で急速に減衰する。これに対して波形12で示される振動は、駆動指令の供給を停止後もLRAの固有振動数による自由振動が減衰するまで続く。
 ところで、人間の指は、振動周波数200Hzにおいて振動の加速度が0.02G以下になると振動を感知できなくなる。振動周波数とは、1秒間の振動数である。振動の加速度とは、単位時間当たりの振動の速度変化量を示すものである。
 図2は、人体の組織に含まれる加速度を検出する器官の感度を示す図である。なお、人間の主な機械刺激の受容器には、変位を感じ取るメルケル細胞、速度を感じ取るマイスナー小体、加速度を感じ取るパチニ小体の3種類がある。
 すなわち波形11では、指は0.01sec以内に振動の加速度が0.02G以下になるため振動を感知しなくなる。これに対して波形12では、振動の加速度が0.02G以下になるまで0.1secが必要であり、指は0.1sec経過するまで振動を感知し続ける。したがって波形11で示される振動と、波形12で示される振動とでは、人間が感知する触感として全く異なるものとなる。
 次に、図3を用いて実施の形態の電子機器について説明する。
 図3は、実施の形態の電子機器の断面構造を示す図である。
 実施の形態の電子機器300は、筐体110、タッチパネル120、両面テープ130、LRA140、基板150、及び荷重センサ160を有する。電子機器300は、例えば、スマートフォンのような携帯端末機である。なお、電子機器300は、タッチパネル120を操作入力部とする機器であればよいため、スマートフォンのような携帯端末機に限られず、例えば、ATM(Automatic Teller Machine)のように特定の場所に設置されて利用される機器であってもよい。
 実施の形態の電子機器300では、両面テープ130により、タッチパネル120が筐体110に固定されている。LRA140は、タッチパネル120の筐体側の面に取り付けられている。LRA140は、予め設計された共振周波数を持つ振動系とアクチュエータとが組み合わされたもので、主に共振周波数で駆動して振動を発生させる振動デバイスであり、駆動波形の振幅により振動量が変化する。
 基板150は、筐体110内部に配置されている。基板150には、LRA140の駆動を制御するために駆動装置やLRA140に駆動指令を出力するドライバIC(Integrated Circuit)等が実装されている。なお、図3ではドライバIC等を省略する。
 実施の形態の電子機器300は、タッチパネル120に利用者の指が接触すると、この接触を感知して基板150に実装された駆動装置によりLRA140を駆動し、LRA140の振動をタッチパネル120に伝播させる。
 荷重センサ160は、タッチパネル120の表面に入力される荷重を検出する荷重検出部の一例である。荷重センサ160は、筐体110の内部において、基板150の両脇に配設されている。なお、荷重センサ160は、数量と平面視における位置は任意であり、、例えばタッチパネル120の四隅に一つずつ配設されていてもよいし、中央に1つ配設されていても良い。
 また、荷重センサ160は、タッチパネル120に入力される荷重を検出できるセンサであれば、どのようなタイプの荷重センサであってもよい。従って、例えば、タッチパネル120に内蔵され、利用者がタッチパネル120の表面を触れることによって生じる静電容量の変化に基づいて荷重を検出するセンサであってもよい。あるいは、この代わりに、タッチパネル120の裏面(図3中の下面)側に配設され、タッチパネル120との間の静電容量を検出するシート状のセンサを用いてもよい。
 次に、図4を参照してLRA140について説明する。
 図4は、2種類のLRAの断面構造を示す図である。図4(A)はボイスコイルを用いたLRAを示す図であり、図4(B)は圧電素子を用いたLRAを示す図である。
 図4(A)に示すLRA30は、ばね31、磁石32、コイル33を有する。LRA30は、ばね31のばね定数をkとし、磁石32の質量をmとすると、固有振動数f0が以下の式1で示される。
Figure JPOXMLDOC01-appb-M000001

 図4(B)に示すLRA40は、重り41、梁42、圧電素子43を有する。LRA40は、重り41の質量をmとし、梁42のヤング率をEとし、梁42の断面2次モーメントをIとすると、固有振動数f0が以下の式2で示される。なお、Lを梁の長手方向の長さとする。
Figure JPOXMLDOC01-appb-M000002
 実施の形態のLRA140は、ボイスコイルを用いたLRA30を適用しても良いし、圧電素子43を用いたLRA40を適用しても良い。
 次に、図5を参照して実施の形態の電子機器300の有する基板150に実装された駆動装置について説明する。
 図5は、実施の形態の電子機器を説明する図である。
 実施の形態の電子機器300は、主な構成要素として、駆動装置200、ドライバIC(Integrated circuit:集積回路)260、LRA140、荷重センサ160、ディスプレイ301、タッチセンサ302、入力部303、信号処理部304、通信部305、及び記録媒体I/F(Interface)部308を含む。
 駆動装置200は、制御部210、及びメモリ220を含む。
 制御部210は、駆動制御部211、位置判定部212、及び荷重判定部213を含む。制御部210は、CPU(Central Processing Unit:中央演算処理装置)によって実現される。
 駆動制御部211は、メモリ220に格納された駆動制御プログラム230を読み出して実行し、波形データに基づいて駆動指令を生成することにより、駆動指令を用いて後述するLRA140を駆動する。駆動制御部211は、LRA140の駆動波形を表す波形データに基づいて、LRA140に供給するための電圧値及び電流値等を表す駆動指令を生成する。
 位置判定部212は、利用者の指がタッチパネル120に接触した位置(操作位置)が所定領域の内部又は外部であるかを判定する。
 荷重判定部213は、荷重センサ160で検出される荷重を第1閾値及び第2閾値と比較し、荷重センサ160で検出される荷重が第1閾値及び第2閾値以上であるか否かを判定する。第1閾値及び第2閾値を表す閾値データは、閾値データベース350に格納されている。
 メモリ220には、LRA140の駆動を制御する駆動制御プログラム230が格納される記憶領域と、波形データが格納される記憶領域(波形データベース240)と、API(Application Programming Interface)250が格納される記憶領域とが設けられている。また、メモリ220には、さらに、荷重センサ160の閾値を表す閾値データベース350が格納される記憶領域が設けられている。
 なお、ここでは、波形データベース240と閾値データベース350がメモリ220内の記憶領域である形態について説明するが、波形データベース240と閾値データベース350は、メモリ220とは物理的に隔離された別のメモリに格納されてもよい。
 駆動制御プログラム230は、制御部210にLRA140の駆動制御を実行させる際に、制御部210が実行するコンピュータプログラムである。
 波形データベース240は、LRA140を駆動するための駆動指令を生成する際に用いられる波形データを格納するデータベースである。実施の形態の電子機器300では、LRA140を駆動するための4種類の波形データが波形データベース240に格納されている。
 API250は、駆動制御プログラム230により起動され、触感を提示するための各種処理を行う。図5ではAPI250はメモリ220に格納されるものとしたが、基板150に実装された他のメモリに格納されていても良い。
 閾値データベース350は、荷重センサ160によって検出される荷重の大きさを判定するための2種類の閾値データを格納するデータベースである。
 ドライバIC260は、制御部210から入力される駆動指令に基づき、LRA140を駆動する。ドライバIC260は、制御部210から入力される駆動指令を増幅等してLRA140に入力する。
 ディスプレイ301は、例えば、LCD(Liquid Crystal Display)であり、電子機器300がスマートフォンの場合は、スマートフォンの各種機能を実現するために必要なGUI(Graphic User Interface)部品を表示する。GUI部品としては、例えば電子機器300がスマートフォンの場合は、電話番号を入力するためのキーパッドが典型例である。ディスプレイ301の表示内容は、制御部210によって制御される。
 タッチセンサ302は、ディスプレイ301の表面側に配設されており、利用者が指を触れた位置の座標を検出する。タッチセンサ302が検出する座標は、制御部210に入力される。なお、ディスプレイ301とタッチセンサ302を合わせた電子部品がタッチパネル120である。
 入力部303は、例えば、電子機器300がスマートフォンの場合は、スマートフォンのタッチパネル以外のスイッチ等である。このようなスイッチとしては、例えば、ホームキー、ボリューム調整用のボタン等がある。
 信号処理部304は、通信部305がサーバ400とインターネット401を介して通信を行う際に、電子機器300からサーバ400にアップロードするデータと、電子機器300がサーバ400からダウンロードするデータとを制御部210との間で受け渡す処理部である。信号処理部304は、電子機器300の通信用のインターフェイスとして機能する。
 通信部305は、電子機器300がインターネット401を介してサーバ400と通信を行う際に、データ通信を行う。サーバ400は、例えば、メールサーバ又はクラウドサーバ等である。
 記録媒体I/F部308は、USB(Universal Serial Bus)などのデータ伝送路を介して接続された記録媒体309(例えば、フラッシュメモリなど)と電子機器300とのインターフェイスである。
 また、記録媒体309に、所定のプログラムを格納し、この記録媒体309に格納されたプログラムは記録媒体I/F部308を介して電子機器300にインストールされる。インストールされた所定のプログラムは、電子機器300により実行可能となる。
 図6は、実施の形態の電子機器300がLRA140を駆動する際の処理を示すフローチャートである。
 実施の形態の電子機器300は、利用者がタッチパネル120に接触したことを検出すると(ステップS601)、API250を起動させる(ステップS602)。具体的には電子機器300は、例えばタッチパネル120に表示されたGUIボタンに利用者が触れた場合にAPI250を起動する。
 API250は、メモリ220に格納された波形データを読み出し、波形データに基づいて生成した駆動指令をドライバIC260へ出力する(ステップS603)。ドライバIC260は、駆動指令をD/A(Digital to Analog)変換し(ステップS604)、アンプ等により増幅する(ステップS605)。ドライバIC260は、増幅した信号をLRA140に出力する(ステップS606)。
 図6に示すステップS601からS606による処理は、利用者にタッチパネル120で操作されるGUIボタンの種類と、荷重センサ160で検出する荷重とに関係なく、タッチパネル120に利用者の指が接触した際に電子機器300がLRA140を駆動するために行う基本的な処理を表したものである。
 実施の形態の電子機器300は、利用者がタッチパネル120の特定のGUIボタンに触れた場合に、LRA140を駆動することにより、機械式のキースイッチの特定のスイッチに設けられた突起を触れたような触感を利用者に提供するものである。
 従って、以下では、図7乃至図12を用いて、利用者がタッチパネル120の特定のGUIボタンに触れた場合に、機械式のキースイッチの特定のスイッチに設けられた突起を触れたような触感を利用者に提供するためのLRA140の駆動制御の手法について説明する。
 図7は、実施の形態の電子機器300においてタッチパネル120への操作入力の荷重の大きさを判定するための2種類の閾値を示す図である。この2種類の閾値は、閾値データベース350に格納される2種類の閾値データによって表される。
 2種類の閾値のうちの第1閾値は、第2閾値よりも低い値に設定されており、2種類の閾値のうちの第2閾値は第1閾値よりも高い値に設定されている。第1閾値及び第2閾値は、例えば、利用者がタッチパネル120を操作した場合に、指先からタッチパネル120にかかる荷重の平均的な値に基づいて設定すればよい。
 第1閾値は、例えば、利用者がタッチパネル120を軽く押した程度の値であり、第2閾値は、例えば、利用者がタッチパネル120を比較的強く押した程度の値である。なお、タッチパネル120への操作入力が受け付けられるのは、利用者がタッチパネル120から指又は手を離したときである。
 実施の形態の電子機器300は、例えば、タッチパネル120に表示されるGUIボタンのうちの所定のGUIボタンが利用者に押された場合に、荷重センサ160によって検出される値が第1閾値以上、第2閾値未満になると、第1振動パターンでLRA140を駆動する。
 これにより、タッチパネル120には第1振動パターンによる振動が発生する。また、この状態では、電子機器300は所定のGUIボタンへの操作入力を受け付けていない。
 また、電子機器300は、上述のように所定のGUIボタンが利用者に押された状態で、荷重センサ160によって検出される値が第2閾値以上になると、第1振動パターンとは異なる第2振動パターンでLRA140を駆動する。
 これにより、タッチパネル120には第2振動パターンによる振動が発生する。なお、電子機器300は、第2閾値以上になったときに、所定のGUIボタンへの操作入力も受け付ける。
 電子機器300は、上述のように利用者がタッチパネル120を押す力の大きさに応じて、タッチパネル120を2種類の振動パターンで振動させる。電子機器300は、所定のGUIボタンへの操作入力を受け付ける前に、まずタッチパネル120を第1振動パターンで振動させ、所定のGUIボタンがより強く押されたときに、タッチパネル120を第2振動パターンで振動させ、所定のGUIボタンへの操作入力を受け付ける。
 これにより、利用者は、タッチパネル120を軽く押したときに、所定のGUIボタンを押していることを触感だけで認識できる。
 また、電子機器300が所定のGUIボタンへの操作入力を受け付けるのは、所定のGUIボタンをさらに強く押したときであり、その際に第2振動パターンでタッチパネル120を振動させることにより、触感だけで操作入力が受け付けられたことを認識することができる。
 すなわち、利用者が所定のGUIボタンを押すことによって荷重センサ160が検出する荷重が図7に実線で示すように増大する場合に、荷重が第1閾値以上になると、利用者は所定のGUIボタンに触れていることを触感だけで認識できる。なお、このとき電子機器300はGUIボタンの操作を受け付けていない。
 また、利用者が操作入力を完了させるために所定のGUIボタンをより強く押して、荷重が第2閾値以上になると、電子機器300は第2振動パターンでタッチパネル120を振動させ、GUIボタンへの操作入力を受け付ける。
 これにより、利用者は触感だけで操作入力が受け付けられたことを認識することができる。
 このため、実施の形態の電子機器300によれば、所定のGUIボタンの位置を第1振動パターンで触感だけで利用者に認識させることができるとともに、第2振動パターンで操作入力の完了を触感だけで利用者に認識させることができる。
 次に、図8を用いて、実施の形態の電子機器300が第1振動パターンから第4振動パターンを用いてタッチパネル120を振動させる際の処理について説明する。
 図8は、実施の形態の電子機器300がタッチパネル120を振動させる際の処理を示すフローチャートである。図8に示す処理は、制御部210が実行する。
 まず、制御部210は、操作入力があったか否かを判定する(ステップS801)。ステップS801の処理は、制御部210がタッチパネル120から操作入力のあった座標値を表す座標データを受信したか否かを判定することによって行われる。
 なお、制御部210は、ステップS801で操作入力がないと判定した場合(S801:NO)は、ステップS801の処理を繰り返す。制御部210は、利用者の操作入力があった場合に、図8に示す一連の処理を行うからである。
 制御部210は、操作入力があったと判定した場合(S801:YES)は、操作入力のあった位置が所定の領域内であるか否かを判定する(ステップS802)。ステップS802の処理は、制御部210がステップS801でタッチパネル120から受信した座標データが表す座標が、所定の領域内にあるか否かを判定することによって行われる。また、ステップS802の処理は、制御部210の位置判定部212によって行われる処理である。
 なお、所定の領域は、所定のGUIボタンが表示される領域を座標で表すことによって特定すればよい。操作入力のあった座標が、所定のGUIボタンが表示される領域を表す座標に含まれれば、制御部210は操作入力のあった位置が所定の領域内であると判定する。
 制御部210は、操作入力のあった位置が所定の領域内であると判定した場合(S802:YES)は、荷重が第1閾値以上であるか否かを判定する(ステップS803)。ステップS803の処理は、制御部210が荷重センサ160(図5参照)から受信した荷重データが表す荷重が第1閾値以上であるか否かを判定することによって行われる。また、ステップS803の処理は、制御部210の荷重判定部によって行われる処理である。
 制御部210は、荷重が第1閾値以上であると判定した場合(S803:YES)は、荷重が第2閾値未満であるか否かを判定する(ステップS804)。ステップS804の処理は、制御部210が荷重センサ160(図5参照)から受信した荷重データが表す荷重が第2閾値未満であるか否かを判定することによって行われる。また、ステップS804の処理は、制御部210の荷重判定部によって行われる処理である。
 制御部210は、荷重が第2閾値未満であると判定した場合(S804:YES)は、第1駆動指令でLRA140を駆動する(ステップS805)。第1駆動指令は、タッチパネル120に第1振動パターンによる振動を発生させる駆動指令である。
 ステップS805の処理は、制御部210がドライバIC260に第1駆動指令を入力することによって行われる。なお、ステップS805の処理は、制御部210の駆動制御部211によって行われる。
 ここで、フローがステップS801、S802、S803、S804、及びS805の順に進行する場合は、利用者がタッチパネル120の所定のGUIボタンを軽く押すことによって、タッチパネル120に第1振動パターンによる振動が発生する場合に相当する。この場合に、利用者は、指先の触感だけで、所定のGUIボタンに触れていることを認識できる。
 制御部210は、ステップS805の処理に続いて、電子機器300の電源がオフにされたか否かを判定する(ステップS806)。電源がオフにされた場合は、処理を続ける必要がなくなるからである。
 制御部210は、電源がオフにされていないと判定した場合(S806:NO)は、フローをステップS801にリターンする。
 制御部210は、ステップS803において、荷重が第1閾値以上ではないと判定した場合(S803:NO)は、フローをステップS801にリターンする。この場合は、例えば、利用者が所定のGUIボタンにごく軽く触れたような場合に相当する。このような場合には、利用者が所定のGUIボタンを探している状態ではないと考えられるため、フローをS801にリターンして、操作入力の有無を判定することとしたものである。
 制御部210は、ステップS804において、荷重が第2閾値未満ではないと判定した場合(S804:NO)は、フローをステップS807に進行する。
 制御部210は、第2駆動指令でLRA140を駆動する(ステップS807)。第2駆動指令は、タッチパネル120に第2振動パターンによる振動を発生させる駆動指令である。
 ステップS807の処理は、制御部210がドライバIC260に第2駆動指令を入力することによって行われる。なお、ステップS807の処理は、制御部210の駆動制御部211によって行われる。
 ここで、フローがステップS807に進行する場合は、フローがステップS801、S802、S803、S804、S805、S806と進行し、フローがS801にリターンして、S802、S803、S804、S807と進行した場合である。
 これは、利用者がタッチパネル120のGUIボタンを押す力は、徐々に立ち上がるため、GUIボタンに最初に触れ始めた際には、ステップS804で荷重が第2閾値未満であると判定されて、ステップS805に進行するからである。
 従って、利用者がタッチパネル120の所定のGUIボタンを押すと、最初にステップS805の処理によってタッチパネル120に第1振動パターンの振動が発生した後に、ステップS807の処理によってタッチパネル120に第2振動パターンの振動が発生することになる。
 このため、利用者は、最初に第1振動パターンによる振動で所定のGUIボタンに触れていることを認識でき、次に、第2振動パターンによる振動で所定のGUIボタンの操作が電子機器300に受け付けられたことを認識できる。
 また、制御部210は、ステップS802で操作入力のあった位置が所定の領域外であると判定した場合(S802:NO)は、フローをステップS808に進行する。
 制御部210は、荷重が第1閾値以上であるか否かを判定する(ステップS808)。ステップS808の処理は、ステップS803の処理と同様に、制御部210が荷重センサ160(図5参照)から受信した荷重データが表す荷重が第1閾値以上であるか否かを判定することによって行われる。また、ステップS808の処理は、制御部210の荷重判定部によって行われる処理である。
 制御部210は、荷重が第1閾値以上であると判定した場合(S808:YES)は、荷重が第2閾値未満であるか否かを判定する(ステップS809)。ステップS809の処理は、ステップS804の処理と同様に、制御部210が荷重センサ160(図5参照)から受信した荷重データが表す荷重が第2閾値未満であるか否かを判定することによって行われる。また、ステップS809の処理は、制御部210の荷重判定部によって行われる処理である。
 制御部210は、荷重が第2閾値未満であると判定した場合(S809:YES)は、第3駆動指令でLRA140を駆動する(ステップS810)。第3駆動指令は、タッチパネル120に第3振動パターンによる振動を発生させる駆動指令である。
 ステップS810の処理は、制御部210がドライバIC260に第3駆動指令を入力することによって行われる。なお、ステップS810の処理は、制御部210の駆動制御部211によって行われる。
 ここで、フローがステップS801、S802、S803、S804、及びS805の順に進行する場合は、利用者がタッチパネル120の所定のGUIボタン以外のGUIボタンを軽く押すことによって、タッチパネル120に第3振動パターンによる振動が発生する場合に相当する。この場合に、利用者は、指先の触感だけで、所定のGUIボタン以外のGUIボタンに触れていることを認識できる。
 なお、第3振動パターンは、LRA140を駆動せずに、タッチパネル120に振動を発生させない振動パターンであってもよい。この場合には、利用者がタッチパネル120の所定のGUIボタンに軽く触れたときだけに、タッチパネル120を(第1振動パターンで)振動させるようにすることができる。
 制御部210は、ステップS809において、荷重が第2閾値未満ではないと判定した場合(S809:NO)は、フローをステップS811に進行する。
 制御部210は、第4駆動指令でLRA140を駆動する(ステップS811)。第4駆動指令は、タッチパネル120に第4振動パターンによる振動を発生させる駆動指令である。
 ステップS811の処理は、制御部210がドライバIC260に第4駆動指令を入力することによって行われる。なお、ステップS811の処理は、制御部210の駆動制御部211によって行われる。
 ここで、フローがステップS811に進行する場合は、フローがステップS801、S802、S808、S809、S810、S806と進行し、フローがS801にリターンして、S802、S808、S809、S811と進行した場合である。
 これは、利用者がタッチパネル120のGUIボタンを押す力は、徐々に立ち上がるため、GUIボタンに最初に触れ始めた際には、ステップS809で荷重が第2閾値未満であると判定されて、ステップS810に進行するからである。
 従って、利用者がタッチパネル120の所定のGUIボタン以外のGUIボタンを押すと、最初にステップS810の処理によってタッチパネル120に第3振動パターンの振動が発生した後に、ステップS811の処理によってタッチパネル120に第4振動パターンの振動が発生することになる。
 このため、利用者は、最初に第3振動パターンによる振動で所定のGUIボタン以外のGUIボタンに触れていることを認識でき、次に、第4振動パターンによる振動で所定のGUIボタン以外のGUIボタンの操作が電子機器300に受け付けられたことを認識できる。
 なお、第4駆動指令は、第2駆動指令と同一の駆動指令であってもよい。この場合は、所定のGUIボタンで操作入力が電子機器300に受け付けられた場合と、所定のGUIボタン以外のGUIボタンで操作入力が電子機器300に受け付けられた場合とで利用者に提供する振動を統一できる。
 以上のように、実施の形態の電子機器300によれば、利用者がタッチパネル120の所定のGUIボタンを押すと、最初に第1振動パターンの振動をタッチパネル120に発生させ、その後に、第2振動パターンの振動をタッチパネル120に発生させる。
 このため、利用者は、最初に第1振動パターンによる振動で所定のGUIボタンに触れていることを触感だけで認識でき、次に、第2振動パターンによる振動で所定のGUIボタンへの操作入力が電子機器300に受け付けられたことを触感だけで認識できる。
 特に、利用者がタッチパネル120の所定のGUIボタンを軽く押したときに、第1振動パターンの振動をタッチパネル120に発生させることにより、従来の機械式のキースイッチの特定のキースイッチに設けられた突起を触っている場合と同様に、利用者は触感だけで特定のGUIボタンの位置を認識することができる。
 また、電子機器300が所定のGUIボタンへの操作入力を受け付けるのは、所定のGUIボタンをさらに強く押したときであり、第2振動パターンでタッチパネル120を振動させることにより、触感だけで操作入力が受け付けられたことを認識することができる。
 このため、実施の形態の電子機器300によれば、所定のGUIボタンの位置を第1振動パターンで触感だけで利用者に認識させることができるとともに、第2振動パターンで操作入力の完了を触感だけで利用者に認識させることができる。
 次に、図9乃至図12を用いて、実施の形態の電子機器300がスマートフォン300Aである場合における動作例について説明する。
 また、以下では、第3振動パターンは、タッチパネル120を振動させないパターンであることとする。
 図9乃至図12は、実施の形態のスマートフォン300Aの動作例を示す図である。
 図9(A)に示すように、スマートフォン300Aのタッチパネル120に、GUIボタン121A、121B、121C、121D、121E、121Fが表示されているとする。
 GUIボタン121Aは、電話の機能を利用する際に押すGUIボタンであり、GUIボタン121Bは、メールの機能を利用する際に押すGUIボタンである。GUIボタン121Cは、電話帳を利用する際に押すGUIボタンである。また、GUIボタン121D~121Fは、特定の動作を割り当てることのできるGUIボタンである。例えば、GUIボタン121D~121Fは、特定の連絡先に電話をかけるための短縮ボタンとして利用することができる。
 例えば、スマートフォン300Aにおいて、GUIボタン121Aを所定のGUIボタンに設定したとする。この場合には、例えば、図9(B)に示すように、GUIボタン121Aのボタンの色を変えてもよい。
 図10(A)に示すように、利用者の指がGUIボタン121Eに軽く触れた場合には、タッチパネル120には振動は発生しない。GUIボタン121Eは、所定のGUIボタン以外のGUIボタンであり、ここでは第3振動パターンは、タッチパネル120を振動させないパターンであるからである。また、利用者がGUIボタン121Eをさらに強く押した場合には、タッチパネル120は第4振動パターンで振動され、利用者は操作入力が受け付けられたことを認識できる。
 図10(B)に示すように、利用者の指がGUIボタン121Aに触れると、スマートフォン300Aは、最初にタッチパネル120を第1振動パターンで振動させ、GUIボタン121Aがさらに強く押されると、タッチパネル120を第2振動パターンで振動させる。
 このため、利用者は、触感だけでGUIボタン121Aの位置を認識できるとともに、操作入力がスマートフォン300Aに受け付けられたことを認識できる。
 次に、スマートフォンで電卓の機能を利用する場合について説明する。
 図11(A)に示すように、スマートフォン300Aのタッチパネルには、電卓用のテンキー等を表すGUIボタンが表示されている。
 図11(B)に示すように、'5'のGUIボタンを所定のGUIボタンに設定したとする。このため、'5'のGUIボタンだけをグレーで示す。
 図12(A)に示すように、'9'のGUIボタンに軽く触れた場合には、タッチパネル120には振動は発生しない。'9'のGUIボタンは、所定のGUIボタン以外のGUIボタンであり、ここでは第3振動パターンは、タッチパネル120を振動させないパターンであるからである。また、利用者が'9'のGUIボタンをさらに強く押した場合には、タッチパネル120は第4振動パターンで振動され、利用者は操作入力が受け付けられたことを認識できる。
 また、利用者の指が'5'のGUIボタンに触れると、スマートフォン300Aは、最初にタッチパネル120を第1振動パターンで振動させ、'5'のGUIボタンがさらに強く押されると、タッチパネル120を第2振動パターンで振動させる。
 このため、利用者は、触感だけで'5'のGUIボタンの位置を認識できるとともに、操作入力がスマートフォン300Aに受け付けられたことを認識できる。
 以上のように、実施の形態のスマートフォン300Aによれば、利用者がタッチパネル120の所定のGUIボタンを押すと、最初に第1振動パターンの振動をタッチパネル120に発生させ、その後に、第2振動パターンの振動をタッチパネル120に発生させる。
 このため、利用者は、最初に第1振動パターンによる振動で所定のGUIボタンに触れていることを触感だけで認識でき、次に、第2振動パターンによる振動で所定のGUIボタンの操作がスマートフォン300Aに受け付けられたことを触感だけで認識できる。
 特に、利用者がタッチパネル120の所定のGUIボタン(図9(B)に示すGUIボタン121Aと図11(B)に示す'5'のGUIボタン)を軽く押したときに、第1振動パターンの振動をタッチパネル120に発生させる。これにより、従来の機械式のキースイッチの特定のキースイッチに設けられた突起を触っている場合と同様に、利用者が触感だけで特定のGUIボタンの位置を認識できるスマートフォン300Aを提供することができる。
 以上では、特定のGUIボタンを触感で識別できる電子機器300及びスマートフォン300Aの実施の形態について説明した。以上で説明した波形データによって表される波形の立ち上がり又は立ち上がりの形状は、任意の形状であってよい。
 しかしながら、波形の立ち上がり、又は、立ち下がりを急峻にすれば、利用者が指を通じてタッチパネル120の振動をより認識しやすくなり、振動波形を組み合わせて操作入力に対する振動波形を自由に生成できる。
 例えば、タッチパネル120ではない機械的なボタンを押したような触感(ボタンをクリックしたような感覚)をスマートフォン300Aを利用者に提供できれば、様々な振動波形を利用者がより認識しやすくなる。
 このため、以下では、図13乃至図28を用いて、第1の方法、第2の方法、及び第3の方法によるLRAの駆動方法について説明する。第1の方法、第2の方法、及び第3の方法によるLRAの駆動方法は、利用者がタッチパネル120の振動波形をより認識しやすくなる触感を提供する駆動方法である。
 以下で説明する第1の方法、第2の方法、及び第3の方法で生成する波形データは、以上で説明した第1駆動指令、第2駆動指令、第3駆動指令、第4駆動指令を生成するための波形データとして用いることができる。
 例えば、第1駆動指令によって生じる第1振動パターンを機械的なボタンをクリックしたような触感にすれば、利用者の指が所定のGUIボタンに軽く触れた際に、所定のGUIボタンの位置を素早く利用者に伝えることができる。
 また、第2駆動指令によって生じる第2振動パターンを機械的なボタンをクリックしたような触感にすれば、利用者の指が所定のGUIボタンを操作するために強く触れた際に、所定のGUIボタンへの操作入力が受け付けられたことを利用者が認識しやすくなる。
 また、第3駆動指令によって生じる第3振動パターンを機械的なボタンをクリックしたような触感にすれば、利用者の指が所定のGUIボタン以外のGUIボタンに軽く触れた際に、所定のGUIボタン以外のGUIボタンの位置を素早く利用者に伝えることができる。
 また、第4駆動指令によって生じる第4振動パターンを機械的なボタンをクリックしたような触感にすれば、利用者の指が所定のGUIボタン以外のGUIボタンを操作するために強く触れた際に、所定のGUIボタン以外のGUIボタンへの操作入力が受け付けられたことを利用者が認識しやすくなる。
 なお、上述したように、第2振動パターンと第4振動パターンは同じ振動パターンでもよいが、第1振動パターンと第3振動パターンは異なる振動パターンに設定される。これは、利用者がタッチパネル120に触れ始める際に、所定のGUIボタンの位置を触感だけで利用者が認識できるようにするためである。
 以下に実施の形態の波形データについて説明する。実施の形態では、3つの方法を用いてLRAの振動のパターンを変化させて、機械的なボタンをクリックしたような触感を表現する。
 まず第1の方法について説明する。第1の方法は、駆動指令の供給停止後も続くLRAの固有振動数による自由振動を抑制する方法である。以下の実施の形態の説明では、駆動指令の供給停止後も続くLRAの固有振動数による自由振動を残留振動と呼ぶ。
 第1の方法では、後述する特定の条件を満たす駆動指令をLRA140に供給したときにLRA140の振動が1~数周期で停止することに着目した。第1の方法では、特定の条件を満たす駆動指令をLRA140に印加して残留振動を停止させることで、1~数周期で急速に減衰する振動を発生させ、機械的なボタンをクリックしたような触感を表現する。
 特定の条件を満たす駆動指令は、LRA140の固有振動数をf0としたとき、f1=m/n×f0(m,nは自然数かつm≠n)となる周波数f1の信号でLRA140をm回加振する信号である。
 図13は、LRAの動作原理を説明するための図であり、図14は、LRAに印加される入力波形の例を示す図である。
 LRA140の固有振動数f0を175Hzとし、m=2,n=1としたとき、駆動指令の周波数f1=2/1×175=350Hzとなる。駆動指令の周波数をf1としたときの正弦波Fは、図14に示す波形である。図14の例では、正弦波F=0.01sin2πf1tとなる。
 正弦波FがLRA140に印加されると、LRA140にはLRA140の固有振動数(共振周波数)f0の振動が生じる。すなわち、LRA140には、周波数f1の正弦波と、LRA140の固有振動数f0の正弦波とが合成された合成波が生じ、LRA140はこの合成波に応じて変位する。
 図15は、図14の入力を駆動指令として印加したときのLRAの振動の加速度を示す図である。図15(A)は、LRA140に発生する変位の強制変位成分と自由振動成分を示す図であり、図15(B)は合成波を示す図である。
 図15(A)において、点線で示される波形y1はLRA140に正弦波Fが印加されたときに生じるLRA140の強制振動変位を示し、実線で示される波形y2は自由振動変位を示す。LRA140に生じる変位y3は、波形y1と波形y2との合成波となる。
 図15(B)は、波形y1と波形y2との合成波y3の例を示す図である。合成波y3は、正弦波Fが0となるタイミングTにおいて0となることがわかる。
 合成波y3が0となるタイミングTにおいて、LRA140の振動の速度、振動の加速度ともに0になるため、LRA140の振動は停止する。
 図16は、LRAの振動の速度及び振動の加速度の例を示す図である。図16(A)は合成波y3の波形を示す図であり、図16(B)は合成波y3の変位を微分して得る速度の波形y3′を示す図であり、図16(C)は合成波y3の変位を2回微分して得る加速度の波形y3″を示す図である。
 図16からわかるように、速度の波形y3′と加速度の波形y3″とは、合成波y3が0となるタイミングで0となる。すなわちLRA140の振動がタイミングTで停止する。
 このときLRA140の振動の加速度の波形y3″は、0.01sec以内に2周期で停止する。したがって図16の例では、振動の加速度が0.01sec以内に人の感知限界0.02G以下となり、ボタン2を押したようなクリック感を表現することができる。
 以下に図17乃至図20を参照して、上述する第1の方法の効果を説明する。図17は、LRAの固有振動数の正弦波を駆動指令としたときのLRA140の振動の加速度を示す図である。
 図17(A)は、LRA140の固有振動数f0=175Hzの正弦波を示す。図17(B)は、図17(A)の正弦波を駆動指令としてシミュレーションした際のLRA140の振動の加速度を示す。図17(C)は、固有振動数f0=175HzのLRA140を搭載した実機において図17(A)の正弦波を駆動指令した際のタッチパネル120の振動の加速度を示す。タッチパネル120の振動の加速度は、タッチパネル120の中央に加速度計を設置して測定したものである。
 図17(B),(C)からわかるように、固有振動数f0の正弦波を駆動指令とした場合、残留振動が0.1sec以上に亘り現れる。
 なお、図17(C)において駆動指令が印加されるLRA140は、固有振動数f0=175Hz、重りの重さを1.5g、重りを支持するばね定数を1813.5N/mのものとした。
 図18は、駆動信号停止後にLRA140に発生する振動の逆位相の(180度位相のずれた)電圧を印加する従来の方法を適用した際に電子機器で測定した加速度を示す図である。図18(A)は、LRA140の固有振動数f0=175Hzの正弦波を示す。図18(B)は、LRA140を搭載した実機において図18(A)の正弦波を駆動指令とし、かつ、駆動指令停止後にLRA140に発生する残留振動の逆位相の電圧を印加したときのLRA140の振動の加速度を示す。
 図18の例では、図17に比べて残留振動は小さくなるが、振動の加速度が人の感知下限の0.02G以下になるまでに0.05sec以上かかる。
 図19は、実施形態の条件を満たさない信号を入力駆動信号としたときのLRAの加速度応答シミュレーションと、実際の電子機器での加速度測定結果を示す図である。
 図19(A)は、実施形態による特定の条件を満たさない周波数300Hzの正弦波を示す。図19(B)は、図19(A)の正弦波を駆動指令としてシミュレーションした際の振動の加速度を示す。図19(C)は、固有振動数f0=175HzのLRA140を搭載した実機において図19(A)の正弦波を駆動指令した際の振動の加速度を示す。
 図19の例では、図(B),(C)からわかるように、特定の条件を満たさない周波数の正弦波を駆動指令とした場合、残留振動が0.04sec以上に亘り現れる。
 図20は、実施形態の条件を満たす信号を入力駆動信号としたときのLRAの加速度応答シミュレーションと、実際の電子機器での加速度測定結果を示す図である。
 図20(A)は、特定の条件を満たす周波数350Hzの正弦波を示す。図20(B)は、図20(A)の正弦波を駆動指令としてシミュレーションした際のLRA140の振動の加速度を示す。図20(C)は、固有振動数f0=175HzのLRA140を搭載した実機において図20(A)の正弦波を駆動指令した際のLRA140の振動の加速度を示す。
 図20の例では、図20(B),(C)からわかるように、0.02sec以降は残留振動の加速度が感知下限の0.02G以下となり、振動の波形は短時間の波形となる。
 以上から、LRA140による振動の波形は、LRA140の固有振動数をf0としたとき、f1=m/n×f0(m,nは自然数かつm≠n)となる周波数f1の信号でLRA140をm回加振する信号を駆動指令とすれば、振動の加速度の波形は1~数周期で急速に減衰する短時間の波形となり、残留振動をなくすことができる。
 なお、固有振動数f0は、LRA140を電子機器300に組み込んだ後のLRA140の固有振動数としても良い。また周波数f1は、m/n×f0に対して誤差が1%以下となるように設定することが好ましい。このように周波数f1を設定すれば、駆動指令の印加を停止した後に残留振動が生じたとしても、振動の加速度は人の感知下限である0.02G以下となり人に感知されないため、機械的なボタンをクリックしたような触感を損ねることがない。
  次に、LRAの振動のパターンを変化させて機械的なボタンをクリックしたような触感を表現する第2の方法について説明する。
 第2の方法では、筐体110に固定されたタッチパネル120自体も高周波で振動する振動体であることに着目する。第2の方法では、LRA140の駆動指令を、振幅がピークの時点でLRA140に対する加振を停止させる信号とし、タッチパネル120自体の高周波の振動を励起することで、1~数周期で急速に減衰する振動を発生させて機械的なボタンをクリックしたような触感を表現する。
 図21は、タッチパネルの共振周波数による振動の励起を説明する図である。図21(A)は、LRA140に印加される駆動指令の正弦波形を示し、図21(B)はタッチパネル120の振動の加速度の波形を示す。図21の例では、駆動指令は電圧である。また図21の例では、LRA140の共振周波数を225Hzとし、タッチパネル120の共振周波数を1kHzとした。すなわちLRA140の振動は低周波振動であり、タッチパネル120の振動は高周波振動と言える。なお、タッチパネル120の共振周波数は、タッチパネル120の4辺が筐体110に固定された状態における共振周波数である。
 図21に示す例において、LRA140を共振周波数225Hzで低周波振動させた場合、タッチパネル120の高周波振動は励起されない。この状態においてLRA140の振動を調和振動から外し、急激な力をタッチパネル120に印加することで、タッチパネル120の共振周波数である1kHzの振動を励起する。
 図21の例では、図21(A)に示すように、振幅がピークとなった点P1でLRA140に対する加振を停止させる信号を駆動指令とした。図21(A)に示す駆動指令の振幅は、LRA140に対する加振が停止した直後に0となる。図21の例では、駆動指令の振幅をピークから0にすることで、LRA140の振動を調和振動から外す。
 また図21の例では、駆動指令によるLRA140の駆動時間を7/4周期とし、振幅がピークとなる点P1が駆動指令の終端となるようにした。なお、駆動指令の終端とは、LRA140に対する加振を停止する点である。
 この結果、図21(B)に示すように、点P1において周波数が1kHzの高周波振動が励起され、1~数周期で急速に減衰する振動を発生させる。さらに図21の例では、点P1で高周波振動を励起することで、低周波振動の加速度の最大値と高周波振動の加速度の最大値とを重畳し、短時間でより急峻なピークを発生させることができる。このように第2の方法では、振動の加速度の短時間の急峻なピークを発生させることで、鋭い触感を提示することができ、機械的なボタンをクリックしたような触感を表現できる。
 以下に図22を参照して上述する第2の方法の効果を説明する。図22は、LRAの共振周波数の電圧を駆動指令としたときのタッチパネルの振動の加速度を示す図である。図22の例では、LRA140の駆動時間を短くして機械的なボタンをクリックしたような触感の表現を試みた際のタッチパネル120の振動の加速度を示している。
 しかしながらタッチパネル120の振動は、LRA140の駆動時間を短くしても、振動量を増幅させるための立ち上がりの時間と、増幅された振動の加速度が0.02G以下に減衰するまでの時間が必要となり、振動が数周期に亘って続く。図22の例では、立ち上がりから減衰までに25msec程度の時間がかかり、振動が約4周期に亘り続いていることがわかる。したがって機械的なボタンをクリックした際の感覚のような鋭い触感を提示することが困難である。
 これに対しで図21(B)では、周波数1kHzの高周波振動が励起され、であり、振動も2周期程度で減衰していることがわかる。
 よって第2の方法では、振動の加速度の短時間の急峻なピークを発生させて機械的なボタンをクリックしたような触感を表現することができる。
 なお、図21の例では、駆動指令の終端である点P1で高周波振動が励起され、高周波振動の加速度がピークを迎える。よって高周波振動の加速度がピークを迎えるタイミングは、駆動指令が点P1となるタイミングから僅かにずれることになる。
 第2の方法では、このタイミングのずれを無くすために、高周波振動を励起する箇所を点P1からずらしても良い。図23は、高周波振動を励起する箇所を点P1からずらした例を示す図である。図23(A)は、LRA140に印加される駆動指令の正弦波形を示し、図23(B)はLRA140の振動の加速度の波形を示す。
 図23(A)において、駆動指令は、振幅のピークからわずかにずれた点P2を終端としている。図23(B)では、駆動指令の終端P2を振幅のピークからずらしたため、重畳される低周波振動の加速度が最大値より小さくなり、高周波振動の加速度のピークは図21(B)に示す値よりも小さくなるが、図21の例と同等の効果を得ることができる。
 次に、第1の方法と第2の方法を組み合わせた第3の方法について説明する。
 第3の方法の駆動装置200では、第1の方法と第2の方法とを用いて生成したLRA140の駆動指令を表す波形を波形データとしてメモリ220内の波形データベース240に保持している。
 以下に第3の方法の駆動指令について説明する。第3の方法では、第1の方法で説明した特定の条件を満たし、かつ、第2の方法で説明したように振幅がピークとなる点を終端とする信号を駆動指令とした。
 図24は、第3の方法のLRAの駆動指令の例を示す図である。図24(A)は、第3の方法の駆動指令Gの波形であり、図24(B)は第3の方法の駆動指令GがLRA140に印加された際のタッチパネル120の振動の加速度を示す図である。
 第3の方法の駆動指令Gは、周波数f1=m/n×f0(m,nは自然数かつm≠n)となる周波数f1の信号でかつ、LRA140をm回加振する信号である。図24の例では、m=3,n=2とした。また第3の方法の駆動指令Gは、さらに振幅が最大値となる点P3を終端とする。
 第3の方法では、駆動指令Gをm周期の信号でありかつ、振幅のピークが終端となる信号とするために、駆動指令Gを正弦波波形からπ/2位相をずらした余弦波とした。第3の方法では駆動指令Gを余弦波とすることで、駆動指令Gを特定の条件を満たしかつ、終端が振幅のピークとなる信号とすることができる。
 なお、第3の方法の電子機器300では、タッチパネル120にLRA140が取り付けられているため、タッチパネル120の共振周波数をタッチパネル120の4辺が筐体110に固定された状態における共振周波数とした。タッチパネル120の共振周波数は、例えばLRA140が筐体110内部に配置される場合には、タッチパネル120が筐体110に組み込まれた状態におけるタッチパネル120の共振周波数となる。
 第3の方法の駆動装置200の波形データは、駆動指令Gの周波数f1、振幅、位相、周期(mの値)等を含む。また第3の方法の波形データは、駆動指令Gの波形を表す式を含んでも良い。
 第3の方法の駆動装置200は、図6のステップS603において、API250により、駆動指令Gを示す波形データを読み出し、波形データに対応した駆動指令をドライバIC260へ出力する。ドライバIC260は、波形データをD/A変換して増幅し、LRA140に出力する。
 第3の方法の駆動装置200において、LRA140に駆動指令Gが印加された場合について説明する。
 図25は、第3の方法のLRAに対する入力波形を示す図である。図25に示す波形は、駆動指令GをLRA140に印加することにより、LRA140に加えられる力を示している。
 第3の方法において、LRA140の固有振動数f0を225Hzとし、m=3,n=2としたとき、駆動指令Gの周波数f1は、f1=3/2×225=337.5Hzとなる。図25に示す波形は、駆動指令Gの周波数をf1としたときの正弦波Fの位相をπ/2ずらした余弦波G1である。正弦波Fは、F=0.01sin2πf1tで得られる。
 余弦波G1がLRA140に印加されると、LRA140にはLRA140の固有振動数f0(すなわち共振周波数)の振動が生じる。すなわち、LRA140には、周波数f1の余弦波G1と、LRA140の固有振動数f0の余弦波とが合成された合成波が生じ、LRA140はこの合成波に応じて変位する。
 図26は、第3の方法によるLRAの変位を示す図である。図26(A)は、変位を説明する第一の図であり、図26(B)は変位を説明する第二の図である。
 図26(A)において、点線で示される波形y11はLRA140に余弦波G1が印加されたときに生じる振動変位の強制振動成分を示し、実線で示される波形y12は自由振動成分を示す。余弦波G1がLRA140に印加されたときの応答変位y13は、波形y11と波形y12との合成波となる。
 図26(B)は、波形y11と波形y12との合成波y13の変位の一例を示す図である。合成波y13は、余弦波G1が0となるタイミングT1において0となることがわかる。
 合成波y13が0となるタイミングT1において、LRA140の振動の速度も0になるため、LRA140の振動は停止する。
 図27は、第3の方法のLRAの振動の速度及び振動の加速度の例を示す図である。図27(A)は合成波y13の波形を示す図であり、図27(B)は合成波y13の変位を微分して得る速度の波形y13′を示す図であり、図27(C)は合成波y13の変位を2回微分して得られる加速度の波形y13″を示す図である。
 図27からわかるように、速度の波形y13′と加速度の波形y13″とは、合成波y13が0となるタイミングT1で0となる。すなわちLRA140の振動がタイミングT1で停止する。
 このとき加速度の波形y13″は、0.01sec以内に3周期で停止する。したがって第3の方法では、0.01sec以内に振動の加速度が0.02G以下となり、メタルドーム式のボタン2をクリックしたような触感を表現することができる。
 なお、第3の方法では、余弦波G1の振幅がピークとなる点で加振を停止させるものとしたが、これに限定されない。第3の方法において駆動指令の終端は、例えばタッチパネル120の振動の加速度を示す波形に、クリック感を表現する急峻なピークを生成できる点であれば良い。第3の方法において駆動指令の終端は、振幅の中心点である0以外であれば良く、駆動指令の終端は振幅のピークに近い点であるほど良い。
 また第3の方法の電子機器300では、LRA140がタッチパネル120の筐体側の面に取り付けられるものとしたが、これに限定されない。LRA140は、例えば筐体110内部に配置された基板150の近傍に配置されても良い。
 図28は、LRA140が筐体に設けられた電子機器の例を示す図である。図28に示す電子機器100Aでは、LRA140が筐体110内部に設けられた基板150の近傍に配置されている。
 第3の方法は、電子機器100Aに対しても適用することができる。また電子機器100Aに第3の方法を適用した場合、第3の方法の電子機器300と同様にメタルドーム式のボタン2をクリックしたような触感を表現することができる。
 以上、実施の形態の電子機器、及び駆動制御プログラムについて詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。
 300、100A 電子機器
 110 筐体
 120 タッチパネル
 130 両面テープ
 140 LRA
 160 荷重センサ
 200 駆動装置
 210 制御部
 211 駆動制御部
 212 位置判定部
 213 荷重判定部
 220 メモリ
 230 駆動制御プログラム
 240 波形データベース
 250 API
 260 ドライバIC
 300A スマートフォン
 301 ディスプレイ
 302 タッチセンサ
 303 入力部
 304 信号処理部
 305 通信部
 308 記録媒体I/F部
 350 閾値データベース

Claims (10)

  1.  タッチパネルと、
     前記タッチパネルを振動させるアクチュエータと、
     利用者の前記タッチパネルへの操作入力の荷重を検出する荷重検出部と、
     前記タッチパネルへの操作入力が行われた位置が前記タッチパネルの所定領域内であり、かつ、前記荷重検出部によって検出される荷重が第1所定値以上で、前記第1所定値よりも大きい第2所定値未満である場合に、前記タッチパネルに第1振動パターンによる振動を発生させる第1駆動指令で前記アクチュエータを駆動する駆動制御部と
     を含む、電子機器。
  2.  前記駆動制御部は、前記第1振動指令で前記アクチュエータを駆動した後に、前記所定領域内への操作入力が行われている状態で、前記荷重検出部によって検出される荷重が前記第2所定値以上である場合には、前記第1振動パターンとは異なる第2振動パターンによる振動を前記タッチパネルに発生させる第2駆動指令で前記アクチュエータを駆動する、請求項1記載の電子機器。
  3.  前記駆動制御部は、前記タッチパネルへの操作入力が行われた位置が前記タッチパネルの前記所定領域外であり、前記荷重検出部によって検出される荷重が第1所定値以上で、前記第2所定値未満である場合に、前記タッチパネルに前記第1振動パターンとは異なる第3振動パターンによる振動を発生させる第3駆動指令で前記アクチュエータを駆動する、請求項1又は2記載の電子機器。
  4.  前記駆動制御部は、前記タッチパネルへの操作入力が行われた位置が前記タッチパネルの前記所定領域外であり、前記荷重検出部によって検出される荷重が前記第2所定値以上である場合には、第4振動パターンによる振動を前記タッチパネルに発生させる第4駆動指令で前記アクチュエータを駆動する、請求項2記載の電子機器。
  5.  前記第2駆動指令と前記第4駆動指令は同一の駆動指令であり、前記第2振動パターンと前記第4振動パターンは等しい、請求項4記載の電子機器。
  6.  前記第1駆動指令は、前記アクチュエータの共振周波数をf0としたとき、周波数f1=m/n×f0(m,nは自然数かつm≠n)を満たす正弦波であり、かつ、前記アクチュエータをm回加振する駆動指令、前記アクチュエータの共振周波数と等しい周波数を有する正弦波であり、かつ、前記正弦波の振幅の中心点以外において前記アクチュエータの加振を停止する駆動指令、又は、前記アクチュエータの共振周波数をf0としたとき、周波数f1=m/n×f0(m,nは自然数かつm≠n)を満たす正弦波から位相がπ/2ずれており、かつ、前記アクチュエータをm回加振し、振幅の中心点以外において前記アクチュエータの加振を停止させる駆動指令のうちのいずれか一つである、請求項1乃至5のいずれか一項記載の電子機器。
  7.  前記第2駆動指令は、前記アクチュエータの共振周波数をf0としたとき、周波数f1=m/n×f0(m,nは自然数かつm≠n)を満たす正弦波であり、かつ、前記アクチュエータをm回加振する駆動指令、前記アクチュエータの共振周波数と等しい周波数を有する正弦波であり、かつ、前記正弦波の振幅の中心点以外において前記アクチュエータの加振を停止する駆動指令、又は、前記アクチュエータの共振周波数をf0としたとき、周波数f1=m/n×f0(m,nは自然数かつm≠n)を満たす正弦波から位相がπ/2ずれており、かつ、前記アクチュエータをm回加振し、振幅の中心点以外において前記アクチュエータの加振を停止させる駆動指令のうちのいずれか一つである、請求項2記載の電子機器。
  8.  前記第3駆動指令は、前記アクチュエータの共振周波数をf0としたとき、周波数f1=m/n×f0(m,nは自然数かつm≠n)を満たす正弦波であり、かつ、前記アクチュエータをm回加振する駆動指令、前記アクチュエータの共振周波数と等しい周波数を有する正弦波であり、かつ、前記正弦波の振幅の中心点以外において前記アクチュエータの加振を停止する駆動指令、又は、前記アクチュエータの共振周波数をf0としたとき、周波数f1=m/n×f0(m,nは自然数かつm≠n)を満たす正弦波から位相がπ/2ずれており、かつ、前記アクチュエータをm回加振し、振幅の中心点以外において前記アクチュエータの加振を停止させる駆動指令のうちのいずれか一つである、請求項3記載の電子機器。
  9.  前記第4駆動指令は、前記アクチュエータの共振周波数をf0としたとき、周波数f1=m/n×f0(m,nは自然数かつm≠n)を満たす正弦波であり、かつ、前記アクチュエータをm回加振する駆動指令、前記アクチュエータの共振周波数と等しい周波数を有する正弦波であり、かつ、前記正弦波の振幅の中心点以外において前記アクチュエータの加振を停止する駆動指令、又は、前記アクチュエータの共振周波数をf0としたとき、周波数f1=m/n×f0(m,nは自然数かつm≠n)を満たす正弦波から位相がπ/2ずれており、かつ、前記アクチュエータをm回加振し、振幅の中心点以外において前記アクチュエータの加振を停止させる駆動指令のうちのいずれか一つである、請求項4記載の電子機器。
  10.  コンピュータに、
     タッチパネルへの操作入力が行われた位置が前記タッチパネルの所定領域内であり、かつ、利用者の前記タッチパネルへの操作入力の荷重を検出する荷重検出部によって検出される荷重が第1所定値以上で、前記第1所定値よりも大きい第2所定値未満である場合に、前記タッチパネルに第1振動パターンによる振動を発生させる第1駆動指令で前記アクチュエータを駆動する、ことを実行させる駆動制御プログラム。
PCT/JP2012/064945 2012-06-11 2012-06-11 電子機器、及び駆動制御プログラム WO2013186844A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014520830A JP5822022B2 (ja) 2012-06-11 2012-06-11 電子機器、及び駆動制御プログラム
PCT/JP2012/064945 WO2013186844A1 (ja) 2012-06-11 2012-06-11 電子機器、及び駆動制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/064945 WO2013186844A1 (ja) 2012-06-11 2012-06-11 電子機器、及び駆動制御プログラム

Publications (1)

Publication Number Publication Date
WO2013186844A1 true WO2013186844A1 (ja) 2013-12-19

Family

ID=49757708

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/064945 WO2013186844A1 (ja) 2012-06-11 2012-06-11 電子機器、及び駆動制御プログラム

Country Status (2)

Country Link
JP (1) JP5822022B2 (ja)
WO (1) WO2013186844A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017513165A (ja) * 2014-03-21 2017-05-25 イマージョン コーポレーションImmersion Corporation 力ベースのオブジェクト操作及び触覚的感覚のためのシステム及び方法
JP2021515941A (ja) * 2018-03-08 2021-06-24 センセル インコーポレイテッドSensel,Inc. 人間コンピュータインタフェースシステム
US11360563B2 (en) 2016-03-31 2022-06-14 Sensel, Inc. System and method for detecting and responding to touch inputs with haptic feedback
US11409388B2 (en) 2016-03-31 2022-08-09 Sensel, Inc. System and method for a touch sensor interfacing a computer system and a user
US11422631B2 (en) 2016-03-31 2022-08-23 Sensel, Inc. Human-computer interface system
US11460924B2 (en) 2016-03-31 2022-10-04 Sensel, Inc. System and method for detecting and characterizing inputs on a touch sensor surface
US11460926B2 (en) 2016-03-31 2022-10-04 Sensel, Inc. Human-computer interface system
WO2023037968A1 (ja) * 2021-09-09 2023-03-16 京セラ株式会社 電気機器及び振動制御方法
US11880506B2 (en) 2020-10-06 2024-01-23 Sensel, Inc. Haptic keyboard system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212725A (ja) * 1998-01-26 1999-08-06 Idec Izumi Corp 情報表示装置および操作入力装置
WO2010103693A1 (ja) * 2009-03-09 2010-09-16 シコー株式会社 振動モータ及び電子機器
JP2010287232A (ja) * 2009-06-09 2010-12-24 Immersion Corp アクチュエータを用い触覚効果を生成する方法及び装置
JP2012020284A (ja) * 2004-11-30 2012-02-02 Immersion Corp 振動触覚ハプティック効果を発生させるための共振装置を制御するためのシステムおよび方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212725A (ja) * 1998-01-26 1999-08-06 Idec Izumi Corp 情報表示装置および操作入力装置
JP2012020284A (ja) * 2004-11-30 2012-02-02 Immersion Corp 振動触覚ハプティック効果を発生させるための共振装置を制御するためのシステムおよび方法
WO2010103693A1 (ja) * 2009-03-09 2010-09-16 シコー株式会社 振動モータ及び電子機器
JP2010287232A (ja) * 2009-06-09 2010-12-24 Immersion Corp アクチュエータを用い触覚効果を生成する方法及び装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017513165A (ja) * 2014-03-21 2017-05-25 イマージョン コーポレーションImmersion Corporation 力ベースのオブジェクト操作及び触覚的感覚のためのシステム及び方法
US11360563B2 (en) 2016-03-31 2022-06-14 Sensel, Inc. System and method for detecting and responding to touch inputs with haptic feedback
US11409388B2 (en) 2016-03-31 2022-08-09 Sensel, Inc. System and method for a touch sensor interfacing a computer system and a user
US11422631B2 (en) 2016-03-31 2022-08-23 Sensel, Inc. Human-computer interface system
US11460924B2 (en) 2016-03-31 2022-10-04 Sensel, Inc. System and method for detecting and characterizing inputs on a touch sensor surface
US11460926B2 (en) 2016-03-31 2022-10-04 Sensel, Inc. Human-computer interface system
US11592903B2 (en) 2016-03-31 2023-02-28 Sensel, Inc. System and method for detecting and responding to touch inputs with haptic feedback
JP2021515941A (ja) * 2018-03-08 2021-06-24 センセル インコーポレイテッドSensel,Inc. 人間コンピュータインタフェースシステム
JP7210603B2 (ja) 2018-03-08 2023-01-23 センセル インコーポレイテッド 触覚フィードバックを使用してタッチ入力を検出し当該タッチ入力に応答するためのシステム及び方法
US11880506B2 (en) 2020-10-06 2024-01-23 Sensel, Inc. Haptic keyboard system
WO2023037968A1 (ja) * 2021-09-09 2023-03-16 京セラ株式会社 電気機器及び振動制御方法

Also Published As

Publication number Publication date
JP5822022B2 (ja) 2015-11-24
JPWO2013186844A1 (ja) 2016-02-01

Similar Documents

Publication Publication Date Title
JP5822022B2 (ja) 電子機器、及び駆動制御プログラム
JP5831635B2 (ja) 駆動装置、電子機器、及び駆動制御プログラム
JP5962757B2 (ja) プログラム及び電子機器
JP5822023B2 (ja) 電子機器、振動発生プログラム、及び振動パターン利用システム
US20170108931A1 (en) Multiple mode haptic feedback system
JP6032364B2 (ja) 駆動装置、電子機器及び駆動制御プログラム
JP6478535B2 (ja) 触覚変換を行うためのシステム及び方法
JP6032362B2 (ja) 駆動装置、電子機器及び駆動制御プログラム
WO2015083283A1 (ja) 駆動装置、電子機器、駆動制御プログラム、及び駆動信号の生成方法
JP5935885B2 (ja) 駆動装置、電子機器及び駆動制御プログラム
KR20140109292A (ko) 선형 공진 액추에이터를 구비한 햅틱 디바이스
WO2012105273A1 (ja) 電子機器
KR100980855B1 (ko) 이종 액츄에이터로 햅틱 피드백을 제공하는 휴대기기 및 그제공방법
KR100957005B1 (ko) 이종 액츄에이터를 이용한 햅틱 피드백 제공모듈, 이를 갖는 휴대기기 및 그 제공방법
KR20120115159A (ko) 택타일 피드백 방법 및 장치
JP5907260B2 (ja) 駆動装置、電子機器及び駆動制御プログラム
JP5910741B2 (ja) プログラム及び電子機器
WO2015136835A1 (ja) 電子機器
JP5962756B2 (ja) 電子機器及び振動提供方法
WO2012102026A1 (ja) 入力装置
JP5907261B2 (ja) 駆動装置、電子機器及び駆動制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12878915

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014520830

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12878915

Country of ref document: EP

Kind code of ref document: A1