JP2014007444A - Electronic apparatus, control method, and control program - Google Patents

Electronic apparatus, control method, and control program Download PDF

Info

Publication number
JP2014007444A
JP2014007444A JP2012139627A JP2012139627A JP2014007444A JP 2014007444 A JP2014007444 A JP 2014007444A JP 2012139627 A JP2012139627 A JP 2012139627A JP 2012139627 A JP2012139627 A JP 2012139627A JP 2014007444 A JP2014007444 A JP 2014007444A
Authority
JP
Japan
Prior art keywords
sound
panel
information
piezoelectric element
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012139627A
Other languages
Japanese (ja)
Inventor
Tomohiro Sudo
智浩 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012139627A priority Critical patent/JP2014007444A/en
Publication of JP2014007444A publication Critical patent/JP2014007444A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Diaphragms For Electromechanical Transducers (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephone Set Structure (AREA)
  • Telephone Function (AREA)
  • Piezo-Electric Transducers For Audible Bands (AREA)

Abstract

PROBLEM TO BE SOLVED: To convey to users as much information on a content being reproduced as possible.SOLUTION: In one embodiment, an electronic apparatus (e.g., a portable telephone 1A) comprises a piezoelectric element, a first and a second sound generation units made to vibrate by the piezoelectric element, and a detection unit for detecting a change in physical quantity. The first sound generation unit generates an air conduction sound and a vibration sound propagated by vibrating an object abutting on the first sound generation unit. When the change in physical quantity is detected by the detection unit while the second sound generation unit is generating a sound corresponding, among contents including first and second information, to the first information, the first sound generation unit generates the air conduction sound and the vibration sound corresponding to the second information.

Description

本出願は、電子機器、制御方法及び制御プログラムに関する。   The present application relates to an electronic device, a control method, and a control program.

特許文献1には、気導音と振動音とを利用者に伝える電子機器が記載されている。特許文献1には、電子機器の筺体の外面に配置される振動体の圧電素子に電圧が印加されると、圧電素子が伸縮することにより振動体が屈曲振動することが記載されている。また、特許文献1には、利用者が屈曲振動する振動体を耳介に接触させると、気導音と振動音とが利用者に伝えられることが記載されている。特許文献1によれば、気導音とは、物体の振動に起因する空気の振動が外耳道を通って鼓膜に伝わり、鼓膜が振動することによって利用者の聴覚神経に伝わる音である。また、特許文献1によれば、振動音とは、振動する物体に接触する利用者の体の一部(例えば外耳の軟骨)を介して利用者の聴覚神経に伝わる音である。   Patent Document 1 describes an electronic device that transmits air conduction sound and vibration sound to a user. Patent Document 1 describes that when a voltage is applied to a piezoelectric element of a vibrating body arranged on the outer surface of a housing of an electronic device, the vibrating body flexes and vibrates due to expansion and contraction of the piezoelectric element. Further, Patent Document 1 describes that when a user brings a vibrating body that flexes and vibrates into contact with the auricle, air conduction sound and vibration sound are transmitted to the user. According to Patent Document 1, air conduction sound is sound that is transmitted to the eardrum through the ear canal through the vibration of the air due to the vibration of the object, and is transmitted to the user's auditory nerve by the vibration of the eardrum. According to Patent Document 1, the vibration sound is a sound transmitted to the user's auditory nerve through a part of the user's body (for example, cartilage of the outer ear) that contacts the vibrating object.

特開2005−348193号公報JP 2005-348193 A

ところで、一般に、電子機器では、例えば、再生中のコンテンツに関する情報を、できるだけ利用者に伝えたいというニーズがある。   By the way, in general, there is a need for an electronic device to transmit information about the content being reproduced to the user as much as possible.

1つの態様に係る電子機器は、圧電素子と、前記圧電素子によって振動する第1音発生部と、第2音発生部と、物理量の変化を検出する検出部と、を備え、前記第1音発生部は、気導音と、当該第1音発生部に接触する物体を振動させて伝わる振動音とを発生させ、前記第2音発生部が、第1の情報及び第2の情報を含むコンテンツのうち、前記第1の情報に対応する音を発生させているときに、前記検出部により前記物理量の変化が検出された場合には、前記第1音発生部は、前記第2の情報に対応する前記気導音及び前記振動音を発生させる。   An electronic apparatus according to one aspect includes a piezoelectric element, a first sound generation unit that vibrates by the piezoelectric element, a second sound generation unit, and a detection unit that detects a change in a physical quantity, and the first sound The generating unit generates an air conduction sound and a vibration sound transmitted by vibrating an object in contact with the first sound generating unit, and the second sound generating unit includes first information and second information. If a change in the physical quantity is detected by the detection unit while generating a sound corresponding to the first information in the content, the first sound generation unit The air conduction sound and the vibration sound corresponding to are generated.

1つの態様に係る制御方法は、圧電素子と、前記圧電素子によって振動する第1音発生部と、第2音発生部と、物理量の変化を検出する検出部とを備える電子機器によって実行される制御方法であって、第1の情報及び第2の情報を含むコンテンツを再生するステップと、再生する前記コンテンツに含まれる前記第1の情報に対応する音を前記第2音発生部により発生させているときに、前記検出部により前記物理量の変化が検出された場合には、再生する前記コンテンツに含まれる前記第2の情報に対応する、気導音及び前記第1音発生部に接触する物体を振動させて伝わる振動音を、前記第1音発生部により発生させるステップとを含む。   A control method according to one aspect is executed by an electronic device including a piezoelectric element, a first sound generation unit that vibrates by the piezoelectric element, a second sound generation unit, and a detection unit that detects a change in physical quantity. In the control method, the step of reproducing the content including the first information and the second information and the sound corresponding to the first information included in the content to be reproduced are generated by the second sound generation unit. When the change in the physical quantity is detected by the detection unit, the air conduction sound and the first sound generation unit corresponding to the second information included in the content to be played back are contacted Generating a vibration sound transmitted by vibrating an object by the first sound generation unit.

1つの態様に係る制御プログラムは、圧電素子と、前記圧電素子によって振動する第1音発生部と、第2音発生部と、物理量の変化を検出する検出部とを備える電子機器に、第1の情報及び第2の情報を含むコンテンツを再生するステップと、再生する前記コンテンツに含まれる前記第1の情報に対応する音を前記第2音発生部により発生させているときに、前記検出部により前記物理量の変化が検出された場合には、再生する前記コンテンツに含まれる前記第2の情報に対応する、気導音及び前記第1音発生部に接触する物体を振動させて伝わる振動音を、前記第1音発生部により発生させるステップとを実行させる。   A control program according to one aspect is provided in an electronic device including a piezoelectric element, a first sound generation unit that vibrates by the piezoelectric element, a second sound generation unit, and a detection unit that detects a change in physical quantity. The step of reproducing the content including the information and the second information, and when the sound corresponding to the first information included in the content to be reproduced is generated by the second sound generation unit, the detection unit When the change in the physical quantity is detected by the above, vibration sound transmitted by vibrating the air conduction sound and the object that contacts the first sound generation unit corresponding to the second information included in the content to be reproduced Are generated by the first sound generator.

図1は、実施形態に係る携帯電話の正面図である。FIG. 1 is a front view of a mobile phone according to an embodiment. 図2は、実施形態に係る携帯電話の断面図である。FIG. 2 is a cross-sectional view of the mobile phone according to the embodiment. 図3は、パネルの形状の例を示す図である。FIG. 3 is a diagram showing an example of the shape of the panel. 図4は、パネルの振動の例を示す図である。FIG. 4 is a diagram showing an example of panel vibration. 図5は、実施形態に係る携帯電話のブロック図である。FIG. 5 is a block diagram of the mobile phone according to the embodiment. 図6は、実施形態1に係る携帯電話による処理手順の一例を示す図である。FIG. 6 is a diagram illustrating an example of a processing procedure performed by the mobile phone according to the first embodiment. 図7は、実施形態2に係る携帯電話による処理手順の一例を示す図である。FIG. 7 is a diagram illustrating an example of a processing procedure by the mobile phone according to the second embodiment. 図8は、実施形態3に係る携帯電話による処理手順の一例を示す図である。FIG. 8 is a diagram illustrating an example of a processing procedure performed by the mobile phone according to the third embodiment. 図9は、実施形態4に係る携帯電話の正面図である。FIG. 9 is a front view of the mobile phone according to the fourth embodiment. 図10は、図9に示す携帯電話のb−b線断面図である。10 is a cross-sectional view of the mobile phone shown in FIG. 9 taken along the line bb. 図11は、実施形態5に係る携帯電話の正面図である。FIG. 11 is a front view of the mobile phone according to the fifth embodiment. 図12は、図11に示す携帯電話のc−c線断面図である。12 is a cross-sectional view taken along line cc of the mobile phone shown in FIG. 図13は、補強部材による周波数特性の変化例を示す図である。FIG. 13 is a diagram illustrating a change example of the frequency characteristic due to the reinforcing member.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、気導音と振動音とを利用者に伝える電子機器の例として、携帯電話について説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Hereinafter, a mobile phone will be described as an example of an electronic device that transmits air conduction sound and vibration sound to a user.

(実施形態1)
図1及び図2を参照しながら、実施形態に係る携帯電話1Aの全体的な構成について説明する。図1は、携帯電話1Aの正面図である。図2は、携帯電話1Aのa−a断面を模式的に示す断面図である。図1及び図2に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7と、マイク8と、スピーカ11と、カメラ12と、パネル20と、筺体40とを備える。
(Embodiment 1)
With reference to FIGS. 1 and 2, the overall configuration of the mobile phone 1 </ b> A according to the embodiment will be described. FIG. 1 is a front view of the mobile phone 1A. FIG. 2 is a cross-sectional view schematically showing an aa cross section of the mobile phone 1A. As shown in FIGS. 1 and 2, the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a piezoelectric element 7, a microphone 8, a speaker 11, a camera 12, A panel 20 and a housing 40 are provided.

ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。   The display 2 is a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2 displays characters, images, symbols, graphics, and the like.

ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、図1及び図2に示す例に限定されない。   The button 3 receives an operation input from the user. The number of buttons 3 is not limited to the example shown in FIGS.

照度センサ4は、携帯電話1Aの周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The illuminance sensor 4 detects the illuminance of ambient light of the mobile phone 1A. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example. The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

圧電素子7は、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7は、電気信号が印加されると変形する。圧電素子7は、パネル20に取り付けられ、パネル20を振動させるための振動源として用いられる。圧電素子7は、例えば、セラミック又は水晶を用いて形成される。圧電素子7は、ユニモルフ、バイモルフ、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフは、電気信号(電圧)が印加されると伸縮する。バイモルフは、電気信号(電圧)が印加されると屈曲する。   When an electric signal (voltage corresponding to a sound signal) is applied, the piezoelectric element 7 expands or contracts or bends according to the electromechanical coupling coefficient of the constituent material. That is, the piezoelectric element 7 is deformed when an electric signal is applied. The piezoelectric element 7 is attached to the panel 20 and used as a vibration source for vibrating the panel 20. The piezoelectric element 7 is formed using, for example, ceramic or quartz. The piezoelectric element 7 may be a unimorph, bimorph, or multilayer piezoelectric element. The multilayer piezoelectric element includes a multilayer bimorph element in which bimorphs are stacked (for example, 16 layers or 24 layers are stacked). The multilayer piezoelectric element is composed of, for example, a multilayer structure including a plurality of dielectric layers made of PZT (lead zirconate titanate) and electrode layers disposed between the plurality of dielectric layers. A unimorph expands and contracts when an electrical signal (voltage) is applied. A bimorph bends when an electrical signal (voltage) is applied.

マイク8は、音入力部である。マイク8は、入力される音を電気信号へ変換する。スピーカ11は、気導方式で音を出力する音出力部である。スピーカ11は、例えば、ダイナミックスピーカであり、電気信号を変換した音を、耳を携帯電話1Aに接触させていない人へも伝えることができる。スピーカ11は、例えば、音楽コンテンツである楽曲を出力するために用いられる。スピーカ11は、第2音発生部の一例である。   The microphone 8 is a sound input unit. The microphone 8 converts the input sound into an electric signal. The speaker 11 is a sound output unit that outputs sound by an air conduction method. The speaker 11 is a dynamic speaker, for example, and can transmit a sound obtained by converting an electric signal to a person whose ear is not in contact with the mobile phone 1A. The speaker 11 is used, for example, to output music that is music content. The speaker 11 is an example of a second sound generator.

カメラ12は、ディスプレイ2に面している物体を撮影するインカメラである。カメラ12は、撮影した画像を電気信号へ変換する。携帯電話1Aは、カメラ12に加えて、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラを備えてもよい。   The camera 12 is an in camera that captures an object facing the display 2. The camera 12 converts the captured image into an electrical signal. In addition to the camera 12, the mobile phone 1 </ b> A may include an out camera that captures an object facing the surface on the opposite side of the display 2.

パネル20は、圧電素子7の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20に接触させる耳の軟骨(耳介軟骨)等にその振動を伝える。パネル20は、ディスプレイ2及び圧電素子7等を外力から保護する機能も有する。パネル20は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20の形状は、例えば、板状である。パネル20は、平板であってよい。パネル20は、表面が滑らかに湾曲する曲面パネルであってもよい。   The panel 20 vibrates as the piezoelectric element 7 is deformed (stretched or bent), and transmits the vibration to the ear cartilage (auricular cartilage) or the like that the user contacts with the panel 20. The panel 20 also has a function of protecting the display 2 and the piezoelectric element 7 from external force. The panel 20 is formed by synthetic resins, such as glass or an acryl, for example. The shape of the panel 20 is, for example, a plate shape. The panel 20 may be a flat plate. The panel 20 may be a curved panel whose surface is smoothly curved.

パネル20の背面には、接合部材30により、ディスプレイ2と、圧電素子7とが取り付けられる。圧電素子7は、パネル20の背面に配置された状態で、筺体40の内表面と所定の距離だけ離間している。圧電素子7は、伸縮または屈曲した状態でも、筺体40の内表面と離間しているとよい。すなわち、圧電素子7と筺体40の内表面との間の距離は、圧電素子7の最大変形量よりも大きいとよい。圧電素子7は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。   The display 2 and the piezoelectric element 7 are attached to the back surface of the panel 20 by a joining member 30. The piezoelectric element 7 is spaced from the inner surface of the housing 40 by a predetermined distance while being arranged on the back surface of the panel 20. The piezoelectric element 7 may be separated from the inner surface of the housing 40 even in a stretched or bent state. That is, the distance between the piezoelectric element 7 and the inner surface of the housing 40 is preferably larger than the maximum deformation amount of the piezoelectric element 7. The piezoelectric element 7 may be attached to the panel 20 via a reinforcing member (for example, sheet metal or glass fiber reinforced resin). The joining member 30 is, for example, a double-sided tape or an adhesive having thermosetting property or ultraviolet curable property. The joining member 30 may be an optical elastic resin that is a colorless and transparent acrylic ultraviolet curable adhesive.

ディスプレイ2は、パネル20の短手方向におけるほぼ中央に配設される。圧電素子7は、パネル20の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7の長手方向がパネル20の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子7は、パネル20の内側の面に、平行に並べて配設される。   The display 2 is disposed approximately in the center of the panel 20 in the short direction. The piezoelectric element 7 is disposed in the vicinity of a predetermined distance from the longitudinal end of the panel 20 so that the longitudinal direction of the piezoelectric element 7 is parallel to the lateral direction of the panel 20. The display 2 and the piezoelectric element 7 are arranged in parallel on the inner surface of the panel 20.

パネル20の外側の面のほぼ全面には、タッチスクリーン(タッチセンサ)21が配設される。タッチスクリーン21は、パネル20に対する接触を検出する。タッチスクリーン21は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21を用いて検出されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。   A touch screen (touch sensor) 21 is disposed on almost the entire outer surface of the panel 20. The touch screen 21 detects contact with the panel 20. The touch screen 21 is used to detect a user's contact operation with a finger, pen, stylus pen, or the like. The gestures detected using the touch screen 21 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. The detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.

タッチスクリーン21は、音を聞くためにパネル20に接触する耳介人体等を検出するためにも用いられる。   The touch screen 21 is also used to detect an auricle or the like that contacts the panel 20 in order to listen to sound.

筺体40は、樹脂又は金属を用いて形成される。筺体40は、ボタン3、照度センサ4、近接センサ5、マイク8、スピーカ11、カメラ12、およびパネル20等を支持する。   The casing 40 is formed using resin or metal. The housing 40 supports the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the speaker 11, the camera 12, the panel 20, and the like.

図1から図4を参照しながら、実施形態1に係る携帯電話1Aによる音の出力についてより詳細に説明する。図3は、パネル20の形状の例を示す図である。図4は、パネル20の振動の例を示す図である。   The sound output by the mobile phone 1A according to the first embodiment will be described in more detail with reference to FIGS. FIG. 3 is a diagram illustrating an example of the shape of the panel 20. FIG. 4 is a diagram illustrating an example of the vibration of the panel 20.

圧電素子7には、出力する音に応じた電気信号が印加される。圧電素子7には、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N〜10Nの力)でパネル20に自身の体の一部を押し付けた場合であっても、パネル20に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7に印加される電圧は、パネル20の筺体40に対する固定強度、又は圧電素子7の性能等に応じて適宜調整可能である。   An electric signal corresponding to the output sound is applied to the piezoelectric element 7. For example, ± 15 V higher than ± 5 V, which is an applied voltage of a so-called panel speaker that transmits sound by air conduction sound through the ear canal, may be applied to the piezoelectric element 7. Thereby, even when the user presses a part of his / her body against the panel 20 with a force of 3N or more (5N to 10N force), for example, the panel 20 generates sufficient vibration and is used. Vibration sound transmitted through a part of the person's body can be generated. The voltage applied to the piezoelectric element 7 can be appropriately adjusted according to the fixing strength of the panel 20 with respect to the housing 40 or the performance of the piezoelectric element 7.

電気信号が印加されると、圧電素子7は長手方向に伸縮又は屈曲する。圧電素子7が取り付けられたパネル20は、圧電素子7の伸縮又は屈曲に合わせて変形する。これにより、パネル20は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳(耳介軟骨))をパネル20に接触させた場合、パネル20は、体の一部を介して利用者に伝導する振動音を発生させる。すなわち、パネル20は、圧電素子7の変形にともなって、パネル20に接触する物体に対して振動音として知覚される周波数で振動する。   When an electric signal is applied, the piezoelectric element 7 expands or contracts in the longitudinal direction. The panel 20 to which the piezoelectric element 7 is attached is deformed in accordance with expansion / contraction or bending of the piezoelectric element 7. Thereby, the panel 20 vibrates and generates air conduction sound. Further, when the user brings a part of the body (for example, an ear (auricular cartilage)) into contact with the panel 20, the panel 20 generates a vibration sound that is transmitted to the user through the part of the body. That is, as the piezoelectric element 7 is deformed, the panel 20 vibrates at a frequency that is perceived as vibration sound with respect to an object that contacts the panel 20.

例えば、圧電素子7に、通話の相手の音声、又は着信音、音楽コンテンツである楽曲等の音データに応じた電気信号が印加されると、パネル20は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7及びパネル20を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってよい。圧電素子7及びパネル20を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。   For example, when an electrical signal corresponding to the voice data of a call partner or a ring tone, or sound data such as music as music content is applied to the piezoelectric element 7, the panel 20 generates air conduction sound corresponding to the electrical signal and Generates vibration noise. The sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in the storage 9 described later. The sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in an external server or the like and acquired via the network by the communication unit 6 described later.

本実施形態において、パネル20は、利用者の耳とほぼ同じ大きさであってよい。また、パネル20は、図3に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部のほぼ全体をパネル20に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さおよび幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992−1994)等を参照すれば知ることができる。   In the present embodiment, the panel 20 may be approximately the same size as the user's ear. Moreover, the panel 20 may be larger in size than the user's ear, as shown in FIG. In this case, the user can bring the entire outer periphery of the ear into contact with the panel 20 when listening to the sound. Listening to the sound in this way makes it difficult for ambient sounds (noise) to enter the ear canal. In the present embodiment, at least the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance between the lower leg of the anti-annulus (lower anti-annular leg) and the anti-tragus, and the pair of the panel 20 from the tragus. A region wider than a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the ear ring vibrates. The panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance from the region near the upper leg of the ear ring (upper pair leg) in the ear ring to the earlobe, and the vicinity of the ear ring in the ear ring from the tragus. A region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the part may vibrate. The region having the above length and width may be a rectangular region, or an elliptical shape in which the length in the longitudinal direction is the major axis and the length in the lateral direction is the minor axis. Also good. The average size of the human ear can be known, for example, by referring to the Japanese human body size database (1992-1994) created by the Human Life Engineering Research Center (HQL).

図4に示すように、パネル20は、圧電素子7が取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20は、振動する領域において、当該パネル20の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20全域にわたって、複数の波の振動が検出される。上記のように圧電素子7に対して印加される電圧が±15Vであれば、利用者が例えば5N〜10Nの力で自身の体にパネル20を押し付けた場合であっても、パネル20の上述した振動は減衰しにくい。このため、利用者は、パネル20上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。パネル20は、第1音発生部の一例である。   As shown in FIG. 4, the panel 20 vibrates not only in the attachment region 20a to which the piezoelectric element 7 is attached, but also in a region away from the attachment region 20a. The panel 20 has a plurality of locations that vibrate in a direction intersecting the main surface of the panel 20 in the vibrating region, and in each of the plurality of locations, the value of the amplitude of vibration changes from positive to negative with time, Or vice versa. At each moment, the panel 20 vibrates at a seemingly random or regular distribution in a substantially entire portion of the panel 20 with a portion having a relatively large vibration amplitude and a portion having a relatively small vibration amplitude. That is, vibrations of a plurality of waves are detected over the entire panel 20. If the voltage applied to the piezoelectric element 7 is ± 15 V as described above, even if the user presses the panel 20 against his / her body with a force of 5N to 10N, for example, The vibrations that occur are difficult to attenuate. For this reason, even if a user makes an ear contact the area | region away from the attachment area | region 20a on the panel 20, he can hear a vibration sound. The panel 20 is an example of a first sound generator.

本実施形態では、ディスプレイ2がパネル20に取り付けられている。このため、パネル20の下部(ディスプレイ2が取り付けられている側)は、剛性が上がり、パネル20の上部(圧電素子7が取り付けられている側)と比べて、振動が小さい。このため、パネル20の下部において、パネル20が振動することによる気導音の音漏れが低減される。   In the present embodiment, the display 2 is attached to the panel 20. For this reason, the lower part of the panel 20 (the side on which the display 2 is attached) is increased in rigidity, and the vibration is smaller than the upper part of the panel 20 (the side on which the piezoelectric element 7 is attached). For this reason, the sound leakage of the air conduction sound due to the vibration of the panel 20 in the lower part of the panel 20 is reduced.

携帯電話1Aは、パネル20の振動により、気導音と、利用者の体の一部(例えば、耳(耳介軟骨))を介する振動音とを利用者に伝えることができる。そのため、携帯電話1Aは、ダイナミックレシーバと同等の音量の音を出力する場合、空気の振動により携帯電話1Aの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。   The cellular phone 1 </ b> A can transmit air conduction sound and vibration sound through a part of the user's body (for example, ear (auricular cartilage)) to the user by the vibration of the panel 20. Therefore, when the mobile phone 1A outputs a sound having a volume equivalent to that of the dynamic receiver, the sound transmitted to the surroundings of the mobile phone 1A due to air vibration may be reduced compared to an electronic device having only a dynamic speaker. it can. Such a feature is suitable, for example, when listening to a recorded message in a place where there is another person nearby, such as in a train.

さらに、携帯電話1Aは、パネル20の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Aを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20の振動による振動音を聞くことができる。   Furthermore, the mobile phone 1 </ b> A transmits a vibration sound to the user by the vibration of the panel 20. Therefore, even if the user wears the earphone or the headphone, the user can hear the vibration sound due to the vibration of the panel 20 through the earphone or the headphone and a part of the body by bringing the mobile phone 1A into contact therewith. it can.

さらに、携帯電話1Aは、パネル20の振動により音を伝える。そのため、携帯電話1Aが別途ダイナミックレシーバ(たとえば、スピーカ11)を備えない場合、パネル20が発する音を外部に伝えるための開口部(放音口)を筺体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1Aは、ダイナミックスピーカ(たとえば、スピーカ11)の放音口等の開口部を筺体40に形成する必要がある場合、防水構造を実現するために、気体は通すが液体は通さない部材によって開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。   Furthermore, the mobile phone 1 </ b> A transmits sound by the vibration of the panel 20. Therefore, when the mobile phone 1A does not include a separate dynamic receiver (for example, the speaker 11), it is not necessary to form an opening (sound emission port) in the housing 40 for transmitting the sound generated by the panel 20 to the outside. For this reason, when realizing a waterproof structure, the structure can be simplified. When it is necessary to form an opening such as a sound emission port of a dynamic speaker (for example, the speaker 11) in the housing 40, the cellular phone 1A uses a member that allows gas to pass but not liquid to achieve a waterproof structure. You may employ | adopt the structure which obstruct | occludes an opening part. An example of the member that allows gas to pass but not liquid is Gore-Tex (registered trademark).

図5を参照しながら、携帯電話1Aの機能的な構成について説明する。図5は、携帯電話1Aのブロック図である。図5に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、圧電素子7と、マイク8、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、イヤホンジャック13と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。   A functional configuration of the mobile phone 1A will be described with reference to FIG. FIG. 5 is a block diagram of the mobile phone 1A. As shown in FIG. 5, the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a piezoelectric element 7, a microphone 8, a storage 9, and a controller 10. , Speaker 11, camera 12, earphone jack 13, posture detection unit 15, vibrator 18, and touch screen 21.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method supported by the communication unit 6 is a wireless communication standard. Examples of wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. As cellular phone communication standards, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular, GSM (registered trademark) mmloS). (Personal Handy-phone System). As wireless communication standards, for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearCo), etc. The communication unit 6 may support one or more of the communication standards described above.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2に画面を表示させ、タッチスクリーン21によって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a screen on the display 2 and causes the controller 10 to execute processing according to the gesture detected by the touch screen 21. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、音楽再生アプリケーション9C、動画再生アプリケーション9D、コンテンツデータ9Y及び設定データ9Zを記憶する。通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。音楽再生アプリケーション9Cは、コンテンツデータ9Yに含まれる音楽コンテンツ(楽曲)などの音を再生するための音楽再生機能を提供する。動画再生アプリケーション9Dは、動画データから動画及び音を再生するための動画再生機能を提供する。コンテンツデータ9Yは、音や音楽などの音楽コンテンツの音ファイルである。音楽コンテンツには、例えば、楽曲などの音楽データ自体である第1の情報と、第1の情報に対応する曲名、歌手名及びアルバム名などの音楽データに関連した第2の情報とが含まれる。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定及び処理に関する情報を含む。   The storage 9 stores, for example, a control program 9A, a call application 9B, a music playback application 9C, a video playback application 9D, content data 9Y, and setting data 9Z. The call application 9B provides a call function for a call by wireless communication. The music playback application 9C provides a music playback function for playing back sounds such as music content (music) included in the content data 9Y. The video playback application 9D provides a video playback function for playing back video and sound from video data. The content data 9Y is a sound file of music content such as sound and music. The music content includes, for example, first information that is music data itself such as a song, and second information related to music data such as a song name, a singer name, and an album name corresponding to the first information. . The setting data 9Z includes information related to various settings and processes related to the operation of the mobile phone 1A.

制御プログラム9Aは、携帯電話1Aを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、圧電素子7、マイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能は、通話アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the mobile phone 1A. The control program 9A realizes a call by controlling the communication unit 6, the piezoelectric element 7, the microphone 8, and the like, for example. The function provided by the control program 9A may be used in combination with a function provided by another program such as the call application 9B.

制御プログラム9Aには、例えば、第2音発生部が、第1の情報及び第2の情報を含む音楽コンテンツのうち、第1の情報に対応する音を発生させているときに、検出部により第1音発生部への人体の一部(例えば、耳(耳介軟骨))の接触が検出された場合には、第2の情報に対応する気導音及び振動音を第1音発生部により発生させるように制御する機能が含まれる。第1音発生部は、例えば、パネル20である。第2音発生部は、例えば、スピーカ11、あるいは後述するイヤホンジャック13に外部から接続されるイヤホンなどである。検出部は、例えば、タッチスクリーン21である。実施形態1において、圧電素子7によりパネル20を変形させ、気導音と、変形中のパネル20に接触する人体の一部(例えば、耳(耳介軟骨))を介して人体に伝わる振動音とを発生させる方法を、人体伝導方式と表記する。さらに、制御プログラム9Aには、第2の情報に対応する読み上げ音声を合成し、合成した読み上げ音声に対応する気導音及び振動音を人体伝導方式で発生させる機能が含まれる。   In the control program 9A, for example, when the second sound generating unit generates a sound corresponding to the first information among music contents including the first information and the second information, the detecting unit When contact of a part of the human body (for example, ear (auricular cartilage)) with the first sound generating unit is detected, air conduction sound and vibration sound corresponding to the second information are transmitted to the first sound generating unit. The function to control to be generated is included. The first sound generating unit is, for example, the panel 20. The second sound generator is, for example, a speaker 11 or an earphone connected from the outside to an earphone jack 13 described later. The detection unit is, for example, the touch screen 21. In the first embodiment, the panel 20 is deformed by the piezoelectric element 7, and the air conduction sound and the vibration sound transmitted to the human body via a part of the human body (for example, ear (auricular cartilage)) that contacts the deformed panel 20. A method for generating the above is referred to as a human body conduction method. Further, the control program 9A includes a function of synthesizing a reading voice corresponding to the second information and generating an air conduction sound and a vibration sound corresponding to the synthesized reading voice by a human body conduction method.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Aの動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The controller 10 implements various functions by comprehensively controlling the operation of the mobile phone 1A.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7、マイク8、スピーカ11、及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2, the communication unit 6, the piezoelectric element 7, the microphone 8, the speaker 11, and the vibrator 18, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. The detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the camera 12, the posture detection unit 15, and the touch screen 21, but is not limited thereto.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、例えば、第2音発生部が、第1の情報及び第2の情報を含む音楽コンテンツのうち、第1の情報に対応する音を発生させているときに、検出部により第1音発生部への人体の一部(例えば、耳(耳介軟骨))の接触が検出された場合には、第2の情報に対応する気導音及び振動音を第1音発生部により発生させるように制御する。第1音発生部は、例えば、パネル20である。第2音発生部は、例えば、スピーカ11、あるいは後述するイヤホンジャック13に外部から接続されるイヤホンなどである。検出部は、例えば、タッチスクリーン21である。第1音発生部により発生される第2の情報に対応する気導音及び振動音は、例えば、読み上げ音声である。   For example, when the controller 10 executes the control program 9A, for example, the second sound generation unit generates a sound corresponding to the first information among the music contents including the first information and the second information. When the detection unit detects contact of a part of the human body (for example, ear (auricular cartilage)) with the detection unit, the air conduction sound corresponding to the second information is detected. In addition, control is performed so that the vibration sound is generated by the first sound generator. The first sound generating unit is, for example, the panel 20. The second sound generator is, for example, a speaker 11 or an earphone connected from the outside to an earphone jack 13 described later. The detection unit is, for example, the touch screen 21. The air conduction sound and the vibration sound corresponding to the second information generated by the first sound generation unit are, for example, a reading voice.

イヤホンジャック13は、イヤホンなどの音声出力デバイスが接続される接続部である。イヤホンジャック13に外部から接続されるイヤホンなどは、第2音発生部の一例である。図5に示す例では、携帯電話1Aが、イヤホンジャック13を有するが、イヤホンジャック13の代わりに、USB(Universal Serial Bus)などでイヤホンなどの音声出力デバイスを外部から接続できるコネクタなどを有してもよい。イヤホンは、イヤホンジャック13に挿入して使う有線接続のものの他に、Bluetooth(登録商標)等の無線によって携帯電話1Aと接続されるものであってもよい。また、第2音発生部は、スピーカまたはイヤホンに限定されず、例えばヘッドセットなどの付加機能を有するものであってもよい。   The earphone jack 13 is a connection unit to which an audio output device such as an earphone is connected. An earphone or the like connected from the outside to the earphone jack 13 is an example of the second sound generating unit. In the example shown in FIG. 5, the mobile phone 1 </ b> A has the earphone jack 13, but instead of the earphone jack 13, the mobile phone 1 </ b> A has a connector or the like that can connect an audio output device such as an earphone from the outside with a USB (Universal Serial Bus) or the like. May be. The earphone may be connected to the mobile phone 1 </ b> A by radio such as Bluetooth (registered trademark) in addition to a wired connection inserted into the earphone jack 13. The second sound generator is not limited to a speaker or an earphone, and may have an additional function such as a headset.

姿勢検出ユニット15は、携帯電話1Aの姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。バイブレータ18は、携帯電話1Aの一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、音を伝えるためではなく、着信等の各種のイベントを利用者に報知するために用いられる。   The posture detection unit 15 detects the posture of the mobile phone 1A. The posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture. Vibrator 18 vibrates a part or the whole of mobile phone 1A. The vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The vibration generated by the vibrator 18 is used not only to transmit sound but also to notify the user of various events such as incoming calls.

図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。   In FIG. 5, some or all of the programs and data stored in the storage 9 may be downloaded from other devices by wireless communication using the communication unit 6. In FIG. 5, some or all of the programs and data stored in the storage 9 may be stored in a non-transitory storage medium that can be read by the reading device included in the storage 9. Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.

図5に示した携帯電話1Aの構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1Aは、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。   The configuration of the cellular phone 1A shown in FIG. 5 is an example, and may be changed as appropriate without departing from the spirit of the present invention. For example, the mobile phone 1A may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations.

実施形態1に係る携帯電話1Aは、スピーカ11により音を出力することができる。携帯電話機1Aは、圧電素子7によりパネル20を変形させ、気導音と、変形中のパネル20に接触する物体(例えば、人体の一部)を介して伝わる振動音とを発生させることもできる。図6は、実施形態1に係る携帯電話1Aによる処理手順の一例を示す図である。図6に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。以下では、図6を用いて、携帯電話1Aにおいて、音楽コンテンツ(楽曲)の再生に伴って実行される処理手順の一例を説明する。   The mobile phone 1 </ b> A according to the first embodiment can output sound through the speaker 11. The cellular phone 1 </ b> A can deform the panel 20 by the piezoelectric element 7 to generate air conduction sound and vibration sound transmitted through an object (for example, a part of the human body) that is in contact with the panel 20 being deformed. . FIG. 6 is a diagram illustrating an example of a processing procedure performed by the mobile phone 1A according to the first embodiment. The processing procedure illustrated in FIG. 6 is realized by the controller 10 executing the control program 9A stored in the storage 9. Hereinafter, an example of a processing procedure executed in association with the reproduction of the music content (song) in the mobile phone 1A will be described with reference to FIG.

図6に示すように、コントローラ10は、ステップS101として、音楽コンテンツである楽曲の再生を開始すると、ステップS102として、イヤホンジャック13への接続を検出しているかどうかを判定する。   As shown in FIG. 6, when the controller 10 starts reproduction of music as music content in step S <b> 101, the controller 10 determines whether connection to the earphone jack 13 is detected in step S <b> 102.

コントローラ10は、判定の結果、イヤホンジャック13への接続が検出されている場合には(ステップS102,Yes)、ステップS103として、イヤホンジャック13を介して、イヤホンジャック13に接続されたイヤホンに楽曲の音(第1の情報に対応する音)を出力する。   When the connection to the earphone jack 13 is detected as a result of the determination (step S102, Yes), the controller 10 plays music in the earphone connected to the earphone jack 13 via the earphone jack 13 as step S103. (Sound corresponding to the first information) is output.

続いて、コントローラ10は、ステップS104として、パネル20への耳の接触が検出されているかどうかを判定する。例えば、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20への耳の接触があるかどうかを判定する。   Subsequently, the controller 10 determines whether or not the contact of the ear with the panel 20 is detected as step S104. For example, the controller 10 determines whether there is an ear contact with the panel 20 based on the detection result of the touch screen 21.

具体的には、コントローラ10は、タッチスクリーン21の検出結果に基づいて得られる像と、予め用意される標本とのパターンマッチングによって、パネル20への耳の接触を検出してもよい。タッチスクリーン21の検出結果に基づいて得られる像は、タッチスクリーン21の検出領域を格子状に分割し、分割されたそれぞれの領域における物体の接触の検出状態を、対応する画素の状態に変換することにより得られる。それぞれの領域においてタッチスクリーン21が検出する値が、例えば、タッチスクリーン21と物体の距離、物体がタッチスクリーン21を圧迫する押圧等によって変動する場合、タッチスクリーン21の検出結果に基づいて得られる像は、多階調の画像となってもよい。標本は、イヤホンが挿入された耳がパネル20に接触している領域で、タッチスクリーン21の検出結果に基づいて得られる像と同様のやりかたで得られるはずの像である。標本は、携帯電話1Aの利用者の耳の接触時に得られるはずの像であってもよいし、一般的な人の耳の接触時に得られるはずの像であってもよい。標本は、右耳の像、左耳の像というように複数枚用意されてもよい。   Specifically, the controller 10 may detect the contact of the ear with the panel 20 by pattern matching between an image obtained based on the detection result of the touch screen 21 and a sample prepared in advance. The image obtained based on the detection result of the touch screen 21 divides the detection area of the touch screen 21 into a lattice shape, and converts the detection state of contact of an object in each of the divided areas into a corresponding pixel state. Can be obtained. When the value detected by the touch screen 21 in each region varies depending on, for example, the distance between the touch screen 21 and the object, the pressure with which the object presses the touch screen 21, and the like, an image obtained based on the detection result of the touch screen 21 May be a multi-tone image. The specimen is an image that should be obtained in the same manner as the image obtained based on the detection result of the touch screen 21 in the region where the ear into which the earphone is inserted is in contact with the panel 20. The specimen may be an image that should be obtained when the user of the mobile phone 1A touches the ear, or may be an image that should be obtained when the user touches a general ear. A plurality of specimens may be prepared such as a right ear image and a left ear image.

コントローラ10が、タッチスクリーン21の検出結果に基づいて、パネル20への耳の接触を検出する方式は、上記の方式に限定されず、他の方式を採用してもよい。例えば、コントローラ10は、利用者の耳がパネル20に接触したときの面積などを予め採取しておき、タッチスクリーン21の検出結果に基づいて得られる像の面積を、予め採取しておいた面積と単純に比較して、耳の接触を検出してもよい。   The method in which the controller 10 detects the contact of the ear with the panel 20 based on the detection result of the touch screen 21 is not limited to the above method, and other methods may be adopted. For example, the controller 10 collects in advance the area when the user's ear touches the panel 20 and the area of the image obtained based on the detection result of the touch screen 21 is acquired in advance. In comparison with the above, ear contact may be detected.

コントローラ10は、判定の結果、パネル20への耳の接触が検出されている場合には(ステップS104,Yes)、ステップS105として、再生中の楽曲に関する情報を読み上げる読み上げ音声をパネル20により発生させて出力する。具体的に説明すると、コントローラ10は、パネル20への耳の接触が検出されている場合には、ストレージ9から、再生中の楽曲に関する第2の情報(曲名、歌手名及びアルバム名など)を取得する。そして、コントローラ10は、第2の情報に対応する読み上げ音声を合成し、合成した読み上げ音声に対応する気導音及び振動音を、パネル20により発生させることにより、外部(パネル20に接触する人体の一部、例えば、耳)へ出力する。   If the result of the determination is that the contact of the ear with the panel 20 has been detected (Yes at step S104), the controller 10 causes the panel 20 to generate a read-out voice that reads out information related to the music being played back as step S105. Output. More specifically, when the ear contact with the panel 20 is detected, the controller 10 obtains second information (song name, singer name, album name, etc.) from the storage 9 regarding the music being played back. get. Then, the controller 10 synthesizes a reading voice corresponding to the second information, and generates an air conduction sound and a vibration sound corresponding to the synthesized reading voice by the panel 20, so that the outside (human body contacting the panel 20) is generated. To a part of, eg, the ear).

続いて、コントローラ10は、ステップS106として、音楽コンテンツの再生を終了するかどうかを判定する。例えば、コントローラ10は、利用者から再生終了の操作入力を受け付けたかどうか、あるいは音楽コンテンツの再生時間が完了したかどうかなどを判定する。   Subsequently, the controller 10 determines whether or not to end the reproduction of the music content as Step S106. For example, the controller 10 determines whether or not a playback end operation input has been received from the user, or whether or not the playback time of the music content has been completed.

コントローラ10は、判定の結果、音楽コンテンツの再生を終了する場合には(ステップS106,Yes)、図6に示す処理手順を終了する。一方、コントローラ10は、判定の結果、音楽コンテンツの再生を終了しない場合には(ステップS106,No)、ステップS102に戻る。   As a result of the determination, when the reproduction of the music content is to be ended (step S106, Yes), the controller 10 ends the processing procedure shown in FIG. On the other hand, if the result of determination is that the playback of music content is not terminated (No at step S106), the controller 10 returns to step S102.

コントローラ10は、ステップS104において、判定の結果、パネル20への耳の接触が検出されていない場合には(ステップS104,No)、ステップS106に移り、音楽コンテンツの再生を終了するかどうかを判定する。   If the result of determination in step S104 is that ear contact with the panel 20 has not been detected (No in step S104), the controller 10 proceeds to step S106 and determines whether or not to end the reproduction of music content. To do.

コントローラ10は、ステップS102において、判定の結果、イヤホンジャック13への接続が検出されていない場合には(ステップS102,No)、ステップS107として、イヤホンジャック13以外から楽曲の音を出力する。例えば、コントローラ10は、スピーカ11から再生中の楽曲の音を出力してもよいし、パネル20を変形させることで再生中の楽曲に対応する音を発生させて出力してもよい。続いて、コントローラ10は、ステップS106に移り、音楽コンテンツの再生を終了するかどうかを判定する。   If the connection to the earphone jack 13 is not detected as a result of the determination in step S102 (step S102, No), the controller 10 outputs the sound of the music from other than the earphone jack 13 as step S107. For example, the controller 10 may output the sound of the music being played from the speaker 11 or may generate and output the sound corresponding to the music being played by deforming the panel 20. Subsequently, the controller 10 proceeds to step S106, and determines whether or not to end the reproduction of the music content.

図6に示す処理手順では、ステップS104において、コントローラ10が、タッチスクリーン21の検出結果に基づいて、パネル20への耳の接触を検出する例を説明したが、これには限定されない。例えば、携帯電話1Aに、イヤホンで用いられる磁石から発せられる磁気を検出する磁気センサを搭載しておく。そして、コントローラ10は、磁気センサにより、イヤホンから発せられる磁気を検出した場合には、ステップS105の処理手順に進み、再生中の楽曲に関する情報に対応する音声をパネル20により発生させて出力するようにしてもよい。   In the processing procedure illustrated in FIG. 6, the example in which the controller 10 detects the contact of the ear with the panel 20 based on the detection result of the touch screen 21 in step S <b> 104 has been described, but is not limited thereto. For example, a mobile phone 1A is equipped with a magnetic sensor that detects magnetism emitted from a magnet used in an earphone. If the magnetic sensor detects the magnetism emitted from the earphone by the magnetic sensor, the controller 10 proceeds to the processing procedure of step S105, and the panel 20 generates and outputs the sound corresponding to the information related to the music being reproduced. It may be.

上述してきたように、実施形態1において、携帯電話1Aは、音楽コンテンツ(楽曲)を再生中に、イヤホンが接続され、かつパネル20への耳の接触が検出されている場合には、音楽コンテンツ(楽曲)に関連する情報に対応する音をパネル20により発生させて、外部へ出力する。すなわち、携帯電話1Aの音の出力経路であるイヤホンが再生中の楽曲の音の出力で塞がっている場合であっても、例えば、パネル20に耳をあてることにより、再生中の楽曲の曲名や歌手名などを聴き取る事ができる。このように、実施形態1によれば、再生中のコンテンツに関する情報を、できるだけ利用者に伝えることができる。   As described above, in the first embodiment, when the mobile phone 1A is connected to the earphone and the contact of the ear with the panel 20 is detected during the reproduction of the music content (song), the music content The panel 20 generates a sound corresponding to information related to (music) and outputs it to the outside. That is, even if the earphone which is the sound output path of the mobile phone 1A is blocked by the output of the sound of the music being played back, for example, by touching the panel 20 with the ear, You can listen to the name of the singer. As described above, according to the first embodiment, information regarding the content being reproduced can be transmitted to the user as much as possible.

実施形態1では、図6に示すように、音楽コンテンツ(楽曲)の再生に伴って実行される処理手順について説明したが、動画コンテンツ、ラジオ番組、及びテレビ番組などのストリーミング再生を行う場合にも、実施形態1に係る処理手順を適用できる。   In the first embodiment, as illustrated in FIG. 6, the processing procedure executed in association with the reproduction of the music content (music piece) has been described. However, the streaming procedure of moving image content, a radio program, a television program, and the like is also performed. The processing procedure according to the first embodiment can be applied.

携帯電話1Aは、動画コンテンツの名称、出演者名、あらすじ、再生時間など、動画コンテンツに関連した情報を記憶しておく。動画データに関連した情報は、予め記憶しておいてもよいし、リアルタイムで取得してもよい。携帯電話1Aは、動画コンテンツのストリーミング再生が行われているときに、イヤホンの接続が検出され、かつパネル20への耳の接触が検出されている場合には、動画コンテンツに関連する情報に対応する音をパネル20により発生させて、外部へ出力する。   The mobile phone 1A stores information related to the moving image content such as the name of the moving image content, the name of the performer, the outline, and the reproduction time. Information related to the moving image data may be stored in advance or acquired in real time. The mobile phone 1A responds to information related to the video content when the connection of the earphone is detected and the contact of the ear with the panel 20 is detected when the video content is being streamed. Sound generated by the panel 20 and output to the outside.

同様に、携帯電話1Aは、ラジオ番組の番組名、パーソナリティー名及び協賛スポンサー名など、ラジオ番組に関する情報を記憶しておく。ラジオ番組に関する情報は、予め記憶しておいてもよいし、リアルタイムで取得してもよい。携帯電話1Aは、ラジオ番組のストリーミング再生が行われているときに、イヤホンの接続が検出され、かつパネル20への耳の接触が検出されている場合には、ラジオ番組に関連する情報に対応する音をパネル20により発生させて、外部へ出力する。   Similarly, the mobile phone 1A stores information related to the radio program such as the program name of the radio program, the personality name, and the sponsoring sponsor name. Information about the radio program may be stored in advance or acquired in real time. The mobile phone 1A responds to information related to the radio program when the earphone connection is detected and the ear contact with the panel 20 is detected while the radio program is being streamed. Sound generated by the panel 20 and output to the outside.

同様に、携帯電話1Aは、テレビ番組の番組名、出演者名及び協賛スポンサー名など、テレビ番組に関する情報を記憶しておく。テレビ番組に関する情報は、予め記憶しておいてもよいし、リアルタイムで取得してもよい。携帯電話1Aは、テレビ番組のストリーミング再生が行われているときに、イヤホンの接続が検出され、かつパネル20への耳の接触が検出されている場合には、テレビ番組に関連する情報に対応する音をパネル20により発生させて、外部へ出力する。   Similarly, the mobile phone 1A stores information related to the television program, such as the program name of the television program, the performer name, and the sponsor sponsor name. Information about the TV program may be stored in advance or acquired in real time. The mobile phone 1A responds to information related to the TV program when the connection of the earphone is detected and the contact of the ear with the panel 20 is detected when the TV program is being played back by streaming. Sound generated by the panel 20 and output to the outside.

例えば、イヤホンを接続してラジオ番組などを視聴しているときに電波が切れた場合には、携帯電話1Aは、パネル20への耳の接触検出を契機として、電波が届いていない旨のメッセージを読み上げる音声をパネル20により発生させて、外部に出力してもよい。   For example, when the radio wave is cut off while an earphone is connected and a radio program or the like is being watched, the mobile phone 1A receives a message indicating that the radio wave has not arrived due to the detection of the ear contact with the panel 20. May be generated by the panel 20 and output to the outside.

例えば、テレビ番組を再生しているときに、携帯電話1Aは、イヤホンの接続が検出され、かつパネル20への耳の接触が検出されている場合には、主音声を、イヤホンジャック13に接続されたイヤホンから出力し、副音声を、パネル20への耳の接触検出を契機としてパネル20により発生させてもよい。さらに、携帯電話1Aは、二カ国語放送のテレビ番組又は字幕放送の映画を再生しているときに、イヤホンの接続が検出され、かつパネル20への耳の接触が検出されている場合には、外国語の音声を、イヤホンジャック13に接続されたイヤホンから出力し、日本語の音声を、パネル20への耳の接触検出を契機としてパネル20により発生させてもよい。逆に、携帯電話1Aは、日本語の音声を、イヤホンジャック13に接続されたイヤホンから出力し、外国語の音声を、パネル20への耳の接触検出を契機としてパネル20により発生させてもよい。   For example, when playing a TV program, the mobile phone 1A connects the main sound to the earphone jack 13 when the connection of the earphone is detected and the contact of the ear with the panel 20 is detected. The sub-audio may be generated by the panel 20 in response to detection of an ear contact with the panel 20. Further, when the mobile phone 1A is playing a bilingual television program or a subtitle broadcast movie, when the connection of the earphone is detected and the contact of the ear to the panel 20 is detected, Alternatively, foreign language audio may be output from the earphone connected to the earphone jack 13, and Japanese audio may be generated by the panel 20 when the contact of the ear with the panel 20 is detected. Conversely, the mobile phone 1 </ b> A may output Japanese voice from the earphone connected to the earphone jack 13 and cause the foreign voice to be generated by the panel 20 when the contact of the ear with the panel 20 is detected. Good.

(実施形態2)
実施形態1では、音楽コンテンツ(楽曲)を再生中に、イヤホンが接続され、かつパネル20への耳の接触が検出されている場合には、音楽コンテンツ(楽曲)に関連する情報に対応する音をパネル20により発生させる例を説明した。実施形態2では、音楽コンテンツ(楽曲)の再生に伴って実行される他の処理手順について説明する。
(Embodiment 2)
In the first embodiment, when the earphone is connected and the ear contact with the panel 20 is detected during the reproduction of the music content (music), the sound corresponding to the information related to the music content (music) is detected. An example in which this is generated by the panel 20 has been described. In the second embodiment, another processing procedure executed along with the reproduction of music content (music) will be described.

制御プログラム9Aには、例えば、第1のコンテンツと第2のコンテンツとの切れ目にあるか否かに応じて、第2の情報に含まれる情報の中から異なる情報を選択し、選択した情報に対応する音を第1音発生部により発生させる機能が含まれる。第1のコンテンツと第2のコンテンツとの切れ目とは、例えば、第1のコンテンツである楽曲Aと第2のコンテンツである楽曲Bを含む音楽コンテンツを再生する場合、楽曲Aから楽曲Bへの切り替わり部分(無音部分)に該当する。第1のコンテンツと第2のコンテンツとの切れ目とは、楽曲Aと楽曲Bとの間の部分とも言うことができる。第1音発生部は、例えば、パネル20である。第1音発生部により発生させる音は、例えば、読み上げ音声である。   For example, the control program 9A selects different information from the information included in the second information depending on whether there is a break between the first content and the second content. A function of generating a corresponding sound by the first sound generator is included. The break between the first content and the second content is, for example, when the music content including the music A that is the first content and the music B that is the second content is played back, from the music A to the music B. Corresponds to the switching part (silent part). The break between the first content and the second content can also be said to be a portion between the music A and the music B. The first sound generating unit is, for example, the panel 20. The sound generated by the first sound generator is, for example, a read-out voice.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、例えば、第1のコンテンツと第2のコンテンツとの切れ目にあるか否かに応じて、第2の情報に含まれる情報の中から異なる情報を選択し、選択した情報に対応する音を第1音発生部により発生させる。   For example, the controller 10 executes the control program 9A, so that the controller 10 differs from the information included in the second information depending on, for example, whether or not there is a break between the first content and the second content. Information is selected, and a sound corresponding to the selected information is generated by the first sound generator.

図7は、実施形態2に係る携帯電話1Aによる処理手順の一例を示す図である。図7に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。以下では、図7を用いて、携帯電話1Aにおいて、音楽コンテンツ(楽曲)の再生に伴って実行される処理手順の他の例を説明する。図7に示す処理手順のうち、ステップS205の処理が、図6に示す処理手順とは異なる。   FIG. 7 is a diagram illustrating an example of a processing procedure performed by the mobile phone 1A according to the second embodiment. The processing procedure shown in FIG. 7 is realized by the controller 10 executing the control program 9A stored in the storage 9. Hereinafter, another example of the processing procedure executed in association with the reproduction of the music content (song) in the mobile phone 1A will be described with reference to FIG. Among the processing procedures shown in FIG. 7, the processing in step S205 is different from the processing procedure shown in FIG.

図7に示すように、コントローラ10は、ステップS201として、音楽コンテンツである楽曲の再生を開始すると、ステップS202として、イヤホンジャック13への接続を検出しているかどうかを判定する。   As shown in FIG. 7, when the controller 10 starts playing the music that is the music content in step S <b> 201, the controller 10 determines whether or not the connection to the earphone jack 13 is detected in step S <b> 202.

コントローラ10は、判定の結果、イヤホンジャック13への接続が検出されている場合には(ステップS202,Yes)、ステップS203として、イヤホンジャック13を介して、イヤホンジャック13に接続されたイヤホンに楽曲の音を出力する。   When the connection to the earphone jack 13 is detected as a result of the determination (step S202, Yes), the controller 10 plays music in the earphone connected to the earphone jack 13 via the earphone jack 13 as step S203. Sound is output.

続いて、コントローラ10は、ステップS204として、パネル20への耳の接触が検出されているかどうかを判定する。例えば、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20への耳の接触があるかどうかを判定する。パネル20への耳の接触を検出する方式は、図6に示すステップS104の方式と同様であってよい。   Subsequently, the controller 10 determines whether or not the contact of the ear with the panel 20 is detected as step S204. For example, the controller 10 determines whether there is an ear contact with the panel 20 based on the detection result of the touch screen 21. The method of detecting the contact of the ear with the panel 20 may be the same as the method of step S104 shown in FIG.

コントローラ10は、判定の結果、パネル20への耳の接触が検出されている場合には(ステップS204,Yes)、ステップS205として、再生中の音楽コンテンツが、楽曲の切れ目であるかどうかを判定する。すなわち、コントローラ10は、複数の楽曲を含む音楽コンテンツを再生しているときに、第1の楽曲から第2の楽曲へ切り替わる楽曲の切り替わり部分であるかどうかを判定する。   As a result of the determination, if the contact of the ear to the panel 20 is detected (step S204, Yes), the controller 10 determines whether or not the music content being played is a break of music as step S205. To do. In other words, the controller 10 determines whether or not it is a music switching portion that switches from the first music to the second music when playing music content including a plurality of music.

例えば、コントローラ10は、楽曲の音声ファイルを解析して無音部分を検出し、検出した無音部分と、楽曲を再生したときの再生開始からの経過時刻とを関連付けておく。続いて、コントローラ10は、現在再生中の楽曲の再生開始からの経過時刻が、無音部分に対応する時刻である場合には、楽曲の切れ目であると判定する。   For example, the controller 10 analyzes a sound file of a music to detect a silent part, and associates the detected silent part with an elapsed time from the start of reproduction when the music is reproduced. Subsequently, if the elapsed time from the start of playback of the currently played music is a time corresponding to the silent part, the controller 10 determines that the music is a break.

コントローラ10は、判定の結果、楽曲の切れ目ではない場合には(ステップS205,No)、ステップS206として、再生中の楽曲の曲名及び歌手名を読み上げる読み上げ音声をパネル20により発生させ、外部に出力する。具体的に説明すると、コントローラ10は、楽曲の切れ目ではない場合には、ストレージ9から、再生中の楽曲の曲名及び歌手名を取得する。そして、コントローラ10は、再生中の楽曲の曲名及び歌手名に対応する読み上げ音声を合成し、合成した読み上げ音声に対応する気導音及び振動音を、パネル20により発生させることにより、外部(パネル20に接触する人体の一部、例えば、耳)へ出力する。   If the result of the determination is that there is no break between songs (step S205, No), the controller 10 causes the panel 20 to generate a read-out voice that reads out the song name and singer name of the song being played, and outputs it to the outside as step S206. To do. More specifically, the controller 10 acquires the song name and singer name of the song being played from the storage 9 when the song is not a break. Then, the controller 10 synthesizes the reading voice corresponding to the tune name and singer name of the music being played back, and generates the air conduction sound and the vibration sound corresponding to the synthesized reading voice by the panel 20, so that the external (panel 20 is output to a part of the human body in contact with 20 (for example, an ear).

続いて、コントローラ10は、ステップS207として、音楽コンテンツの再生を終了するかどうかを判定する。例えば、コントローラ10は、利用者から再生終了の操作入力を受け付けたかどうか、あるいは音楽コンテンツの再生時間が完了したかどうかなどを判定する。   Subsequently, the controller 10 determines in step S207 whether or not to end the reproduction of the music content. For example, the controller 10 determines whether or not a playback end operation input has been received from the user, or whether or not the playback time of the music content has been completed.

コントローラ10は、判定の結果、音楽コンテンツの再生を終了する場合には(ステップS207,Yes)、図7に示す処理手順を終了する。一方、コントローラ10は、判定の結果、音楽コンテンツの再生を終了しない場合には(ステップS207,No)、ステップS202に戻る。   As a result of the determination, when the reproduction of the music content is to be ended (step S207, Yes), the controller 10 ends the processing procedure shown in FIG. On the other hand, if the result of determination is that the playback of music content is not terminated (No at step S207), the controller 10 returns to step S202.

ステップS205において、コントローラ10は、判定の結果、楽曲の切れ目である場合には(ステップS205,Yes)、ステップS208として、再生中の楽曲のアルバム名及び何曲目かを読み上げる読み上げ音声をパネル20により発生させ、外部に出力する。具体的に説明すると、コントローラ10は、楽曲の切れ目である場合には、ストレージ9から、再生中の楽曲のアルバム名及び何曲目か(アルバムに収録された何番目の曲か)を取得する。そして、コントローラ10は、再生中の楽曲のアルバム名及び何曲目かに対応する読み上げ音声を合成し、合成した読み上げ音声に対応する気導音及び振動音を、パネル20により発生させることにより、外部(パネル20に接触する人体の一部、例えば、耳)へ出力する。続いて、コントローラ10は、ステップS207に移り、音楽コンテンツの再生を終了するかどうかを判定する。   In step S205, if the result of determination is that there is a break in the music (step S205, Yes), the controller 10 uses the panel 20 to read out the read-out voice that reads the album name and the number of the music being played back as step S208. Generate and output to the outside. More specifically, the controller 10 acquires, from the storage 9, the album name of the music being reproduced and the number of the music (the number of music recorded in the album) from the storage 9 when the music is a break. Then, the controller 10 synthesizes the read-out sound corresponding to the album name of the music being reproduced and the number of the music, and generates an air conduction sound and a vibration sound corresponding to the synthesized read-out sound by the panel 20, thereby (A part of the human body that contacts the panel 20, for example, an ear). Subsequently, the controller 10 proceeds to step S207 and determines whether or not to end the reproduction of the music content.

コントローラ10は、ステップS204において、判定の結果、パネル20への耳の接触が検出されていない場合には(ステップS204,No)、ステップS207に移り、音楽コンテンツの再生を終了するかどうかを判定する。   If the result of determination in step S204 is that ear contact with the panel 20 has not been detected (No in step S204), the controller 10 proceeds to step S207 and determines whether or not to end the reproduction of music content. To do.

コントローラ10は、ステップS202において、判定の結果、イヤホンジャック13への接続が検出されていない場合には(ステップS202,No)、ステップS209として、イヤホンジャック13以外から楽曲の音を出力する。続いて、コントローラ10は、ステップS207に移り、音楽コンテンツの再生を終了するかどうかを判定する。   If the connection to the earphone jack 13 is not detected as a result of the determination in step S202 (step S202, No), the controller 10 outputs the sound of the music from other than the earphone jack 13 as step S209. Subsequently, the controller 10 proceeds to step S207 and determines whether or not to end the reproduction of the music content.

図7に示す処理手順では、楽曲の切れ目ではない場合には、曲名及び歌手名を読み上げる読み上げ音声をパネル20により出力し、楽曲の切れ目である場合には、アルバム名及び何曲目かを読み上げる読み上げ音声をパネル20により出力する例を説明した。これは、楽曲の切れ目ではない、すなわち楽曲の音が出力中である場合には、利用者が曲名及び歌手名を確認したいと考える可能性が高いと予想される点を考慮した例であり、これには限定されない。例えば、楽曲の切れ目ではない場合には、曲名を読み上げる読み上げ音声のみを出力し、楽曲の切れ目である場合には、歌手名、アルバム名及び何曲目かを読み上げる読み上げ音声をパネル20により出力してもよい。このように、楽曲の切れ目、すなわち、楽曲の切り替わり部分であるかどうかに応じて、どのような情報を出力するかを任意に設定することができる。   In the processing procedure shown in FIG. 7, when it is not the break of the music, the reading sound for reading the song name and the singer name is output by the panel 20, and when it is the break of the music, the reading of the album name and the number of the music is read out. The example which outputs the audio | voice by the panel 20 was demonstrated. This is an example in consideration of the fact that it is not likely that the user will want to confirm the song title and singer name when the song sound is not being output, that is, when the sound of the song is being output, This is not a limitation. For example, if it is not a break of a song, only the reading voice for reading the song name is output, and if it is a break of the song, the reading voice for reading the singer name, the album name and the number of the song is output by the panel 20. Also good. In this way, it is possible to arbitrarily set what information is to be output depending on whether or not there is a break between music pieces, that is, whether or not the music is switched.

上述してきたように、実施形態2において、携帯電話1Aは、楽曲の切れ目、すなわち、楽曲の切り替わり部分であるかどうかに応じて、音楽コンテンツ(楽曲)に関連する情報の中から、異なる内容の情報を選択し、選択した情報に対応する音をパネル20により発生させて、外部へ出力する。このように、実施形態2によれば、再生中のコンテンツに関する情報の中から、再生中のコンテンツの状況に応じた情報を、利用者に伝えることができる。   As described above, in the second embodiment, the mobile phone 1A has different contents from the information related to the music content (song) depending on whether or not it is a break between music pieces, that is, a switching part of the music piece. Information is selected, and a sound corresponding to the selected information is generated by the panel 20 and output to the outside. As described above, according to the second embodiment, it is possible to convey information according to the status of the content being reproduced from the information regarding the content being reproduced to the user.

(実施形態3)
実施形態1では、音楽コンテンツ(楽曲)を再生中に、イヤホンが接続され、かつパネル20への耳の接触が検出されている場合には、音楽コンテンツ(楽曲)に関連する情報に対応する音をパネル20により発生させる例を説明した。さらに、実施形態3では、さらに、音楽コンテンツ(楽曲)の再生に伴って実行される他の処理手順について説明する。
(Embodiment 3)
In the first embodiment, when the earphone is connected and the ear contact with the panel 20 is detected during the reproduction of the music content (music), the sound corresponding to the information related to the music content (music) is detected. An example in which this is generated by the panel 20 has been described. Furthermore, in the third embodiment, another processing procedure executed in association with the reproduction of music content (music) will be described.

制御プログラム9Aには、例えば、検出部により検出された接触の回数に応じて、第2の情報に含まれる情報の中から異なる情報を選択し、選択した情報に対応する音を第1音発生部により発生させる機能が含まれる。検出部は、例えば、タッチスクリーン21である。第1音発生部は、例えば、パネル20である。第1音発生部により発生させる音は、例えば、読み上げ音声である。   In the control program 9A, for example, different information is selected from the information included in the second information according to the number of contacts detected by the detection unit, and a sound corresponding to the selected information is generated as the first sound. A function generated by a part is included. The detection unit is, for example, the touch screen 21. The first sound generating unit is, for example, the panel 20. The sound generated by the first sound generator is, for example, a read-out voice.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、例えば、検出部により検出された接触の回数に応じて、第2の情報に含まれる情報の中から異なる情報を選択し、選択した情報に対応する音を第1音発生部により発生させる。   For example, by executing the control program 9A, the controller 10 selects different information from the information included in the second information according to, for example, the number of contacts detected by the detection unit, and selects the selected information. A sound corresponding to is generated by the first sound generator.

図8は、実施形態3に係る携帯電話1Aによる処理手順の一例を示す図である。図8に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。以下では、図8を用いて、携帯電話1Aにおいて、音楽コンテンツ(楽曲)の再生に伴って実行される処理手順の他の例を説明する。図8に示す処理手順のうち、ステップS304〜ステップS307、及びステップS309〜ステップS312の処理が、図6に示す処理手順とは異なる。   FIG. 8 is a diagram illustrating an example of a processing procedure performed by the mobile phone 1A according to the third embodiment. The processing procedure illustrated in FIG. 8 is realized by the controller 10 executing the control program 9A stored in the storage 9. Hereinafter, another example of the processing procedure executed in association with the reproduction of the music content (song) in the mobile phone 1A will be described with reference to FIG. Among the processing procedures shown in FIG. 8, the processing of steps S304 to S307 and steps S309 to S312 is different from the processing procedure shown in FIG.

図8に示すように、コントローラ10は、ステップS301として、音楽コンテンツである楽曲の再生を開始すると、ステップS302として、イヤホンジャック13への接続を検出しているかどうかを判定する。   As shown in FIG. 8, when the controller 10 starts reproducing the music that is the music content in step S <b> 301, the controller 10 determines whether or not the connection to the earphone jack 13 is detected in step S <b> 302.

コントローラ10は、判定の結果、イヤホンジャック13への接続が検出されている場合には(ステップS302,Yes)、ステップS303として、イヤホンジャック13を介して、イヤホンジャック13に接続されたイヤホンに楽曲の音を出力する。   When the connection to the earphone jack 13 is detected as a result of the determination (step S302, Yes), the controller 10 plays music in the earphone connected to the earphone jack 13 via the earphone jack 13 as step S303. Sound is output.

続いて、コントローラ10は、ステップS304として、パネル20への耳の接触が検出されているかどうかを判定する。例えば、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20への耳の接触があるかどうかを判定する。パネル20への耳の接触を検出する方式は、図6に示すステップS104の方式と同様であってよい。   Subsequently, the controller 10 determines whether or not the contact of the ear with the panel 20 is detected as step S304. For example, the controller 10 determines whether there is an ear contact with the panel 20 based on the detection result of the touch screen 21. The method of detecting the contact of the ear with the panel 20 may be the same as the method of step S104 shown in FIG.

コントローラ10は、判定の結果、パネル20への耳の接触が検出されている場合には(ステップS304,Yes)、ステップS305として、タッチスクリーン21の検出結果に基づいて、パネル20への耳の接触回数を取得する。例えば、コントローラ10は、一定時間内に検出された耳の接触回数を取得する。   As a result of the determination, when the contact of the ear to the panel 20 is detected (Yes in Step S304), the controller 10 determines the ear of the panel 20 based on the detection result of the touch screen 21 as Step S305. Get contact count. For example, the controller 10 obtains the number of ear contacts detected within a certain time.

続いて、コントローラ10は、ステップS306として、接触回数が1回であるか否かを判定する。コントローラ10は、判定の結果、接触回数が1回である場合には(ステップS306,Yes)、ステップS307として、再生中の楽曲の曲名を読み上げる読み上げ音声をパネル20により出力する。   Subsequently, in Step S306, the controller 10 determines whether or not the number of times of contact is one. If the number of times of contact is one as a result of the determination (step S306, Yes), the controller 10 outputs, through step S307, a read-out voice that reads the name of the song being played back.

続いて、コントローラ10は、ステップS308として、音楽コンテンツの再生を終了するかどうかを判定する。例えば、コントローラ10は、利用者から再生終了の操作入力を受け付けたかどうか、あるいは音楽コンテンツの再生時間が完了したかどうかなどを判定する。   Subsequently, the controller 10 determines in step S308 whether or not to end the reproduction of the music content. For example, the controller 10 determines whether or not a playback end operation input has been received from the user, or whether or not the playback time of the music content has been completed.

コントローラ10は、判定の結果、音楽コンテンツの再生を終了する場合には(ステップS308,Yes)、図8に示す処理手順を終了する。一方、コントローラ10は、判定の結果、音楽コンテンツの再生を終了しない場合には(ステップS308,No)、ステップS302に戻る。   As a result of the determination, when the reproduction of the music content is to be ended (step S308, Yes), the controller 10 ends the processing procedure shown in FIG. On the other hand, if the result of determination is that the reproduction of music content is not completed (No at step S308), the controller 10 returns to step S302.

ステップS306において、コントローラ10は、判定の結果、接触回数が1回ではない場合には(ステップS306,No)、ステップS309として、接触回数が2回であるか否かを判定する。   In step S306, if the result of determination is that the number of times of contact is not one (step S306, No), the controller 10 determines whether or not the number of times of contact is two as step S309.

コントローラ10は、判定の結果、接触回数が2回である場合には(ステップS309,Yes)、ステップS310として、再生中の楽曲の歌手名を読み上げる読み上げ音声をパネル20により出力する。続いて、コントローラ10は、ステップS308に移り、音楽コンテンツの再生を終了するかどうかを判定する。   If the number of times of contact is two as a result of the determination (step S309, Yes), the controller 10 outputs a read-out voice that reads the name of the singer of the music being played back, as step S310. Subsequently, the controller 10 proceeds to step S308, and determines whether or not to end the reproduction of the music content.

一方、コントローラ10は、判定の結果、接触回数が2回ではない場合には(ステップS309,No)、ステップS311として、接触回数が3回以上であるか否かを判定する。   On the other hand, when the number of times of contact is not two as a result of the determination (step S309, No), the controller 10 determines whether the number of times of contact is three or more as step S311.

コントローラ10は、判定の結果、接触回数が3回以上である場合には(ステップS311,Yes)、ステップS312として、再生中の楽曲のアルバム名及び何曲目かを読み上げる読み上げ音声をパネル20により出力する。続いて、コントローラ10は、ステップS308に移り、音楽コンテンツの再生を終了するかどうかを判定する。   If the number of touches is three or more as a result of the determination (step S311, Yes), the controller 10 outputs a read-out voice that reads out the album name of the music being reproduced and the number of the music as the step S312. To do. Subsequently, the controller 10 proceeds to step S308, and determines whether or not to end the reproduction of the music content.

一方、コントローラ10は、判定の結果、接触回数が3回以上ではない場合には(ステップS311,No)、ステップS308に移り、音楽コンテンツの再生を終了するかどうかを判定する。   On the other hand, if the result of determination is that the number of times of contact is not three or more (step S311, No), the controller 10 proceeds to step S308 and determines whether or not to end the reproduction of the music content.

コントローラ10は、ステップS304において、判定の結果、パネル20への耳の接触が検出されていない場合には(ステップS304,No)、ステップS308に移り、音楽コンテンツの再生を終了するかどうかを判定する。   If the result of determination in step S304 is that the contact of the ear with the panel 20 has not been detected (No in step S304), the controller 10 proceeds to step S308 and determines whether or not to end the reproduction of the music content. To do.

コントローラ10は、ステップS302において、判定の結果、イヤホンジャック13への接続が検出されていない場合には(ステップS302,No)、ステップS313として、イヤホンジャック13以外から楽曲の音を出力する。例えば、コントローラ10は、スピーカ11から再生中の楽曲の音を出力してもよいし、パネル20を変形させて、パネル20により再生中の楽曲に対応する音を発生させて出力してもよい。続いて、コントローラ10は、ステップS308に移り、音楽コンテンツの再生を終了するかどうかを判定する。   If it is determined in step S302 that the connection to the earphone jack 13 has not been detected (No in step S302), the controller 10 outputs the sound of the music from other than the earphone jack 13 as step S313. For example, the controller 10 may output the sound of the music being played from the speaker 11, or may deform the panel 20 and generate and output the sound corresponding to the music being played by the panel 20. . Subsequently, the controller 10 proceeds to step S308, and determines whether or not to end the reproduction of the music content.

図8に示す処理手順では、パネル20への耳の接触回数が1回である場合には曲名をパネル20により出力し、接触回数が2回である場合には歌手名をパネル20により出力し、接触回数が3回以上である場合にはアルバム名及び何曲目かをパネル20により出力する例を説明したが、これには限定されない。   In the processing procedure shown in FIG. 8, when the number of times of ear contact with the panel 20 is 1, the song name is output by the panel 20, and when the number of contacts is 2, the singer name is output by the panel 20. The example in which the album name and the number of songs are output by the panel 20 when the number of times of contact is 3 times or more has been described, but the present invention is not limited to this.

上述してきたように、実施形態3において、携帯電話1Aは、パネル20への耳の接触回数に応じて、音楽コンテンツ(楽曲)に関連する情報の中から、異なる内容の情報を選択し、選択した情報を読み上げる読み上げ音声をパネル20により発生させて、外部へ出力する。このように、実施形態3によれば、再生中のコンテンツに関する情報の中から、利用者の操作に応じた情報を、利用者に伝えることができる。   As described above, in the third embodiment, the mobile phone 1A selects and selects information of different contents from the information related to the music content (song) according to the number of ear contacts with the panel 20. A read-out sound for reading out the read information is generated by the panel 20 and output to the outside. As described above, according to the third embodiment, information corresponding to a user operation can be transmitted to the user from the information regarding the content being reproduced.

(実施形態4)
上記の実施形態では、タッチスクリーン21がパネル20のほぼ全面に配設される例について説明したが、タッチスクリーン21は、パネル20と重ならないように配設されてもよい。図9は、実施形態4に係る携帯電話の正面図である。図10は、図9に示す携帯電話のb−b線断面図である。図9及び図10を用いて、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Bについて説明する。
(Embodiment 4)
In the above-described embodiment, an example in which the touch screen 21 is disposed on almost the entire surface of the panel 20 has been described. However, the touch screen 21 may be disposed so as not to overlap the panel 20. FIG. 9 is a front view of the mobile phone according to the fourth embodiment. 10 is a cross-sectional view of the mobile phone shown in FIG. 9 taken along the line bb. A mobile phone 1B arranged so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS.

図9及び図10に示すように、携帯電話1Bにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。タッチスクリーン21は、ディスプレイ2の表側のほぼ全面を覆うように配設される。すなわち、タッチスクリーン21及びディスプレイ2は、所謂タッチパネル(タッチスクリーンディスプレイ)を構成する。   As shown in FIGS. 9 and 10, in the mobile phone 1 </ b> B, the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20, not inside the panel 20. The touch screen 21 is disposed so as to cover almost the entire front surface of the display 2. That is, the touch screen 21 and the display 2 constitute a so-called touch panel (touch screen display).

パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の伸縮(変形)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳(耳介軟骨))を介して伝わる振動音とを発生する。圧電素子7をパネル20の中央に配設することにより、圧電素子7の振動がパネル20全体に均等に伝わり、利用者に伝わる音の品質が向上する。   The piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30. When an electrical signal is applied to the piezoelectric element 7, the panel 20 vibrates in accordance with expansion / contraction (deformation) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear (ear) Generating vibration sound transmitted through the cartilage))). By disposing the piezoelectric element 7 in the center of the panel 20, the vibration of the piezoelectric element 7 is evenly transmitted to the entire panel 20, and the quality of the sound transmitted to the user is improved.

パネル20の表側の面にはタッチスクリーン21が配設されないが、パネル20は、タッチスクリーン21が配設されるディスプレイ2の近傍に配置される。   Although the touch screen 21 is not disposed on the front surface of the panel 20, the panel 20 is disposed in the vicinity of the display 2 on which the touch screen 21 is disposed.

パネル20をタッチスクリーン21と重ならないように配設した場合、携帯電話1Bは、例えば、タッチスクリーン21の検出結果に基づいて、ディスプレイ2の上部への耳の接触検出を契機として、気導音及び振動音を発生させるようにする。この場合、利用者の耳が、パネル20にも接触しているものと考えられるので、上記の実施形態と同様に、再生中のコンテンツに関する情報を、利用者に伝えることができる。   When the panel 20 is arranged so as not to overlap the touch screen 21, the mobile phone 1 </ b> B, for example, based on the detection result of the touch screen 21, triggered by the contact detection of the ear to the upper part of the display 2, And generate vibration noise. In this case, since it is considered that the user's ear is also in contact with the panel 20, information regarding the content being reproduced can be transmitted to the user as in the above embodiment.

(実施形態5)
上記の実施形態では、タッチスクリーン21の少なくとも一部がディスプレイ2と重なるように配設される例について説明したが、タッチスクリーン21は、ディスプレイ2と重ならないように配設されてもよい。図11は、実施形態5に係る携帯電話の正面図である。図12は、図11に示す携帯電話のc−c線断面図である。図11及び図12を用いて、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Cについて説明する。図11及び図12に示す携帯電話1Cは、いわゆる折畳型携帯電話の一例である。
(Embodiment 5)
In the above-described embodiment, an example in which at least a part of the touch screen 21 is disposed so as to overlap the display 2 has been described, but the touch screen 21 may be disposed so as not to overlap the display 2. FIG. 11 is a front view of the mobile phone according to the fifth embodiment. 12 is a cross-sectional view taken along line cc of the mobile phone shown in FIG. A mobile phone 1 </ b> C that is disposed so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS. 11 and 12. A cellular phone 1C shown in FIGS. 11 and 12 is an example of a so-called folding cellular phone.

図11及び図12に示すように、携帯電話1Cにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。   As shown in FIGS. 11 and 12, in the mobile phone 1 </ b> C, the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20, not inside the panel 20.

パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20と圧電素子7との間には、補強部材31が配設される。補強部材31は、例えば樹脂製の板、板金又はガラス繊維を含む板である。すなわち、携帯電話1Cにおいては、圧電素子7と補強部材31とが接合部材30により接着され、さらに補強部材31とパネル20とが接合部材30で接着される。なお、圧電素子7は、パネル20の中央に設けられていなくともよい。   The piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30. A reinforcing member 31 is disposed between the panel 20 and the piezoelectric element 7. The reinforcing member 31 is, for example, a plate made of resin, sheet metal, or glass fiber. That is, in the cellular phone 1 </ b> C, the piezoelectric element 7 and the reinforcing member 31 are bonded by the bonding member 30, and the reinforcing member 31 and the panel 20 are bonded by the bonding member 30. The piezoelectric element 7 may not be provided at the center of the panel 20.

補強部材31は、例えばゴムまたはシリコン等の弾性部材である。補強部材31は、例えばある程度の弾性を有するアルミニウム等から成る金属板であってもよい。補強部材31は、例えばSUS304等のステンレス板であってもよい。ステンレス板等の金属板の厚さは、圧電素子7に印加される電圧値等に応じて、例えば0.2mm〜0.8mmのものが適宜用いられる。補強部材31は、例えば樹脂製の板であってもよい。ここでいう樹脂製の板を形成する樹脂としては、例えばポリアミド系樹脂が挙げられる。ポリアミド系樹脂には、例えば、メタキシリレンジアミンとアジピン酸とから得られる結晶性の熱可塑性樹脂から成り、強度および弾性に富むレニー(登録商標)がある。このようなポリアミド系樹脂は、それ自体をベースポリマーとして、ガラス繊維、金属繊維または炭素繊維等により強化された強化樹脂であってもよい。強化樹脂は、ポリアミド系樹脂に対するガラス繊維、金属繊維または炭素繊維等の付加量に応じて、強度および弾性が適宜調整される。強化樹脂は、例えば、ガラス繊維、金属繊維または炭素繊維等を編みこんで形成された基材に樹脂を含浸させ、硬化させて形成される。強化樹脂は、液状の樹脂に細かく切断された繊維片を混入させたのちに硬化させて形成されるものであってもよい。強化樹脂は、繊維を編みこんだ基材と樹脂層とを積層したものであってもよい。   The reinforcing member 31 is an elastic member such as rubber or silicon. The reinforcing member 31 may be a metal plate made of aluminum or the like having a certain degree of elasticity, for example. The reinforcing member 31 may be a stainless plate such as SUS304. The thickness of a metal plate such as a stainless steel plate is suitably 0.2 mm to 0.8 mm, for example, depending on the voltage value applied to the piezoelectric element 7 or the like. The reinforcing member 31 may be a resin plate, for example. As resin which forms the resin-made board here, a polyamide-type resin is mentioned, for example. Examples of the polyamide-based resin include Reny (registered trademark), which is made of a crystalline thermoplastic resin obtained from metaxylylenediamine and adipic acid and is rich in strength and elasticity. Such a polyamide-based resin may be a reinforced resin reinforced with glass fiber, metal fiber, carbon fiber, or the like using itself as a base polymer. The strength and elasticity of the reinforced resin are appropriately adjusted according to the amount of glass fiber, metal fiber, carbon fiber, or the like added to the polyamide-based resin. The reinforced resin is formed, for example, by impregnating a resin into a base material formed by braiding glass fiber, metal fiber, carbon fiber or the like and curing it. The reinforced resin may be formed by mixing a finely cut fiber piece into a liquid resin and then curing it. The reinforced resin may be a laminate of a base material in which fibers are knitted and a resin layer.

圧電素子7とパネル20との間に補強部材31を配設することにより、以下の効果が得られる。パネル20に外力が加わった場合に、その外力が圧電素子7に伝わって圧電素子7が破損する可能性を低減することができる。例えば携帯電話1Cが地面に落下することでパネル20に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル20から伝わる外力により弾性変形する。そのため、パネル20に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7に伝達される外力が低減される。結果、圧電素子7の破損を低減することができる。補強部材31が圧電素子7と筺体40との間に配置される場合、例えば携帯電話1Cが地面に落下することで筺体40が変形し、変形した筺体40が圧電素子7に衝突して圧電素子7が破損する可能性を低減できる。   By disposing the reinforcing member 31 between the piezoelectric element 7 and the panel 20, the following effects can be obtained. When an external force is applied to the panel 20, the possibility that the external force is transmitted to the piezoelectric element 7 and the piezoelectric element 7 is damaged can be reduced. For example, when an external force is applied to the panel 20 by the mobile phone 1 </ b> C falling on the ground, the external force is first transmitted to the reinforcing member 31. Since the reinforcing member 31 has predetermined elasticity, it is elastically deformed by an external force transmitted from the panel 20. Therefore, at least a part of the external force applied to the panel 20 is absorbed by the reinforcing member 31, and the external force transmitted to the piezoelectric element 7 is reduced. As a result, damage to the piezoelectric element 7 can be reduced. When the reinforcing member 31 is disposed between the piezoelectric element 7 and the casing 40, the casing 40 is deformed, for example, when the mobile phone 1C falls on the ground, and the deformed casing 40 collides with the piezoelectric element 7 and the piezoelectric element. The possibility that 7 is damaged can be reduced.

圧電素子7の伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル20に伝達される。すなわち、圧電素子7は、まず圧電素子7よりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル20を振動させることになる。したがって、携帯電話1Cは、補強部材31を備えず、圧電素子7が接合部材30によりパネル20に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル20の変形量(変形の程度)を調節することができる。この構造は、圧電素子7の変形を阻害しにくいパネル20の場合に特に有効である。   Vibration due to expansion / contraction or bending of the piezoelectric element 7 is first transmitted to the reinforcing member 31 and further transmitted to the panel 20. That is, the piezoelectric element 7 first vibrates the reinforcing member 31 having a larger elastic coefficient than the piezoelectric element 7 and further vibrates the panel 20. Therefore, the cellular phone 1 </ b> C does not include the reinforcing member 31, and the piezoelectric element 7 can be less likely to be excessively deformed as compared with the structure in which the piezoelectric element 7 is bonded to the panel 20 by the bonding member 30. Thereby, the deformation amount (degree of deformation) of the panel 20 can be adjusted. This structure is particularly effective in the case of the panel 20 that hardly obstructs the deformation of the piezoelectric element 7.

さらに、圧電素子7とパネル20との間に補強部材31を配設することにより、図13に示すように、パネル20の共振周波数が下がり、低周波帯域の音響特性が向上する。図13は、補強部材31による周波数特性の変化例を示す図である。図13には、上記のSUS304のような板金(ステンレス板)を補強部材31として用いた場合の周波数特性と、上記のレニーのような強化樹脂を補強部材31として用いた場合の周波数特性とが示されている。横軸は周波数を、縦軸は音圧を示す。強化樹脂を用いた場合の共振点は約2kHzであり、板金を用いた場合の共振点は約1kHzである。強化樹脂を用いた場合のディップは約4kHzであり、板金を用いた場合のディップは約3kHzである。すなわち、強化樹脂を用いた場合には、板金を用いた場合に比べて、パネル20の共振点が高い周波数領域に位置しており、周波数特性のディップがより高い周波数領域に位置している。携帯電話機の音声通話で用いられる周波数帯は300Hz〜3.4kHzであるため、強化樹脂を補強部材31として用いた場合、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。尚、補強部材31として板金を用いる場合でも、板金を構成する金属の種類もしくは組成または板金の厚さ等を適宜調整することで、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。板金と強化樹脂とを比較すると、強化樹脂は、板金と比較してアンテナ性能への影響を低減することができる。強化樹脂は板金と比較して塑性変形しにくいため、音響特性が変化しにくいという利点がある。強化樹脂は板金と比較して、音発生時の温度上昇が抑えられる。補強部材31の代わりに、板状の錘を接合部材30により圧電素子7に取り付けてもよい。   Furthermore, by disposing the reinforcing member 31 between the piezoelectric element 7 and the panel 20, as shown in FIG. 13, the resonance frequency of the panel 20 is lowered and the acoustic characteristics in the low frequency band are improved. FIG. 13 is a diagram illustrating an example of a change in frequency characteristics due to the reinforcing member 31. FIG. 13 shows frequency characteristics when a metal plate (stainless steel plate) such as SUS304 is used as the reinforcing member 31 and frequency characteristics when a reinforced resin such as Reny is used as the reinforcing member 31. It is shown. The horizontal axis represents frequency and the vertical axis represents sound pressure. The resonance point when reinforced resin is used is about 2 kHz, and the resonance point when sheet metal is used is about 1 kHz. The dip when using reinforced resin is about 4 kHz, and the dip when using sheet metal is about 3 kHz. That is, when the reinforced resin is used, the resonance point of the panel 20 is located in a higher frequency region and the frequency characteristic dip is located in a higher frequency region, compared to the case where a sheet metal is used. Since the frequency band used for the voice call of the mobile phone is 300 Hz to 3.4 kHz, when reinforced resin is used as the reinforcing member 31, the dip can be prevented from being included in the use frequency band of the mobile phone 1C. . Even when a sheet metal is used as the reinforcing member 31, the dip is not included in the use frequency band of the cellular phone 1C by appropriately adjusting the type or composition of the metal constituting the sheet metal or the thickness of the sheet metal. be able to. When the sheet metal and the reinforced resin are compared, the reinforced resin can reduce the influence on the antenna performance as compared with the sheet metal. Since reinforced resin is less likely to be plastically deformed than sheet metal, there is an advantage that acoustic characteristics are less likely to change. The reinforced resin suppresses the temperature rise at the time of sound generation compared to the sheet metal. Instead of the reinforcing member 31, a plate-like weight may be attached to the piezoelectric element 7 by the joining member 30.

パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳(耳介軟骨))を介して伝わる振動音とを発生する。タッチスクリーン21は、パネル20の表側のほぼ全面を覆うように配設される。   When an electrical signal is applied to the piezoelectric element 7, the panel 20 vibrates in accordance with deformation (expansion / contraction or bending) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) (Auricular cartilage)) and vibration sound transmitted through. The touch screen 21 is disposed so as to cover almost the entire front surface of the panel 20.

タッチスクリーン21をディスプレイ2と重ならないように配設した場合、携帯電話1Cは、例えば、上記の実施形態と同様に、タッチスクリーン21の検出結果に基づいて、パネル20への耳の接触検出を契機として、気導音及び振動音を発生させる。このため、上記の実施形態と同様に、再生中のコンテンツに関する情報を、利用者に伝えることができる。   When the touch screen 21 is disposed so as not to overlap the display 2, the mobile phone 1C detects the contact of the ear with the panel 20 based on the detection result of the touch screen 21, for example, as in the above embodiment. As an opportunity, air conduction sound and vibration sound are generated. For this reason, as with the above-described embodiment, information related to the content being reproduced can be transmitted to the user.

(その他の実施形態)
上記の実施形態において、携帯電話1A〜1Cは、第1の情報に含まれる特定の情報に対応する音の周波数と、第2の情報に対応する気導音及び振動音の周波数とを異なる周波数にしてもよい。例えば、携帯電話1Aは、再生中の楽曲に含まれる歌手の歌声が男性の声に対応する周波数である場合には、曲名や歌手名などの楽曲に関連する情報を読み上げる読み上げ音声の周波数を女性の声に対応する周波数とする。このようにすれば、再生中のコンテンツに関する情報を、利用者に分かりやすく伝えることができる。
(Other embodiments)
In the above-described embodiment, the mobile phones 1A to 1C have different frequencies between the sound frequency corresponding to the specific information included in the first information and the air conduction sound and the vibration sound corresponding to the second information. It may be. For example, when the singer's singing voice included in the music being played has a frequency corresponding to a male voice, the mobile phone 1A uses the frequency of the reading voice to read out the information related to the music such as the song name and the singer's name. The frequency corresponding to the voice. In this way, information about the content being played can be communicated to the user in an easy-to-understand manner.

上記の実施形態において、携帯電話1Aは、再生中の音楽コンテンツから、特定の周波数の音を取り出して、パネル20により出力することもできる。例えば、携帯電話1Aは、再生中の楽曲に含まれる音又は音声の中から、ボーカルの音声、ドラムの音、ベース音又はギター音などの特定の周波数の音又は音声だけを取り出して、パネル20により出力する。   In the above embodiment, the mobile phone 1 </ b> A can also extract a sound of a specific frequency from the music content being played and output it from the panel 20. For example, the mobile phone 1A extracts only sound or sound of a specific frequency such as vocal sound, drum sound, bass sound or guitar sound from the sound or sound included in the music being reproduced, and the panel 20 To output.

上記の実施形態では、圧電素子7によりパネル20を変形させ、気導音と振動音とを発生させた。圧電素子7により筺体40の一部を変形させ、気導音と振動音とを発生させてもよい。筺体40の一部は、例えば筺体の角部であってよい。   In the above embodiment, the panel 20 is deformed by the piezoelectric element 7 to generate air conduction sound and vibration sound. A part of the housing 40 may be deformed by the piezoelectric element 7 to generate air conduction sound and vibration sound. A part of the housing 40 may be a corner portion of the housing, for example.

上記の実施形態では、携帯電話1Aとして、ディスプレイ2が接合部材30を用いてパネル20の背面に取り付けられる例を示したが、携帯電話1Aは、パネル20とディスプレイ2の間に空間ができるように構成されてもよい。パネル20とディスプレイ2の間に空間を設けることにより、パネル20が振動しやすくなり、パネル20上において振動音を聞きやすい範囲が広くなる。   In the above-described embodiment, an example in which the display 2 is attached to the back surface of the panel 20 using the bonding member 30 as the mobile phone 1A has been described. However, the mobile phone 1A has a space between the panel 20 and the display 2. May be configured. By providing a space between the panel 20 and the display 2, the panel 20 easily vibrates, and the range on which the vibration sound can be easily heard on the panel 20 is widened.

上記の実施形態では、圧電素子7をパネル20に取り付ける例を示したが、他の場所に取り付けられてもよい。例えば、圧電素子7は、バッテリリッドに取り付けられてもよい。バッテリリッドは、筺体40に取り付けられ、バッテリを覆う部材である。バッテリリッドは、携帯電話等の携帯電子機器においてディスプレイ2と異なる面に取り付けられることが多いため、そのような構成によれば、利用者はディスプレイ2と異なる面に体の一部(例えば、耳(耳介軟骨))を接触させて音を聞くことができる。圧電素子7が筺体40の角部(例えば四隅の少なくとも一か所)を振動させる構成であってもよい。この場合、圧電素子7は、筺体40の角部の内面に取り付けられる構成でもよいし、中間部材をさらに備え、圧電素子7の振動が中間部材を介して筺体40の角部に伝達される構成でもよい。この構成によれば、振動する範囲を比較的狭くできるため、振動により発生する気導音が周囲に漏れにくい。また、この構成によれば、例えば利用者が筺体40の角部を外耳道に挿入した状態で気導音と振動音とが利用者に伝わるため、周囲のノイズが利用者の外耳道に入りにくい。そのため、利用者に伝わる音の品質を向上することができる。   In the above embodiment, the example in which the piezoelectric element 7 is attached to the panel 20 has been described, but the piezoelectric element 7 may be attached to another place. For example, the piezoelectric element 7 may be attached to a battery lid. The battery lid is a member that is attached to the housing 40 and covers the battery. Since the battery lid is often attached to a surface different from the display 2 in a portable electronic device such as a mobile phone, according to such a configuration, the user can place a part of the body (for example, an ear on the surface different from the display 2). (Auricular cartilage)) can be contacted to hear the sound. The piezoelectric element 7 may be configured to vibrate corners of the housing 40 (for example, at least one of the four corners). In this case, the piezoelectric element 7 may be configured to be attached to the inner surface of the corner portion of the housing 40, or further provided with an intermediate member, and the vibration of the piezoelectric element 7 is transmitted to the corner portion of the housing 40 via the intermediate member. But you can. According to this configuration, the vibrating range can be made relatively narrow, so that air conduction sound generated by the vibration is difficult to leak to the surroundings. Further, according to this configuration, for example, the air conduction sound and the vibration sound are transmitted to the user in a state where the user inserts the corner portion of the housing 40 into the external auditory canal, so that ambient noise is difficult to enter the user's external auditory canal. Therefore, the quality of the sound transmitted to the user can be improved.

上記の実施形態では、補強部材31は板状部材であるが、補強部材31の形状はこれに限られない。補強部材31は、例えば、圧電素子7より大きく、かつその端部が圧電素子7側に湾曲し圧電素子7の側部を覆う形状を有していてもよい。また、補強部材31は、例えば、板状部と、当該板状部から延設されて圧電素子7の側部を覆う延設部とを有する形状であってもよい。この場合、延設部と圧電素子7の側部とが、所定の距離だけ離間しているとよい。これにより、延設部が圧電素子の変形を阻害しにくくなる。   In said embodiment, although the reinforcement member 31 is a plate-shaped member, the shape of the reinforcement member 31 is not restricted to this. For example, the reinforcing member 31 may have a shape that is larger than the piezoelectric element 7 and has an end that curves toward the piezoelectric element 7 and covers the side of the piezoelectric element 7. The reinforcing member 31 may have, for example, a shape having a plate-like portion and an extending portion that extends from the plate-like portion and covers the side portion of the piezoelectric element 7. In this case, it is preferable that the extended portion and the side portion of the piezoelectric element 7 are separated by a predetermined distance. Thereby, it becomes difficult for the extending part to inhibit the deformation of the piezoelectric element.

パネル20は、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成することができる。特に、パネル20が表示パネルのとき、圧電素子7は、表示機能のための表示領域の外側に配置される。これにより、表示を阻害しにくいという利点がある。操作パネルは、タッチパネルを含む。また、操作パネルは、例えば折畳型携帯電話において操作キーのキートップが一体に形成され操作部側筺体の一面を構成する部材であるシートキーを含む。   The panel 20 can constitute a part or the whole of any of a display panel, an operation panel, a cover panel, and a lid panel for making the rechargeable battery removable. In particular, when the panel 20 is a display panel, the piezoelectric element 7 is disposed outside the display area for the display function. As a result, there is an advantage that the display is hardly disturbed. The operation panel includes a touch panel. In addition, the operation panel includes a sheet key that is a member constituting one surface of the operation unit side casing, in which, for example, a key top of an operation key is integrally formed in a foldable mobile phone.

パネル20と圧電素子7とを接着する接合部材およびパネル20と筺体40とを接着する接合部材等が同一の符号を有する接合部材30として説明した。しかしながら、接合部材は、接合する対象である部材に応じて適宜異なるものが用いられてよい。   The bonding member that bonds the panel 20 and the piezoelectric element 7 and the bonding member that bonds the panel 20 and the casing 40 have been described as the bonding member 30 having the same reference numeral. However, different joining members may be used as appropriate depending on the members to be joined.

上記の実施形態では、添付の請求項に係る装置の例として、携帯電話について説明したが、添付の請求項に係る装置は、携帯電話に限定されない。添付の請求項に係る装置は、携帯電話以外の携帯電子機器であってもよい。携帯電子機器は、例えば、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。   In the above embodiment, a mobile phone has been described as an example of a device according to the appended claims. However, the device according to the appended claims is not limited to a mobile phone. The device according to the appended claims may be a mobile electronic device other than a mobile phone. Examples of the portable electronic device include, but are not limited to, a tablet, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, and a game machine.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.

上記の実施形態では、コントローラ10が、タッチスクリーン21の検出結果に基づいて、パネル20への耳の接触を検出する例、及び、磁気センサにより、イヤホンに搭載される磁石から発せられる磁気(磁界)の検出結果に基づいてパネル20への耳あるいはイヤホンの接触又は接近を検出する例を説明したが、これには限定されない。検出部は、タッチスクリーン21が静電容量式である場合には静電容量値の変化を検出すればよく、タッチスクリーンが抵抗膜方式であれば電流値の変化を検出すればよい。検出部は、上述したタッチスクリーンの各種方式のいずれかに応じた物理量の変化を検出すればよい。上記の実施形態で述べた制御が、検出部により検出される特定の物理量の変化に基づいて行われればよい。物理量とその物理量を検出する検出部は、携帯電話の周囲光の照度(光の強さ、明るさ、又は輝度)を検出する照度センサ4であってよい。検出部は、パネル20近傍の温度を検出する温度センサ、赤外線の強度を検出する赤外線センサ等であってもよい。検出部は、物理量そのものの変化を検出してもよいし、物理量に対応する電圧値の変化を検出してもよい。   In the above embodiment, the controller 10 detects an ear contact with the panel 20 based on the detection result of the touch screen 21 and the magnetism (magnetic field) generated from the magnet mounted on the earphone by the magnetic sensor. The example of detecting the contact or approach of the ear or the earphone to the panel 20 based on the detection result of () has been described, but the present invention is not limited to this. The detection unit may detect a change in capacitance value when the touch screen 21 is a capacitance type, and may detect a change in current value if the touch screen is a resistive film type. The detection unit may detect a change in physical quantity according to any of the various touch screen methods described above. The control described in the above embodiment may be performed based on a change in a specific physical quantity detected by the detection unit. The detection unit that detects the physical quantity and the physical quantity may be the illuminance sensor 4 that detects the illuminance (light intensity, brightness, or luminance) of the ambient light of the mobile phone. The detection unit may be a temperature sensor that detects the temperature in the vicinity of the panel 20, an infrared sensor that detects the intensity of infrared rays, and the like. The detection unit may detect a change in the physical quantity itself, or may detect a change in the voltage value corresponding to the physical quantity.

1A〜1C 携帯電話
2 ディスプレイ
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 圧電素子
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C 音楽再生アプリケーション
9D 動画再生アプリケーション
9Y コンテンツデータ
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
13 イヤホンジャック
15 姿勢検出ユニット
18 バイブレータ
20 パネル
21 タッチスクリーン
30 接合部材
31 補強部材
40 筺体
1A to 1C Mobile phone 2 Display 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Piezoelectric element 8 Microphone 9 Storage 9A Control program 9B Call application 9C Music playback application 9D Video playback application 9Y Content data 9Z Setting data 10 Controller 11 Speaker 12 Camera 13 Earphone jack 15 Posture detection unit 18 Vibrator 20 Panel 21 Touch screen 30 Joining member 31 Reinforcing member 40 Housing

Claims (12)

圧電素子と、
前記圧電素子によって振動する第1音発生部と、
第2音発生部と、
物理量の変化を検出する検出部と、を備え、
前記第1音発生部は、気導音と、当該第1音発生部に接触する物体を振動させて伝わる振動音とを発生させ、
前記第2音発生部が、第1の情報及び第2の情報を含むコンテンツのうち、前記第1の情報に対応する音を発生させているときに、前記検出部により前記物理量の変化が検出された場合には、前記第1音発生部は、前記第2の情報に対応する前記気導音及び前記振動音を発生させる
電子機器。
A piezoelectric element;
A first sound generator that vibrates by the piezoelectric element;
A second sound generator;
A detection unit for detecting a change in physical quantity,
The first sound generation unit generates air conduction sound and vibration sound transmitted by vibrating an object in contact with the first sound generation unit,
When the second sound generation unit generates a sound corresponding to the first information among the contents including the first information and the second information, the change of the physical quantity is detected by the detection unit. When it is, the first sound generation unit generates the air conduction sound and the vibration sound corresponding to the second information.
第1のコンテンツと第2のコンテンツとが切り替わるタイミングであるか否かに応じて、前記第1音発生部が、前記第2の情報に含まれる情報のうち異なる内容の情報に対応する音を発生させる請求項1に記載の電子機器。   Depending on whether or not it is the timing at which the first content and the second content are switched, the first sound generator generates a sound corresponding to information of different contents among the information included in the second information. The electronic device according to claim 1 to be generated. 前記検出部は、前記第1音発生部への前記物体の接触を静電容量値の変化として検出し、
前記検出部により検出された接触の回数に応じて、前記第1音発生部が、前記第2の情報に含まれる情報のうち異なる内容の情報に対応する音を発生させる請求項1に記載の電子機器。
The detection unit detects a contact of the object with the first sound generation unit as a change in capacitance value;
The said 1st sound generation part produces | generates the sound corresponding to the information of a different content among the information contained in the said 2nd information according to the frequency | count of the contact detected by the said detection part. Electronics.
前記第1の情報に含まれる特定の情報に対応する音の周波数と、前記第2の情報に対応する前記気導音及び前記振動音の周波数とが異なる請求項1から3のいずれか一項に記載の電子機器。   The frequency of the sound corresponding to the specific information included in the first information is different from the frequency of the air conduction sound and the vibration sound corresponding to the second information. The electronic device as described in. 前記第1音発生部は、パネルである
請求項1から4のいずれか一項に記載の電子機器。
The electronic device according to any one of claims 1 to 4, wherein the first sound generation unit is a panel.
前記パネルは、人間の耳の対耳輪下脚から対耳珠までの間の距離に相当する長さと、耳珠から対耳輪までの間の距離に相当する幅とを有する領域よりも広い領域が振動する
請求項5に記載の電子機器。
The panel vibrates in a region wider than a region having a length corresponding to the distance from the lower leg of the human ear to the antitragus and a width corresponding to the distance from the tragus to the antique. The electronic device according to claim 5.
前記パネルは、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成する
請求項5または6に記載の電子機器。
The electronic device according to claim 5, wherein the panel constitutes a part or all of a display panel, an operation panel, a cover panel, and a lid panel for making a rechargeable battery removable.
前記パネルが表示パネルのとき、
前記圧電素子は、表示機能のための表示領域の外側に配置されている、
請求項7に記載の電子機器。
When the panel is a display panel,
The piezoelectric element is disposed outside a display area for a display function,
The electronic device according to claim 7.
前記パネルは、当該パネルのいずれの箇所においても気導音と振動音とを伝えるための変形が発生する
請求項5から8のいずれか一項に記載の電子機器。
The electronic device according to any one of claims 5 to 8, wherein the panel is deformed to transmit air conduction sound and vibration sound in any part of the panel.
前記パネルは、その振動領域において、当該パネルの主面と交差する方向に振動する箇所を複数有し、当該箇所の各々において、前記振動の振幅の値が時間とともにプラスからマイナスに、あるいはその逆に変動する
請求項1から9のいずれか一項に記載の電子機器。
The panel has a plurality of locations that vibrate in a direction intersecting with the main surface of the panel in the vibration region, and the amplitude value of the vibration is increased from plus to minus with time or vice versa at each location. The electronic device according to claim 1, wherein the electronic device varies.
圧電素子と、前記圧電素子によって振動する第1音発生部と、第2音発生部と、物理量の変化を検出する検出部とを備える電子機器によって実行される制御方法であって、
第1の情報及び第2の情報を含むコンテンツを再生するステップと、
再生する前記コンテンツに含まれる前記第1の情報に対応する音を前記第2音発生部により発生させているときに、前記検出部により前記物理量の変化が検出された場合には、再生する前記コンテンツに含まれる前記第2の情報に対応する、気導音及び前記第1音発生部に接触する物体を振動させて伝わる振動音を、前記第1音発生部により発生させるステップと
を含む制御方法。
A control method executed by an electronic device including a piezoelectric element, a first sound generation unit that vibrates by the piezoelectric element, a second sound generation unit, and a detection unit that detects a change in physical quantity,
Reproducing content including the first information and the second information;
When the sound corresponding to the first information included in the content to be reproduced is generated by the second sound generation unit and the change in the physical quantity is detected by the detection unit, the sound is reproduced. Generating a vibration sound transmitted by vibrating an air-conducted sound and an object in contact with the first sound generation unit corresponding to the second information included in the content by the first sound generation unit. Method.
圧電素子と、前記圧電素子によって振動する第1音発生部と、第2音発生部と、物理量の変化を検出する検出部とを備える電子機器に、
第1の情報及び第2の情報を含むコンテンツを再生するステップと、
再生する前記コンテンツに含まれる前記第1の情報に対応する音を前記第2音発生部により発生させているときに、前記検出部により前記物理量の変化が検出された場合には、再生する前記コンテンツに含まれる前記第2の情報に対応する、気導音及び前記第1音発生部に接触する物体を振動させて伝わる振動音を、前記第1音発生部により発生させるステップと
を実行させる制御プログラム。
An electronic device including a piezoelectric element, a first sound generating unit that vibrates by the piezoelectric element, a second sound generating unit, and a detecting unit that detects a change in physical quantity,
Reproducing content including the first information and the second information;
When the sound corresponding to the first information included in the content to be reproduced is generated by the second sound generation unit and the change in the physical quantity is detected by the detection unit, the sound is reproduced. Causing the first sound generation unit to generate an air conduction sound and a vibration sound transmitted by vibrating the object in contact with the first sound generation unit corresponding to the second information included in the content. Control program.
JP2012139627A 2012-06-21 2012-06-21 Electronic apparatus, control method, and control program Pending JP2014007444A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012139627A JP2014007444A (en) 2012-06-21 2012-06-21 Electronic apparatus, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012139627A JP2014007444A (en) 2012-06-21 2012-06-21 Electronic apparatus, control method, and control program

Publications (1)

Publication Number Publication Date
JP2014007444A true JP2014007444A (en) 2014-01-16

Family

ID=50104848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012139627A Pending JP2014007444A (en) 2012-06-21 2012-06-21 Electronic apparatus, control method, and control program

Country Status (1)

Country Link
JP (1) JP2014007444A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220312109A1 (en) * 2020-08-12 2022-09-29 Sony Group Corporation Electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220312109A1 (en) * 2020-08-12 2022-09-29 Sony Group Corporation Electronic device

Similar Documents

Publication Publication Date Title
JP6017828B2 (en) Electronic device, control method, and control program
WO2013164999A1 (en) Electronic device, control method, and control program
JP5856196B2 (en) Electronics
JP5812925B2 (en) Electronics
JP5818922B2 (en) Electronics
JP6121517B2 (en) apparatus
WO2013164980A1 (en) Electronic apparatus, control method, and control program
JP5968018B2 (en) Electronics
WO2014003148A1 (en) Electronic device, control method, and control program
JP5865774B2 (en) Electronic device, control method, and control program
JP6067999B2 (en) Electronic device, control method, and control program
JP2013232853A (en) Electronic apparatus, control method, and control program
JP6242040B2 (en) Electronic device, control method, and control program
JP6099320B2 (en) Electronic device, control method, and control program
JP2014007444A (en) Electronic apparatus, control method, and control program
JP2013236139A (en) Electronic apparatus, control method, and control program
JP6017829B2 (en) Electronics
JP6110078B2 (en) Electronic device, control method, and control program
JP2015050703A (en) Electronic apparatus
JP2013243501A (en) Electronic apparatus
JP6073074B2 (en) Electronics
JP2014082674A (en) Electronic device, control method, and control program
JP2014011511A (en) Electronic device, control method, and control program
JP2014011512A (en) Electronic device, control method, and control program