本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、気導音と振動音とを利用者に伝える電子機器の例として、携帯電話について説明する。
(実施形態1)
図1、図2及び図3を参照しながら、実施形態に係る携帯電話1Aの全体的な構成について説明する。図1は、携帯電話1Aの正面図である。図2は、携帯電話1Aの背面図である。図3は、携帯電話1Aのa−a断面を模式的に示す断面図である。図1、図2及び図3に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7と、第1マイク8aと、第2マイク8bと、第3マイク8cと、スピーカ11と、インカメラ12と、アウトカメラ13と、パネル20と、筐体40とを備える。
ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。
ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、図1及び図3に示す例に限定されない。
照度センサ4は、携帯電話1Aの周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
圧電素子7は、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7は、電気信号が印加されると変形する。圧電素子7は、パネル20に取り付けられ、パネル20を振動させるための振動源として用いられる。圧電素子7は、例えば、セラミック又は水晶を用いて形成される。圧電素子7は、ユニモルフ、バイモルフ、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフは、電気信号(電圧)が印加されると伸縮する。バイモルフは、電気信号(電圧)が印加されると屈曲する。
第1マイク8aは、所定の角度を付けて水平方向に配置された複数の単一指向性マイクカプセルを有するマイクロフォンユニットであり、アウトカメラ13の撮影方向から到来する水平方向の音を主に入力する。例えば、携帯電話1Aの姿勢を図1に示す状態で維持しつつ、アウトカメラ13を起動して撮影を開始した場合、第1マイク8aは、撮影方向の右側又は左側から到来する音を入力する。
第2マイク8bは、所定の角度を付けて垂直方向に配置された複数の単一指向性マイクカプセルを有するマイクロフォンユニットであり、アウトカメラ13の撮影方向から到来する垂直方向の音を主に入力する。例えば、携帯電話1Aの姿勢を図1に示す状態で維持しつつ、アウトカメラ13を起動して撮影を開始した場合、第2マイク8bは、撮影方向の上側又は下側から到来する音を入力する。
第3マイク8cは、例えば、通話時に、利用者から発せられる音声を入力する入力部である。例えば、第1マイク8a、第2マイク8b及び第3マイク8cは、入力される音を電気信号へ変換して、後述するコントローラ10に送り出す。
スピーカ11は、気導方式で音を出力する音出力部である。スピーカ11は、例えば、ダイナミックスピーカであり、電気信号を変換した音を、耳を携帯電話1Aに接触させていない人へも伝えることができる。スピーカ11は、例えば、動画コンテンツの再生中の音を出力したり、音楽を出力したりするために用いられる。
インカメラ12は、ディスプレイ2に面している物体を撮影するカメラである。アウトカメラ13は、ディスプレイ2とは反対側に面している物体などを撮影するカメラである。インカメラ12及びアウトカメラ13は、撮影した画像を電気信号へ変換する。
パネル20は、圧電素子7の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20に接触させる耳の軟骨(耳介軟骨)等にその振動を音振動として伝える。パネル20は、音発生部の一例である。パネル20は、ディスプレイ2及び圧電素子7等を外力から保護する機能も有する。パネル20は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20の形状は、例えば、板状である。パネル20は、平板であってよい。パネル20は、表面が滑らかに湾曲する曲面パネルであってもよい。
パネル20の背面には、接合部材30により、ディスプレイ2と、圧電素子7とが取り付けられる。圧電素子7は、パネル20の背面に配置された状態で、筺体40の内表面と所定の距離だけ離間している。圧電素子7は、伸縮または屈曲した状態でも、筺体60の内表面と離間しているとよい。すなわち、圧電素子7と筺体40の内表面との間の距離は、圧電素子7の最大変形量よりも大きいとよい。圧電素子7は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。
ディスプレイ2は、パネル20の短手方向におけるほぼ中央に配設される。圧電素子7は、パネル20の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7の長手方向がパネル20の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子7は、パネル20の内側の面に、平行に並べて配設される。
パネル20の外側の面のほぼ全面には、タッチスクリーン(タッチセンサ)21が配設される。タッチスクリーン21は、パネル20に対する接触を検出する。タッチスクリーン21は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21を用いて検出されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。
タッチスクリーン21は、音を聞くためにパネル20に接触する耳介軟骨等を検出するためにも用いられる。
筐体40は、樹脂又は金属を用いて形成される。筐体40は、ボタン3、照度センサ4、近接センサ5、第1マイク8a、第2マイク8b、第3マイク8c、スピーカ11、カメラ12、およびパネル20等を支持する。
図1から図5を参照しながら、実施形態に係る携帯電話1Aによる音の出力についてより詳細に説明する。図4は、パネル20の形状の例を示す図である。図5は、パネル20の振動の例を示す図である。
圧電素子7には、出力する音に応じた電気信号が印加される。圧電素子7には、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N〜10Nの力)でパネル20に自身の体の一部を押し付けた場合であっても、パネル20に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7に印加される電圧は、パネル20の筺体40に対する固定強度、又は圧電素子7の性能等に応じて適宜調整可能である。
電気信号が印加されると、圧電素子7は長手方向に伸縮又は屈曲する。圧電素子7が取り付けられたパネル20は、圧電素子7の伸縮又は屈曲に合わせて変形する。これにより、パネル20は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル20に接触させた場合、パネル20は、体の一部を介して利用者に伝導する振動音を発生させる。すなわち、パネル20は、圧電素子7の変形にともなって、パネル20に接触する物体に対して振動音として知覚される周波数で振動する。
例えば、圧電素子7に、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル20は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7及びパネル20を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってよい。圧電素子7及びパネル20を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。
本実施形態において、パネル20は、利用者の耳とほぼ同じ大きさであってよい。また、パネル20は、図4に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部のほぼ全体をパネル20に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さおよび幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992−1994)等を参照すれば知ることができる。
図5に示すように、パネル20は、圧電素子7が取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20は、振動する領域において、当該パネル20の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20全域にわたって、複数の波の振動が検出される。上記のように圧電素子7に対して印加される電圧が±15Vであれば、利用者が例えば5N〜10Nの力で自身の体にパネル20を押し付けた場合であっても、パネル20の上述した振動は減衰しにくい。このため、利用者は、パネル20上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。
本実施形態では、ディスプレイ2がパネル20に取り付けられている。このため、パネル20の下部(ディスプレイ2が取り付けられている側)は、剛性が上がり、パネル20の上部(圧電素子7が取り付けられている側)と比べて、振動が小さい。このため、パネル20の下部において、パネル20が振動することによる気導音の音漏れが低減される。
携帯電話1Aは、パネル20の振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音とを利用者に伝えることができる。そのため、携帯電話1Aは、ダイナミックレシーバと同等の音量の音を出力する場合、空気の振動により携帯電話1Aの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。
さらに、携帯電話1Aは、パネル20の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Aを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20の振動による振動音を聞くことができる。
さらに、携帯電話1Aは、パネル20の振動により音を伝える。そのため、携帯電話1Aが別途ダイナミックレシーバ(例えば、スピーカ11)を備えない場合、パネル20が発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1Aは、ダイナミックスピーカの放音口等の開口部を筐体40に形成する必要がある場合、防水構造を実現するために、気体は通すが液体は通さない部材によって開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。
図6を参照しながら、携帯電話1Aの機能的な構成について説明する。図6は、携帯電話1Aのブロック図である。図6に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、圧電素子7と、第1マイク8aと、第2マイク8bと、第3マイク8cと、ストレージ9と、コントローラ10と、スピーカ11と、インカメラ12と、アウトカメラ13と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。
通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2に画面を表示させ、タッチスクリーン21によって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、音楽再生アプリケーション9C、動画再生アプリケーション9D、動画コンテンツ9E及び設定データ9Zを記憶する。通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。音楽再生アプリケーション9Cは、音楽データから音を再生するための音楽再生機能を提供する。動画再生アプリケーション9Dは、動画コンテンツ9Eの動画データから動画及び音を再生するための動画再生機能を提供する。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定及び処理に関する情報を含む。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定及び処理に関する情報として、例えば、動画コンテンツ9Eに含まれる複数の音ごとに、音の発信点とみなすことができる動画コンテンツ9E上の位置に対応する画面上の座標値が含まれる。この座標値は、動画コンテンツ9Eがディスプレイ2に再生表示されたときの画面上の座標値に対応する。
制御プログラム9Aは、携帯電話1Aを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、圧電素子7、及び第3マイク8c等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能は、通話アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
制御プログラム9Aには、例えば、動画撮影時に、第1マイク8a及び第2マイク8bにより入力された複数の音ごとに、第1マイク8a及び第2マイク8bに入力された音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込み、絞り込んだ位置に対応する画面上の座標値をストレージ9の設定データ9Zに格納するための機能が含まれる。この座標値は、動画撮影中の映像がディスプレイ2に再生表示されたときの画面上の座標値に対応する。
さらに、制御プログラム9Aには、例えば、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出するための機能が含まれる。
さらに、制御プログラム9Aには、動画コンテンツ9Eをディスプレイ2に再生表示する場合に、動画コンテンツ9Eに含まれる複数の音のうち、パネル20に接触する耳の位置に対応する画面上の位置の近傍に仮想的な音源を有する音を、パネル20を振動させることにより強調して出力するための機能が含まれる。
コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Aの動作を統括的に制御して各種の機能を実現する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7、マイク8、スピーカ11、及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。
コントローラ10は、例えば、制御プログラム9Aを実行することにより、動画撮影の実行中に、第1マイク8a及び第2マイク8bにより入力された複数の音の取り込みを開始し、複数の音ごとに、第1マイク8a及び第2マイク8bに入力された音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込み、絞り込んだ位置に対応する画面上の座標値をストレージ9の設定データ9Zに格納する処理を実行する。
さらに、コントローラ10は、例えば、制御プログラム9Aを実行することにより、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する処理を実行する。
さらに、コントローラ10は、例えば、制御プログラム9Aを実行することにより、動画コンテンツ9Eを再生しているときにパネル20に接触する利用者の耳が検出された場合に、動画コンテンツ9Eに含まれる複数の音のうち、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を、パネル20を振動させることにより強調して出力する。例えば、コントローラ10は、設定データ9Zを参照し、動画コンテンツ9Eの音の発信点に対応する画面上の座標値を用いて、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を特定して、この音を強調して出力する。強調の仕方には、例えば音量を大きくすることが含まれる。
姿勢検出ユニット15は、携帯電話1Aの姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。バイブレータ18は、携帯電話1Aの一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、音を伝えるためではなく、着信等の各種のイベントを利用者に報知するために用いられる。
図6においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図6においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
図6に示した携帯電話1Aの構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1Aは、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。
図7及び図8を用いて、例えば、動画撮影時に、第1マイク8a及び第2マイク8bにより入力された複数の音ごとに、第1マイク8a及び第2マイク8bに入力された音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込み、絞り込んだ位置に対応する画面上の座標値をストレージ9の設定データ9Zに格納する携帯電話1Aの処理の概要について説明する。
図7は、アウトカメラ13により撮影中の動画がディスプレイ2に表示された状態の一例を示す図である。携帯電話1Aは、動画の撮影処理が起動されると、アウトカメラ13により取得された動画像C1をディスプレイ2に表示させ、第1マイク8a及び第2マイク8bにより入力された音の取り込みを開始する。携帯電話1Aは、動画の撮影に伴い、例えば、図7に示すように、CH1(例えば、小鳥のさえずり「ピヨピヨ」)、CH2(例えば、川のせせらぎ「さらさら」)、CH3(例えば、木々のざわめき「ざわざわ」)の3種類の音を取り込む。
続いて、携帯電話1Aは、取り込んだ音ごとに、音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込む。例えば、携帯電話1Aは、まず、第1マイク8a及び第2マイク8bが有する単一指向性マイクカプセルのうち、CH1の音の音圧が最大となるマイクカプセルを検出して、音の入力方向を特定する。例えば、第1マイク8a及び第2マイク8bが有するマイクカプセルのうち、撮影方向の左側から到来する音を入力する第1マイク8aのマイクカプセルの音圧が最大となる場合には、CH1の音の入力方向を撮影方向の左側と特定する。あるいは、第1マイク8a及び第2マイク8bが有するマイクカプセルのうち、撮影方向の左側から到来する音を入力する第1マイク8aのマイクカプセルと、撮影方向の下側から到来する音を入力する第2マイク8bのマイクカプセルの音圧が最大となる場合には、CH1の音の入力方向を撮影方向の左下側と特定する。続いて、携帯電話1Aは、特定したCH1の音の入力方向に従って、CH1の音の発信点が、ディスプレイ2に表示された動画像C1の左下半分の領域P1に存在するものと推定する。そして、携帯電話1Aは、この領域P1の中心位置に対応する画面上の座標値を取得し、CH1の音に対応付けて設定データ9Zに格納する。座標値は、例えば、ディスプレイ2に表示される画面の左下の角を原点とするXY座標系の座標値である。
同様にして、携帯電話1Aは、CH2の音の発信点が、ディスプレイ2に表示された動画像C1の左下半分の領域P2に存在するものと推定する。そして、携帯電話1Aは、この領域P2の中心位置に対応する画面上の座標値を取得し、CH2の音に対応付けて設定データ9Zに格納する。
同様にして、携帯電話1Aは、CH3の音の発信点が、ディスプレイ2に表示された動画像C1の上半分の領域P3に存在するものと推定する。そして、携帯電話1Aは、この領域P3の中心位置に対応する画面上の座標値を取得し、CH3の音に対応付けて設定データ9Zに格納する。
図8は、設定データ9Zに記憶される座標値の一例を示す図である。図8に示すように、設定データ9Zには、音検出時間と、音の内訳と、音源の位置とが対応付けて記憶される。音検出時間は、CH1の音の音圧が一定値上であるときの時間であり、例えば、CH1などに対応する音が入力されている時間である。音の内訳は、例えば、動画の撮影に伴って、第1マイク8a及び第2マイク8bにより入力された音の種類である。座標値は、上述した処理の概要のように、第1マイク8a及び第2マイク8bにより入力された音の発信点が含まれるものと推定した動画像C1上の領域の中心位置に対応した画面上の座標値である。図8に示すように、設定データ9Zには、例えば、音検出時間「10時11分20秒〜10時13分20秒」と、音の内訳「CH1(例えば、小鳥の鳴き声)」と、音源の位置に対応する座標値「X1,Y1」とが対応付けて記憶される。同様に、設定データ9Zには、音検出時間「10時10分20秒〜10時14分20秒」と、音の内訳「CH2(例えば、川のせせらぎ)」と、音源の位置に対応する座標値「X2,Y2」とが対応付けて記憶される。同様に、設定データ9Zには、音検出時間「10時12分20秒〜10時14分00秒」と、音の内訳「CH3(例えば、木々のざわめき)」と、音源の位置に対応する座標値「X3,Y3」とが対応付けて記憶される。
携帯電話1Aは、アウトカメラ13により撮影した動画像C1を、動画コンテンツ9Eとしてストレージ9に格納する。
図9を用いて、携帯電話1Aの処理の概要を説明する。携帯電話1Aは、動画コンテンツ9Eの音声データに基づく音声信号を圧電素子7に印加する。そして、パネル20を変形させて、気導音と、当該変形するパネル20に接触する利用者の体の一部(例えば、外耳の軟骨)を介して伝わる振動音とを発生させる。携帯電話1Aは、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出すると、動画コンテンツ9Eに含まれる複数チャンネルの音のうち、パネル20に接触する耳の位置に対応する画面上の位置に対応付けられている音を、他のチャンネルより強調する。
図9は、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出した場合に、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を強調して出力する携帯電話1Aの処理の概要を示す図である。
図9に示すように、携帯電話1Aは、例えば、利用者の操作に応じて、動画コンテンツ9Eの再生を開始する(ステップS11)。続いて、携帯電話1Aは、パネル20に接触する耳E1の位置を、タッチスクリーン21を用いて検出すると、耳E1の位置に対応する画面上の位置の近傍に仮想的な音源を有する音を、パネル20を振動させることにより強調して出力する(ステップS12)。例えば、図9に示すように、携帯電話1Aは、耳E1の位置に対応する画面上の位置の近傍に仮想的な音源を有する、CH1の音(例えば、「ピヨピヨ」)を強調して出力する。
具体的には、携帯電話1Aは、タッチスクリーン21によって耳の接触が検出される領域の中心(重心)を、耳E1の位置として検出する。耳E1の位置は、耳E1の接触が検出される領域を含む最小矩形の頂点のいずれかであってもよい。あるいは、耳E1の位置は、耳E1の所定の部位に対応する位置であってもよい。この場合、耳E1におけるその部位の一般的な位置に関する情報に基づいて、耳E1の接触が検出される領域との相対的な位置関係から、耳E1の位置が算出される。
あるいは、携帯電話1Aは、耳E1の接触時にタッチスクリーン21の検出結果に基づいて得られる像と、予め用意される標本とのパターンマッチングによって、耳E1の位置を検出してもよい。タッチスクリーン21の検出結果に基づいて得られる像は、タッチスクリーン21の検出領域を格子状に分割し、分割されたそれぞれの領域における物体の接触の検出状態を、対応する画素の状態に変換することにより得られる。それぞれの領域においてタッチスクリーン21が検出する値が、例えば、タッチスクリーン21と物体の距離、物体がタッチスクリーン21を圧迫する押圧等によって変動する場合、タッチスクリーン21の検出結果に基づいて得られる像は、多階調の画像となってもよい。標本は、耳の接触時に耳が接触している領域で、タッチスクリーン21の検出結果に基づいて得られる像と同様のやりかたで得られるはずの像である。標本は、携帯電話1Aの利用者の耳の接触時に得られるはずの像であってもよいし、一般的な人の耳の接触時に得られるとはずの像であってもよい。標本は、右耳の像、左耳の像というように複数枚用意されてもよい。
パネル20に接触する耳E1の位置を、タッチスクリーン21を用いて検出する方式は、上記の方式に限定されず、他の方式を採用してもよい。
携帯電話1Aは、パネル20に接触する耳E1の位置を検出した後、耳の位置E1に対応する、再生中の動画コンテンツ9Eの画面上の位置を特定する。例えば、携帯電話1Aは、耳の位置E1を鉛直方向に投影したときにディスプレイ2と交わる位置を、再生中の動画コンテンツ9Eの画面上の位置として特定する。続いて、携帯電話1Aは、設定データ9Zを参照し、設定データに含まれる音に対応付けられた座標値が示す位置の中から、特定した画面上の位置に最も近いものを選定する。そして、携帯電話1Aは、選定した音を、耳E1の位置に対応する画面上の位置の近傍に対応付けられている音として決定し、この音をパネル20を振動させることにより強調して出力する。つまり、携帯電話1Aは、利用者の耳の接触を検出すると、耳の接触位置に対応する動画コンテンツ9Eの位置を音源として、今まさに音が発信されているように利用者が感じられるように、音を強調して出力する。
図10及び図11を用いて、実施形態1に係る携帯電話1Aの処理手順について説明する。図10及び図11に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
図10は、動画撮影時に、入力された複数の音の発信点とみなせる動画像上の位置に対応する画面上の座標値を格納する処理手順の一例を示す図である。図10に示す処理手順は、動画の撮影が終了するまで繰り返し実行される。
図10に示すように、コントローラ10は、動画の撮影が開始されると、第1マイク8a及び第2マイク8bにより入力された複数の音の取り込みを開始し、ステップS101として、取り込んだ音ごとに、音圧の強弱に基づいて、音の発信点とみなせる動画像上の位置を絞り込む。例えば、コントローラ10は、第1マイク8a及び第2マイク8bが有する単一指向性マイクカプセルのうち、入力された音の音圧が最大となるマイクカプセルを検出して、音の入力方向を特定する。続いて、コントローラ10は、特定した音の入力方向に従って、音の発信点が存在する、ディスプレイ2に表示された動画像の領域を推定することにより、音の発信点とみなせる動画像上の位置を絞り込む。そして、コントローラ10は、携帯電話1Aは、この領域の中心位置に対応する画面上の座標値を取得し、音に対応付けて設定データ9Zに格納する。
続いて、コントローラ10は、ステップS102として、取り込んだ音ごとに、ステップS101で絞り込んだ位置に対応する画面上の座標値を音に対応付けて設定データ9Zに格納する。例えば、コントローラ10は、ステップS101で、音の発信点が存在するものと推定した、ディスプレイ2に表示された動画像の領域の中心位置を割り出し、中心位置に対応する画面上の座標値を取得し、音に対応付けて設定データ9Zに格納する。
図11は、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出した場合に、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を強調して出力する処理手順の一例を示す図である。図11に示す処理手順は、動画コンテンツ9Eの再生終了まで繰り返し実行される。
図11に示すように、コントローラ10は、ステップS201として、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出した場合には、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する。続いて、ステップS202として、コントローラ10は、耳の接触位置に対応する、再生中の動画コンテンツ9Eの画面上の位置を取得する。
続いて、コントローラ10は、ステップS203として、動画コンテンツ9Eに含まれる複数の音のうち、ステップS202で特定した画面上の位置の近傍に対応付けられている音を強調して出力する。例えば、コントローラ10は、設定データ9Zを参照し、設定データに含まれる音に対応付けられた座標値が示す位置の中から、ステップS202で特定した画面上の位置に最も近いものを選定する。そして、携帯電話1Aは、選定した音を、耳E1の位置に対応する画面上の位置の近傍に対応付けられている音として決定し、この音をパネル20を振動させることにより強調して出力する。つまり、携帯電話1Aは、利用者の耳の接触を検出すると、耳の接触位置に対応する動画コンテンツ9Eの位置を音源として、今まさに音が発信されているように利用者が感じられるように、音を強調して出力する。
上述の実施形態1では、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出した場合に、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を強調して出力する。このため、実施形態1によれば、再生される動画コンテンツにて出力される複数の音の中から、特定の音を聴き分けることができる。
上述の実施形態1では、動画撮影時に、入力した音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込み、絞り込んだ位置に対応する画面上の座標値を音に対応付けて格納する。このため、実施形態1によれば、再生される動画コンテンツにて出力される複数の音の中から、特定の音を聴き分けることができるコンテンツを容易に生成できる。
(実施形態2)
動画コンテンツ9Eの再生中に、利用者の耳がパネル20に接触するときの押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力するようにしてもよい。
携帯電話1Aのコントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン21により検出された、利用者の耳がパネル20に接触するときの押圧の大きさを取得し、押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力する処理を実行する。
図12は、利用者の耳がパネル20に接触するときの押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力する携帯電話1Aの処理の概要を示す図である。図12に示すように、携帯電話1Aは、動画コンテンツ9Eの再生が開始された後、パネル20に接触する耳E1の位置を検出し、耳E1の位置に対応する画面上の位置を特定した後、さらに、タッチスクリーン21によって検出された、耳E1がパネル20に接触する押圧の大きさを取得する。
そして、携帯電話1Aは、押圧の大きさが所定値以下であれば、動画コンテンツ9Eに含まれる音のうち、耳E1の位置に対応する画面上の位置の近傍に対応付けられたCH1の音を、CH2の音及びCH3の音よりも強調して出力する(ステップS21)。一方、携帯電話1Aは、押圧の大きさが所定値以下であれば、動画コンテンツ9Eに含まれる音のうち、耳E1の位置に対応する画面上の位置の近傍に対応付けられたCH1の音のみを強調して出力する(ステップS22)。
図13は、利用者の耳がパネル20に接触するときの押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力する処理手順の一例を示す図である。図13に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。図13に示す処理手順は、動画コンテンツ9Eの再生終了まで繰り返し実行される。図13に示す処理手順のうち、ステップS301は、図11に示すステップS201に対応し、ステップS302は、図11に示すステップS202に対応する。
図13に示すように、コントローラ10は、ステップS301として、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する。続いて、ステップS302として、コントローラ10は、耳の接触位置に対応する、再生中の動画コンテンツ9Eの画面上の位置を取得する。
続いて、コントローラ10は、ステップS303として、耳がパネル20に接触する押圧の大きさを、タッチスクリーン21から取得する。続いて、コントローラ10は、ステップS304として、押圧の大きさが所定値以下であるか否かを判定する。
コントローラ10は、判定の結果、押圧の大きさが所定値以下である場合には(ステップS305、Yes)、再生中の動画コンテンツ9Eに含まれる音のうち、ステップS302で特定した画面上の位置の近傍に対応付けられた音を、他の音よりも強調して出力する。
一方、コントローラ10は、判定の結果、押圧の大きさが所定値以下ではない場合には(ステップS305、No)、再生中の動画コンテンツ9Eに含まれる音のうち、ステップS302で特定した画面上の位置の近傍に対応付けられた音のみを強調して出力する。
図13の例では、携帯電話1Aがタッチスクリーン21によって検出された押圧の大きさに応じた処理を行う例を説明したが、これに限定されない。携帯電話1Aは、タッチスクリーン21によって耳の接触領域を検出して、当該接触領域の面積の大小に応じて上記の処理を行ってもよい。一般に、利用者が耳をパネル20に押し付ける圧力が大きいほど、パネル20に接触する耳の面積は大きくなると考えられる。この場合、携帯電話1Aは、接触領域の面積が所定の閾値より大きい場合、再生中の動画コンテンツ9Eに含まれる音のうち、特定した画面上の位置の近傍に対応付けられた音のみを強調して出力する。携帯電話1Aは、接触領域の面積が所定の閾値より小さい場合、再生中の動画コンテンツ9Eに含まれる音のうち、特定した画面上の位置の近傍に対応付けられた音を、他の音よりも強調して出力する。
(実施形態3)
動画コンテンツ9Eの再生中、利用者の耳とパネル20とが接触する場合に、耳の接触位置、及び耳とパネル20との位置関係に基づいて、動画コンテンツ9Eに含まれる複数の音の中から出力する音を選択するようにしてもよい。
図14は、利用者の耳E1とパネル20とが接触しているときの、耳E1とパネル20との位置関係の一例を示す図である。図14は、携帯電話1Aを耳に接触させた状態の利用者の頭部H1を情報からみた状態を示している。図14に示すように、例えば、耳E1は、パネル20とある角度を持って接触している。
図15は、耳E1とパネル20とが図14に示す位置関係にあるときに、音が出力される動画コンテンツ9E上の領域を示す図である。携帯電話1Aは、姿勢検出ユニット15の検出結果に基づいて、耳E1とパネル20とが図14に示す位置関係にあることを検出する。そして、携帯電話1Aは、図15に示すように、再生中の動画コンテンツ9Eのうち、例えば、パネル20において利用者の耳と接触していない側の領域P4の音を出力する。例えば、携帯電話1Aは、タッチスクリーン21により検出される静電容量などを用いて、パネル20において利用者の耳と接触していない側の領域P4を特定する。携帯電話1Aは、照度センサ4又は近接センサ5の検出値に基づいて上記の領域P4を特定してもよい。携帯電話機1Aは、インカメラ12によって撮影された画像(例えば、利用者の顔の画像)に基づいて上記の領域P4を特定しても良い。
(実施形態4)
上記の実施形態では、タッチスクリーン21がパネル20のほぼ全面に配設される例について説明したが、タッチスクリーン21は、パネル20と重ならないように配設されてもよい。図16は、実施形態5に係る携帯電話の正面図である。図17は、図16に示す携帯電話のc−c線断面図である。図16及び図17を用いて、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Bについて説明する。
図16及び図17に示すように、携帯電話1Bにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。タッチスクリーン21は、ディスプレイ2の表側のほぼ全面を覆うように配設される。すなわち、タッチスクリーン21及びディスプレイ2は、所謂タッチパネル(タッチスクリーンディスプレイ)を構成する。
パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。圧電素子7をパネル20の中央に配設することにより、圧電素子7の振動がパネル20全体に均等に伝わり、利用者に伝わる音の品質が向上する。
パネル20の表側の面にはタッチスクリーン21が配設されないが、パネル20は、タッチスクリーン21が配設されるディスプレイ2の近傍に配置される。
携帯電話1Bのように、パネル20をタッチスクリーン21と重ならないように配設した場合でも、圧電素子7が配設される筐体40の同じ側で、圧電素子7の上部にダイナミックスピーカであるスピーカ11を設けることにより、上述と同様に、2つのモードで音声を出力することができる。この結果、ユーザにとって、好適な方法で音声を出力することができる。
(実施形態5)
上記の実施形態では、タッチスクリーン21の少なくとも一部がディスプレイ2と重なるように配設される例について説明したが、タッチスクリーン21は、ディスプレイ2と重ならないように配設されてもよい。図18は、実施形態6に係る携帯電話の正面図である。図19は、図18に示す携帯電話のd−d線断面図である。図18及び図19を用いて、タッチスクリーン21がディスプレイ2と重ならないように配設される携帯電話1Cについて説明する。図18及び図19に示す携帯電話1Cは、いわゆる折畳型携帯電話の一例である。
図18及び図19に示すように、携帯電話1Cにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。
パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20と圧電素子7との間には、補強部材31が配設される。すなわち、携帯電話1Cにおいては、圧電素子7と補強部材31とが接合部材30により接着され、さらに補強部材31とパネル20とが接合部材30で接着される。なお、圧電素子7は、パネル20の中央に設けられていなくてもよい。
補強部材31は、例えばゴムまたはシリコン等の弾性部材である。補強部材31は、例えばある程度の弾性を有するアルミニウム等から成る金属板であってもよい。補強部材31は、例えばSUS304等のステンレス板であってもよい。ステンレス板等の金属板の厚さは、圧電素子7に印加される電圧値等に応じて、例えば0.2mm〜0.8mmのものが適宜用いられる。補強部材31は、例えば樹脂製の板であってもよい。ここでいう樹脂製の板を形成する樹脂としては、例えばポリアミド系樹脂が挙げられる。ポリアミド系樹脂には、例えば、メタキシリレンジアミンとアジピン酸とから得られる結晶性の熱可塑性樹脂から成り、強度および弾性に富むレニー(登録商標)がある。このようなポリアミド系樹脂は、それ自体をベースポリマーとして、ガラス繊維、金属繊維または炭素繊維等により強化された強化樹脂であってもよい。強化樹脂は、ポリアミド系樹脂に対するガラス繊維、金属繊維または炭素繊維等の付加量に応じて、強度および弾性が適宜調整される。強化樹脂は、例えば、ガラス繊維、金属繊維または炭素繊維等を編みこんで形成された基材に樹脂を含浸させ、硬化させて形成される。強化樹脂は、液状の樹脂に細かく切断された繊維片を混入させたのちに硬化させて形成されるものであってもよい。強化樹脂は、繊維を編みこんだ基材と樹脂層とを積層したものであってもよい。
圧電素子7とパネル20との間に補強部材31を配設することにより、以下の効果が得られる。パネル20に外力が加わった場合に、その外力が圧電素子7に伝わって圧電素子7が破損する可能性を低減することができる。例えば携帯電話1Cが地面に落下することでパネル20に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル20から伝わる外力により弾性変形する。そのため、パネル20に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7に伝達される外力が低減される。結果、圧電素子7の破損を低減することができる。補強部材31が圧電素子7と筺体40との間に配置される場合、例えば携帯電話1Cが地面に落下することで筺体40が変形し、変形した筺体40が圧電素子7に衝突して圧電素子7が破損する可能性を低減できる。
圧電素子7の伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル20に伝達される。すなわち、圧電素子7は、まず圧電素子7よりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル20を振動させることになる。したがって、携帯電話1Cは、補強部材31を備えず、圧電素子7が接合部材70によりパネル20に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル20の変形量(変形の程度)を調節することができる。この構造は、圧電素子7の変形を阻害しにくいパネル20の場合に特に有効である。
さらに、圧電素子7とパネル20との間に補強部材31を配設することにより、図20に示すように、パネル20の共振周波数が下がり、低周波帯域の音響特性が向上する。図20は、補強部材31による周波数特性の変化例を示す図である。図20には、上記のSUS304のような板金を補強部材31として用いた場合の周波数特性と、上記のレニーのような強化樹脂を補強部材31として用いた場合の周波数特性とが示されている。横軸は周波数を、縦軸は音圧を示す。強化樹脂を用いた場合の共振点は約2kHzであり、板金を用いた場合の共振点は約1kHzである。強化樹脂を用いた場合のディップは約4kHzであり、板金を用いた場合のディップは約3kHzである。すなわち、強化樹脂を用いた場合には、板金を用いた場合に比べて、パネル20の共振点が高い周波数領域に位置しており、周波数特性のディップがより高い周波数領域に位置している。携帯電話機の音声通話で用いられる周波数帯は300Hz〜3.4kHzであるため、強化樹脂を補強部材31として用いた場合、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。尚、補強部材31として板金を用いる場合でも、板金を構成する金属の種類もしくは組成または板金の厚さ等を適宜調整することで、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。板金と強化樹脂とを比較すると、強化樹脂は、板金と比較してアンテナ性能への影響を低減することができる。強化樹脂は板金と比較して塑性変形しにくいため、音響特性が変化しにくいという利点がある。強化樹脂は板金と比較して、音発生時の温度上昇が抑えられる。補強部材31に換えて、板状の錘を接合部材30により圧電素子7に取り付けてもよい。
パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。タッチスクリーン21は、パネル20の表側のほぼ全面を覆うように配設される。
携帯電話1Cも、上記と同様に、圧電素子7が配設される筐体40の背面略中央部に、第1マイク8aが配置される。圧電素子7が配設される筐体40の反対側の背面端部に、第2マイク8bが配置される。圧電素子7が配設される筐体40の反対側の背面端部に、第2マイク8bが配置される。圧電素子7が配設される筐体40の反対側の端部に、第1マイク8cが配置される。
(その他の実施形態)
例えば、動画撮影を行う場合に、耳をパネル20に接触させることにより、第1マイク8a及び第2マイク8bが有する単一指向性マイクカプセルのうち、音の入力を行うマイクカプセルを決定してもよい。例えば、動画撮影時に、利用者の耳が図7に示す領域P1の位置に接触した場合には、撮影方向の左側から到来する音を入力する第1マイク8aのマイクカプセル、及び撮影方向の下側から到来する音を入力する第2マイク8bのマイクカプセルの音の入力を有効とし、その他のマイクカプセルの音の入力を停止する。
上記の実施形態では、アウトカメラ13により動画を撮影し、第1マイク8a及び第2マイク8bにより入力された複数の音の発信点とみなせる動画像上の位置に対応する画面上の座標値をストレージ9の設定データ9Zに格納する例を説明した。言い換えれば、上記の実施形態では、再生される動画コンテンツにて出力される複数の音の中から、特定の音を聴き分けることができるコンテンツを予め作成する例を説明した。しかしながら、これには限定されず、予め、動画コンテンツが再生されたときの画面上の位置と、動画コンテンツに含まれる音の音源の位置との対応関係が分かっている動画コンテンツがある場合には、この動画コンテンツを再生する場合にも上記の実施形態と同様の処理を適用できる。すなわち、この動画コンテンツの再生中に、利用者の耳がパネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられた音を、パネル20を振動させることにより強調して出力することができる。また、ステレオコンテンツの中に元々存在する音声情報を利用し、2つのチャンネルの音源を疑似的に多チャンネルに変換する技術を用いれば、各チャンネルの音の出力位置を計算により推定できる。この出力位置とタッチパネル上の耳の接触位置とを対応付けて、耳の接触位置に対応する音を強調して出力することもできる。なお、動画コンテンツに含まれる音は複数でなく一つであってもよい。
上記の実施形態では、圧電素子7によりパネル20を変形させ、気導音と振動音とを発生させた。圧電素子7により筺体40の一部を変形させ、気導音と振動音とを発生させてもよい。筺体40の一部は、例えば筺体の角部であってよい。
上記の実施形態では、携帯電話1Aとして、ディスプレイ2が接合部材30を用いてパネル20の背面に取り付けられる例を示したが、携帯電話1Aは、パネル20とディスプレイ2の間に空間ができるように構成されてもよい。パネル20とディスプレイ2の間に空間を設けることにより、パネル20が振動しやすくなり、パネル20上において振動音を聞きやすい範囲が広くなる。
上記の実施形態では、圧電素子7をパネル20に取り付ける例を示したが、他の場所に取り付けられてもよい。例えば、圧電素子7は、バッテリリッドに取り付けられてもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。バッテリリッドは、携帯電話等の携帯電子機器においてディスプレイ2と異なる面に取り付けられることが多いため、そのような構成によれば、利用者はディスプレイ2と異なる面に体の一部(例えば耳)を接触させて音を聞くことができる。
上記の実施形態では、補強部材31は板状部材であるが、補強部材31の形状はこれに限られない。補強部材31は、例えば、圧電素子7より大きく、かつその端部が圧電素子7側に湾曲し圧電素子7の側部を覆う形状を有していてもよい。また、補強部材31は、例えば、板状部と、当該板状部から延設されて圧電素子7の側部を覆う延設部とを有する形状であってもよい。この場合、延設部と圧電素子7の側部とが、所定の距離だけ離間しているとよい。これにより、延設部が圧電素子の変形を阻害しにくくなる。
パネル20と圧電素子7とを接着する接合部材およびパネル20と筺体40とを接着する接合部材等が同一の符号を有する接合部材30として説明した。しかしながら、接合部材は、接合する対象である部材に応じて適宜異なるものが用いられてよい。
上記の実施形態では、添付の請求項に係る装置の例として、携帯電話について説明したが、添付の請求項に係る装置は、携帯電話に限定されない。添付の請求項に係る装置は、携帯電話以外の携帯電子機器であってもよい。携帯電子機器は、例えば、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。