以下、本発明の実施の形態について、図1〜16を参照しながら、詳細に説明する。
〔実施形態1〕
以下、本発明の実施の形態について、詳細に説明する。図1は、本実施形態に係る表示部動作システムの要部構成を示すブロック図である。図1に示すように、本実施形態に係る表示部動作システムは、表示装置1A、通信端末(制御装置)2A、通信端末(制御装置)2B、および表示装置1Bを含む。
表示装置1Aと通信端末2Aとは、例えばBLE(Bluetooth(登録商標) Low energy)等を介して通信接続される。なお、表示装置1Aと通信端末2Aとの通信方法は特に限定されず、上記の例のように近距離無線通信接続してもよいし、有線通信接続してもよい。また、表示装置1Bと通信端末2Bとの通信接続は、表示装置1Aと通信端末2Aとの通信接続と同様である。
通信端末2Aと通信端末2Bとは、例えば携帯電話網等の通信ネットワークを介して通信接続される。通信ネットワークは、任意のネットワークを用いることができ、携帯電話網に限定されない。
〔表示装置の構成〕
まず、表示装置1Aの構成を説明する。なお、表示装置1Aおよび1Bは同じ構成であり、特にこれらを区別する必要がない場合には、これらを何れも表示装置1と表記する。表示装置1は、制御部10、記憶部11、通信部12、出力部70、および入力部80を備えている。
記憶部11は、表示装置1が使用する各種データを記憶するものである。また、通信部12は、表示装置1Aが他の装置(ここでは通信端末2A)と通信を行うためのものである。例えば、通信部12は、通信端末2Aから映像データ、音声データ、および映像データに応じた動作データ等を受信し、受信したデータを制御部10の動作データ取得部104に送信する。また、通信部12は映像送信部102および動作データ送信部103の指示に従い、データを通信端末2Aに送信する。
制御部10は、表示装置1各部を統括して制御するものであり、人検出部101、映像送信部102、動作データ送信部103、動作データ取得部104、表示制御部105、音声制御部106および動作制御部107を含む。
人検出部101は、表示装置1の周囲の人を検出するものである。より詳細には、人検出部101は、後述する撮影部15が撮影した画像データを解析することによって、撮影部15の撮影範囲内の人を検出する。また、人検出部101は、該画像データを解析することによって、表示装置1から検出した人までの距離を算出する。なお、人検出部101を使用した動作の例については、図11および図12に基づいて後述する。
映像送信部102は、撮影部15が撮影した映像データを受信し、通信部12を介して通信端末2に送信する。なお、映像送信部102を使用した動作の例については、図7および図8に基づいて後述する。
動作データ送信部103は、表示装置1の表示面の動きを示す動作データを外部の装置に送信し、これにより、表示装置1の表示面の動きと連動して他の表示装置1の表示面が動くようにする。なお、動作データは、最終的に他の表示装置1に受信されればよく、他の表示装置1に直接送信してもよいし、通信端末2等の他の装置を介して送信してもよい。より詳細には、動作データ送信部103は、後述するセンサ部16から、表示装置1の表示面の動きを示すセンシングデータを受信する。そして、このデータをそのまま動作データとするか、または動作機構19の制御に用いることのできるデータ形式に変換して動作データとし、通信部12を介して外部の装置(この例では通信端末2A)に送信する。この動作データは、通信端末2Aから通信端末2Bに転送され、さらに通信端末2Bから表示装置1Bに転送され、これにより、表示装置1Bの表示面が上記動作データに従って動くことになる。なお、この処理の詳細は、図8に基づいて後述する。
動作データ取得部104は、表示部17の表示面を動かすための動作データを取得し、取得した動作データを動作制御部107に送信する。詳細は後述するが、動作データ取得部104が取得する動作データは、表示部17に表示させる映像に応じたデータであり、これにより、表示される映像に応じて表示部17の表示面が動くことになる。また、動作データ取得部104は、映像データを受信したときには表示制御部105に送信して表示出力させ、音声データを受信したときには音声制御部106に送信して音声出力させる。
表示制御部105は、動作データ取得部104から受信した映像データを表示部17に表示出力させる。また、音声制御部106は、動作データ取得部104から受信した音声データを音声出力部18に音声出力させる。
動作制御部107は、表示制御部105が表示させる映像に応じて表示部17の表示面を動かす。具体的には、動作制御部107は、表示部17の表示面に映像が表示されているときに、動作データ取得部104から受信した、該映像に応じた動作データに従って動作機構19を動作させることによって、表示部17の表示面を動かす。
また、表示装置1は、出力部70として、表示部17、音声出力部18、および動作機構19を含む。表示部17は、制御部10の制御に従って画像を表示するものであり、音声出力部18は、制御部10の制御に従って音声を出力するものである。
動作機構19は、表示部17の表示面を動作させるものである。より詳細には、動作機構19は、表示装置の重心を移動させて、筐体3の外縁部に沿って表示装置1A全体を動かすことにより表示部17の表示面を動かす。なお、動作機構19の詳細は、図4に基づいて後述する。
また、表示装置1は、入力部80として、音声入力部13、入力操作検知部14、撮影部15、およびセンサ部16を含む。音声入力部13は、表示装置1に対する音声入力を受け付け、受け付けた音声を信号に変換して制御部10に出力する。入力操作検知部14は、表示装置1に対するユーザの入力操作を検知するものであり、例えばタッチパネルなどであってもよい。撮影部15は、表示装置1の外部の映像(静止画像または動画像)を撮影し、撮影によって得られた映像データを制御部10に出力する。撮影部15は、例えば、カメラなどであってもよい。センサ部16は、表示装置1の動き(表示面の動き)を検出し、検出した動きを示す動作データを制御部10に出力するものであり、1または複数のセンサを含む。センサ部16は、表示面の動きを検出し、その動きを示すセンシングデータを出力するものであればよく、例えば、センサ部16には、加速度センサとジャイロセンサが含まれていてもよい。
〔通信端末の構成〕
次に、通信端末2Aの構成を説明する。なお、通信端末2Aおよび2Bは同じ構成であり、特にこれらを区別する必要がない場合には、これらを何れも通信端末2と表記する。通信端末2は、表示装置1が表示する映像に応じた動作データを取得し、該表示装置1に送信することにより、該表示装置1の表示面が、表示する映像に応じて動くようにする。図1に示すように、通信端末2は、制御部20、記憶部21、第1通信部22、および第2通信部23を備えている。
制御部20は、通信端末2の各部を統括して制御するものであり、端末側動作データ取得部121、データ送信部122、動作データ生成部123、通信制御部124を含む。
端末側動作データ取得部121は、表示装置1の表示部17の表示面を動かすための動作データを取得し、データ送信部122に出力する。詳細は後述するが、端末側動作データ取得部121が取得する動作データは、表示装置1が表示する映像に応じたデータであり、通信端末2または他の装置で生成されたデータである。
データ送信部122は、表示装置1に各種データを送信する。具体的には、データ送信部122は、表示装置1に表示させる映像データ、表示装置1に出力させる音声データ、および端末側動作データ取得部121が取得した動作データを、後述の第2通信部23を介して表示装置1に送信する。なお、表示装置1に送信する動作データは、表示面の動きを示すデータ以外に、該データに基づいた動作を指示する命令を含む動作コマンドとして送信してもよい。
動作データ生成部123は、表示装置1が表示する映像を解析し、解析の結果に応じた動作データ、すなわち映像に応じた動作データを生成する。そして、生成した動作データを端末側動作データ取得部121に送信する。なお、動作データの生成方法については後述する。
通信制御部124は、後述の第1通信部22を介した通信に関する制御を行う。本実施形態では、通信端末2Aの通信制御部124は、通信端末2Bとの通信に関する制御を行う。例えば、通信制御部124は、通信端末2Aと2Bとで双方の映像および音声をリアルタイムで交換する通信(いわゆるテレビ電話による通話)の際に、映像および音声の中継処理を行う。
記憶部21は、通信端末2が使用する各種データを記憶するものである。記憶部21には、例えば、映像データ、音声データ、および動作データ(音声データまたは映像データに応じた動作データ)等が格納されている。
第1通信部22は、通信端末2が他の装置と通信するためのものである。本実施形態においては、通信端末2Aは、第1通信部22および通信ネットワークを介して通信端末2Bと無線通信する。上述のように、第1通信部22を介した通信は、通信制御部124が制御する。
第2通信部23は、通信端末2が表示装置1と通信を行うためのものである。上述のように、第2通信部23を介した通信では、データ送信部122によって、映像データ、音声データ、および動作データが表示装置1に送信される。
〔表示装置の外観〕
次に、表示装置1の外観について図2を用いて説明する。図2は、表示装置1の外観の一例を示す図である。同図の(a)および(b)に示す表示装置1は、球状の筐体3に表示部17が設けられた構成である。より詳細には、筐体3は、一部が欠けた球状であり、この欠けた部分に表示部17の表示面が位置している。表現を変えれば、球体の一部を平面で切り取った形状の筐体3の、切り取られた平面部分に円形の表示面が位置している。
筐体3が球状であるため、表示装置1は筐体3の外縁部に沿って容易に転がり、これにより表示面の位置が変わる。詳細は後述するが、表示装置1は、この筐体形状を利用して、表示面を動かすことができ、また表示面が所望の位置となったときに、その位置で表示面の動きを止めることもできる。
例えば、例えば電源を切っているときなどのように、表示装置1に映像を表示させていないときには、表示装置1の表示面は任意の方向を向いているが、映像の表示時には、同図の(a)および(b)に示すように、表示面が斜め上方を向く状態となる。以下では、この状態を基準状態と呼ぶ。つまり、表示装置1は、起動時から映像の表示開始時までの間に、表示面を動かして基準状態となる。なお、表示部17の上下方向(表示する映像の上下方向)が固定である場合には、表示部17の上端が最も上側に来るように表示面を動かせばよい。また、表示部17に表示する映像の上下方向を表示制御部105により変更できる場合には、基準状態とした後で映像の表示方向を調整してもよい。無論、基準状態ではない状態で映像を表示し、表示面を動かしてもよい。例えば、映像を表示した後、表示面を水平にし、表示面が水平の状態で映像を表示しながら表示面を回転させる、表示面を起き上がらせた後に水平に戻す、などの動かし方も可能である。
〔映像に応じた表示面の動かし方〕
次に、映像に応じた表示面の動かし方について、図3を用いて説明する。図3は、映像に応じた表示面の動かし方の例を示す図である。同図の左側が映像を示し、矢印を挟んだ右側がその映像に応じた表示装置1(表示面)の動きの例を示している。表示装置1の動作制御部107が、同図の左側の映像が表示されているときに、同図の右側の動きに対応した動作データを用いて動作機構19を動作させることにより、同図に示すような、映像と連動した表示面の動きが実現される。
同図の(a)に示すように、映像中の人物がうなずいた場合、映像中の人物の頭部の動きを模倣するように表示面を動かしてもよい。図示の例では、うなずいた人物の頭部の前方に倒れ込む動きに合わせて、表示面も前方に倒れ込むように動かしている。これにより、映像中の人物のうなずく動作を強調して伝えることができる。
また、同図の(c)および(d)に示すように、映像中の人物の視線(黒目の動き)に応じて表示面を動かしてもよい。図示の例では、映像中の人物の視線が右方向に動いた場合、右を向くように表示面を動かし、映像中の人物の視線が上方向に動いた場合、上を向くように表示面を動かしている。
これらの例のように、動作制御部107は、映像中の所定のオブジェクトの動きに応じて表示面を動かしてもよい。同図の(a)の例では、人物の頭部、(c)(d)の例では、人物の黒目部分が所定のオブジェクトということになるが、この所定のオブジェクトは、映像中の所定範囲を占めるものであればよく、これらの例に限られない。例えば、映像中の人物の体全体をオブジェクトとし、その動きに応じて表示面を動かしてもよく、この場合、映像中の人物が右方向に移動した場合、表示面も右を向くように動かしてもよい。なお、所定のオブジェクトは、人以外の動物であってもよく、物体(非生物)であってもよい。また、アニメーションのキャラクターのようにバーチャルなオブジェクトであってもよい。
また、同図の(b)に示すように、映像中の人物の表情に応じて表示面を動かしてもよい。図示の例では、ほほえみの表情となったときに、真上から見て表示面が時計回りおよび反時計回りに円運動するように動かしている。
この例のように、動作制御部107は、映像中の人物が所定の表情となったときに、その表情に予め対応付けられた動きで表示面を動かしてもよい。なお、所定の表情は、ほほえみに限られず、表情に対応付ける動きも特に限定されない。ただし、表情に対応付ける動きは、表情のイメージに合う動きとすることが好ましい。例えば、ほほえみのような穏やかな表情であれば、対応付ける動きも緩やかな揺動とすることが好ましく、怒りのような激しい感情に基づく表情であれば、対応付ける動きも、激しい動き(揺動の幅を大きく、速度を早くする)ことが好ましい。なお、表情を検出する対象は、アニメーション等のキャラクターであってもよい。
また、同図の(e)に示すように、映像中の人物の発話内容に応じて表示面を動かしてもよい。図示の例では、映像中の人物が驚いた旨の発話をしたときに、表示面を後ろ側に倒れ込むように動かすことにより、該人物の驚きを強調して伝えている。なお、どのような内容の発話が行われたときに表示面を動かすか、また、発話内容に対応付ける動きは、特に限定されない。
同図の(f)の例では、キャラクターが怒っている映像を表示しており、このときに、この映像に予め対応付けられた動き(表示面を前後に激しく揺動させるパターン)で表示面を動かしている。このように、映像に応じた動きを予め定めておくことにより、映像の内容を解析することなく、映像に応じた動きで表示面を動かすことができる。
以上のようにして、映像に応じた動きで表示面を動かすことができるが、同じ感情に対応する映像については、同じパターンで表示面を動かすことが好ましい。例えば、映像中の人物の動きからその人物が怒っていると判定できる場合や、表情から怒っていると判定できる場合、そして発話内容から怒っていると判定できる場合にも、上記(f)の例と同じパターンで表示面を動かすことが好ましい。これにより、そのパターンの動きが、怒りの感情を示していることをユーザに認識させることができ、表示装置1が感情を有しているかのような感覚を与えることができる。
なお、所定の感情は怒りに限られない。また、上述の表情の例と同様に、感情に対応付ける動き(動きのパターン)は、その感情のイメージに合うものが好ましいが、どのような動きを対応付けるかは特に限定されない。さらに、映像に応じた感情は、映像がストーリー性のあるものであれば、表示中のシーンから特定してもよい。これにより、例えば、悲しみの感情に、表示面をうつむかせる動きを対応付けた場合に、泣いているキャラクターを表示するとき、映像中の人物が泣いているとき、および悲しいシーンが表示されているときのそれぞれに、表示面をうつむかせることも可能である。この他、表示面の動きは、出力される音声も考慮して決定してもよい。例えば、動きのパターンは映像から決定し、動きの速度は音声のテンポ、音量等に応じて決定してもよい。
〔動作機構の詳細〕
次に、動作機構19の詳細を図4に基づいて説明する。図4は、動作機構19による表示装置1の動作を説明する図である。同図の(a)は、動作機構19の構造の一例を示している。図示の動作機構19は、軸191、モータ192、および重り193を含む。なお、同図において、表示面に垂直な軸がZ軸、軸191と並行でZ軸と垂直な軸がY軸、Z軸およびY軸に垂直な軸(紙面に垂直な軸)がX軸である。
軸191は、重り193を支持するものである。軸191は、直線状の剛体からなり、その長手方向の中央部に重り193が回動可能(振り子運動可能)に取り付けられている。図示の例では、重り193は、軸191を通るZY平面上で回転可能に取り付けられている(X軸周りの回転)。より詳細には、軸191は、表示装置1の中心(球状の筐体3の中心)を通るように設けられている。このため、軸191の長手方向の中央部に取り付けられた重り193の回転軸となる位置は、球の中心に位置する。
モータ192は、重り193の回転軸に接続されており、モータ192を駆動することにより、重り193をX軸周りの何れの方向にも回転させることができるようになっている。
また、同図には示していないが、筐体3の内周には、軸191をガイドするレールが設けられており、図示しないモータにより、軸191をこのレールに沿って回転させることができるようになっている。より詳細には、軸191は、図示しないモータを駆動することにより、その長手方向の中央部(重り193の回転軸となる位置)の位置は変えることなく、Z軸周りの何れの方向にも回転させることができるようになっている。
以上のように、動作機構19は、モータ192によって重り193を回転させること(X軸回転)、および軸191を回転させること(Z軸回転)により、筐体3の内部での重り193の位置を変える。そして、これにより表示装置1の重心の位置を変えて、表示面を含む表示装置1全体を動かすことができる。
例えば、表示面が真上を向いた状態から、モータ192によって重り193を傾かせた状態とした場合、表示装置1の重心が移動して、図示の例のように表示面が傾いた状態となる。つまり、重り193の回転軸を通りZ軸に平行な直線上から外れた位置に重り193(より厳密には重り193の回転軸より先端側部分)を移動させることによって、表示面を傾かせることができる。上述の基準状態への移行は、動作機構19をこのように動作させることで実現できる。
また、基準状態から、重り193をモータ192で揺動させることにより、同図の(c)に示すように、表示面を前後に揺動させることができる。さらに、基準状態から軸191を90度回転させた上で、重り193をモータ192で揺動させることにより、同図の(b)に示すように、表示面を左右に揺動させることもできる。なお、表示面の揺動とは、表示面を揺り動かす動きを指す。例えば、同一または概ね同一の軌道で表示面を往復させる動きや、表示面の中心が円または楕円を描く軌道での動きが揺動に相当する。
そして、上述のX軸回転とZ軸回転とを組み合わせることにより、表示装置1の表示面を様々なパターンで動かすことができる。例えば、X軸回転とZ軸回転とを組み合わせて重心位置を円形に移動させることにより、同図の(d)に示すように、表示面に回転運動させることもできる。
また、表示面を回転運動させる際の、回転軸に対する表示面の位置は特に限定されず、例えば同図の(e)に示すように、表示面に垂直な軸(Z軸)周りに回転運動させてもよい。そして、この回転の向きも特に限定されず、同図の(e)に示すように、異なる方向への回転運動を交互に反復して行ってもよい。
したがって、標準状態とした後の、モータ192の駆動パターン(重り193の動作パターン)と、軸191をZ軸周りに回転させるパターンとの組み合わせを示すデータを動作データとすることにより、表示面を所望のパターンで動かすことができる。
〔表示装置1の使用例1:撮影装置の動作データを使用〕
次に、表示装置1の使用例を図5に基づいて説明する。図5は、表示装置1の一使用例を示す図であり、撮影装置5の動作データを使用して表示装置1を動作させる例を示している。
図示の例では、撮影装置5を装着した撮影者がスキーをしながら撮影を行っている。また、この撮影装置5には、撮影装置5の動きを示す動作データを生成する各種センサ(例えば、加速度センサとジャイロセンサ)が外付けまたは内蔵されている。これにより、撮影者は、撮影者目線の映像を撮影しながら、周囲の音声を記録し、かつ撮影装置5の動作(動き)を記録することができる。なお、撮影装置5の動きを直接記録することが難しい場合には、撮影装置5を保持する撮影者の体の部位の動きを記録してもよい。例えば、撮影者が撮影装置5を手で持って撮影している場合には、撮影者の手や腕にセンサを付けて動きを記録してもよい。これらの構成によれば、撮影装置5の動きに応じて表示面を動かすことができるので、表示装置1のユーザに、自らが撮影装置5になったかのような臨場感を与えることができる。
また、撮影装置5の動きの代わりに撮影者の動きを記録する場合、撮影装置5から離れた位置の動きを記録してもよい。例えば、撮影者の特に目線の動きを記録してもよく、この場合、撮影装置5から離れた位置(例えば撮影者の頭部)にセンサを保持してもよい。また、目線の動きを記録する場合には、加速度センサとジャイロセンサの代わりに、目線の動きを撮影するカメラを用いてもよい。これらの構成によれば、撮影者の目線の動きに応じて表示面を動かすことができるので、表示装置1のユーザに、自らが撮影したかのような臨場感を与えることができる。
そして、このようにして記録した音声データ、映像データ、および動作データを表示装置1に転送することにより、撮影装置5の撮影時の動き(同図において撮影装置5付近の白抜き矢印で示す)を、表示装置1にて再現しつつ(同図において表示装置1付近の塗り潰し矢印で示す)、撮影された映像(撮影者から見たスキー場の映像)を表示し、記録された音声を出力することができる。そして、このような映像と表示面の動きの組み合わせにより、新たな視覚効果を生み出すことができる。すなわち、映像に応じた動きによって映像に視覚効果を付与することができる。具体的には、表示装置1で映像を観ているユーザは、あたかも自分が動いている(この例ではスキーをしている)かのような臨場感を感じることができる。また、表示面の揺動により、表示面の位置、すなわち映像が表示される位置が3次元的に動くため、映像を観る者に立体感を感じさせることができる。
なお、表示装置1は、取得した動作データの示す動きと連動して表示面を動かせばよく、撮影装置5の動きと表示面の動きを一致させる必要はない。例えば、撮影装置5が動いた方向に表示面を動かしてもよいし、撮影装置5が動いた方向とは反対の方向に動かしてもよい。
また、センシングデータから動作データを生成する処理は、撮影装置5が行ってもよいし、表示装置1や通信端末2が行ってもよい。表示装置1や通信端末2が動作データを生成する場合、センシングデータを取得し、これを動作機構19の制御に用いることのできるデータ形式に変換して動作データとする。例えば、ジャイロセンサの検出した傾き情報から、表示装置1の重心移動量(傾き角度)を決定することができ、加速度センサの検出した加速度情報から、表示装置1の重心を移動させる際の加速度を決定することができる。
(処理の流れ:映像データ、音声データ、および動作データを表示装置に送信)
次に、表示装置1と通信端末2が実行する処理の流れを図6に基づいて説明する。図6は、表示装置1および通信端末2が実行する処理の一例を示すフローチャートである。より詳細には、図6は、通信端末2が映像データ、音声データ、および動作データを表示装置1に送信し、表示装置1がこれらのデータに基づいて動作する場合の処理の例を示している。これらのデータは、例えば図5の例のようにして記録されたものであってもよい。なお、撮影装置5で取得したデータを、通信端末2を介さずに表示装置1に送信してもよく、これにより、ほぼリアルタイムでの映像・音声・動作の再現が可能になる。
まず、通信端末2の処理について説明する。通信端末2の端末側動作データ取得部121は、記憶部21から映像データおよび音声データを取得する(S11)。なお、S11およびそれ以降の処理を開始するための契機は特に限定されない。例えば、通信端末2に対して所定の操作が行われたことを契機としてもよいし、表示装置1から所定の通知を受信したことを契機としてもよいし、映像データおよび音声データが記憶部21に格納されたことを契機としてもよい。
また、端末側動作データ取得部121は、取得した映像データに応じた動作データを、記憶部21から取得する(S12、動作データ取得ステップ)。続いて、データ送信部122は、端末側動作データ取得部121が取得した映像データ、音声データ、および動作データを、第2通信部23を介して表示装置1に送信する(S13、データ送信ステップ)。そして、データ送信部122は、データの送信が完了したかを判断する(S14)。ここで、送信完了と判断した場合(S14でYES)、通信端末2における処理は終了する。一方、送信完了していないと判断した場合(S14でNO)、処理はS11に戻り、データの送信が継続される。
次に、表示装置1の処理について説明する。通信端末2からデータを受信すると、表示装置1の動作データ取得部104は、受信したデータを確認し(S1)、このデータに動作データが含まれているか否かを判断する(S2)。ここで、動作データが含まれていないと判断した場合(S2でNO)、S4の処理に進む。一方、動作データが含まれていると判断した場合(S2でYES)、動作データ取得部104は、当該動作データを動作制御部107に送信し、動作制御部107はこの動作データに従って動作機構19を動作させる(S3:動作制御ステップ)。なお、この場合、S1が動作データ取得ステップとなる。
また、動作データ取得部104は、S1で確認したデータに含まれる映像データを表示制御部105に送信し、音声データを音声出力部18に送信する。これにより、表示制御部105が映像を表示部17に表示し、音声制御部106が音声出力部18から音声出力する(S4:表示制御ステップ)。上記S3およびS4の処理により、表示させる映像に応じて表示面が動くことになる。この後、動作データ取得部104は、データの受信が終了したか否かを判断する(S5)。ここで、受信終了と判断した場合(S5でYES)、処理は終了する。一方、受信終了していないと判断した場合(S5でNO)、処理はS1に戻る。
〔表示装置1の使用例2:テレビ電話〕
次に、表示装置1の他の使用例を図7に基づいて説明する。図7は、表示装置1の一使用例を示す図であり、表示装置1をテレビ電話のディスプレイおよび撮影装置として使用した例を示している。
図7に示すように、ユーザが通信端末2を用いてテレビ電話による通話を行なっている場合に、相手方から受信した映像や音声(相手方の映像、音声)を表示装置1に出力させることができる。また、表示装置1は、撮影部15でユーザの映像を撮影することができ、撮影した映像を、通信端末2を介して相手方に送信することができる。そして、表示装置1は、表示している相手方の映像に応じた動きで表示面を動かすことができる。
(処理の流れ:テレビ電話の映像に応じて表示面を動かす)
続いて、テレビ電話の映像に応じて表示面を動かす場合の処理の流れを図8に基づいて説明する。図8は、テレビ電話の映像に応じて表示面を動かす場合に、表示装置1A、1B、および通信端末2A、2Bが実行する処理の一例を示すフローチャートである。なお、以下の説明では、表示装置1Aおよび通信端末2AのユーザをユーザAと呼び、表示装置1Bおよび通信端末2BのユーザをユーザBと呼ぶ。
表示装置1Aは、ユーザAの映像を撮影して得た映像データAを通信端末2Aに送信し(S21)、通信端末2Aは、受信した映像データAを通信端末2Bに転送する(S31)。また、通信端末2Bは、受信した映像データAを表示装置1Bに転送し(S42)、表示装置1Bは映像データAを受信し(S52)、表示出力する(S53:表示制御ステップ)。
同様に、表示装置1Bは、ユーザBの映像を撮影して得た映像データBを通信端末2Bに送信し(S51)、通信端末2Bは、受信した映像データBを通信端末2Aに転送する(S41)。また、通信端末2Aは、受信した映像データBを表示装置1Aに転送し(S32)、表示装置1Aは映像データBを受信し(S22)、表示出力する(S23:表示制御ステップ)。
以上の処理により、ユーザAとBは、互いの映像を表示装置1Aまたは1Bで見ながらコミュニケーションすることができる。なお、テレビ電話の通話音声については、映像と同様に表示装置1Aおよび1Bを介して送受信してもよいし、通信端末2Aと2B間のみで送受信してもよい。
また、S32で映像データBを表示装置1Aに転送した通信端末2Aでは、動作データ生成部123が映像データBを解析し、動作データを生成するか否かを判断する(S34)。具体的には、動作データ生成部123は、映像中のオブジェクト(この例ではテレビ電話の相手であるユーザB)の所定の動作や所定の表情を検出できた場合に、動作データを生成すると判断する。なお、図3の(e)の例のように、音声データの解析により、所定の内容の発話が行われたことが確認できた場合に、動作データを生成すると判断してもよい。
S34において、動作データを生成しないと判断した場合(S34でNO)、処理はS31に戻る。一方、動作データを生成すると判断した場合(S34でYES)、動作データ生成部123は、映像データBの解析結果に応じた動作データを生成する(S35:動作データ生成ステップ)。なお、S35の処理の結果、動作データが取得されるので、S35は動作データ取得ステップであるとも言える。具体的には、映像中のオブジェクトの所定の動作や表情には、図3で説明したように表示面を動かすパターンがそれぞれ定められているので、動作データ生成部123は、当該定められたパターンで表示面を動かす動作データを生成する。また、所定の内容の発話がなされたときの動作データの生成も同様の処理で行われる。そして、動作データ生成部123は、以上のようにして生成した動作データを表示装置1Aに送信する(S36:データ送信ステップ)。
この後、表示装置1Aの動作データ取得部104は、動作データを受信し(S24:動作データ取得ステップ)、動作制御部107は、受信した動作データに従って動作機構19を動作させる(S25:動作制御ステップ)。これにより、表示させる映像に応じて表示面が動くことになる。なお、映像と表示面の動きが同期するように、S32の映像データBの転送タイミングを遅らせて、S36の動作データの送信時に映像データBを転送してもよい。
また、S42で映像データAを表示装置1Bに転送した通信端末2Bにおいても、通信端末2Aと同様に、映像データAの解析が行われ(S43)、動作データを生成する場合には生成して表示装置1Bに送信する(S44〜S46)。そして、表示装置1Bは、動作データを受信すると(S54:動作データ取得ステップ)、動作機構19を動作させる(S55:動作制御ステップ)。
なお、上述の例では、テレビ電話の相手方の映像を解析して動作データを生成しているが、解析の対象となる映像は、表示装置1が表示する映像であればよく、この例に限定されない。例えば、テレビ番組やインターネット上の動画コンテンツなどを表示装置1に表示させる場合には、それらのコンテンツの映像を解析して動作データを生成してもよい。
(処理の流れ:テレビ電話の相手方の表示面の動きに連動させて表示面を動かす)
表示装置1は、テレビ電話中に相手方の表示装置1の表示面が動かされたときに、その動きに連動して表示面を動かすことができる。ここでは、この処理について図9を用いて説明する。図9は、テレビ電話の相手方の表示面の動きに連動させて表示面を動かす処理の一例を示すフローチャートである。なお、図9では省略しているが、図8と同様にして映像データの送受信は行われており、映像の解析に基づく動作データの生成や送信も適宜行われる。
表示装置1Aの動作データ送信部103は、センサ部16から動作データ(センシングデータ)を受信したことを確認する(S61)と、該動作データが、受信した動作データによる表示装置1Aの動作に起因するか否か判断する(S62)。言い換えれば、センサ部16が検知した表示装置1Aの動きが、通信端末2Aの制御に基づき動作機構19を動作させることによって生じた動きであるか否かを判断する。具体的には、動作データ送信部103は、センサ部16から動作データを受信する直前に動作データ取得部104が動作データを取得していれば、受信した動作データに基づく動作であると判断する。
ここで、受信した動作データに基づく動作であると判断した場合(S62でYES)、処理は図8のS21に進む。一方、受信した動作データに基づく動作ではないと判断した場合(S62でNO)、動作データ送信部103がセンサ部16から受信した動作データを通信端末2Aに送信し(S63)、処理は図8のS21に進む。
続いて、上記動作データを受信した通信端末2Aでは、通信制御部124が当該動作データを通信端末2Bに転送し(S71)、通信端末2Aの処理は図8のS31に進む。また、上記動作データを受信した(動作データ取得ステップ)通信端末2Bにおいても、通信制御部124が当該動作データを表示装置1Bに転送し(S81)、通信端末2Bの処理は図8のS41に進む。
そして、表示装置1Bの動作データ取得部104は、S81の処理で転送された動作データを受信し(S91:動作データ取得ステップ)、受信した動作データを動作制御部107に送信して動作機構19を動作させる(S92:動作制御ステップ)。この後、表示装置1Bの処理は図8のS51に進む。
なお、相手方が表示装置1を使用しておらず、通信端末2のみあるいはパーソナルコンピュータ等の他の機器を用いている場合には、動作データを送信しても相手方で表示面が動くことはない。このため、相手方が表示装置1を使用していることを確認する処理を行った上で、動作データの送信を行ってもよい。また、この場合、相手方が表示装置1を使用していない(相手方の使用機器に表示面を動かす機能がない)ことが確認されたときには、動作データを送信する代わりに、表示面が動かされたことを相手方に通知するための代替処理を行ってもよい。例えば、表示面が動かされたことや、表面がどのように動かされたかを示す画像を送信して表示させてもよいし、相手方の使用する機器が振動を生じさせるバイブレーション機能を備えている場合には、該機能を動作させる命令を送信してもよい。
また、上述の例では、通信端末2Aおよび2Bを介して、表示装置1Aと1Bとが間接的に通信しているが、表示装置1Aおよび1Bにネットワークを介した通信機能を搭載して、表示装置1Aと1Bとで直接通信するようにしてもよい。
〔表示装置1の使用例3:コミュニケーションアプリ〕
表示装置1は、通信を介したコミュニケーションに使用されるソフトウェア(以下、コミュニケーションアプリと呼ぶ)に関する情報を表示する装置として使用することもできる。例えば、近時急速に普及したコミュニケーションアプリには、スタンプと呼ばれる画像を、単独またはメッセージと共に投稿することができるようになっている。表示装置1は、このようなスタンプの表示に使用することができ、また表示させたスタンプの種類に応じて表示面を動かすこともできる。
以下では、表示装置1に表示させたスタンプに応じて表示面を動かす例を図10に基づいて説明する。図10は、表示させたスタンプに応じて表示面を動かす際の表示装置1における処理の一例を示すフローチャートである。なお、同図では、スタンプの画像の表示を中心に説明を行うが、投稿されたメッセージの文面等、コミュニケーションアプリに関する他の情報についても表示対象に含めてもよい。また、表示するスタンプに応じた音声(例えば効果音)を出力してもよい。
なお、図示の例では、通信端末2から受信したデータ(スタンプ)を表示することを想定している。より詳細には、通信端末2の端末側動作データ取得部121は、コミュニケーションアプリにて投稿されたスタンプを取得し、データ送信部122により該スタンプを表示装置1に送信して表示させることを想定している。
表示装置1の動作データ取得部104は、受信したデータを確認し(S104)、受信したデータに、動作データが対応付けられた画像である動作データ対応画像が含まれているか判断する(S111)。ここで、動作データ対応画像が含まれていないと判断した場合(S111でNO)には、S114の処理に進む。
一方、動作データ対応画像が含まれていると判断した場合(S111でYES)、動作データ取得部104は、当該動作データ対応画像を表示制御部105に送信し、対応付けられた動作データを動作制御部107に送信する。これにより、表示制御部105は受信した画像データの画像を表示し(S112:表示制御ステップ)、動作制御部107は受信した動作データに従って動作機構19を動作させる(S113:動作制御ステップ)。この場合、S110が動作データ取得ステップとなる。これらの処理により、例えば図3の(f)の例のように、画像(動作データ対応画像)が表示されると共に、表示装置1の表示面が動くことになる。
この後、動作データ取得部104は、受信データの受信が終了したかを判断し(S114)、受信終了と判断した場合(S114でYES)には処理を終了し、受信終了していないと判断した場合(S114でNO)にはS110の処理に戻る。
なお、動作データ対応画像に対応付けられた動作データは、表示装置1の外部から取得してもよいし、表示装置1の記憶部11等に予め格納しておいたものを取得してもよい。前者の場合、例えば通信端末2でコミュニケーションアプリを使用している際に、スタンプが投稿されたときに、そのスタンプに予め設定された感情(怒り、悲しみ、喜び等)に応じた動作データを動作データ生成部123で生成し、表示装置1に送信してもよい。また、後者の場合、予めスタンプに応じた動作データを記憶部11に記憶しておき、通信端末2から受信したスタンプに応じた動作データを記憶部11から読み出して、動作機構19を動作させてもよい。また、スタンプに応じた動作データをサーバから配信することにより、スタンプに応じた動きで表示面を動かすようにしてもよい。
さらに、上述の例では、コミュニケーションアプリで使用されるスタンプに動作データを対応付けているが、動作データを対応付ける対象となる画像は、この例に限定されない。例えば、電子メール等で使用される絵文字に動作データを対応付けてもよい。この場合、表示装置1に電子メールを表示させるときに、その文面に含まれる絵文字を表示すると共に、その絵文字に対応付けられた動作データで表示面を動かしてもよい。
〔表示装置1の使用例4:広告〕
表示装置1は、表示面を動かすことにより、周囲の人の注意を引き付けることができ、また表示内容を注視させることができるので、広告を表示する装置としても好適に利用できる。以下では、表示装置1に広告を表示させる例を図11および図12に基づいて説明する。
図11は、表示装置1の一使用例を示す図であり、表示装置1を広告の表示に使用した例を示している。例えば店頭などに設置した表示装置1に広告を表示する場合、表示装置1の前を通りかかった者に対して広告内容をアピールする必要がある。そこで、表示装置1は、近くに人を検出した場合に、検出した人に表示面が向くように表示面を動かす処理を行う。また、上述の各例と同様に、表示する広告の内容に応じて表示面を動かす処理を行う。
(処理の流れ:検出した人に向くように表示面を動かす)
図12は、広告を表示させる場合に表示装置1が実行する処理の一例を示すフローチャートである。なお、同図では、通信端末2から受信したデータ(広告コンテンツ)を表示することを想定している。より詳細には、同図には示していないが、通信端末2の端末側動作データ取得部121は、記憶部21から広告コンテンツを読み出し、データ送信部122により該広告コンテンツを表示装置1に送信して表示させることを想定している。ただし、表示するデータは、予め表示装置1に記憶しておいてもよいし、通信端末2以外の装置(広告配信サーバ等)から受信してもよい。
動作データ取得部104は、データ(広告コンテンツ)を受信したことを確認する(S100)と、人検出部101に人の検出を開始するように指示する。そして、この指示を受信した人検出部101は、撮影部15に撮影を開始させ、撮影された画像を解析して人を検出する(S101)。また、画像中に人が映っていることを検出した人検出部101は、表示装置1から検出した人までの距離を算出し(S102)、検出した人までの距離が所定の距離より近いか否かを判断する(S103)。
ここで、所定の距離よりも遠いと判断した場合(S103でYES)、処理はS100に戻る。一方、所定の距離よりも近いと判断した場合(S103でYES)、人検出部101は、当該人の位置する方向(例えば撮影部15の撮影範囲の中心を基準として表した方向)を動作データ取得部104に通知する。そして、動作データ取得部104は、通知された方向に表示面を向ける動作データ(例えば撮影部15の撮影範囲の中心に人が来るように動かす動作データ)を生成して動作制御部107に送信し、これにより表示面を人に向ける(S104)。
なお、複数の人が検出された場合、検出人数が少なければ、検出した一人(例えば最初に検出した人や最も表示装置1に近い人)に表示面を向ければよい。また、検出人数が多い場合、人がより多く集まっている方向に表示面を向ければよい。
続いて、動作データ取得部104は、S100にて受信を確認したデータに動作データが含まれているか否かを判断する(S105)。ここで、動作データが含まれていないと判断した場合(S105でNO)、動作データ取得部104は、受信したデータに含まれる画像を表示制御部105に送信し、音声データを音声出力部18に送信する。これにより、表示制御部105による画像の再生(表示)と、音声出力部18による音声再生(出力)が行われる(S107)。なお、音声の再生は必須ではない。
一方、動作データが含まれていると判断した場合(S105でYES)、動作データ取得部104は、当該動作データを動作制御部107に送信して動作機構を動作させる(S106:動作制御ステップ)。この場合、S100が動作データ取得ステップとなる。また、動作データ取得部104は、上述のようにして映像および音声の再生を行わせる(S107:表示制御ステップ)。
この後、動作データ取得部104は、データの受信が終了しているか否かを判断し(S108)、受信終了と判断した場合(S108でYES)、処理を終了する。一方、受信終了していないと判断した場合(S108でNO)、S100の処理に戻る。
なお、上記の例では、検出した人に表示面を向けた後は、人の検出に基づいて表示面を動かすことはしていないが、その後も継続的に人の検出と、それに基づいて表示面を動かす処理を行ってもよい。これにより、表示装置1の前で人が動いたときに、それに追従して表示面を動かすことができる。また、表示する映像が広告である例を説明したが、広告以外の任意の映像の表示の際に、上述の処理を適用できることはもちろんである。
〔映像に対する投稿に応じて表示面を動かす〕
近時、映像に対するコメントやメッセージの投稿を受け付け、これを映像と共に表示させる(重畳表示してもよいし、重畳せずに表示してもよい)サービスが広く知られるようになっているが、表示装置1は、このような投稿に応じて表示面を動かしてもよい。これについて、図13に基づいて説明する。
図13は、映像に対して投稿されたコメント量に応じて表示面を動かす例を示す図である。同図の(a)〜(c)の表示装置1は、何れも映像を表示していると共に、この映像に重畳して、該映像に対して投稿されたコメントを表示している。
このうち、同図の(a)の表示装置1は表示しているコメントの量が少なく、このため、この表示装置1は表示面を動かしていない。一方、同図の(b)の表示装置1は表示しているコメントの量が多く、このため、この表示装置1は表示面を動かしている。この例のように、表示装置1の動作制御部107は、表示している映像に対して投稿されたコメントの量が所定の下限値を超えたときに表示面を動かしてもよい。なお、コメント量の多寡を決定する基準は特に限定されず、例えば投稿されたコメントの数、文字数、表示されたコメントが表示面上に占める面積、等を基準(所定の下限値)としてもよい。この他にも、所定の投稿者からのコメント数や、その文字数を基準としてもよいし、コメント中の所定の単語や記号の数を基準としてもよい。
また、同図の(c)に示すようにコメント量が少ない場合には、動作制御部107は、同図の(b)のようにコメント量が多い場合と比べて弱い動きで表示面を動かしてもよい。なお、動きの強弱は、動きの振幅の大小、動きの周期の長短、およびこれらの組み合わせによって表現できる。
以上のような構成によれば、映像に対する投稿が盛んに行われていることを、ユーザが認識することを容易にすることができる。なお、上記のような表示面の動きを実現するための動作データは、例えば以下のようにして生成することができる。以下では、投稿数を基準として投稿量の多寡を判断する例を説明するが、上述のようにこの判断の基準は投稿数に限られない。
まず、動作データ生成部123は、表示装置1が表示する映像を解析し、該映像に対するコメント等の投稿が行われているか否かを判断する。なお、投稿の有無を映像解析によって行う代わりに、投稿を受け付けるサーバ等に問い合わせをすることによって判断してもよい。
ここで、投稿が行われていると判定した場合、動作データ生成部123は、投稿数が下限値を超えているか否かを判断する。なお、投稿数は、投稿の有無の判定と同様に、映像解析で特定してもよいし、サーバ等への問い合わせによって特定してもよい。そして、動作データ生成部123は、投稿数が下限値を超えていると判断した場合に、投稿量が多い場合の動きとして予め定められた動きを示す動作データを生成する。これにより、動作制御部107は、投稿量が多くなったときに、表示面を動かすことができる。また、投稿量の多寡に応じて動きの強弱を変える場合、投稿量に段階的な閾値を設け、各段階に対応する強度の動きを示す動作データを生成すればよい。
なお、動作データの生成を通信端末2で行う場合には、生成した動作データを表示装置1に送信すればよく、表示装置1に動作データ生成部123を設けた場合には、このような送信は不要である。また、これら以外の装置で生成した動作データを取得して表示面を動かしてもよい。例えば、投稿を受け付けるサーバ等が、受け付けた投稿に基づいて動作データを生成し、配信するようにしてもよく、この場合、表示装置1は、配信された動作データを直接、または通信端末2等の他の装置を介して取得すればよい。
〔映像の内容に連動して表示面を動かす他の例〕
次に、映像の内容に連動して表示面を動かす他の例を図14に基づいて説明する。図14は、笑いがおきている映像に連動して表示面を動かす例を示す図である。同図の(a)では笑いのない映像が表示されており、表示装置1の表示面は動いていないが、同図の(b)では笑いがおきている映像が表示されており、表示装置1の表示面は動いている。この例のように、表示装置1の動作制御部107は、表示している映像の内容に連動して表示面を動かしてもよい。
この場合、動作データ生成部123は、表示装置1が出力する音声を解析し、笑い声が含まれると判断した場合に、笑いの映像に対応する動作データを生成すればよい。なお、笑い声が含まれるか否かは、音声の周波数を解析する等によって判断可能であり、この場合、所定の帯域の周波数が音声に含まれている場合に、その所定の帯域に対応する動きで表示面を動かすことになる。以上のような構成により、笑いがおきているシーン、すなわち盛り上がっているシーンで表示面を動かし、そのシーンに注目させることができる。同様にして歓声がおきているシーンで表示面を動かすことも可能である。
また、音量を指標として、表示面を動かすか否か(動作データを生成するか否か)を判断してもよい。スポーツ番組やバラエティ番組等では、盛り上がっているシーンで音量が上がる傾向があるので、これにより盛り上がったシーンで表示面を動かすことができる。この他にも、盛り上がったシーンでは、出演者の多くが笑顔になる傾向があるので、映像中の複数の人物の表情を解析し、笑顔の人物が所定数以上となったときに表示面を動かしてもよい。
また、動作制御部107は、映像中の文字列の内容に応じて表示面を動かしてもよい。映像中の文字列は、映像の内容を示す情報の1つであるから、これにより、映像に応じた動きで表示面を動かすことができる。例えば、「寒い」との文字列が表示されたときに、表示面を小刻みに揺らして、表示装置1および表示されている画像が震えているような感覚をユーザに与えてもよい。また、例えば「嬉しい」との文字列が表示されたときに、上下に激しく揺らして、喜びの感情を動きで表現してもよい。
なお、対象とする文字列は、映像中に含まれるものであれば特に限定されず、例えば、ユーザの入力した文字(例えばSNSやメッセージアプリ等への投稿メッセージや電子メール等)、テロップ、字幕などの文字列が挙げられる。また、表示面を動かすタイミングは、文字列を表示したタイミングに限られず、例えば投稿メッセージや電子メールのように、送信する文字列に応じた動きをさせる場合には、その送信時に表示面を動かしてもよい。そして、文字列に応じた動作データの生成は、当該文字列に応じた動きで表示面を動かすまでの任意のタイミングで行えばよい。
文字列の内容に応じて表示面を動かす場合、動作データ生成部123は、映像中の文字列を解析して、所定の文字列が含まれているか否か、または所定の内容が記述されているか否かを判断する。そして、含まれているまたは記述されていると判断した場合に、その所定の文字列または所定の内容に対応する動作データを生成する。なお、動作データの生成を外部のサーバ等で行ってもよいことは上述の通りである。
〔スタンプの自動選択〕
図10では、表示装置1に表示させたスタンプに応じて表示面を動かす例を説明した。これに関連して、表示するスタンプを自動で選択する構成を採用することも可能である。これについて、図15に基づいて説明する。図15は、映像および音声の解析により、表示するスタンプの選択、および動作データの生成を行う例を説明する図である。なお、ここでは、表示装置1が撮影した映像および音声を解析して、表示装置1がスタンプの選択と動作データの生成を行う例を説明する。つまり、本例では、表示装置1が動作データ生成部123を備えているものとして説明を行う。なお、本例で説明する処理は、通信端末2が実行することも可能である。
同図の例では、ユーザが発話する様子が表示装置1によって撮影されている。そして、撮影された映像を解析することにより、ユーザが笑顔であることが検出されている。また、音声を解析することにより、「うれしい」、「すごい」、「楽しかった」の単語が検出されている。これらの解析は、動作データ生成部123によって行われる。
次に、動作データ生成部123は、上記の解析結果に応じたスタンプを選択すると共に、該解析結果に応じた動作データを生成する。なお、スタンプ(画像)は、予め複数種類用意しておく。また、どのような解析結果が得られたときに、何れのスタンプを選択するかも予め決めておく。動作データについても同様である。例えば、笑顔が検出されたときに、楽しいことを示すスタンプを選択し、楽しさを示す動きの動作データを生成してもよい。また、映像の解析結果と音声の解析結果とのそれぞれに基づいて異なるスタンプと動作データとを選択、生成してもよいし、これらの解析結果の組み合わせに基づいて1つのスタンプと動作データとを選択、生成してもよい。例えば、笑顔で励ましの言葉を発したユーザの映像・音声を取得した場合に、笑顔に対応するスタンプと動作データを生成すると共に、励ましの言葉に対応するスタンプと動作データを生成してもよい。また、同じ場合に、笑顔と励ましの言葉の何れかまたは両方に対応する1つのスタンプと1つの動作データを生成してもよい。そして、映像の解析結果と音声の解析結果との両方に対応する動作データは、映像の解析結果に対応する動作データと、音声の解析結果に対応する動作データとを組み合わせた動作データであってもよい。これにより、表示面をバリエーションに富んだ動きで動かすことが可能になる。
そして、表示装置1の表示制御部105は、上記のようにして選択されたスタンプを表示面に表示し、動作制御部107は、上記のようにして生成された動作データを用いて表示面を動かす。これにより、ユーザは、表示装置1に対して何ら操作を行うことなく、自身の気分などに応じたスタンプが表示されるのを、そのスタンプに応じた動きと共に楽しむことができる。無論、表示する画像としては、スタンプと呼ばれるものに限られず、任意の画像が適用できる。
〔実施形態2〕
上記実施形態では、球状の筐体3を有し、重心位置を変えることで表示面を動かす動作機構19を備える表示装置1を例示して説明を行ったが、表示装置1は、表示面を動作機構にて動かすことができる構成となっていればよく、上述の例に限られない。本実施形態では、表示面を動かす機構の他の例を図16に基づいて説明する。図16は、表示面を動かす機構の他の例を示す図である。
同図の(a)の例では、円筒を縦に切った形状(半円柱)の筐体30を使用し、筐体30の外表面のうち、長方形の平面部分(円柱の切断面に相当する部分)に表示部17の表示面を配置している。この構成では、上述の動作機構19と同様の動作機構にて重心を移動させることにより、図示のように筐体30の外縁部(断面が半円状の部分)に沿って筐体30全体を揺動させ、これにより表示面を揺動させることができる。この例では、上記実施形態と同様に、筐体の外縁部が円弧状であるから、滑らかな揺動が可能である。
同図の(b)の例では、表示部17が第1筐体40に設けられ、第1筐体40は、ヒンジ42を介して第2筐体41と接続されており、これにより同図の矢印方向に回動可能に構成されている。このように、ヒンジ42等の回動部材により、表示部17の表示面を動かすことも可能である。なお、この場合、回動部材にモータ等の駆動部を接続することにより、表示面の動きを制御することが可能である。この例は、一般的なノート型パソコンの筐体と同様の構成であり、このため、例えば、一般的なノート型パソコンにヒンジ部を駆動する動作機構を搭載することにより、本発明の表示装置とすることも可能である。
同図の(c)の例では、関節部51が設けられているアームに、関節部50を介して表示部17が取り付けられている。この場合、関節部50および関節部51を動かす動作機構により、表示部17の表示面の動きを制御することができる。
同図の(d)〜(f)の例では、ディスプレイスタンド60と表示部17を、接続部61を介して接続している。接続部61は、ディスプレイスタンド60と表示部17を回動可能に接続しており、これにより、表示部17の表示面は接続部61を固定点として可動となっている。例えば、傾ける(同図のd)、左右に動かす(同図のe)、上下に動かす(同図のf)、等の動きが可能である。この場合、接続部61に駆動部を接続することにより、表示面の動きを制御することが可能である。
〔実施形態3〕
本発明の他の実施形態について、図17に基づいて説明する。図17は、本発明の一実施形態に係る配信システム200の概要を示すブロック図である。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。本実施形態では、サーバから動作データを配信する配信システムについて説明する。
図17に示す配信システム200は、表示装置1に動作データを配信するシステムであって、動作データを配信するサーバ(制御装置)210と、配信される動作データを受信する表示装置1および通信端末2とを含む。なお、配信システム200において動作データを受信する装置は、表示装置1と通信端末2に限られず、サーバ210と通信可能な装置であれば任意の装置が動作データの受信主体となり得る。
サーバ210は、上記実施形態の通信端末2と同様に、動作データを生成する機能を備えており、アップロードされた映像に応じた動作データを自動的に生成し、これを配信することができる。より詳細には、サーバ210は、図示しない制御部と通信部とを備えており、制御部には映像取得部、動作データ生成部123、動作データ取得部、および動作データ送信部が含まれている。なお、制御部は通信端末2の制御部20と同様であり、通信部は通信端末2の第1通信部22と同様である。
映像取得部は、動作データの生成対象となる映像を取得するものであり、上述のように、サーバ210に対してアップロードされた映像を、通信部を介して取得する。そして、取得した映像を動作データ生成部123に送信し、これにより、動作データ生成部123が該映像に応じた動作データを生成する。なお、映像に応じた動作データの生成方法については、上記実施形態で説明した通りであるから、ここでは説明を省略する。そして、動作データ取得部は、このようにして生成された動作データを動作データ送信部に送信し、動作データ送信部はこれを表示装置1に直接、または通信端末2等の他の装置を介して送信する。
例えば、表示装置1にて撮影した映像がアップロードされた場合、サーバ210の映像取得部はアップロードされた映像を取得し、動作データ生成部123はこの映像に応じた動作データを生成し、動作データ取得部はこれを取得する。そして、動作データ送信部は、取得された動作データを当該表示装置1に送信する。これにより、表示装置1に動作データの生成機能を持たせることなく、表示面を動かしながら映像を閲覧させることができる。
なお、動作データ送信部は、動作データを映像と共に送信してもよい。例えば、上記の例において、映像をアップロードした表示装置1とは異なる他の表示装置1にも動作データを映像と共に送信してもよい。また、このような送信は、表示装置1からのリクエストに応じて行ってもよいし、動作データ送信部が主体的に所定の表示装置1に対して配信してもよい。そして、配信先は複数であってもよく、例えば1つの表示装置1から受信した映像と、その映像に応じた動作データとを、複数の表示装置1に対して一斉に配信してもよい。
また、図17に示すように、通信端末2がサーバ210と通信して動作データを取得してもよい。この場合、通信端末2の端末側動作データ取得部(動作データ取得部)121は、映像をサーバ210に送信して該映像に応じた動作データを取得し、データ送信部122はこの動作データを映像と共に表示装置1に送信する。なお、サーバ210に送信する映像の取得元は特に限定されず、例えば表示装置1であってもよいし、動画投稿サイト等のコンテンツ配信サーバであってもよい。この他にも、通信端末2が撮影装置を備えている場合には、該撮影装置で撮影した映像を用いてもよいし、通信端末2で動作するアプリケーションソフトウェア(例えばゲーム等)により生成あるいは取得された映像を用いてもよい。
また、通信端末2は、映像および動作データの送信をサーバ210に要求し、この要求に応じて送信された映像および動作データを表示装置1に転送してもよい。この場合、ユーザは、サーバ210が送信可能な映像の中から、所望の映像を通信端末2で選択し、その映像を表示面の動きと共に表示装置1にて楽しむことができる。例えば、SNS(Social Networking Service)には、動画の投稿、閲覧が可能なものがあるから、SNSのサーバにサーバ210と同様の機能を持たせ、ユーザが通信端末2で選択した映像と、その映像に応じた動作データとを配信してもよい。また、動画投稿サイトや動画配信サイトのサーバにサーバ210と同様の機能を持たせ、ユーザが通信端末2で選択した映像と、その映像に応じた動作データとを配信してもよい。
この他にも、映像をライブ配信するサービスや、コンテンツ配信プラットフォーム等にサーバ210を設け、動作データと共に映像コンテンツを配信する構成等が考えられる。また、広告の配信を行うサーバにサーバ210と同様の機能を持たせ、該サーバにより広告の映像に応じた動作データを生成し、広告の映像と共に配信してもよい。
なお、上述のサーバ210は、映像の取得、動作データの生成、映像の送信、および動作データの送信を行うが、これらの処理を個別のサーバで行う構成としてもよい。例えば、映像のアップロードを受け付けるサーバと、動作データを生成するサーバと、動作データを送信するサーバと、映像を送信するサーバとの組み合わせによってもサーバ210と同様の機能を実現できる。
〔変形例〕
上記実施形態1では、動作データの生成を通信端末2が行う例を説明したが、表示装置1が動作データを生成してもよい。この場合、動作データ生成部123を表示装置1に設け、動作データ生成部123により、表示する映像の解析および動作データの生成を行えばよい。
また、上記実施形態1では、表示装置1に対する、動作データの送信と映像データの送信を1つの通信端末2が行う例を示したが、これらのデータの送信元が異なっていてもよい。例えば、表示装置1は、映像配信サーバ等から映像データを受信してもよい。このような場合であっても、通信端末2は、表示装置1が表示している映像データがどのような映像データであるかを特定できれば、その映像に応じた動作データを生成し、表示装置1に送信することができる。例えば、映像配信サーバ等から、配信中のデータに関する情報(映像そのものであってもよいし、配信中のシーンの内容を示すシーン情報等であってもよい)を取得して動作データを生成してもよい。
また、上記実施形態1では、映像等の解析によって、あるいは撮影装置5に取り付けたセンサで取得したデータに基づいて動作データを生成する例を説明したが、動作データの生成方法はこれらの例に限られない。例えば、通信端末2や、他の装置(例えばパーソナルコンピュータ等)でオーサリングツールを用いて映像に応じた動作データを生成してもよい。この場合、映像中の所望のタイミングで表示面を動かすことができるように、動作データと共に、映像と同期させるための同期データ(例えば再生時間情報)を生成することが好ましい。そして、このような同期データを取得した際には、動作制御部107は、当該同期データの示すタイミングで表示面を動かすことが好ましい。
また、例えば、表示装置1の動きをセンサ部16で検出し、これを動作データとして記録してもよい。この場合、制御部10に、センサ部16の検出した動きを動作データとして記録する動作データ記録部を設ければよい。これにより、ユーザは、所望の動きを動作データとして記録し、その動きで表示面を動かしながら、その動きに応じた好みの映像を楽しむことができる。このような動作データの記録は、ジャイロセンサや加速度センサを備えた装置であれば、表示装置1以外の装置でも行うことができる。例えば、通信端末2がこれらのセンサを備えていれば、通信端末2を動かして、その動きに応じた動作データを生成することもできる。
また、生成した動作データを単独で、あるいはそれに対応する映像と共に他の表示装置1に直接または間接に送信してもよく、これにより、当該他の表示装置1も、その動作データの動きで表示面を動かすことが可能になる。例えば、通信端末2で生成し、記録した動作データは、所望のタイミングで表示装置1に送信し、これにより表示面を動かすことができる。また、例えば、表示装置1で映像を撮影し、該映像に応じた動作データ、あるいは撮影時に表示装置1のセンサ部16で検出した動きに応じた動作データを生成して、他の表示装置1に送信してもよい。後者の場合、データ送信側の表示装置1の表示面の動きを、データ受信側の表示装置1(他の表示装置)で再現することができる。なお、この場合、データ送信側の表示装置1は、受信側の表示装置1の動作を制御する制御装置として機能することになる。さらに、例えば、他の表示装置1から該表示装置1の撮影した映像を受信し、該映像に応じた動作データを生成して表示面を動かしてもよい。このように、表示装置1間でデータの送受信を行う場合、各表示装置1に通信端末2と同様の通信機能およびユーザインターフェースを設ければよい。
また、例えば、動画投稿サイトに映像をアップロードすると共に、生成した動作データもアップロードしてもよい。これにより、当該映像を表示装置1で閲覧する際に、映像と共に動作データもダウンロードして、当該映像を当該動作データの動きと合わせて楽しむことができる。また、動画投稿サイト側に上記実施形態3のサーバ210を設け、アップロードされた映像に応じた動作データを生成してもよく、この場合も上記と同様の効果が得られる。無論、アップロード先は、動作データを配信可能なサーバであればよく、動画投稿サイトのサーバに限られない。例えば、SNSのサーバにサーバ210と同様の機能を持たせ、該サーバに動作データをアップロードしてもよい。この場合、SNS経由で動作データを取得し、SNS上の映像を、取得した動作データと組み合わせて楽しむことができる。
〔ソフトウェアによる実現例〕
表示装置1および通信端末2の制御ブロック(特に制御部10および制御部20)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、表示装置1および通信端末2は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る制御装置は、表示面を備えた表示装置(1)を制御する制御装置(通信端末2)であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを生成する動作データ生成部(123)と、上記動作データ生成部が生成した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信部(122)と、を備えている。
上記の構成によれば、映像に応じた動作データを生成して表示装置に送信するので、該表示装置は、表示する映像に応じた動きで表示面を動かすことができる。したがって、映像に応じた動きによって映像に視覚効果を付与することができるという効果を奏する。なお、動きによって付与される視覚効果は、動きがあることによって生じる効果であればよく、特に限定されない。例えば、上記視覚効果としては、映像の内容に注目させる効果の他に、臨場感や立体感が生じる等の効果が挙げられる。
本発明の態様2に係る制御装置は、上記態様1において、上記動作データ生成部は、上記映像中の所定のオブジェクトの動きに応じた動作データを生成してもよい。
上記の構成によれば、映像中のオブジェクトの動きに応じて動作データを生成するので、映像を観ている者に対して、映像中のオブジェクトの動きを強調して伝えることができるという効果を奏する。なお、所定のオブジェクトは、映像中の所定範囲を占めるものであればよい。例えば、映像中の人物の体全体であってもよいし、体の一部(頭や手、眼球の黒目部分等)であってもよい。
本発明の態様3に係る制御装置は、上記態様1または2において、上記動作データ生成部は、上記映像中の人物またはキャラクターの表情に応じた動作データを生成してもよい。
上記の構成によれば、映像中の人物またはキャラクターの表情に応じて動作データを生成するので、映像を観ている者に対して、映像中の人物またはキャラクターの表情(あるいはその表情に応じた感情)を強調して伝えることができるという効果を奏する。例えば、映像中の人物が微笑んでいるときに、表示面をゆっくりと搖動させることにより、該人物の微笑んだ表情に注目させることができ、また、該人物の穏やかな喜びの感情を強調して伝えることができる。
本発明の態様4に係る制御装置は、上記態様1から3の何れか1態様において、上記映像中の人物またはキャラクターの発話内容に応じた動作データを生成してもよい。
上記の構成によれば、映像中の人物またはキャラクターの発話内容に応じて動作データを生成するので、映像を観ている者に対して、映像中の人物またはキャラクターの発話内容、またはその発話内容に応じた感情を強調して伝えることができるという効果を奏する。例えば、映像中の人物が驚いた旨の発話をしたときに、表示面を後ろ側に倒れ込むように動かすことにより、該人物の驚きの感情を強調して伝えることができる。
本発明の態様5に係る表示装置(1)は、表示面を備えた表示装置であって、上記表示面を動かすための、上記表示面に表示する映像に応じた動作データを、上記表示装置の動作を制御する制御装置(通信端末2)から取得する動作データ取得部(104)と、上記表示面に上記映像が表示されているときに、上記動作データに従って上記表示面の動作機構を動作させて上記表示面を動かす動作制御部(107)と、を備えている。
上記の構成によれば、表示する映像に応じた動作データを取得し、該動作データに従って表示面を動かすので、映像と表示面の動きの組み合わせによる新たな視覚効果を生み出すことができるという効果を奏する。
本発明の態様6に係る表示装置は、上記態様5において、上記動作データ取得部は、上記映像中の所定のオブジェクトの動きに応じた動作データを取得してもよい。該構成によれば、映像中のオブジェクトの動きに応じた動作データを取得するので、映像を観ている者に対して、映像中のオブジェクトの動きを強調して伝えることができるという効果を奏する。
本発明の態様7に係る表示装置は、上記態様5または6において、上記動作データ取得部は、上記映像中の人物またはキャラクターの表情に応じた動作データを取得してもよい。該構成によれば、映像中の人物またはキャラクターの表情に応じた動作データを取得するので、映像を観ている者に対して、映像中の人物またはキャラクターの表情(あるいはその表情に応じた感情)を強調して伝えることができるという効果を奏する。
本発明の態様8に係る表示装置は、上記態様5から7の何れか1態様において、上記動作データ取得部は、上記映像中の人物またはキャラクターの発話内容に応じた動作データを取得してもよい。該構成によれば、映像中の人物またはキャラクターの発話内容に応じた動作データを取得するので、映像を観ている者に対して、映像中の人物またはキャラクターの発話内容、またはその発話内容に応じた感情を強調して伝えることができるという効果を奏する。
本発明の態様9に係る表示装置は、上記態様5から8の何れか1態様において、上記動作データ取得部は、上記映像を撮影したときの撮影装置または撮影者の動きを示す動作データを取得してもよい。該構成によれば、映像を撮影したときの撮影装置または撮影者の動きを示す動作データを取得するので、映像を観ている者に対して、映像の撮影時の臨場感を伝えることができるという効果を奏する。
本発明の態様10に係る表示装置は、上記態様5から9の何れか1態様において、上記動作データ取得部は、上記映像中の文字列の内容に応じた動作データを取得してもよい。映像中の文字列は、映像の内容を示す情報の1つであるから、上記の構成によれば、映像に応じた動きで表示面を動かすことができる。
本発明の態様11に係る制御装置は、表示面を備えた表示装置を制御する制御装置であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを取得する動作データ取得部と、上記動作データ取得部が取得した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信部と、を備えている。
上記の構成によれば、映像に応じた動作データを取得して表示装置に送信するので、該表示装置は、表示する映像に応じた動きで表示面を動かすことができる。したがって、映像に応じた動きによって映像に視覚効果を付与することができるという効果を奏する。なお、動作データは上記制御装置の外部の装置から取得してもよいし、上記制御装置にて生成した動作データを取得してもよい。
本発明の一態様に係る制御装置の制御方法は、表示面を備えた表示装置(1)を制御する制御装置(通信端末2)の制御方法であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを生成する動作データ生成ステップ(S35、S45)と、上記動作データ生成ステップで生成した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信ステップ(S36、S46)と、を含む。該構成によれば、上記態様1と同様の効果を奏する。
本発明の一態様に係る表示装置の制御方法は、表示面を備えた表示装置(1)の制御方法であって、上記表示面を動かすための、上記表示面に表示する映像に応じた動作データを、上記表示装置の動作を制御する制御装置(通信端末2)から取得する動作データ取得ステップ(S1、S24、S54、S91、S100、S110)と、上記表示面に上記映像が表示されているときに、上記動作データに従って上記表示面の動作機構を動作させて上記表示面を動かす動作制御ステップ(S3、S25、S55、S92、S106、S113)と、を含む。該構成によれば、上記態様5と同様の効果を奏する。
本発明の一態様に係る制御装置(通信端末2)の制御方法は、表示面を備えた表示装置(1)を制御する制御装置(表示装置1、通信端末2、サーバ210)であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを取得する動作データ取得ステップ(S12、S35、S45)と、上記動作データ取得ステップで取得した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信ステップ(S13、S36、S46、S81)と、を含む。該構成によれば、上記態様11と同様の効果を奏する。
本発明の一態様に係る制御装置は、上記の何れか1態様において、上記動作データ生成部は、上記映像に対する投稿に応じた動作データを生成してもよい。該構成によれば、投稿に応じた表示面の動きにより、投稿の状況をユーザに認識させることができるという効果を奏する。なお、「投稿に応じた」とは、投稿に関連する何らかの要素(例えば、投稿数、投稿内容、投稿者、投稿に基づいて表示された文字数等)に連動していることを指す。
本発明の一態様に係る制御装置は、上記の何れか1態様において、上記動作データ生成部は、上記映像の内容に応じた動作データを生成してもよい。該構成によれば、映像の内容に応じた表示面の動きにより、映像の内容をユーザに強く印象付けることができるという効果を奏する。
本発明の一態様に係る制御装置は、上記の何れか1態様において、上記動作データ生成部は、上記表示装置の周囲を撮影した撮影映像の内容に応じた動作データを生成してもよい。該構成によれば、上記表示装置の周囲の状況に応じた動きで表示面を動かすことができる。例えば、表示装置の周囲の人を追従するように表示面を動かしたり、人の多い方向に表示面を向けたりすることも可能である。
また、上記態様において、上記動作データ生成部は、上記撮影映像の内容に応じた映像を上記表示面に表示させると共に、上記撮影映像に応じた動作データを生成してもよい。これにより、ユーザは、撮影映像に応じた動きと共に、撮影映像に応じた映像を楽しむことができる。
本発明の態様12に係る表示装置(1)は、表示面と、上記表示面に映像を表示させる表示制御部(105)と、上記表示制御部が表示させる映像に応じて上記表示面を動かす動作制御部(107)と、を備えている。
上記の構成によれば、表示させる映像に応じて表示面を動かすので、映像に応じた動きによって映像に視覚効果を付与することができるという効果を奏する。なお、動きによって付与される視覚効果は、動きがあることによって生じる効果であればよく、特に限定されない。例えば、上記視覚効果としては、映像の内容に注目させる効果の他に、臨場感や立体感が生じる等の効果が挙げられる。
本発明の態様13に係る表示装置は、上記態様12において、上記動作制御部は、上記映像中の所定のオブジェクトの動きに応じて上記表示面を動かしてもよい。
上記の構成によれば、映像中のオブジェクトの動きに応じて表示面を動かすので、映像を観ている者に対して、映像中のオブジェクトの動きを強調して伝えることができるという効果を奏する。なお、所定のオブジェクトは、映像中の所定範囲を占めるものであればよい。例えば、映像中の人物の体全体であってもよいし、体の一部(頭や手、眼球の黒目部分等)であってもよい。また、所定のオブジェクトは人であってもよいし、他の動物であってもよく、物体(非生物)であってもよい。また、アニメーションのキャラクターのようにバーチャルなオブジェクトであってもよい。
本発明の態様14に係る表示装置は、上記態様12または13において、上記映像中の人物またはキャラクターの表情に応じて上記表示面を動かしてもよい。
上記の構成によれば、映像中の人物またはキャラクターの表情に応じて表示面を動かすので、映像を観ている者に対して、映像中の人物またはキャラクターの表情(あるいはその表情に応じた感情)を強調して伝えることができるという効果を奏する。例えば、映像中の人物が微笑んでいるときに、表示面をゆっくりと揺動させることにより、該人物の微笑んだ表情に注目させることができ、また、該人物の穏やかな喜びの感情を強調して伝えることができる。
本発明の態様15に係る表示装置は、上記態様12から14の何れか1態様において、上記動作制御部は、上記映像中の人物またはキャラクターの発話内容に応じて上記表示面を動かしてもよい。
上記の構成によれば、映像中の人物またはキャラクターの発話内容に応じて表示面を動かすので、映像を観ている者に対して、映像中の人物またはキャラクターの発話内容、またはその発話内容に応じた感情を強調して伝えることができるという効果を奏する。例えば、映像中の人物が驚いた旨の発話をしたときに、表示面を後ろ側に倒れ込むように動かすことにより、該人物の驚きの感情を強調して伝えることができる。
本発明の態様16に係る表示装置は、上記態様12から15の何れか1態様において、上記動作制御部は、上記映像を撮影したときの撮影装置または撮影者の動きを示す動作データを取得し、該動作データを用いて上記表示面を動かしてもよい。
上記の構成によれば、映像を撮影したときの撮影装置または撮影者の動きを示す動作データを用いて表示面を動かすので、映像を観ている者に対して、映像の撮影時の臨場感を伝えることができるという効果を奏する。なお、撮影者の動きを示す動作データを取得する場合、撮影者の頭部の動きを示す動作データを取得することで、撮影者が撮影を行っているときの臨場感をより正確に伝えることができるので好ましい。
本発明の態様17に係る表示装置は、上記態様12から16の何れか1態様において、上記動作制御部は、上記映像中の文字列の内容に応じて上記表示面を動かしてもよい。映像中の文字列は、映像の内容を示す情報の1つであるから、上記構成によれば、映像に応じた動きで表示面を動かすことができる。
本発明の態様18に係る表示装置は、上記態様12から17の何れか1態様において、上記動作制御部は、上記表示装置と直接または間接に通信接続している他の表示装置の表示面が動かされたときに、上記他の表示装置の上記表示面の動きと連動して、上記表示装置の上記表示面を動かしてもよい。
上記の構成によれば、上記表示装置と直接または間接に通信接続している他の表示装置の表示面が動かされたときに、その動きと連動して表示面を動かすので、表示面を動かすことによるコミュニケーションが可能になるという効果を奏する。特に、上記表示装置をテレビ電話のモニターとして使用する際には、音声での会話と映像に加えて、通話の相手方が動かした表示面の動きが、上記表示装置の動きとして反映されるので、臨場感を高める効果が期待できる。
本発明の態様19に係る表示装置は、上記態様12から18の何れか1態様において、上記動作制御部は、上記映像に対する投稿に応じて上記表示装置の上記表示面を動かしてもよい。該構成によれば、投稿に応じた表示面の動きにより、投稿の状況をユーザに認識させることができるという効果を奏する。なお、「投稿に応じて」とは、投稿に関連する何らかの要素(例えば、投稿数、投稿内容、投稿者、投稿に基づいて表示された文字数等)に連動していることを指す。
本発明の態様20に係る表示装置は、上記態様12から19の何れか1態様において、上記動作制御部は、上記映像の内容に応じて上記表示装置の上記表示面を動かしてもよい。該構成によれば、映像の内容に応じた表示面の動きにより、映像の内容をユーザに強く印象付けることができるという効果を奏する。
本発明の態様21に係る表示装置は、上記態様12から20の何れか1態様において、上記動作制御部は、上記表示装置の周囲を撮影した撮影映像の内容に応じて上記表示装置の上記表示面を動かしてもよい。該構成によれば、上記表示装置の周囲の状況に応じた動きで表示面を動かすことができる。例えば、表示装置の周囲の人を追従するように表示面を動かしたり、人の多い方向に表示面を向けたりすることも可能である。
また、本発明の態様22に係る表示装置は、上記態様21において、上記表示制御部は、上記撮影映像の内容に応じた映像を上記表示面に表示させ、上記動作制御部は、上記撮影映像に応じた動きで上記表示装置の上記表示面を動かしてもよい。これにより、ユーザは、撮影映像に応じた動きと共に、撮影映像に応じた映像を楽しむことができる。
本発明の態様23に係る表示装置は、上記態様12から22の何れか1態様において、上記表示面の動きを示す動作データを生成する生成装置(通信端末2)から上記動作データを取得する動作データ取得部(104)を備え、上記動作制御部は、該動作データを用いて上記表示面を動かしてもよい。該構成によれば、生成装置が生成した動作データに応じた動きで表示面を動かすことができる。また、表示装置自体が動作データを生成していない場合であっても、表示面を動かすことができる。
本発明の態様24に係る表示装置は、上記態様12から23の何れか1態様において、上記表示面の動きを示す動作データを配信する配信サーバから上記動作データを取得する動作データ取得部(104)を備え、上記動作制御部は、該動作データを用いて上記表示面を動かしてもよい。該構成によれば、配信サーバにアクセスすることにより、表示面を動かすことができる。また、表示装置自体が動作データを生成していない場合であっても、表示面を動かすことができる。
本発明の一態様に係る制御方法は、表示面に映像を表示させる表示装置が実行する制御方法であって、上記表示面に映像を表示させる表示制御ステップ(S4、S23、S53、S107、S112)と、上記表示制御ステップにて表示させる映像に応じて上記表示面を動かす動作制御ステップ(S3、S25、S55、S106、S113)と、を含む。該制御方法によれば、上記態様12と同様の効果を奏する。
本発明の各態様に係る表示装置および制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示装置または上記制御装置が備える各部(ソフトウェア要素)として動作させることにより上記表示装置または上記制御装置をコンピュータにて実現させる表示装置の制御プログラムまたは制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。