JP2019140530A - サーバ装置、表示装置、映像表示システム、及び映像表示方法 - Google Patents

サーバ装置、表示装置、映像表示システム、及び映像表示方法 Download PDF

Info

Publication number
JP2019140530A
JP2019140530A JP2018022276A JP2018022276A JP2019140530A JP 2019140530 A JP2019140530 A JP 2019140530A JP 2018022276 A JP2018022276 A JP 2018022276A JP 2018022276 A JP2018022276 A JP 2018022276A JP 2019140530 A JP2019140530 A JP 2019140530A
Authority
JP
Japan
Prior art keywords
video
display
server device
command
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018022276A
Other languages
English (en)
Inventor
典三 杉山
Norizo Sugiyama
典三 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018022276A priority Critical patent/JP2019140530A/ja
Publication of JP2019140530A publication Critical patent/JP2019140530A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】高解像度の映像を表示させ、かつ、ユーザ操作に応じて迅速かつ滑らかに各表示装置の表示位置を変更する。【解決手段】制御回路11は、複数の撮影映像によって表される範囲のうち、複数の表示装置3a〜3cによってそれぞれ表示される映像の範囲を示す表示位置を指定するコマンドを受信する。制御回路11は、コマンドがサーバ装置1に入力中でないとき、複数の撮影映像から、複数の表示装置3a〜3cの各表示位置にそれぞれ対応する複数の第1の切り出し映像を生成するように映像処理回路14を制御し、複数の第1の切り出し映像を、対応する複数の表示装置3a〜3cにそれぞれ配信するように通信回路15を制御する。制御回路11は、コマンドがサーバ装置1に入力中であるとき、複数の撮影映像から1つの連結映像を生成するように映像処理回路14を制御し、連結映像を複数の表示装置3a〜3cに配信するように通信回路15を制御する。【選択図】図1

Description

本開示は、サーバ装置から複数の表示装置に映像を配信して表示する映像表示システム及び映像表示方法に関する。本開示はまた、そのような映像表示システムのサーバ装置及び表示装置に関する。
近年、複数の撮像素子を備え、周囲の風景を全方位又は全天球にわたって撮影する全方向カメラが普及しつつある。全方向カメラは、例えば、仮想現実の分野において、現実の風景から仮想空間の映像(動画像)を生成するために使用される。
全方向カメラの複数の撮像素子によってそれぞれ生成された複数の撮影映像は、一般的には、何らかの地図投影法、例えば正距円筒図法を用いて、全方位又は全天球をカバーする1つの映像(連結映像)に合成される。この場合、全方向カメラによって撮影された映像を表示装置に表示するときは、連結映像から表示装置の表示範囲に対応する部分が切り出される。表示装置の表示位置及び表示範囲は、ユーザ操作に応じて変更される。
全方向カメラによって撮影された映像のうち、その全範囲を表示するために、又は、1つの表示装置の表示範囲を超える範囲を表示するために、複数の表示装置を含むマルチディスプレイシステムが使用されることがある。全方向カメラによって撮影された映像は、サーバ装置から複数の表示装置に配信される。例えば、特許文献1は、複数の表示装置を含む表示システムであって、全方向カメラにより撮影された映像、又は、ある一点を中心として放射方向に設置された複数の撮像装置を含むカメラシステムにより撮影された映像を表示する表示システムを開示している。
特開2006−294032号公報
全方向カメラによって撮影された映像を表示装置に表示する場合、前述のように、連結映像から表示装置の表示範囲に対応する部分が切り出されるので、切り出し映像の解像度が表示装置の画素数に比較して不十分になることがある。
一方、複数の撮像装置を含むカメラシステムにより撮影された映像を複数の表示装置に表示する場合、比較的に高解像度の映像を表示することができる。しかしながら、この場合、ユーザが各表示装置の表示位置を変更しようとするたびに、各表示装置の表示位置の変更をサーバ装置に通知し、変更された範囲を有する映像を生成するようにサーバ装置が各撮像装置の撮影映像を処理し、生成された映像をサーバ装置から各表示装置に配信する必要がある。ユーザが各表示装置の表示位置を連続的に変更しようとすると、これらの処理を頻繁に繰り返す必要がある。このように、ユーザ操作に応じて各表示装置の表示位置を変更するためには、サーバ装置及び各表示装置の間の通信と、サーバ装置による映像処理とが必要になるので、十分に迅速かつ滑らかに変更を反映することは困難である。
本開示の目的は、全方向カメラによって撮影された映像を複数の表示装置に配信して表示させるサーバ装置であって、高解像度の映像を表示させることができ、かつ、ユーザ操作に応じて迅速かつ滑らかに各表示装置の表示位置を変更することができるサーバ装置を提供することにある。
また、本開示の目的は、全方向カメラによって撮影されてサーバ装置から配信された映像を表示する表示装置であって、高解像度の映像を表示することができ、かつ、ユーザ操作に応じて迅速かつ滑らかに表示位置を変更することができる表示装置を提供することにある。
また、本開示の目的は、上述のようなサーバ装置及び複数の表示装置を含む映像表示システムと、上述のようにサーバ装置から複数の表示装置に映像を配信して表示する映像表示方法とを提供することにある。
本開示の一態様によれば、複数の表示装置に映像を配信するサーバ装置が提供される。サーバ装置は、複数の撮像素子によってそれぞれ生成された複数の撮影映像を処理する映像処理回路と、複数の表示装置に通信可能に接続された通信回路と、制御回路とを備える。制御回路は、複数の撮影映像によって表される範囲のうち、複数の表示装置によってそれぞれ表示される映像の範囲を示す表示位置を指定するコマンドを受信する。制御回路は、コマンドがサーバ装置に入力中でないとき、複数の撮影映像から、複数の表示装置の各表示位置にそれぞれ対応する複数の第1の切り出し映像を生成するように映像処理回路を制御し、複数の第1の切り出し映像を、対応する複数の表示装置にそれぞれ配信するように通信回路を制御する。制御回路は、コマンドがサーバ装置に入力中であるとき、複数の撮影映像から1つの連結映像を生成するように映像処理回路を制御し、連結映像を複数の表示装置に配信するように通信回路を制御する。
本開示によれば、高解像度の映像を表示させることができ、かつ、ユーザ操作に応じて迅速かつ滑らかに各表示装置の表示位置を変更することができるサーバ装置を提供することができる。
実施形態に係る映像表示システムの構成を示す図である。 図1のサーバ装置1の周囲の風景5を示す概略図である。 図1のサーバ装置1の構成を示すブロック図である。 図1の表示装置3の構成を示すブロック図である。 図1のコマンド入力装置4の構成を示すブロック図である。 図1の映像表示システムによって実行される処理を示すシーケンス図である。 図6の映像データ生成及び配信処理のサブルーチンを示すフローチャートである。 図6の映像データ受信及び表示処理のサブルーチンを示すフローチャートである。 図1のサーバ装置1によって管理される表示装置リストを示す図である。 図1の撮像素子13aによって生成される撮影映像101aを示す図である。 図1の撮像素子13bによって生成される撮影映像101bを示す図である。 図1の撮像素子13cによって生成される撮影映像101cを示す図である。 図1の撮像素子13dによって生成される撮影映像101dを示す図である。 図1のサーバ装置1によって生成される連結映像111を示す図である。 図1のサーバ装置1によって生成された第1の切り出し映像112の一例を示す図である。 図1のサーバ装置1によって生成された第1の切り出し映像113の他の例を示す図である。 図1の各表示装置3によって連結映像111から生成されたキューブマップ121を示す図である。 図17のキューブマップ121を撮影する仮想カメラ122を示す概略図である。 図1の各表示装置3によって連結映像111から生成された第2の切り出し映像123を示す図である。 図1の表示装置3a〜3cの表示位置がユーザ7の操作に応じて変化した後の状態を示す図である。 実施形態の変形例に係るコマンド入力装置4A及びリモートコントローラ8の構成を示すブロック図である。
以下、適宜図面を参照しながら、実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(実施形態)
以下、図面を参照して実施形態について説明する。
[1−1.構成]
[1−1−1.映像表示システムの全体構成]
図1は、実施形態に係る映像表示システムの構成を示す図である。図1の映像表示システムは、サーバ装置1、ハブ2、表示装置3a〜3c、及びコマンド入力装置4を備える。
サーバ装置1、表示装置3a〜3c、及びコマンド入力装置4は、ハブ2を含むローカルエリアネットワークなどの有線のネットワークを介して互いに接続される。
サーバ装置1は、例えば、床面に平行な面内において90度ずつ異なる方向に向かって配置された、複数の撮像素子13a〜13dを備える。撮像素子13aはθ1=0度の方向に向かって配置され、撮像素子13bはθ1=90度の方向に向かって配置され、撮像素子13dはθ1=270度の方向に向かって配置され、撮像素子13dはθ1=180度の方向に向かって配置される。撮像素子13a〜13dには、魚眼タイプのレンズ12a〜12dにより集光された光がそれぞれ入射する。これにより、撮像素子13a〜13dは、サーバ装置1の周囲の風景5を全方位又は全天球にわたって撮影する全方向カメラとして機能する。サーバ装置1は、撮像素子13a〜13dによって撮影して処理した映像を、ハブ2を介して複数の表示装置3a〜3cに配信する。
図2は、図1のサーバ装置1の周囲の風景5を示す概略図である。風景5は、屋外であっても屋内であってもよい。サーバ装置1に対して+Y側、+X側、−X側、−Y側、+Z側、及び−Z側に見える風景の像を、元像5a〜5fとしてそれぞれ概略的に示す。図1の撮像素子13a〜13dは、それらの視野の中心において、図2の+Y側、+X側、−X側、及び−Y側の元像5a〜5dをそれぞれ撮影するように配置される。また、撮像素子13a〜13dは、+Z側及び−Z側の元像5e及び5dのうちの少なくとも一部をそれぞれ撮影してもよい。
再び図1を参照すると、表示装置3a〜3cは、サーバ装置1から配信された映像をスクリーン6a〜6cにそれぞれ投写して表示する。スクリーン6aは、視聴のための基準位置(図1においてユーザ7が立っている位置)に対してθ2=0度の方向に配置され、スクリーン6bは基準位置に対してθ2=90度の方向に配置され、スクリーン6cは基準位置に対してθ2=270度の方向に配置される。表示装置3a〜3cは、一体の映像(撮像素子13a〜13dによって撮影された全方位又は全天球の映像)から空間的に分割された3つの映像をスクリーン6a〜6cにそれぞれ表示するマルチディスプレイシステムを構成する。図1の例は、表示装置3a〜3cが、図2の+Y側、+X側、及び−X側の元像5a〜5cに対応する表示映像131a〜131cをそれぞれ表示する場合を示す。
本明細書では、表示装置3a〜3cを総称して「表示装置3」ともいい、スクリーン6a〜6cを総称して「スクリーン6」ともいう。
コマンド入力装置4は、ユーザ7からコマンドを取得し、ハブ2を介してコマンドをサーバ装置1及び表示装置3a〜3cに送信する。コマンドは、表示装置3a〜3cによってそれぞれ表示される映像の範囲を示す表示位置を指定又は変更することを含む。また、コマンドは、映像の配信及び表示の一時停止及び停止、映像表示システムの電源オフ、などを含んでもよい。コマンド入力装置4は、後述するように、ユーザのジェスチャーを撮影して認識する距離画像検出器を備え、ジェスチャーに基づいてコマンドを生成する。
[1−1−2.サーバ装置1の構成]
図3は、図1のサーバ装置1の構成を示すブロック図である。サーバ装置1は、制御回路11、レンズ12a〜12d、撮像素子13a〜13d、映像処理回路14、通信回路15、及び記憶装置16を備える。
制御回路11は、サーバ装置1の全体の動作を制御する。レンズ12a〜12dは、サーバ装置1の周囲の風景5からの光を集光して撮像素子13a〜13dにそれぞれ入射させる。撮像素子13a〜13dは、レンズ12a〜12dを介して入射した光を電気信号にそれぞれ変換して、撮像素子13a〜13dにそれぞれ対応する4つの撮影映像を生成する。映像処理回路14は、撮像素子13a〜13dによってそれぞれ生成された4つの撮影映像を、制御回路11の制御下で処理する。通信回路15は、ハブ2を含むネットワークを介して、各表示装置3及びコマンド入力装置4に通信可能に接続される。記憶装置16は、サーバ装置1の動作のために必要な情報、例えば、各表示装置3から受信した表示装置情報に基づいて生成された表示装置リスト、コマンド入力装置4から受信したユーザ操作を示すコマンド(いずれも後述)、などを記憶する。
制御回路11は、ネットワーク設定器11a、時刻同期器11b、表示装置リスト生成器11c、コマンド処理器11d、表示位置計算器11e、映像データ生成器11f、及び配信データ生成器11gを備える。
ネットワーク設定器11aは、通信回路15を用いて、サーバ装置1のネットワーク接続の初期設定、例えばIPアドレスの設定を行う。
時刻同期器11bは、サーバ装置1の内蔵時計を備え、さらに、通信回路15を介して、内蔵時計の時刻を各表示装置3の内蔵時計の時刻と同期させる。サーバ装置1及び各表示装置3は、例えばIEEE1588の時刻同期プロトコルに従って動作し、サーバ装置1が時刻同期マスタとして動作する。
表示装置リスト生成器11cは、通信回路15を介して、各表示装置3からそれらの表示装置情報を受信し、受信された表示装置情報に基づいて表示装置リストを生成する。表示装置情報は、各表示装置3のIPアドレスと、物理的な配置を示す配置情報とを含む。図1の例では、配置情報は、各表示装置3自体の物理的な配置に代えて、各スクリーン6の物理的な配置を示す。表示装置リスト生成器11cは、生成された表示装置リストを記憶装置16に記憶し、記憶した表示装置リストを記憶装置16から読み出す。
コマンド処理器11dは、通信回路15を介して、ユーザ操作を示すコマンドをコマンド入力装置4から受信し、受信したコマンドを解釈して実行する。コマンドは、撮像素子13a〜13dによってそれぞれ生成された4つの撮影映像によって表される範囲のうち、前述のように、各表示装置3によってそれぞれ表示される映像の範囲を示す表示位置を指定又は変更することを含む。ただし、コマンドは、「現在表示している映像を撮影した撮像素子の右に隣接する撮像素子によって撮影した映像に切り換える」、「各表示装置3の上方から見て映像を時計回りにθ2度回転させる」など、各表示装置3の大まかな表示位置(又はその変更量)を指定する。コマンド処理器11dは、受信したコマンドを記憶装置16に記憶し、記憶したコマンドを記憶装置16から読み出す。コマンド処理器11dは、さらに、サーバ装置1にコマンドが入力中であるか否かを判断する。コマンド処理器11dは、例えば、コマンドが通信回路15に到来しているとき、又は、現時点から予め決められた時間長だけ先行する時点以後に受信されたコマンドが記憶装置16に記憶されているとき、サーバ装置1にコマンドが入力中であると判断する。コマンド処理器11dがコマンドを解釈して実行することにより、後述の表示位置計算器11e、映像データ生成器11f、及び配信データ生成器11gは、コマンドの内容(すなわち、各表示装置3の大まかな表示位置)に従って、また、サーバ装置1にコマンドが入力中であるか否かに従って動作する。
表示位置計算器11eは、表示装置リスト生成器11cによって生成された表示装置リストと、コマンド処理器11dによって取得された各表示装置3の大まかな表示位置とに基づいて、各表示装置3によって表示すべき映像の詳細な表示位置を計算する。ここで、映像の詳細な表示位置は、例えば、各表示装置3の各画素の座標などによって表される。表示位置計算器11eは、生成された詳細な表示位置を記憶装置16に記憶し、記憶した詳細な表示位置を記憶装置16から読み出す。
表示装置リスト生成器11cによって生成された表示装置リストが、表示装置リスト生成器11cから表示位置計算器11eに直接にわたされてもよい。また、表示装置リスト生成器11cによって記憶装置16にいったん記憶されて読み出された表示装置リストが、表示装置リスト生成器11cから表示位置計算器11eにわたされてもよい。さらに、コマンド処理器11dによって受信されたコマンドの内容(すなわち、各表示装置3の大まかな表示位置)が、コマンド処理器11dから表示位置計算器11eに直接にわたされてもよい。また、コマンド処理器11dによって記憶装置16にいったん記憶されて読み出されたコマンドの内容が、コマンド処理器11dから表示位置計算器11eにわたされてもよい。
映像データ生成器11fは、コマンド処理器11dによって取得されたコマンドと、表示位置計算器11eによって計算された各表示装置3の表示位置とに基づいて、映像処理回路14を制御し、撮像素子13a〜13dによってそれぞれ生成された4つの撮影映像を処理させる。コマンドがサーバ装置1に入力中でないとコマンド処理器11dが判断したとき、映像処理回路14は、映像データ生成器11fの制御下で、4つの撮影映像から、表示装置3a〜3cの各表示位置にそれぞれ対応する3つの第1の切り出し映像を生成する。また、コマンドがサーバ装置1に入力中であるとコマンド処理器11dが判断したとき、映像処理回路14は、映像データ生成器11fの制御下で、4つの撮影映像から1つの連結映像を生成する。
配信データ生成器11gは、映像処理回路14によって生成された連結映像又は第1の切り出し映像にタイムスタンプを付加し、通信回路15を介して各表示装置3に配信する。配信データ生成器11gは、連結映像及び第1の切り出し映像を互いに異なる種類のパケットとして各表示装置3に配信してもよい。例えば、コマンドがサーバ装置1に入力中でないとコマンド処理器11dが判断したとき、配信データ生成器11gは、各表示装置3の表示位置にそれぞれ対応する3つの第1の切り出し映像を、ユニキャストパケットとして、対応する各表示装置3に配信してもよい。また、コマンドがサーバ装置1に入力中であるとコマンド処理器11dが判断したとき、配信データ生成器11gは、連結映像をマルチキャストパケットとして各表示装置3に配信してもよい。
サーバ装置1の制御回路11の内部の各回路部分11a〜11gは、ハードウェアとして構成されても、ソフトウェアとして構成されてもよい。
[1−1−3.表示装置3の構成]
図4は、図1の各表示装置3の構成を示すブロック図である。各表示装置3は、制御回路31、入力装置32、通信回路33、映像処理回路34、映像形成装置35、及び記憶装置36をそれぞれ備える。
制御回路31は、サーバ装置1の全体の動作を制御する。入力装置32は、ユーザ入力を受けるキーボード又はボタンなどを含み、表示装置3の物理的な配置を示す配置情報(後述)を設定するために使用される。通信回路33は、ハブ2を含むネットワークを介して、サーバ装置1及びコマンド入力装置4に通信可能に接続される。映像処理回路34は、通信回路33によりサーバ装置1から受信された連結映像及び第1の切り出し映像を制御回路31の制御下で処理する。映像形成装置35は、映像処理回路34によって処理された映像をスクリーン6に投写することにより視覚可能な形式で出力する。記憶装置36は、表示装置3の動作のために必要な情報、例えば、表示装置3の配置情報、コマンド入力装置4から受信したユーザ操作を示すコマンド、などを記憶する。
制御回路31は、ネットワーク設定器31a、時刻同期器31b、配置情報設定器31c、表示装置情報生成器31d、コマンド処理器31e、表示位置計算器31f、及び表示データ生成器31gを備える。
ネットワーク設定器31aは、通信回路33を用いて、表示装置3のネットワーク接続の初期設定、例えばIPアドレスの設定を行う。
時刻同期器31bは、表示装置3の内蔵時計を備え、さらに、通信回路33を介して、内蔵時計の時刻をサーバ装置1の内蔵時計の時刻と同期させる。サーバ装置1及び各表示装置3は、前述のように、例えばIEEE1588の時刻同期プロトコルに従って動作し、各表示装置3が時刻同期スレーブとして動作する。
配置情報設定器31cは、入力装置32を介して取得したユーザ入力に基づいて、表示装置3の配置情報を設定する。配置情報設定器31cは、設定した配置情報を記憶装置36に記憶し、記憶した配置情報を記憶装置36から読み出す。
表示装置情報生成器31dは、配置情報設定器31cによって設定された配置情報に表示装置3のIPアドレスを付加することにより、表示装置3の表示装置情報を生成する。表示装置情報生成器31dは、通信回路33を介して表示装置情報をサーバ装置1に送信する。表示装置情報生成器31dは、生成した表示装置情報を記憶装置36に記憶し、記憶した表示装置情報を記憶装置36から読み出す。
コマンド処理器31eは、通信回路33を介して、サーバ装置1が受信したものと同じコマンドをコマンド入力装置4から受信し、受信したコマンドを解釈して実行する。コマンド処理器31eは、受信したコマンドを記憶装置36に記憶し、記憶したコマンドを記憶装置36から読み出す。コマンド処理器31eがコマンドを解釈して実行することにより、後述の表示位置計算器31f及び表示データ生成器31gは、コマンドの内容(すなわち、表示装置3の大まかな表示位置)に従って、また、サーバ装置1から第1の切り出し映像を受信したか、それとも連結映像を受信したかに従って動作する。
表示位置計算器31fは、配置情報設定器31cによって生成された配置情報と、コマンド処理器31eによって取得された表示装置3の大まかな表示位置とに基づいて、表示装置3によって表示すべき映像の詳細な表示位置を計算する。
配置情報設定器31cによって設定された配置情報が、配置情報設定器31cから表示位置計算器31fに直接にわたされてもよい。また、配置情報設定器31cによって記憶装置36にいったん記憶されて読み出された配置情報が、配置情報設定器31cから表示位置計算器31fにわたされてもよい。さらに、コマンド処理器31eによって受信されたコマンドの内容(すなわち、表示装置3の大まかな表示位置)が、コマンド処理器31eから表示位置計算器31fに直接にわたされてもよい。また、コマンド処理器31eによって記憶装置36にいったん記憶されて読み出されたコマンドの内容が、コマンド処理器31eから表示位置計算器31fにわたされてもよい。
表示データ生成器31gは、通信回路33を介してサーバ装置1から第1の切り出し映像又は連結映像を受信する。表示データ生成器31gは、さらに、サーバ装置1から第1の切り出し映像を受信したか、それとも連結映像を受信したかに基づいて、かつ、表示位置計算器31fによって計算された表示装置3の表示位置に基づいて、映像処理回路34を制御し、受信した映像を処理させる。サーバ装置1から第1の切り出し映像を受信したとき、映像処理回路34は、第1の切り出し映像をそのまま画像形成装置35に送る。また、サーバ装置1から連結映像を受信したとき、映像処理回路34は、表示データ生成器31gの制御下で、連結映像から、表示装置3の表示位置に対応する第2の切り出し映像を生成し、第2の切り出し映像を画像形成装置35に送る。表示データ生成器31gは、サーバ装置1から受信したパケットの種類に基づいて、サーバ装置1から第1の切り出し映像を受信したか、それとも連結映像を受信したかを決定してもよい。例えば、サーバ装置1からユニキャストパケットを受信したとき、表示データ生成器31gは、サーバ装置1から第1の切り出し映像を受信したと決定してもよい。例えば、サーバ装置1からマルチキャストパケットを受信したとき、表示データ生成器31gは、サーバ装置1から連結映像を受信したと決定してもよい。表示データ生成器31gは、さらに、サーバ装置1から受信した第1の切り出し映像又は連結映像に付加されたタイムスタンプに基づいて決定される時刻において、第1の切り出し映像又は第2の切り出し映像を映像形成装置35から視覚可能な形式で出力させる。
各表示装置3の制御回路31の内部の各回路部分31a〜31gは、ハードウェアとして構成されても、ソフトウェアとして構成されてもよい。
[1−1−4.コマンド入力装置4の構成]
図5は、図1のコマンド入力装置4の構成を示すブロック図である。コマンド入力装置4は、制御回路41、赤外線発光器42、レンズ43、撮像素子44、映像処理回路45、及び通信回路46を備える。
制御回路41は、コマンド入力装置4の全体の動作を制御する。赤外線発光器42は、赤外線を発生して図1のユーザ7の身体に照射する。レンズ43は、赤外線発光器42からユーザ7の身体に照射されて反射された光を集光して撮像素子44に入射させる。撮像素子44は、レンズ43を介して入射した光を電気信号に変換して赤外線映像を生成する。映像処理回路45は、制御回路41の制御下で、撮像素子44によって生成された赤外線映像を距離画像として処理し、赤外線映像からユーザ7のジェスチャーを認識する。通信回路46は、ハブ2を含むネットワークを介して、サーバ装置1及び各表示装置3に通信可能に接続される。
制御回路41は、ネットワーク設定器41a、距離画像生成器41b、画像認識器41c、移動量計算器41d、及びコマンド生成器41eを備える。
ネットワーク設定器41aは、通信回路46を用いて、コマンド入力装置4のネットワーク接続の初期設定、例えばIPアドレスの設定を行う。
距離画像生成器41bは、赤外線発光器42から所定のパターンの赤外線を発生させ、撮像素子44によって生成された赤外線映像を、距離画像として映像処理回路45に取得させる。
画像認識器41cは、映像処理回路45に赤外線映像を距離画像として処理させることにより、赤外線映像からユーザ7のジェスチャーを認識する。ユーザ7のジェスチャーは、例えば、各表示装置3の表示位置を左又は右に移動させるために、手を左右に動かすことを含む。ユーザ7のジェスチャーは、ユーザ7が映像表示システムを操作中であることを示す状態と、ユーザ7が映像表示システムを操作中でないことを示す状態とを含む。ここで、例えば、ユーザ7が手を上げている状態を「操作中である」と定義し、ユーザ7が手を下ろしている状態を「操作中でない」と定義する。
移動量計算器41dは、画像認識器41cにより認識されたジェスチャーに基づいて、各表示装置3の現在の表示位置から、ユーザ7によって所望される各表示装置3の新たな表示位置までの移動量(例えば角度変化量)を計算する。
コマンド生成器41eは、移動量計算器41dにより計算された移動量に基づいてコマンドを生成し、生成したコマンドを、通信回路46を介してサーバ装置1及び各表示装置3に送信する。また、ユーザ7が映像表示システムを操作中であるとき、コマンド生成器41eは、操作中であることを示すコマンドを生成し、通信回路46を介してサーバ装置1及び各表示装置3に送信する。これにより、ユーザ7が映像表示システムを操作中であるとき、サーバ装置1及び各表示装置3にはコマンドが入力中になり、一方、ユーザ7が映像表示システムを操作中でないとき、サーバ装置1及び各表示装置3にはコマンドが入力中ではなくなる。
これにより、コマンド入力装置4は、ユーザ7のジェスチャーを撮影して認識する距離画像検出器として動作し、ジェスチャーに基づいてコマンドを生成する。
コマンド入力装置4の制御回路41の内部の各回路部分41a〜41eは、ハードウェアとして構成されても、ソフトウェアとして構成されてもよい。
[1−2.動作]
図6は、図1の映像表示システムによって実行される処理を示すシーケンス図である。
図6のステップS1〜S5において、サーバ装置1、表示装置3a〜3c、及びコマンド入力装置4は、起動後、ネットワークの初期設定を行い、それらのIPアドレスを設定する。
次にステップS6において、サーバ装置1は時刻同期マスタとして起動する。一方、ステップS7〜S9において、表示装置3a〜3cは時刻同期スレーブとしてそれぞれ起動する。次にステップS10〜S13において、サーバ装置1及び表示装置3a〜3cは、例えばIEEE1588の時刻同期プロトコルに従って時刻同期処理を行い、表示装置3a〜3cの時刻はサーバ装置1の時刻と同期する。
次にステップS14〜S16において、表示装置3a〜3cに現在の配置情報を設定する。図1の例では、表示装置3aが中央に配置され(θ2=0度)、表示装置3bが表示装置3aの右側90度の位置に配置され(θ2=90度)、表示装置3cが表示装置3aの左90度の位置に配置される(θ2=270度)。各表示装置3a〜3cは、入力装置32を介して配置情報のユーザ入力を取得してもよく、予め取得された配置情報を記憶装置36から読み出してもよい。
次にステップS17〜S19において、表示装置3a〜3cは、それぞれのIPアドレス及び配置情報のペアを表示装置情報としてサーバ装置1に送信する。次にステップS20において、サーバ装置1は、表示装置3a〜3cから送信された表示装置情報を受信する。次にステップS21において、サーバ装置1は、受信した表示装置情報から表示装置リストを生成する。
図9は、図1のサーバ装置1によって管理される表示装置リストを示す図である。表示装置リストは、前述のように、各表示装置3a〜3cの表示装置情報、すなわち、IPアドレス及び配置情報を含む。
再び図6を参照し、ステップS22において、コマンド入力装置4は、ユーザ7のジェスチャーを撮影して認識し、認識したジェスチャーに基づいてコマンドを生成し、生成したコマンドをサーバ装置1及び表示装置3a〜3cに送信する。次にステップS23〜26において、サーバ装置1及び表示装置3a〜3cは、コマンド入力装置4から送信されたコマンドを受信する。
次にステップS27において、サーバ装置1は、映像データ生成及び配信処理を実行する。
図7は、図6の映像データ生成及び配信処理のサブルーチンを示すフローチャートである。
図7のステップS41において、サーバ装置1は、コマンド入力装置4から送信されたコマンドがサーバ装置1に入力中か否かを判断し、YESのときはステップS42に進み、NOのときはステップS45に進む。
ステップS42において、サーバ装置1は、サーバ装置1の撮像素子13a〜13dによってそれぞれ生成された撮影映像から連結映像を生成する。
図10は、図1の撮像素子13aによって生成される撮影映像101aを示す図である。図11は、図1の撮像素子13bによって生成される撮影映像101bを示す図である。図12は、図1の撮像素子13cによって生成される撮影映像101cを示す図である。図13は、図1の撮像素子13dによって生成される撮影映像101dを示す図である。前述のように、図1の撮像素子13a〜13dは、それらの視野の中心において、図2の+Y側、+X側、−X側、及び−Y側の元像5a〜5dをそれぞれ撮影する。レンズ12a〜12dは魚眼タイプであり、図10〜図13の例では、90度より大きく、180度よりも小さな視野角を有する。撮影映像101a〜101dは、例えば、画素数d1×d2=3744×3744を有する。
図14は、図1のサーバ装置1によって生成される連結映像111を示す図である。図14に示すように、撮影映像101a〜101dは互いに連結され、連結映像111が生成される。連結映像111は、例えば正距円筒図法を用いて、撮影映像101a〜101dから生成される。撮像素子13a〜13dから見た各点(すなわち、撮影映像101a〜101dにおける各点)の方位角及び仰角は、連結映像111における経度及び緯度に対応する。図10〜図13の撮影映像101a〜101dは、図2の+Z側及び−Z側の元像5e,5fの一部をそれぞれ含んでいる。しかしながら、図1の例では、ユーザ7に対して上方向及び下方向に投写する表示装置及びスクリーンが設けられていないので、図14に示すように、連結映像111において、元像5e,5fに対応する部分を除去してもよい。連結映像111は、例えば、画素数d3×d4=1920×3840を有する。
再び図7を参照し、次にステップS43において、サーバ装置1は、連結映像にタイムスタンプを付加する。次にステップS44において、サーバ装置1は、タイムスタンプが付加された連結映像をマルチキャストパケットとして各表示装置3に配信する。その後、処理はステップS41に戻る。
ステップS45において、サーバ装置1は、パラメータiを0に初期化する。パラメータiは表示装置リストにおける各表示装置3をそれぞれ示し、i=0〜2は表示装置3a〜3cにそれぞれ対応する。
次にステップS46において、サーバ装置1は、表示装置リストに基づいてi番目の表示装置3の配置情報を取得する。次にステップS47において、サーバ装置1は、コマンド入力装置4から受信したコマンドから、各表示装置3の表示位置の移動量を取得する。次にステップS48において、サーバ装置1は、各表示装置3の配置情報及び移動量に基づいて、ユーザ7によって所望される各表示装置3の新たな表示位置を計算する。
次にステップS49において、サーバ装置1は、i番目の表示装置3の新たな表示位置に対応する撮像素子の撮影映像から、第1の切り出し映像を生成する。
図15は、図1のサーバ装置1によって生成された第1の切り出し映像112の一例を示す図である。図15の例は、表示装置3のうちの1つにより、図2の+Y側の元像5aを表示する場合を示す。第1の切り出し映像112は、図10の撮影映像101aから視野の周辺部分をトリミングし、また、魚眼タイプのレンズに起因する像の湾曲を補正することにより生成される。各表示装置3により図2の元像5b〜5dを表示する場合も同様に、第1の切り出し映像が生成される。
図16は、図1のサーバ装置1によって生成された第1の切り出し映像113の他の例を示す図である。各表示装置3の表示位置は、図2の元像5a〜5dのうちの1つに対応する範囲に限定されず、互いに隣接する2つの元像(例えば元像5a〜5b)にまたがる範囲を含むように、連続的に変化してもよい。図16の第1の切り出し映像113は、図10及び図11の撮影映像101a,101bを互いに連結し、表示位置の範囲外をトリミングし、また、魚眼タイプのレンズに起因する像の湾曲を補正することにより生成される。
第1の切り出し映像112,113は、例えば、画素数d5×d6=1872×1872を有する。
再び図7を参照し、次にステップS50において、サーバ装置1は、第1の切り出し映像にタイムスタンプを付加する。次にステップS51において、サーバ装置1は、タイムスタンプが付加された第1の切り出し映像を、i番目の表示装置3のIPアドレスに宛ててユニキャストパケットとして配信する。
次にステップS52において、サーバ装置1は、パラメータiを1だけインクリメントする。次にステップS53において、サーバ装置1は、表示装置リストに含まれるすべての表示装置3に対して第1の切り出し映像の配信が完了したか否かを判断し、YESのときはステップS41に戻り、NOのときはステップS46に戻る。図1の例において、ステップS53の上限値Nは3である。すべての表示装置3に対して第1の切り出し映像の配信が完了するまで、サーバ装置1は、ステップS46〜52を繰り返し実行する。
図7の例では、ステップS46〜51を直列に実行するものとして説明したが、スレッド化などによりステップS46〜51を並列に実行してもよい。
このように、図7の映像データ生成及び配信処理によれば、サーバ装置1は、コマンド入力装置4から受信したコマンドに基づいて、連結映像又は第1の切り出し映像を生成し、タイムスタンプを付加して、マルチキャストパケットもしくはユニキャストパケットとして各表示装置3に配信する。
再び図6を参照し、次にステップS28〜S30において、表示装置3a〜3cは、映像データ受信及び表示処理を実行する。
図8は、図6の映像データ受信及び表示処理のサブルーチンを示すフローチャートである。
図8のステップS61において、表示装置3は、サーバ装置1から第1の切り出し映像を受信したか、それとも連結映像を受信したかを判断し、前者の場合はステップS67に進み、後者の場合はステップS62に進む。表示装置3は、前述のように、サーバ装置1からユニキャストパケットを受信したとき、サーバ装置1から第1の切り出し映像を受信したと決定し、サーバ装置1からマルチキャストパケットを受信したとき、サーバ装置1から連結映像を受信したと決定してもよい。
サーバ装置1から連結映像を受信した場合、ステップS62において、表示装置3は、表示装置3自体の配置情報を取得する。次にステップS63において、表示装置3は、コマンド入力装置4から受信したコマンドから、表示装置3の表示位置の移動量を取得する。次にステップS64において、表示装置3は、表示装置3a〜3cの配置情報及び移動量に基づいて、ユーザ7によって所望される表示装置3の新たな表示位置を計算する。
次にステップS65において、表示装置3は、連結映像の各点の経度及び緯度情報に基づいて、連結映像を立方体にマッピングする。
図17は、図1の各表示装置3によって連結映像111から生成されたキューブマップ121を示す図である。図17の角度θ3は図1の角度θ2に対応する。図17のキューブマップ121において、水平面に対して垂直な4つの面は、表示装置3a〜3cの表示範囲と、スクリーン6bの右側かつスクリーン6cの左側に仮想的に隣接する表示範囲とにそれぞれ対応する。図17の例は、表示装置3aが図2の元像5aに対応する範囲を表示し、表示装置3bが図2の元像5bに対応する範囲を表示し、表示装置3cが図2の元像5aに対応する範囲を表示する場合を示す。
再び図8を参照し、次にステップS66において、表示装置3は、連結映像をマッピングした立方体において、立方体の内部から外部に向かって、新たな表示位置に対応する範囲を仮想的に撮影して第2の切り出し映像を生成する。
図18は、図17のキューブマップ121を撮影する仮想カメラ122を示す概略図である。図19は、図1の各表示装置3によって連結映像111から生成された第2の切り出し映像123を示す図である。図18及び図19の例では、表示位置は、図2の元像5aに対応する範囲を示す。このとき、仮想カメラ122は、元像5aに対応する範囲を仮想的に撮影し、これにより、第2の切り出し映像123が生成される。第2の切り出し映像123は、例えば、画素数d7×d8=960×960を有する。
再び図8を参照し、ステップS66の後、ステップS67において、表示装置3は、第2の切り出し映像123をタイムスタンプに従って表示する。
また、サーバ装置1から第1の切り出し映像を受信した場合、ステップS67において、表示装置3は、サーバ装置1から受信した第1の切り出し映像をそのまま、タイムスタンプに従って表示する。
このように、図8の映像データ受信及び表示によれば、各表示装置3は、サーバ装置1から配信された第1の切り出し映像又は連結映像を受信し、受信したパケットの種類に従って、連結映像から第2の切り出し映像を生成して表示するか、もしくは、受信した第1の切り出し映像をそのままタイムスタンプに従って表示する。
図20は、図1の表示装置3a〜3cの表示位置がユーザ7の操作に応じて変化した後の状態を示す図である。図20の例では、表示装置3a〜3cの表示位置が、図1の状態から、「現在表示している映像を撮影した撮像素子の右に隣接する撮像素子によって撮影した映像に切り換える」ように変化している。その結果、表示装置3a〜3cは、図2の+X側、−Y側、及び+Y側の元像5b,5d,5aに対応する表示映像131b,131d,131aをそれぞれ表示している。
次に、いくつかの例示的な状況を参照して、図1の映像表示システムの動作を説明する。
第1の例示的な状況として、映像表示システムの起動時、すなわち、ユーザ7がまだ操作していないときの映像表示システムの動作を説明する。
まず、サーバ装置1は、サーバ装置1の撮像素子13a〜13dによってそれぞれ生成された撮影映像から連結映像を生成する。次いで、サーバ装置1は、連結映像にタイムスタンプを付加し、各表示装置3にマルチキャストパケットとして配信する。
各表示装置3は、連結映像を受信し、連結映像からキューブマップを生成する。各表示装置3は、生成したキューブマップにおいて、各表示装置3の表示位置に対応する範囲を仮想的に撮影して第2の切り出し映像を生成する。ここで、各表示装置3の表示位置は、その配置情報によって決まる初期値を有する。従って、各表示装置3a〜3cの表示位置の初期値は、それぞれ、図17のθ3=0度、90度、及び270度の方向に見えるキューブマップ121の各面を含む範囲である。各表示装置3は、生成した第2の切り出し映像を、対応するスクリーン6に投写する。
次に、第2の例示的な状況として、ユーザ7が操作中であるときの映像表示システムの動作を説明する。
コマンド入力装置4は、例えば、ユーザ7が腕を左方向に振ったときにユーザ7の操作を検出し、「各表示装置3の上方から見て映像を反時計回りに90度回転させる」ことを指示するコマンドを生成する。コマンド入力装置4は、このコマンドをサーバ装置1及び各表示装置3に送信する。
サーバ装置1は、ユーザ7が操作中であるとき(すなわち、コマンドが入力中であるとき)、サーバ装置1の撮像素子13a〜13dによってそれぞれ生成された撮影映像から連結映像を生成する。次いで、サーバ装置1は、連結映像にタイムスタンプを付加し、各表示装置3にマルチキャストパケットとして配信する。
各表示装置3は、連結映像を受信し、連結映像からキューブマップを生成する。各表示装置3は、生成したキューブマップにおいて、各表示装置3の表示位置に対応する範囲を仮想的に撮影して第2の切り出し映像を生成する。各表示装置3a〜3cの表示位置は、それぞれ、初期値に90度を加算し、図17のθ3=90度、180度、及び0度の方向に見えるキューブマップ121の各面を含む範囲である。各表示装置3は、生成した第2の切り出し映像を、対応するスクリーン6に投写する。
次に、第3の例示的な状況として、ユーザ7が操作を完了した後の映像表示システムの動作を説明する。
ユーザ7が操作を完了すると、コマンド入力装置4によるコマンドの生成及び送信は停止される。
サーバ装置1は、ユーザの操作が完了したとき(すなわち、コマンドが入力中でないとき)、サーバ装置1の撮像素子13a〜13dによってそれぞれ生成された撮影映像から、表示装置3a〜3cの表示位置にそれぞれ対応する第1の切り出し映像を生成する。各表示装置3a〜3cの表示位置に対応する第1の切り出し映像は、ユーザ7が操作中であるときに各表示装置3a〜3cに表示された第2の切り出し映像の範囲に対応する範囲を有する。従って、各表示装置3a〜3cの表示位置に対応する第1の切り出し映像は、図2の+X側の元像5b(θ1=90度)、−Y側の元像5d(θ1=180度)、及び+Y側の元像5a(θ1=0度)をそれぞれ含むように生成される。サーバ装置1は、第1の切り出し映像にタイムスタンプを付加し、各表示装置3にユニキャストパケットとしてそれぞれ配信する。
各表示装置3は、第1の切り出し映像を受信し、そのまま、対応するスクリーン6に投写する。
以上説明したように、実施形態に係る映像表示システムによれば、ユーザが操作中でないとき、サーバ装置1から各表示装置3に第1の切り出し映像を配信し、ユーザが操作中であるとき、サーバ装置1から各表示装置3に連結映像を配信する。各表示装置3は、第1の切り出し映像を受信したときは、そのまま視覚化な形式で出力し、連結映像を受信したときは、連結映像から第2の切り出し映像を生成し、第2の切り出し映像を視覚化な形式で出力する。連結映像から第2の切り出し映像を生成すると、第2の切り出し映像の解像度は低下し(例えば、960×960画素)、各表示装置3の画素数に比較して不十分になることがある。一方、第1の切り出し映像は、元の解像度(例えば、3744×3744画素)を有する撮影映像から直接に生成されるので、比較的に容易に、高解像度で、例えば第2の切り出し映像の解像度よりも高い解像度で生成することができる(例えば、1872×1872画素)。このように、ユーザが操作中でないとき、サーバ装置1から各表示装置3に第1の切り出し映像を配信し、第1の切り出し映像を各表示装置3からそのまま視覚化な形式で出力することにより、高解像度の映像を表示させることができる。
また、実施形態に係る映像表示システムによれば、ユーザが操作中であるとき、サーバ装置1から各表示装置3に連結映像を配信するので、各表示装置3は、連結映像から、任意の表示位置に対応する第2の切り出し映像を生成することができる。言い換えると、ユーザ操作に応じて迅速かつ滑らかに各表示装置3の表示位置を変更することができる。
このように、実施形態に係る映像表示システムによれば、高解像度の映像を表示させることができ、かつ、ユーザ操作に応じて迅速かつ滑らかに各表示装置の表示位置を変更することができる映像表示システムを提供することができる。
[1−3.変形例]
図21は、実施形態の変形例に係るコマンド入力装置4A及びリモートコントローラ8の構成を示すブロック図である。図21の変形例では、図5のコマンド入力装置4のように距離画像検出器として動作してユーザ7のジェスチャーを認識することに代えて、ユーザ7によるリモートコントローラ8の空間的な動きを検出することによりユーザ7のジェスチャーを認識する。
コマンド入力装置4Aは、制御回路41A、通信回路46、及び無線受信回路47を備える。
制御回路41Aは、コマンド入力装置4Aの全体の動作を制御する。通信回路46は、図5の通信回路46と同様に構成される。無線受信回路47は、リモートコントローラ8と通信し、リモートコントローラ8の空間的な動きを示す信号を受信する。
制御回路41Aは、ネットワーク設定器41a、ジェスチャー認識器41f、移動量計算器41d、及びコマンド生成器41eを備える。
ネットワーク設定器41a、移動量計算器41d、及びコマンド生成器41eは、図5の対応する構成要素と同様に構成される。
ジェスチャー認識器41fは、リモートコントローラ8から受信した信号に基づいて、ユーザ7のジェスチャーを認識する。
リモートコントローラ8は、制御回路81、入力装置82、加速度センサ83、及び無線送信回路84を備える。
制御回路81は、リモートコントローラ8の全体の動作を制御する。入力装置82は、ユーザ入力を受けるキーボード又はボタンなどを含む。加速度センサ83は、リモートコントローラ8を保持するユーザ7のジェスチャーによって生じた、リモートコントローラ8にかかる加速度を検出する。制御回路81は、加速度センサ83によって検出された加速度に基づいて、リモートコントローラ8の空間的な動きを検出する。無線送信回路84は、コマンド入力装置4Aと通信し、リモートコントローラ8の空間的な動きを示す信号を送信する。
コマンド入力装置4Aの制御回路41Aの内部の各回路部分41a,41d,41e,41fは、ハードウェアとして構成されても、ソフトウェアとして構成されてもよい。
図21のコマンド入力装置4A及びリモートコントローラ8もまた、図5のコマンド入力装置4と同様に、ジェスチャーに基づいてコマンドを生成する。
次に、実施形態の他のいくつかの変形例について説明する。
サーバ装置は、4つ以外の複数の撮像素子を備えていてもよい。撮像素子は、サーバ装置の本体に一体化されていても、所定のインターフェースを介してサーバ装置の外部に接続されていてもよい。
サーバ装置は、各表示装置が連結映像及び第1の切り出し映像を区別できるのであれば、連結映像をユニキャストパケット又は他の形式で配信してもよい。
映像表示システムは、ユーザを包囲するように例えば4つの表示装置を備えてもよい。また、映像表示システムは、ユーザから見て90度とは異なる角度間隔で配置された複数の表示装置を備えてもよく、曲面(例えば円筒面)のスクリーンを備えてもよい。映像表示システムは、天井及び/又は床に投影する表示装置をさらに備えてもよい。
各表示装置の配置情報は、図4を参照して説明したように、表示装置の入力装置を介して入力されてもよく、カメラにより各表示装置を撮影することにより取得されてもよい。また、各表示装置の配置情報は、各表示装置に入力されることに代えて、サーバ装置に入力されてもよい。
各表示装置の映像形成装置は、投写型表示装置に代えて、例えば、液晶パネル、LEDパネルなどであってもよい。
コマンド入力装置は、サーバ装置又は表示装置のうちの1つに一体化されていてもよい。
コマンド入力装置は、コマンドが最後に入力されてから、コマンドが入力されないまま所定時間が経過したとき、ユーザが操作中ではないと判断してもよい。また、コマンド入力装置は、ユーザの手の位置(例えば、上げているか下げているか)に応じてユーザが操作中であるか否かを判断することにかえて、ユーザの身体が動いていれば操作中であると判断してもよい。また、コマンド入力装置は、ユーザの操作が完了したとき、完了したことをサーバ装置に通知してもよい。また、コマンド入力装置は、ユーザが操作中でないとき、ユーザが操作中でないことをサーバ装置に通知してもよい。
[1−4.効果等]
本開示の態様に係るサーバ装置1によれば、複数の表示装置3a〜3cに映像を配信するサーバ装置1が提供される。サーバ装置1は、複数の撮像素子13a〜13dによってそれぞれ生成された複数の撮影映像を処理する映像処理回路14と、複数の表示装置3a〜3cに通信可能に接続された通信回路15と、制御回路11とを備える。制御回路11は、複数の撮影映像によって表される範囲のうち、複数の表示装置3a〜3cによってそれぞれ表示される映像の範囲を示す表示位置を指定するコマンドを受信する。制御回路11は、コマンドがサーバ装置1に入力中でないとき、複数の撮影映像から、複数の表示装置3a〜3cの各表示位置にそれぞれ対応する複数の第1の切り出し映像を生成するように映像処理回路14を制御し、複数の第1の切り出し映像を、対応する複数の表示装置3a〜3cにそれぞれ配信するように通信回路15を制御する。制御回路11は、コマンドがサーバ装置1に入力中であるとき、複数の撮影映像から1つの連結映像を生成するように映像処理回路14を制御し、連結映像を複数の表示装置3a〜3cに配信するように通信回路15を制御する。
これにより、高解像度の映像を表示させることができ、かつ、ユーザ操作に応じて迅速かつ滑らかに各表示装置の表示位置を変更することができる。
本開示の態様に係る表示装置3によれば、サーバ装置1から配信された映像を表示する表示装置3a〜3cが提供される、表示装置3a〜3cは、サーバ装置1に通信可能に接続された通信回路33と、通信回路33によりサーバ装置1から受信された映像を処理する映像処理回路34と、映像を視覚可能な形式で出力する映像形成装置35と、制御回路31とを備える。制御回路31は、複数の撮像素子13a〜13dによってそれぞれ生成された複数の撮影映像によって表される範囲のうち、表示装置3a〜3cによって表示される映像の範囲を示す表示位置を指定するコマンドを受信する。制御回路31は、複数の撮影映像から生成され、表示装置3a〜3cの表示位置に対応する第1の切り出し映像を通信回路33によりサーバ装置1から受信したとき、第1の切り出し映像を出力するように映像形成装置35を制御する。制御回路31は、複数の撮影映像から生成された1つの連結映像を通信回路33によりサーバ装置1から受信したとき、連結映像から、表示装置3a〜3cの表示位置に対応する第2の切り出し映像を生成するように映像処理回路34を制御し、第2の切り出し映像を出力するように映像形成装置35を制御する。
これにより、高解像度の映像を表示させることができ、かつ、ユーザ操作に応じて迅速かつ滑らかに各表示装置の表示位置を変更することができる。
本開示の態様に係る映像表示システムによれば、サーバ装置1と、複数の表示装置3a〜3cとを含む。
これにより、高解像度の映像を表示させることができ、かつ、ユーザ操作に応じて迅速かつ滑らかに各表示装置の表示位置を変更することができる。
本開示の態様に係る映像表示システムによれば、複数の撮影映像は、複数の撮像素子13a〜13dの周りの全方位又は全天球をカバーする。
これにより、全方向カメラによって撮影された映像を表示することができる。
本開示の態様に係る映像表示システムによれば、サーバ装置1の映像処理回路は、正距円筒図法を用いて複数の撮影映像から連結映像を生成する。
これにより、複数の撮影映像から連結映像を適切に生成することができる。
本開示の態様に係る映像表示システムによれば、映像表示システムは、ユーザからコマンドを取得するコマンド入力装置4をさらに備える。コマンド入力装置4は、ユーザのジェスチャーを撮影して認識する距離画像検出器を備え、ジェスチャーに基づいてコマンドを生成する。
これにより、ジェスチャーに基づいてコマンドを確実に生成することができる。
本開示の態様に係る映像表示システムによれば、映像表示システムは、ユーザからコマンドを取得するコマンド入力装置4A及びリモートコントローラ8をさらに備える。リモートコントローラ8は、ユーザのジェスチャーを検出する加速度センサ83を備える。コマンド入力装置4Aは、ジェスチャーに基づいてコマンドを生成する。
これにより、ジェスチャーに基づいてコマンドを確実に生成することができる。
本開示の態様に係る映像表示システムによれば、サーバ装置1の通信回路15は、連結映像を複数の表示装置3a〜3cにマルチキャストで配信し、複数の第1の切り出し映像を、対応する複数の表示装置3a〜3cにそれぞれユニキャストで配信する。各表示装置3a〜3cの制御回路31は、当該表示装置3a〜3cの通信回路33によりマルチキャストのパケットを受信したとき、連結映像を受信したと判断し、当該表示装置3a〜3cの通信回路33によりユニキャストのパケットを受信したとき、第1の切り出し映像を受信したと判断する。
これにより、第1の切り出し映像及び連結映像を確実に区別することができる。
本開示の態様に係る映像表示システムによれば、第1の切り出し映像は、第2の切り出し映像の解像度よりも高い解像度を有する。
これにより、高解像度の映像を表示させることができる。
本開示の態様に係る映像表示方法によれば、サーバ装置1から複数の表示装置3a〜3cに映像を配信して表示する映像表示方法が提供される。本方法は、サーバ装置1及び各表示装置3a〜3cが、複数の撮像素子13a〜13dによってそれぞれ生成された複数の撮影映像によって表される範囲のうち、複数の表示装置3a〜3cによってそれぞれ表示される映像の範囲を示す表示位置を指定するコマンドを受信するステップを含む。本方法は、コマンドがサーバ装置1に入力中であるとき、サーバ装置1が、複数の撮影映像から1つの連結映像を生成し、連結映像を複数の表示装置3a〜3cに配信するステップを含む。本方法は、コマンドがサーバ装置1に入力中でないとき、サーバ装置1が、複数の撮影映像から、複数の表示装置3a〜3cの各表示位置にそれぞれ対応する複数の第1の切り出し映像を生成し、複数の第1の切り出し映像を、対応する複数の表示装置3a〜3cにそれぞれ配信するステップを含む。本方法は、複数の表示装置3a〜3cのうちの各1つの表示装置3a〜3cが、第1の切り出し映像をサーバ装置1から受信したとき、第1の切り出し映像を視覚可能な形式で出力するステップを含む。本方法は、複数の表示装置3a〜3cのうちの各1つの表示装置3a〜3cが、連結映像をサーバ装置1から受信したとき、連結映像から、当該1つの表示装置3a〜3cの表示位置に対応する第2の切り出し映像を生成し、第2の切り出し映像を視覚可能な形式で出力するステップを含む。
これにより、高解像度の映像を表示させることができ、かつ、ユーザ操作に応じて迅速かつ滑らかに各表示装置の表示位置を変更することができる。
(他の実施形態)
以上のように、本出願において開示する技術の例示として実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。また、第1及び第2の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
以上のように、本開示に係る技術の例示として実施形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
以上のように、添付図面および詳細な説明によって、ベストモードと考える実施形態を提供した。これら、特定の実施形態を参照することにより、当業者に対して、特許請求の範囲に記載の主題を例証するために提供されるものである。したがって、特許請求の範囲またはその均等の範囲において、上述の実施形態に対して、種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、全方向カメラによって撮影された一体の映像を表示する、ビデオウォール及びマルチプロジェクションなどのマルチディスプレイシステムに適用可能である。
1…サーバ装置、
2…ハブ、
3a〜3c…表示装置、
4,4A…コマンド入力装置、
5…風景、
6a〜6c…スクリーン、
7…ユーザ、
8…リモートコントローラ、
11…サーバ装置の制御回路、
12a〜12d…サーバ装置のレンズ、
13a〜13d…サーバ装置の撮像素子、
14…サーバ装置の映像処理回路、
15…サーバ装置の通信回路、
16…サーバ装置の記憶装置、
31…制御回路、
32…表示装置の入力装置、
33…表示装置の通信回路、
34…表示装置の映像処理回路、
35…表示装置の映像形成装置、
36…表示装置の記憶装置、
41,41A…コマンド入力装置の制御回路、
42…コマンド入力装置の赤外線発光器、
43…コマンド入力装置のレンズ、
44…コマンド入力装置の撮像素子、
45…コマンド入力装置の映像処理回路、
46…コマンド入力装置の通信回路、
47…無線受信回路、
81…リモートコントローラの制御回路、
82…リモートコントローラの入力装置、
83…リモートコントローラの加速度センサ、
84…リモートコントローラの無線送信回路。

Claims (10)

  1. 複数の表示装置に映像を配信するサーバ装置であって、前記サーバ装置は、
    複数の撮像素子によってそれぞれ生成された複数の撮影映像を処理する映像処理回路と、
    前記複数の表示装置に通信可能に接続された通信回路と、
    制御回路とを備え、
    前記制御回路は、
    前記複数の撮影映像によって表される範囲のうち、前記複数の表示装置によってそれぞれ表示される映像の範囲を示す表示位置を指定するコマンドを受信し、
    前記コマンドが前記サーバ装置に入力中でないとき、前記複数の撮影映像から、前記複数の表示装置の各表示位置にそれぞれ対応する複数の第1の切り出し映像を生成するように前記映像処理回路を制御し、前記複数の第1の切り出し映像を、対応する前記複数の表示装置にそれぞれ配信するように前記通信回路を制御し、
    前記コマンドが前記サーバ装置に入力中であるとき、前記複数の撮影映像から1つの連結映像を生成するように前記映像処理回路を制御し、前記連結映像を前記複数の表示装置に配信するように前記通信回路を制御する、
    サーバ装置。
  2. サーバ装置から配信された映像を表示する表示装置であって、前記表示装置は、
    前記サーバ装置に通信可能に接続された通信回路と、
    前記通信回路により前記サーバ装置から受信された映像を処理する映像処理回路と、
    映像を視覚可能な形式で出力する映像形成装置と、
    制御回路とを備え、
    前記制御回路は、
    複数の撮像素子によってそれぞれ生成された複数の撮影映像によって表される範囲のうち、前記表示装置によって表示される映像の範囲を示す表示位置を指定するコマンドを受信し、
    前記複数の撮影映像から生成され、前記表示装置の表示位置に対応する第1の切り出し映像を前記通信回路により前記サーバ装置から受信したとき、前記第1の切り出し映像を出力するように前記映像形成装置を制御し、
    前記複数の撮影映像から生成された1つの連結映像を前記通信回路により前記サーバ装置から受信したとき、前記連結映像から、前記表示装置の表示位置に対応する第2の切り出し映像を生成するように前記映像処理回路を制御し、前記第2の切り出し映像を出力するように前記映像形成装置を制御する、
    表示装置。
  3. 請求項1記載のサーバ装置と、
    請求項2記載の複数の表示装置とを含む、
    映像表示システム。
  4. 前記複数の撮影映像は、前記複数の撮像素子の周りの全方位又は全天球をカバーする、
    請求項3記載の映像表示システム。
  5. 前記サーバ装置の映像処理回路は、正距円筒図法を用いて前記複数の撮影映像から前記連結映像を生成する、
    請求項4記載の映像表示システム。
  6. 前記映像表示システムは、ユーザから前記コマンドを取得するコマンド入力装置をさらに備え、
    前記コマンド入力装置は、前記ユーザのジェスチャーを撮影して認識する距離画像検出器を備え、前記ジェスチャーに基づいて前記コマンドを生成する、
    請求項3〜5のうちの1つに記載の映像表示システム。
  7. 前記映像表示システムは、ユーザから前記コマンドを取得するコマンド入力装置をさらに備え、
    前記コマンド入力装置は、前記ユーザのジェスチャーを検出する加速度センサを備え、前記ジェスチャーに基づいて前記コマンドを生成する、
    請求項3〜5のうちの1つに記載の映像表示システム。
  8. 前記サーバ装置の通信回路は、前記連結映像を前記複数の表示装置にマルチキャストで配信し、前記複数の第1の切り出し映像を、対応する前記複数の表示装置にそれぞれユニキャストで配信し、
    前記各表示装置の制御回路は、当該表示装置の通信回路によりマルチキャストのパケットを受信したとき、前記連結映像を受信したと判断し、当該表示装置の通信回路によりユニキャストのパケットを受信したとき、前記第1の切り出し映像を受信したと判断する、
    請求項3〜7のうちの1つに記載の映像表示システム。
  9. 前記第1の切り出し映像は、前記第2の切り出し映像の解像度よりも高い解像度を有する、
    請求項3〜8のうちの1つに記載の映像表示システム。
  10. サーバ装置から複数の表示装置に映像を配信して表示する映像表示方法であって、
    前記サーバ装置及び前記各表示装置が、複数の撮像素子によってそれぞれ生成された複数の撮影映像によって表される範囲のうち、前記複数の表示装置によってそれぞれ表示される映像の範囲を示す表示位置を指定するコマンドを受信するステップと、
    前記コマンドが前記サーバ装置に入力中でないとき、前記サーバ装置が、前記複数の撮影映像から、前記複数の表示装置の各表示位置にそれぞれ対応する複数の第1の切り出し映像を生成し、前記複数の第1の切り出し映像を、対応する前記複数の表示装置にそれぞれ配信するステップと、
    前記コマンドが前記サーバ装置に入力中であるとき、前記サーバ装置が、前記複数の撮影映像から1つの連結映像を生成し、前記連結映像を前記複数の表示装置に配信するステップと、
    前記複数の表示装置のうちの各1つの表示装置が、前記第1の切り出し映像を前記サーバ装置から受信したとき、前記第1の切り出し映像を視覚可能な形式で出力するステップと、
    前記複数の表示装置のうちの各1つの表示装置が、前記連結映像を前記サーバ装置から受信したとき、前記連結映像から、当該1つの表示装置の表示位置に対応する第2の切り出し映像を生成し、前記第2の切り出し映像を視覚可能な形式で出力するステップとを含む、
    映像表示方法。
JP2018022276A 2018-02-09 2018-02-09 サーバ装置、表示装置、映像表示システム、及び映像表示方法 Pending JP2019140530A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018022276A JP2019140530A (ja) 2018-02-09 2018-02-09 サーバ装置、表示装置、映像表示システム、及び映像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018022276A JP2019140530A (ja) 2018-02-09 2018-02-09 サーバ装置、表示装置、映像表示システム、及び映像表示方法

Publications (1)

Publication Number Publication Date
JP2019140530A true JP2019140530A (ja) 2019-08-22

Family

ID=67694474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018022276A Pending JP2019140530A (ja) 2018-02-09 2018-02-09 サーバ装置、表示装置、映像表示システム、及び映像表示方法

Country Status (1)

Country Link
JP (1) JP2019140530A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229836A1 (ja) * 2020-05-14 2021-11-18 avatarin株式会社 通信システム、通信方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229836A1 (ja) * 2020-05-14 2021-11-18 avatarin株式会社 通信システム、通信方法、及びプログラム

Similar Documents

Publication Publication Date Title
US9858643B2 (en) Image generating device, image generating method, and program
JP5966510B2 (ja) 情報処理システム
JP6398472B2 (ja) 画像表示システム、画像表示装置、画像表示方法、およびプログラム
JP2017092795A (ja) 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
US9338417B2 (en) Image projecting system, master apparatus, image projecting apparatus, and image projecting method
JP2009010728A (ja) カメラ設置支援装置
US20220103751A1 (en) Communication management apparatus, image communication system, communication management method, and recording medium
US20220103763A1 (en) Communication management apparatus, image communication system, communication management method, and recording medium
KR20170119201A (ko) 스마트폰 카메라 원격 제어 방법 및 시스템
JP7335335B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019140530A (ja) サーバ装置、表示装置、映像表示システム、及び映像表示方法
KR102588858B1 (ko) 3d 투어 비교 표시 시스템
CN112074705A (zh) 光学惯性跟踪运动物体的方法和***
US11218662B2 (en) Image processing device, image processing method, and projection system
CN104823441B (zh) 用于显示可控制的摄像机的摄像机图像的客户端装置、方法以及具有所述客户端装置的监视***
JP2019139697A (ja) 表示装置、映像表示システム、及び映像表示方法
US11610343B2 (en) Video display control apparatus, method, and non-transitory computer readable medium
JP7356293B2 (ja) 電子機器およびその制御方法
JP5781017B2 (ja) 映像会話システム
JP2012244311A (ja) カメラ遠隔制御装置およびカメラ遠隔制御方法
US20170110083A1 (en) Information processing system, method for processing information, and computer program product
JP7410246B2 (ja) 情報処理端末および画像処理方法
WO2023284072A1 (zh) 一种控制投影设备的方法、装置及电子设备
US20230326001A1 (en) Display terminal, display method, and recording medium
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system