JP2017123589A - 情報処理装置、情報処理方法および映像投影システム - Google Patents
情報処理装置、情報処理方法および映像投影システム Download PDFInfo
- Publication number
- JP2017123589A JP2017123589A JP2016002328A JP2016002328A JP2017123589A JP 2017123589 A JP2017123589 A JP 2017123589A JP 2016002328 A JP2016002328 A JP 2016002328A JP 2016002328 A JP2016002328 A JP 2016002328A JP 2017123589 A JP2017123589 A JP 2017123589A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- information
- processing apparatus
- viewer
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】映像投影システムにおいて、被投影面上における映像の欠落を少なくする。【解決手段】情報処理装置200は、投影装置(プロジェクタ300)と投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得する取得手段を備える。また、情報処理装置200は、第一の情報に基づいて、被投影面上に、オブジェクトにより投影画像が遮蔽された遮蔽領域が存在するか否かを判定する判定手段と、遮蔽領域が存在すると判定された場合に、オブジェクトにより遮蔽されずに投影画像が遮蔽領域に投影されるような投影装置の投影範囲に関する情報を含む第二の情報を決定する決定手段と、を備える。さらに、情報処理装置200は、第二の情報を投影装置に出力する出力手段を備える。【選択図】 図8
Description
本発明は、投影装置を用いて被投影面に映像を投影するための情報処理装置、情報処理方法および映像投影システムに関する。
従来、天井などの室内上部に複数のプロジェクタを配置し、これら複数のプロジェクタから壁面や床面に映像を投影する映像投影システムが知られている。このような映像投影システムでは、視聴者に対して臨場感のある映像やゲームを提供することができる。
特許文献1には、可動深度カメラを用いて室内の3次元モデルを生成し、生成した3次元モデルに応じた映像を投影するシステムが開示されている。このシステムでは、視聴者の動きをリアルタイムに追跡し、視聴者の動きに応じて投影内容を変化させる。
特許文献1には、可動深度カメラを用いて室内の3次元モデルを生成し、生成した3次元モデルに応じた映像を投影するシステムが開示されている。このシステムでは、視聴者の動きをリアルタイムに追跡し、視聴者の動きに応じて投影内容を変化させる。
ところで、プロジェクタから被投影面へ映像を投影する場合、被投影面が視聴者の陰となり、視聴者の視界内において被投影面上の表示画像の一部が欠落してしまう場合がある。
特許文献1に記載の技術では、視聴者の動きに応じて投影内容を変化させることはできても、上記のような視聴者の陰となる領域には映像を表示することができない。そのため、プロジェクタから被投影面へ向けて臨場感の高い映像を投影しても、被投影面において適切に映像が表示されず没入感が阻害されてしまう。
そこで、本発明は、映像投影システムにおいて、被投影面上における映像の欠落を少なくすることを目的としている。
特許文献1に記載の技術では、視聴者の動きに応じて投影内容を変化させることはできても、上記のような視聴者の陰となる領域には映像を表示することができない。そのため、プロジェクタから被投影面へ向けて臨場感の高い映像を投影しても、被投影面において適切に映像が表示されず没入感が阻害されてしまう。
そこで、本発明は、映像投影システムにおいて、被投影面上における映像の欠落を少なくすることを目的としている。
本発明に係る情報処理装置の一態様は、投影装置と前記投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得する取得手段と、前記取得手段により取得された前記第一の情報に基づいて、前記被投影面上に、前記オブジェクトにより前記投影画像が遮蔽される遮蔽領域が存在するか否かを判定する判定手段と、前記判定手段により前記遮蔽領域が存在すると判定された場合に、前記オブジェクトにより遮蔽されずに前記投影画像が前記遮蔽領域に投影されるような前記投影装置の投影範囲に関する情報を含む第二の情報を決定する決定手段と、前記決定手段により決定された第二の情報を前記投影装置に出力する出力手段と、を備える。
本発明によれば、映像投影システムにおいて、被投影面上における映像の欠落を少なくすることができる。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における情報処理装置を備える映像投影システムの構成例である。本実施形態では、映像投影システムとして、天井などの室内上部に複数の投影装置(プロジェクタ)を配置し、これら複数のプロジェクタから被投影面(室内の壁面や床面)に映像(静止画像も含む)を投影するシステムについて説明する。
映像投影システム100は、情報処理装置200と、プロジェクタ300とを備える。情報処理装置200は、プロジェクタ300の位置や投影範囲を制御したり、プロジェクタ300が投影する映像コンテンツを制御したりする投影映像制御部である。情報処理装置200は、図1に示すように、プロジェクタ300に対してプロジェクタ情報や映像コンテンツを出力する。ここで、プロジェクタ情報は、プロジェクタ300の位置や投影範囲に関する情報を含む。プロジェクタ300の投影範囲に関する情報とは、プロジェクタ300の姿勢に関する情報である。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における情報処理装置を備える映像投影システムの構成例である。本実施形態では、映像投影システムとして、天井などの室内上部に複数の投影装置(プロジェクタ)を配置し、これら複数のプロジェクタから被投影面(室内の壁面や床面)に映像(静止画像も含む)を投影するシステムについて説明する。
映像投影システム100は、情報処理装置200と、プロジェクタ300とを備える。情報処理装置200は、プロジェクタ300の位置や投影範囲を制御したり、プロジェクタ300が投影する映像コンテンツを制御したりする投影映像制御部である。情報処理装置200は、図1に示すように、プロジェクタ300に対してプロジェクタ情報や映像コンテンツを出力する。ここで、プロジェクタ情報は、プロジェクタ300の位置や投影範囲に関する情報を含む。プロジェクタ300の投影範囲に関する情報とは、プロジェクタ300の姿勢に関する情報である。
プロジェクタ300は、情報処理装置200に対して視聴者情報を出力する。ここで、視聴者情報は、プロジェクタ300と被投影面との間に存在し、プロジェクタ300から投影され被投影面に表示される表示画像を視聴する視聴者(人物)の位置や姿勢(顔の向き)に関する情報を含む。また、視聴者情報は、被投影面に投影される投影画像を視聴者が遮っているかどうかを示す情報(遮蔽情報)を含んでいてもよい。遮蔽情報とは、換言すると、被投影面上に、視聴者の影に相当する領域(遮蔽領域)が存在するか否かを示す情報である。なお、本実施形態では、人物が映像と音声を知覚している場合の例を中心に説明するが、音声は出力されなくてもよい。
また、図1において、プロジェクタ300は、情報処理装置200に対して1台のみ接続されているが、プロジェクタ300の接続台数は図1に示す数に限定されない。本実施形態では、情報処理装置200に複数のプロジェクタ300を接続するものとする。この場合、情報処理装置200とプロジェクタ300との間で入出力される情報は、各プロジェクタ300に固有の情報となる。
図2は、情報処理装置200の構成を示すブロック図である。情報処理装置200は、視聴者情報入力部211と、プロジェクタ情報算出部212(以下、情報算出部212)と、プロジェクタ情報出力部213(以下、情報出力部213)とを備える。また、情報処理装置200は、映像コンテンツ入力部221(以下、映像入力部221)と、映像コンテンツ分割部222(以下、映像分割部222)と、映像コンテンツ出力部223(以下、映像出力部223)とを備える。
図2は、情報処理装置200の構成を示すブロック図である。情報処理装置200は、視聴者情報入力部211と、プロジェクタ情報算出部212(以下、情報算出部212)と、プロジェクタ情報出力部213(以下、情報出力部213)とを備える。また、情報処理装置200は、映像コンテンツ入力部221(以下、映像入力部221)と、映像コンテンツ分割部222(以下、映像分割部222)と、映像コンテンツ出力部223(以下、映像出力部223)とを備える。
視聴者情報入力部211は、プロジェクタ300から視聴者情報を入力する。情報算出部212は、視聴者情報入力部211から入力された視聴者情報に基づいて、プロジェクタ情報を算出する。具体的には、情報算出部212は、視聴者情報に含まれる遮蔽情報に基づいて、プロジェクタ300からの投影画像が視聴者によって遮られていないと判定した場合、プロジェクタ300の現在の位置および姿勢をそのまま採用してプロジェクタ情報を算出する。一方、情報算出部212は、プロジェクタ300からの投影画像が視聴者によって遮られていると判定した場合には、視聴者により遮蔽されずに投影画像が被投影面上の遮蔽領域に投影されるようなプロジェクタ情報を算出する。つまり、情報算出部212は、被投影面に表示される表示画像内に視聴者の影に相当する領域が存在しないように、プロジェクタ300の位置および姿勢(少なくとも姿勢(投影範囲))を算出する。情報出力部213は、情報算出部212によって算出されたプロジェクタ情報をプロジェクタ300へ出力する。
映像入力部221は、外部装置からオリジナルの映像コンテンツを入力する。映像分割部222は、映像入力部221から入力された映像コンテンツを、複数のプロジェクタ300からそれぞれ投影する映像コンテンツに分割する。映像出力部223は、映像分割部222によって分割された映像コンテンツをそれぞれ対応するプロジェクタ300へ出力する。
映像入力部221は、外部装置からオリジナルの映像コンテンツを入力する。映像分割部222は、映像入力部221から入力された映像コンテンツを、複数のプロジェクタ300からそれぞれ投影する映像コンテンツに分割する。映像出力部223は、映像分割部222によって分割された映像コンテンツをそれぞれ対応するプロジェクタ300へ出力する。
図3は、情報処理装置200のハードウェア構成を示す図である。情報処理装置200は、CPU21と、ROM22と、RAM23と、外部メモリ24と、通信I/F25と、システムバス26とを備える。CPU21は、情報処理装置200における動作を統括的に制御するものであり、システムバス26を介して、各構成部(22〜25)を制御する。ROM22は、CPU21が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM23は、CPU21の主メモリ、ワークエリアとして機能する。つまり、CPU21は、処理の実行に際してROM22から必要なプログラムをRAM23にロードし、ロードしたプログラムを実行することで各種の機能動作を実現する。
外部メモリ24は、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶している。また、外部メモリ24には、CPU21がプログラムを用いた処理を行うことにより得られる各種データや各種情報が記憶される。通信I/F25は、外部装置(プロジェクタ300など)と通信するためのインターフェースである。システムバス26は、CPU21、ROM22、RAM23、外部メモリ24および通信I/F25を通信可能に接続する。
図2に示す情報処理装置200の各部の機能は、CPU21がプログラムを実行することで実現することができる。ただし、図2に示す情報処理装置200の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU21の制御に基づいて動作する。
図2に示す情報処理装置200の各部の機能は、CPU21がプログラムを実行することで実現することができる。ただし、図2に示す情報処理装置200の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU21の制御に基づいて動作する。
図4は、プロジェクタ300の構成を示すブロック図である。プロジェクタ300は、撮像部311と、視聴者検出部312と、視聴者情報出力部313(以下、情報出力部313)と、プロジェクタ情報入力部321と、プロジェクタ位置制御部322(以下、位置制御部322)と、を備える。さらに、プロジェクタ300は、映像コンテンツ入力部331(以下、映像入力部331)と、映像コンテンツ変形部(以下、映像変形部332)と、投影部333と、を備える。
撮像部311は、プロジェクタ300の投影範囲およびその周辺を撮像する。撮像部311の撮像領域は、プロジェクタ情報に基づいて決定することができる。視聴者検出部312は、撮像部311の撮像画像に基づいて、視聴者を検出すると共に、視聴者の位置および姿勢を検出する。また、視聴者検出部312は、視聴者の位置および姿勢に基づいて、被投影面に投影される投影画像を視聴者が遮っているかどうか、より具体的には、視聴者の視界に入る被投影面に投影される投影画像を視聴者が遮っているかどうかを検出する。そして、視聴者検出部312は、これらの検出結果をもとに視聴者情報を生成する。情報出力部313は、視聴者検出部312によって生成された視聴者情報を、情報処理装置200へ出力する。
撮像部311は、プロジェクタ300の投影範囲およびその周辺を撮像する。撮像部311の撮像領域は、プロジェクタ情報に基づいて決定することができる。視聴者検出部312は、撮像部311の撮像画像に基づいて、視聴者を検出すると共に、視聴者の位置および姿勢を検出する。また、視聴者検出部312は、視聴者の位置および姿勢に基づいて、被投影面に投影される投影画像を視聴者が遮っているかどうか、より具体的には、視聴者の視界に入る被投影面に投影される投影画像を視聴者が遮っているかどうかを検出する。そして、視聴者検出部312は、これらの検出結果をもとに視聴者情報を生成する。情報出力部313は、視聴者検出部312によって生成された視聴者情報を、情報処理装置200へ出力する。
プロジェクタ情報入力部321は、情報処理装置200から出力されたプロジェクタ情報を入力し、入力したプロジェクタ情報を撮像部311および位置制御部322へ出力する。位置制御部322は、プロジェクタ情報入力部321から入力されたプロジェクタ情報に基づいて、プロジェクタ300の位置および姿勢を制御する。また、位置制御部322は、プロジェクタ情報入力部321から入力されたプロジェクタ情報を映像変形部332に出力する。
映像入力部331は、情報処理装置200から投影用の映像コンテンツを入力し、入力した映像コンテンツを映像変形部332に出力する。映像変形部332は、映像入力部331が出力した映像コンテンツを、位置制御部322が出力したプロジェクタ情報をもとに変形処理し、被投影面上で歪みのない表示画像となるように投影画像を生成する。投影部333は、映像変形部332によって変形処理された映像コンテンツ(投影画像)を入力し、入力した映像コンテンツ(投影画像)を被投影面に投影する。
映像入力部331は、情報処理装置200から投影用の映像コンテンツを入力し、入力した映像コンテンツを映像変形部332に出力する。映像変形部332は、映像入力部331が出力した映像コンテンツを、位置制御部322が出力したプロジェクタ情報をもとに変形処理し、被投影面上で歪みのない表示画像となるように投影画像を生成する。投影部333は、映像変形部332によって変形処理された映像コンテンツ(投影画像)を入力し、入力した映像コンテンツ(投影画像)を被投影面に投影する。
図4に示す各要素は、それぞれ専用のハードウェアとしてプロジェクタ300を構成することができる。この場合、プロジェクタ300のCPUの制御に基づいて、図4の各要素が別個のハードウェアとして動作する。ただし、図4に示す各要素の少なくとも一部の機能が上記のCPUによって実行されてもよい。
なお、本実施形態では、プロジェクタ300が撮像部311を備え、視聴者情報を生成する場合について説明するが、撮像部311の撮像画像をもとに視聴者情報を生成する視聴者検出部312は、情報処理装置200が備えていてもよい。また、視聴者の姿勢を検出するための撮像部は、プロジェクタ300に内蔵される撮像部とは別に専用で設けてもよい。この場合、視聴者の顔の向きをより適切に検出することができるので、視聴者の視界をより適切に把握することができる。さらに、視聴者が複数存在する場合は、視聴者ごとに姿勢を検出する専用の撮像部を設けてもよい。
なお、本実施形態では、プロジェクタ300が撮像部311を備え、視聴者情報を生成する場合について説明するが、撮像部311の撮像画像をもとに視聴者情報を生成する視聴者検出部312は、情報処理装置200が備えていてもよい。また、視聴者の姿勢を検出するための撮像部は、プロジェクタ300に内蔵される撮像部とは別に専用で設けてもよい。この場合、視聴者の顔の向きをより適切に検出することができるので、視聴者の視界をより適切に把握することができる。さらに、視聴者が複数存在する場合は、視聴者ごとに姿勢を検出する専用の撮像部を設けてもよい。
次に、プロジェクタ300の動作について、図5を参照しながら説明する。なお、本実施形態では、上述したように、図4で示す各要素がそれぞれ専用のハードウェアとして動作することで、図5の処理が実行される場合の例を中心に説明する。ただし、図4の各要素の少なくとも一部の機能が、プロジェクタ300のCPUにより実現されるようにしてもよい。この図5の処理は、例えばプロジェクタ300が起動されたときに開始される。ただし、図5の処理の開始タイミングは、上記のタイミングに限らない。
まずS1において、撮像部311は、プロジェクタ情報入力部321からプロジェクタ情報の初期値を入力する。S2では、撮像部311は、プロジェクタ情報に基づいて、プロジェクタ300の投影範囲およびその周辺を撮像する。S3では、視聴者検出部312は、S2において撮像された画像をもとに視聴者情報を生成し、情報出力部313は、視聴者検出部312により生成された視聴者情報を情報処理装置200へ出力する。このとき、情報処理装置200へ出力される視聴者情報には、視聴者の位置および姿勢に関する情報と、プロジェクタ300の投影画像が視聴者によって遮られていないかどうかを示す遮蔽情報とが含まれる。
まずS1において、撮像部311は、プロジェクタ情報入力部321からプロジェクタ情報の初期値を入力する。S2では、撮像部311は、プロジェクタ情報に基づいて、プロジェクタ300の投影範囲およびその周辺を撮像する。S3では、視聴者検出部312は、S2において撮像された画像をもとに視聴者情報を生成し、情報出力部313は、視聴者検出部312により生成された視聴者情報を情報処理装置200へ出力する。このとき、情報処理装置200へ出力される視聴者情報には、視聴者の位置および姿勢に関する情報と、プロジェクタ300の投影画像が視聴者によって遮られていないかどうかを示す遮蔽情報とが含まれる。
次にS4において、プロジェクタ情報入力部321は、S3において情報出力部313が出力した視聴者情報をもとに情報処理装置200が算出したプロジェクタ情報を入力する。また、映像入力部331は、情報処理装置200がプロジェクタ情報をもとに生成した投影用の映像コンテンツを入力する。S5では、位置制御部322は、S4において入力されたプロジェクタ情報に基づいてプロジェクタ300の位置および姿勢を移動する。
S6では、映像変形部332は、S4において入力された映像コンテンツに対して、S4において入力されたプロジェクタ情報をもとに変形処理を行う。S7では、投影部333は、S6において映像変形部332が変形処理した映像コンテンツを投影範囲に投影する。S8では、プロジェクタ300は、映像コンテンツが終了であるか否かを判定し、終了である場合は投影を終了し、映像コンテンツの投影が継続される場合はS2に戻る。
S6では、映像変形部332は、S4において入力された映像コンテンツに対して、S4において入力されたプロジェクタ情報をもとに変形処理を行う。S7では、投影部333は、S6において映像変形部332が変形処理した映像コンテンツを投影範囲に投影する。S8では、プロジェクタ300は、映像コンテンツが終了であるか否かを判定し、終了である場合は投影を終了し、映像コンテンツの投影が継続される場合はS2に戻る。
次に、情報処理装置200と複数のプロジェクタ300との間の情報の流れについて詳細に説明する。以下の説明では、図6に示すように、4台のプロジェクタ300(300A〜300D)が壁面を被投影面として画像を投影する場合について説明する。プロジェクタ300A、300B、300Cおよび300Dの投影範囲は、各々A、B、C、Dと表示された位置である。
図7に示すように、先ずS11において、情報処理装置200は、プロジェクタ300A〜300Dに対してそれぞれプロジェクタ情報を出力する。このとき、プロジェクタ300A〜300Dは、プロジェクタの位置と投影範囲(例えば、図6のA〜D)とに関する情報を取得する。
図7に示すように、先ずS11において、情報処理装置200は、プロジェクタ300A〜300Dに対してそれぞれプロジェクタ情報を出力する。このとき、プロジェクタ300A〜300Dは、プロジェクタの位置と投影範囲(例えば、図6のA〜D)とに関する情報を取得する。
次にS12において、プロジェクタ300A〜300Dは、それぞれ情報処理装置200から入力されたプロジェクタ情報に基づいて位置および姿勢を移動する。そして、S13において、プロジェクタ300A〜300Dは、各々の投影範囲およびその周辺を撮像し、撮像画像を解析する。このとき、図8(a)に示すように、プロジェクタ300Bの投影範囲B近傍に投影範囲A〜Dを視界に入れた視聴者Pが存在し、プロジェクタBからの投影画像の一部が視聴者Pによって遮られているものとする。この場合、被投影面上における投影範囲B内には、視聴者Pの影に相当する遮蔽領域が存在することになる。また、この場合、プロジェクタ300Bの撮像部311は視聴者Pを撮像し、プロジェクタ300Bの視聴者検出部312は、視聴者Pの位置および姿勢を検出して視聴者情報を生成する。なお、撮像画像をもとに視聴者が検出されなかった場合、視聴者情報は、視聴者が存在しないことを示す情報を含んでもよい。そして、S14では、プロジェクタ300A〜300Dは、それぞれ撮像部311の撮像画像をもとに生成された視聴者情報を情報処理装置200に出力する。
すると情報処理装置200は、S15において、入力された視聴者情報に基づいて、投影範囲A〜D内に視聴者Pの影に相当する遮蔽領域が存在しないようにプロジェクタ300A〜300Dの位置および姿勢をそれぞれ算出する。図8(a)に示す例の場合、情報処理装置200は、視聴者Pにより遮蔽されずにプロジェクタ300Bの投影画像が投影範囲B内に存在する遮蔽領域に投影されるように、プロジェクタ300A〜300Dの位置および姿勢をそれぞれ算出する。そして、S16において、情報処理装置200は、S15において算出した新たなプロジェクタの位置および姿勢に関する情報を含むプロジェクタ情報を、プロジェクタ300A〜300Dにそれぞれ出力する。なお、プロジェクタ300A〜300Dから入力されるすべての視聴者情報に、視聴者が検出されていないことを示す情報が含まれる場合、プロジェクタ300A〜300Dの位置および姿勢を移動させる必要がないため、プロジェクタ情報は変化しない。
プロジェクタ300A〜300Dは、情報処理装置200からプロジェクタ情報を入力すると、S17において、入力されたプロジェクタ情報に基づいて位置および姿勢を移動する。このとき、プロジェクタ300A〜300Dは、図8(a)に示す位置から図8(b)に示す位置に移動し、各々の投影範囲A、B、C、Dが、例えば投影範囲A’、B’、C’、D’に変更されるように姿勢(投影レンズの向きや位置)が変化する。
なお、上記の例ではプロジェクタ300A〜300Dの位置を移動する場合について説明しているが、プロジェクタ300A〜300Dの姿勢のみを移動させてもよい。例えば、プロジェクタ300Dが投影範囲Bに視聴者Pの影ができないように投影画像を投影できる場合には、プロジェクタ300Dから投影範囲Bに投影画像を投影するようにプロジェクタ300Dの姿勢を移動してもよい。ただし、この場合、投影範囲Dには、別のプロジェクタから投影画像を投影するようにする。
なお、上記の例ではプロジェクタ300A〜300Dの位置を移動する場合について説明しているが、プロジェクタ300A〜300Dの姿勢のみを移動させてもよい。例えば、プロジェクタ300Dが投影範囲Bに視聴者Pの影ができないように投影画像を投影できる場合には、プロジェクタ300Dから投影範囲Bに投影画像を投影するようにプロジェクタ300Dの姿勢を移動してもよい。ただし、この場合、投影範囲Dには、別のプロジェクタから投影画像を投影するようにする。
情報処理装置200は、S18において、S16において算出された新たなプロジェクト情報に基づいて変化した投影範囲A’〜D’に対応する映像コンテンツを生成する。そして、情報処理装置200は、S19において、生成した映像コンテンツをプロジェクタ300A〜300Dへそれぞれ出力する。
プロジェクタ300A〜300Dは、それぞれ情報処理装置200から映像コンテンツを入力すると、S20において、入力した映像コンテンツを変形処理する。そして、プロジェクタ300A〜300Dは、S21において、変形処理された映像コンテンツを投影部333から投影範囲A’〜D’に投影する。これにより、プロジェクタ300A〜300Dの投影画像は、図8(b)に示すように、いずれも視聴者Pに遮られることなく適切に被投影面の投影範囲A’〜D’に投影される。つまり、視聴者Pの視界内において、被投影面に表示される表示画像が欠落することなく適切に表示される。
プロジェクタ300A〜300Dは、それぞれ情報処理装置200から映像コンテンツを入力すると、S20において、入力した映像コンテンツを変形処理する。そして、プロジェクタ300A〜300Dは、S21において、変形処理された映像コンテンツを投影部333から投影範囲A’〜D’に投影する。これにより、プロジェクタ300A〜300Dの投影画像は、図8(b)に示すように、いずれも視聴者Pに遮られることなく適切に被投影面の投影範囲A’〜D’に投影される。つまり、視聴者Pの視界内において、被投影面に表示される表示画像が欠落することなく適切に表示される。
S22においては、プロジェクタ300A〜300Dは、図8(b)に示す新たな配置位置において、投影範囲(A’〜D’)およびその周辺を再び撮像する。そして、プロジェクタ300A〜300Dは、S13と同様に撮像画像を解析し、視聴者情報を生成する。S23では、プロジェクタ300A〜300Dは、S14と同様に、視聴者情報を情報処理装置200に出力する。以降、S15〜S23の動作をフレーム毎に行う。
このように、情報処理装置200は、投影装置と投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得する。本実施形態において、上記投影装置はプロジェクタ300である。ここで、第一の情報は、オブジェクトの姿勢に関する情報をさらに含んでいてもよい。本実施形態において、上記オブジェクトは、投影画像によって被投影面に表示される表示画像を視聴する視聴者である。つまり、情報処理装置200は、第一の情報として、視聴者の位置に関する情報と視聴者の姿勢に関する情報とを取得することができ、第一の情報を視聴者情報として取得することができる。ただし、上記オブジェクトは、視聴者以外の人物であってもよいし、人物以外の物(視聴者が持っている物、床に置いてある物など)であってもよい。
このように、情報処理装置200は、投影装置と投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得する。本実施形態において、上記投影装置はプロジェクタ300である。ここで、第一の情報は、オブジェクトの姿勢に関する情報をさらに含んでいてもよい。本実施形態において、上記オブジェクトは、投影画像によって被投影面に表示される表示画像を視聴する視聴者である。つまり、情報処理装置200は、第一の情報として、視聴者の位置に関する情報と視聴者の姿勢に関する情報とを取得することができ、第一の情報を視聴者情報として取得することができる。ただし、上記オブジェクトは、視聴者以外の人物であってもよいし、人物以外の物(視聴者が持っている物、床に置いてある物など)であってもよい。
そして、情報処理装置200は、第一の情報に基づいて、被投影面上に、オブジェクトにより投影画像が遮蔽された遮蔽領域が存在するか否かを判定する。また、情報処理装置200は、遮蔽領域が存在すると判定された場合に、オブジェクトにより遮蔽されずに投影画像が遮蔽領域に投影されるような投影装置の投影範囲に関する情報を含む第二の情報を決定し、第二の情報を投影装置に出力する。ここで、第二の情報は、投影装置の位置に関する情報をさらに含んでいてもよい。このとき、情報処理装置200は、オブジェクトの姿勢に関する情報として、視聴者の顔の向きに関する情報を取得し、視聴者の視界に入る被投影面上に、遮蔽領域が存在するか否かを判定することができる。つまり、情報処理装置200は、視聴者の視界に入る被投影面上に遮蔽領域が存在しないような第二の情報を決定することができる。
つまり、情報処理装置200は、視聴者情報に基づいて、第二の情報としてプロジェクタ300の位置および姿勢に関する情報を含むプロジェクタ情報を決定する。そして、情報処理装置200は、決定されたプロジェクタ情報をプロジェクタ300へ出力する。このときプロジェクタ300の位置制御部322は、プロジェクタ情報に基づいて、視聴者がプロジェクタ300の投影画像を遮らないようにプロジェクタ300の位置および姿勢を移動することができる。
つまり、情報処理装置200は、視聴者情報に基づいて、第二の情報としてプロジェクタ300の位置および姿勢に関する情報を含むプロジェクタ情報を決定する。そして、情報処理装置200は、決定されたプロジェクタ情報をプロジェクタ300へ出力する。このときプロジェクタ300の位置制御部322は、プロジェクタ情報に基づいて、視聴者がプロジェクタ300の投影画像を遮らないようにプロジェクタ300の位置および姿勢を移動することができる。
これにより、プロジェクタ300の投影範囲が視聴者を含むオブジェクトの陰になり表示画像の一部が欠落することを回避することができる。具体的には、情報処理装置200は、視聴者の視界に入る被投影面に表示される表示画像内に、オブジェクトの影に相当する遮蔽領域が存在しないようにプロジェクタ300を制御することができる。したがって、視聴者の視界内の表示画像の欠落を確実に回避することができ、視聴者にとって違和感のない画像を表示することができる。また、視聴者の動きに追随してプロジェクタ300の投影範囲を移動することができるので、視聴者の視界の臨場感を常に確保することができる。
さらに、情報処理装置200は、撮像手段によって撮像された被投影面を含む領域の撮像画像に基づいて第一の情報を取得することができる。具体的には、プロジェクタ300が有する撮像部311が、プロジェクタ300の投影範囲およびその周辺を撮像し、視聴者検出部312が、撮像部311の撮像画像に基づいて視聴者の位置および姿勢を認識し、視聴者情報を生成する。そして、情報処理装置200は、視聴者検出部312が撮像画像に基づいて生成した視聴者情報を取得することができる。このように、視聴者を撮像した撮像画像から視聴者情報を取得することで、視聴者の位置や顔の向きを適切に把握することができる。
なお、情報処理装置200は、視聴者の位置に関する情報と、視聴者の姿勢に関する情報とを、それぞれ異なる撮像手段によって撮像された撮像画像に基づいて取得することもできる。この場合、視聴者の姿勢(顔の向き)に関する情報を取得するために、専用の撮像手段(カメラ等)を配置することができるので、視聴者の視界を適切に把握することができる。また、上記専用の撮像手段は、視聴者の動きに応じて撮像位置および撮像姿勢を変化させてもよい。これにより、より適切に視聴者の視界を把握することができる。
以上のように、映像投影システム100は、プロジェクタ300から投影され視聴者の視界に入る被投影面に表示される表示画像内に遮蔽領域を作らないように、プロジェクタ300の位置および姿勢を移動して画像を投影することができる。したがって、視聴者の没入感を阻害する要因を適切に排除し、臨場感のある映像投影が可能となる。
以上のように、映像投影システム100は、プロジェクタ300から投影され視聴者の視界に入る被投影面に表示される表示画像内に遮蔽領域を作らないように、プロジェクタ300の位置および姿勢を移動して画像を投影することができる。したがって、視聴者の没入感を阻害する要因を適切に排除し、臨場感のある映像投影が可能となる。
(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
この第二の実施形態では、複数のプロジェクタ300からそれぞれ投影される複数の投影画像を投影前に解析し、視聴者が注目する投影範囲を把握してプロジェクタ300を制御する場合について説明する。
図9は、第二の実施形態における情報処理装置201の構成を示すブロック図である。この情報処理装置201は、図2に示す情報処理装置200に映像コンテンツ解析部231(以下、映像解析部231)が追加され、情報算出部212がプロジェクタ情報算出部232(以下、情報算出部232)に置換された構成を有する。
次に、本発明の第二の実施形態について説明する。
この第二の実施形態では、複数のプロジェクタ300からそれぞれ投影される複数の投影画像を投影前に解析し、視聴者が注目する投影範囲を把握してプロジェクタ300を制御する場合について説明する。
図9は、第二の実施形態における情報処理装置201の構成を示すブロック図である。この情報処理装置201は、図2に示す情報処理装置200に映像コンテンツ解析部231(以下、映像解析部231)が追加され、情報算出部212がプロジェクタ情報算出部232(以下、情報算出部232)に置換された構成を有する。
映像解析部231は、映像入力部221から映像コンテンツを入力する。そして、映像解析部231は、入力された映像コンテンツを解析し、映像解析情報を生成する。ここで、映像解析情報は、映像コンテンツ中において特徴量が所定値以上である領域に関する情報を含む。上記特徴量としては、映像コンテンツのフレーム間の動き情報(動きベクトル情報)を用いることができ、特徴量が所定値以上である領域は、視聴者が注目する動き(主要な動き、目立った動き)のある領域として抽出することができる。なお、特徴量は動き情報に限定されるものではなく、視聴者が注目する領域を予測することができる特徴量であればよい。映像解析部231は、生成した映像解析情報を情報算出部232に出力する。
情報算出部232は、視聴者情報入力部211から入力された視聴者情報と、映像解析部231から入力された映像解析情報とに基づいて、プロジェクタ情報を算出する。ここで、プロジェクタ情報は、上述したプロジェクタ300の位置および姿勢に関する情報の他に、投影制限情報を含む。投影制限情報とは、プロジェクタ300からの投影を停止(制限)するかどうかを示す情報である。投影制限情報の詳細については後述する。
情報算出部232は、視聴者情報入力部211から入力された視聴者情報と、映像解析部231から入力された映像解析情報とに基づいて、プロジェクタ情報を算出する。ここで、プロジェクタ情報は、上述したプロジェクタ300の位置および姿勢に関する情報の他に、投影制限情報を含む。投影制限情報とは、プロジェクタ300からの投影を停止(制限)するかどうかを示す情報である。投影制限情報の詳細については後述する。
次に、第二の実施形態における情報処理装置201とプロジェクタ300との間の情報の流れについて詳細に説明する。以下の説明では、図10(a)および図10(b)に示すように、8台のプロジェクタ300(300A〜300H)が壁面を被投影面として映像を投影する場合について説明する。プロジェクタ300A、300B、300Cおよび300Dの投影範囲は、図10(a)に示すように、各々A、B、C、Dと表示された位置である。また、プロジェクタ300E、300F、300Gおよび300Hの投影範囲は、図10(b)に示すように、各々E、F、G、Hと表示された位置である。
図11に示すように、先ずS31において、情報処理装置201は、プロジェクタ300A〜300Hに対してそれぞれプロジェクタ情報を出力する。このとき、プロジェクタ300A〜300Hは、各プロジェクタの位置と投影範囲(例えば、図10(a)および図10(b)のA〜H)に関する情報を取得する。
図11に示すように、先ずS31において、情報処理装置201は、プロジェクタ300A〜300Hに対してそれぞれプロジェクタ情報を出力する。このとき、プロジェクタ300A〜300Hは、各プロジェクタの位置と投影範囲(例えば、図10(a)および図10(b)のA〜H)に関する情報を取得する。
次にS32において、プロジェクタ300A〜300Hは、それぞれ情報処理装置201から入力されたプロジェクタ情報に基づいて位置および姿勢を移動する。そして、S33において、プロジェクタ300A〜300Hは、各々の投影範囲およびその周辺を撮像し、撮像画像を解析する。このとき、図10(a)に示すように、投影範囲A〜Dを視界に入れた視聴者Pが、投影範囲A〜Hから離れた位置に存在し、プロジェクタ300A〜300Hの投影画像がいずれも視聴者Pによって遮られていないものとする。この場合、例えばプロジェクタ300Bの撮像部311が視聴者Pを撮像すると、プロジェクタ300Bの視聴者検出部312は、視聴者Pの位置および姿勢を検出して視聴者情報を生成する。そして、S34では、プロジェクタ300A〜300Hは、それぞれ撮像画像をもとに生成した視聴者情報を情報処理装置200に出力する。
情報処理装置201は、プロジェクタ300A〜300Hから視聴者情報を入力すると、S35において、オリジナルの映像コンテンツを先行して複数フレーム先まで解析する。そして、情報処理装置201は、映像コンテンツから視聴者が注目する主要な動きがある領域を抽出する。このとき、情報処理装置201は、投影範囲A〜Dに投影する映像コンテンツ(投影画像)に主要な動きが集中しており、投影範囲E〜Hに投影する映像コンテンツ(投影画像)には目立った動きがないという映像解析情報を得たものとする。
S36において、情報処理装置201は、S34において入力された視聴者情報と、S35において取得された映像解析情報とに基づいて、プロジェクタ300A〜300Hのプロジェクタ情報を算出する。図10(a)に示す例では、視聴者Pは投影範囲A〜Dの方を向いており、投影範囲A〜Dが視聴者Pの視界内に入っている。そのため、情報処理装置201は、プロジェクタ300A〜300Dの投影画像が視聴者Pによって遮られないように、プロジェクタ300A〜300Dのプロジェクタ情報を算出する。なお、図10(a)に示す例では、視聴者Pはプロジェクタ300A〜300Dの投影画像を遮っていない。そのため、この場合、情報処理装置201は、プロジェクタ300A〜300Dの現在の位置および姿勢を維持するようなプロジェクタ情報を算出する。つまり、情報処理装置20は、プロジェクタ300A〜300Dのプロジェクタ情報を変化させない。
一方、視聴者Pは投影範囲E〜Hの方を向いていないため、仮にプロジェクタ300E〜300Hの投影画像の一部が視聴者Pによって遮られていたとしても、プロジェクタ300E〜300Hを移動させる必要はない。そのため、情報処理装置201は、プロジェクタ300E〜300Hの現在の位置および姿勢を維持するようなプロジェクタ情報を算出する。また、情報処理装置201は、映像解析情報に基づいて、今後、複数フレームに亘って投影範囲E〜Hに投影される映像コンテンツに目立った動きがなく、プロジェクタ300E〜300Hからの投影の必要性が低いと判断する。そこで、情報処理装置201は、プロジェクタ300E〜300Hの投影を停止してもよいことを示す投影制限情報を、プロジェクタ300E〜300Hのプロジェクタ情報に含める。そして、S37において、情報処理装置201は、S36において算出したプロジェクタ情報をプロジェクタ300A〜300Hに出力する。
情報処理装置201からプロジェクタ情報を入力したプロジェクタ300A〜300Dは、S38において、入力されたプロジェクタ情報に基づいてプロジェクタの位置および姿勢を移動する。なお、図10(a)に示す例では、情報処理装置201は、上述したようにプロジェクタ300A〜300Dの位置および姿勢を変化させないようなプロジェクタ情報を出力するため、プロジェクタ300A〜300Dは移動しない。また、プロジェクタ300E〜300Hも同じ位置および姿勢を維持する。ただし、プロジェクタ300E〜300Hは、情報処理装置201から投影を停止してもよいことを示す投影制限情報を含むプロジェクタ情報を入力するため、投影を停止する。
なお、本実施形態では、視聴者が注目しない投影画像を投影するプロジェクタ300からの投影を停止させる場合について説明するが、投影を制限するようにしてもよい。例えば、明るさを確保する程度の映像を投影するようにしてもよい。ただし、臨場感の確保のために、音声の出力は制限しないものとする。
なお、本実施形態では、視聴者が注目しない投影画像を投影するプロジェクタ300からの投影を停止させる場合について説明するが、投影を制限するようにしてもよい。例えば、明るさを確保する程度の映像を投影するようにしてもよい。ただし、臨場感の確保のために、音声の出力は制限しないものとする。
S39では、情報処理装置201は、各プロジェクタの映像コンテンツを生成する。ここで、情報処理装置201は、S36において、プロジェクタ300E〜300Hの投影を停止すると判断している。そのため、情報処理装置201は、S39において、プロジェクタ300A〜300Dの投影範囲A〜Dに対応する映像コンテンツのみを生成する。つまり、情報処理装置201は、プロジェクタ300E〜300Hの投影範囲E〜Hに対応する映像コンテンツは生成しない。そして、情報処理装置200は、S40において、生成した映像コンテンツをプロジェクタ300A〜300Dへそれぞれ出力する。
プロジェクタ300A〜300Dは、それぞれ情報処理装置201から映像コンテンツを入力すると、S41において、入力した映像コンテンツを変形処理する。そして、プロジェクタ300A〜300Dは、S42において、変形処理された映像コンテンツを投影部333から投影範囲A〜Dに投影する。このように、プロジェクタ300A〜300Dは、視聴者Pが注目する被投影面に表示される表示画像内に遮蔽領域を作らないような位置および姿勢にて、画像を投影することができる。
プロジェクタ300A〜300Dは、それぞれ情報処理装置201から映像コンテンツを入力すると、S41において、入力した映像コンテンツを変形処理する。そして、プロジェクタ300A〜300Dは、S42において、変形処理された映像コンテンツを投影部333から投影範囲A〜Dに投影する。このように、プロジェクタ300A〜300Dは、視聴者Pが注目する被投影面に表示される表示画像内に遮蔽領域を作らないような位置および姿勢にて、画像を投影することができる。
なお、上記の例では、視聴者Pが注目する投影画像が投影される投影範囲A〜Dが、視聴者Pの視界内に入っている場合について説明した。しかしながら、視聴者Pの視界内に入っている投影範囲A〜D内に、視聴者Pが注目する投影画像が投影されない投影範囲が存在する場合であっても、情報処理装置200は上記と同様の動作を行う。つまり、主要な動きがあるか否かにかかわらず、視聴者Pの視界内に入っている被投影面上には遮蔽領域が存在しないようにプロジェクタ300を制御しておく。
S43においては、プロジェクタ300A〜300Hは、それぞれ投影範囲(A〜H)およびその周辺を再び撮像する。そして、プロジェクタ300A〜300Hは、S33と同様に撮像画像を解析し、視聴者情報を生成する。このとき、視聴者Pの位置および姿勢が図10(a)に示す状態から変化がないものとすると、視聴者情報は、S33において生成された視聴者情報と同じになる。そして、S44では、プロジェクタ300A〜300Hは、S34と同様に、視聴者情報を情報処理装置201に出力する。
S45においては、情報処理装置201は、S35と同様に、オリジナルの映像コンテンツを先行して複数フレーム先まで解析する。このとき、情報処理装置201が、今後、映像コンテンツの主要な動きが投影範囲A〜Dから投影範囲E〜Hに移っていくという映像解析情報を得たものとする。すると、S46において、情報処理装置201は、このS45において取得された映像解析情報を用いて、プロジェクタ300A〜300Hのプロジェクタ情報を算出する。
S45においては、情報処理装置201は、S35と同様に、オリジナルの映像コンテンツを先行して複数フレーム先まで解析する。このとき、情報処理装置201が、今後、映像コンテンツの主要な動きが投影範囲A〜Dから投影範囲E〜Hに移っていくという映像解析情報を得たものとする。すると、S46において、情報処理装置201は、このS45において取得された映像解析情報を用いて、プロジェクタ300A〜300Hのプロジェクタ情報を算出する。
視聴者Pの位置および姿勢は図10(a)に示す状態から変化がないため、このS45においては、情報処理装置201は、プロジェクタ300A〜300Dのプロジェクタ情報を変化させない。一方、情報処理装置201は、映像解析情報に基づいて、今後、映像コンテンツの中心が投影範囲E〜Hに移っていくため、プロジェクタ300E〜300Hからの投影が必要になると判断する。そこで、情報処理装置201は、プロジェクタ300E〜300Hの投影を再開する(投影の停止をやめる)ことを示す投影制限情報を、プロジェクタ300E〜300Hのプロジェクタ情報に含める。そして、S47において、情報処理装置201は、S46において算出したプロジェクタ情報をプロジェクタ300A〜300Hに出力する。
情報処理装置201からプロジェクタ情報を入力したプロジェクタ300A〜300Hは、S48において、入力されたプロジェクタ情報に基づいてプロジェクタの位置および姿勢を移動する。なお、図10(a)に示す例では、視聴者Pの位置および姿勢に変化はないため、プロジェクタ300A〜300Dは移動しない。また、プロジェクタ300E〜300Hも同じ位置および姿勢を維持する。ただし、プロジェクタ300E〜300Hは、情報処理装置201から投影を再開することを示すプロジェクタ情報を入力するため、投影を再開するために映像コンテンツの入力待ち状態となる。
S49では、情報処理装置201は、プロジェクタ300A〜300Hの映像コンテンツを生成する。つまり、情報処理装置201は、S49において、プロジェクタ300A〜300Dの投影範囲A〜Dに対応する映像コンテンツと、プロジェクタ300E〜300Hの投影範囲E〜Hに対応する映像コンテンツとを生成する。そして、情報処理装置200は、S50において、生成した映像コンテンツをプロジェクタ300A〜300Hへそれぞれ出力する。
S49では、情報処理装置201は、プロジェクタ300A〜300Hの映像コンテンツを生成する。つまり、情報処理装置201は、S49において、プロジェクタ300A〜300Dの投影範囲A〜Dに対応する映像コンテンツと、プロジェクタ300E〜300Hの投影範囲E〜Hに対応する映像コンテンツとを生成する。そして、情報処理装置200は、S50において、生成した映像コンテンツをプロジェクタ300A〜300Hへそれぞれ出力する。
プロジェクタ300A〜300Hは、それぞれ情報処理装置201から映像コンテンツを入力すると、S51において、入力した映像コンテンツを変形処理する。そして、プロジェクタ300A〜300Hは、S52において、変形処理された映像コンテンツを投影部333から投影範囲A〜Hに投影する。このように、視聴者Pが投影範囲E〜Hの方を向いていなくても、今後、投影範囲E〜Hに視聴者Pが注目するような投影画像が投影されると判断される場合には、先行して投影範囲E〜Hに画像を投影しておくことができる。つまり、情報処理装置201は、映像コンテンツの内容に基づいて視聴者Pの視界を予測し、各プロジェクタ300を制御することができる。したがって、情報処理装置201は、現時点において視聴者Pの視界内に入っていなくても、今後視聴者Pの視界内に入る可能性の高い投影範囲については、視聴者Pの影による欠陥領域が生じないようにプロジェクタ300を制御しておくことができる。
S53においては、プロジェクタ300A〜300Hは、それぞれ投影範囲(A〜H)およびその周辺を再び撮像する。そして、プロジェクタ300A〜300Hは、S43と同様に撮像画像を解析し、視聴者情報を生成する。S54においては、プロジェクタ300A〜300Hは、S44と同様に、視聴者情報を情報処理装置201に出力する。以降、S45〜S54の動作をフレーム毎に行う。
S53においては、プロジェクタ300A〜300Hは、それぞれ投影範囲(A〜H)およびその周辺を再び撮像する。そして、プロジェクタ300A〜300Hは、S43と同様に撮像画像を解析し、視聴者情報を生成する。S54においては、プロジェクタ300A〜300Hは、S44と同様に、視聴者情報を情報処理装置201に出力する。以降、S45〜S54の動作をフレーム毎に行う。
このように、本実施形態では、情報処理装置201は、オリジナルの映像コンテンツを複数フレームに亘って先行して解析し、視聴者が注目するような主要な動きがある領域を抽出する。そして、情報処理装置201は、抽出した領域に対応する投影画像を投影するプロジェクタ300の位置および姿勢を、被投影面上の表示画像内に視聴者の影に相当する遮蔽領域が存在しないような位置および姿勢とする。つまり、情報処理装置201は、複数の投影装置からそれぞれ被投影面に投影される複数の投影画像を投影前に解析し、複数の投影画像のうち、特徴量が所定値以上である投影画像を少なくとも1つ選択する。そして、情報処理装置201は、選択された投影画像が投影される被投影面上に、遮蔽領域が存在するか否かを判定する。つまり、情報処理装置201は、視聴者が注目する被投影面上に遮蔽領域が存在しないようにプロジェクタ情報を決定し、必要最小限のプロジェクタ300の位置および姿勢を移動させることができる。したがって、不必要なプロジェクタ300の制御を削減することができる。
また、情報処理装置201は、複数の投影画像のうち、視聴者が注目する投影画像として選択されなかった投影画像を投影する投影装置からの投影を制限することができる。具体的には、情報処理装置201は、投影の制限として、投影を停止することができる。このように、情報処理装置201は、視聴者が注目するような主要な動きのない投影画像は、プロジェクタ300から投影しないようにすることができる。したがって、プロジェクタ300の投影範囲が冗長となることを抑制することができる。
さらに、情報処理装置201は、被投影面に投影画像を投影する複数の投影装置のうち、視聴者の視界外の被投影面に投影画像を投影する投影装置からの投影を制限することができる。具体的には、情報処理装置201は、投影の制限として、投影を停止することができる。このように、視聴者の背後など視界から外れる被投影面への投影画像は、プロジェクタ300から投影しないようにすることができる。したがって、プロジェクタ300の投影範囲が冗長となることを抑制することができる。
さらに、情報処理装置201は、被投影面に投影画像を投影する複数の投影装置のうち、視聴者の視界外の被投影面に投影画像を投影する投影装置からの投影を制限することができる。具体的には、情報処理装置201は、投影の制限として、投影を停止することができる。このように、視聴者の背後など視界から外れる被投影面への投影画像は、プロジェクタ300から投影しないようにすることができる。したがって、プロジェクタ300の投影範囲が冗長となることを抑制することができる。
以上のように、映像投影システム100は、視聴者が注目しないと予想される被投影面への投影を制限(停止)したり、今後視聴者が注目すると予想される被投影面へ先行して適切に画像を投影しておいたりすることができる。また、視聴者の背後など視界から外れる領域への投影を制限(停止)することもできる。したがって、冗長なプロジェクタ制御を抑制しつつ、視聴者の没入感を阻害する要因を適切に排除し、臨場感のある映像投影が可能となる。
(変形例)
上記各実施形態においては、撮像部により撮像された画像をもとに視聴者の位置および姿勢を検出する場合について説明したが、視聴者の位置および姿勢を検出する方法は撮像画像を用いる方法に限定されない。例えば、視聴者が携帯(装着)する機器や各種センサからの情報を受信することで視聴者の位置および姿勢を検出してもよい。
また、上記各実施形態においては、視聴者が1人である場合について説明したが、視聴者が複数人であってもよい。視聴者が複数人である場合、視聴者全員の視聴者情報を取得してプロジェクタ300を制御する。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上記各実施形態においては、撮像部により撮像された画像をもとに視聴者の位置および姿勢を検出する場合について説明したが、視聴者の位置および姿勢を検出する方法は撮像画像を用いる方法に限定されない。例えば、視聴者が携帯(装着)する機器や各種センサからの情報を受信することで視聴者の位置および姿勢を検出してもよい。
また、上記各実施形態においては、視聴者が1人である場合について説明したが、視聴者が複数人であってもよい。視聴者が複数人である場合、視聴者全員の視聴者情報を取得してプロジェクタ300を制御する。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…映像投影システム、200…情報処理装置、211…視聴者情報入力部、212…プロジェクタ情報算出部、213…プロジェクタ情報出力部、300…プロジェクタ、311…撮像部、312…視聴者検出部、313…視聴者情報出力部、321…プロジェクタ情報入力部、322…プロジェクタ位置制御部
Claims (11)
- 投影装置と前記投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得する取得手段と、
前記取得手段により取得された前記第一の情報に基づいて、前記被投影面上に、前記オブジェクトにより前記投影画像が遮蔽された遮蔽領域が存在するか否かを判定する判定手段と、
前記判定手段により前記遮蔽領域が存在すると判定された場合に、前記オブジェクトにより遮蔽されずに前記投影画像が前記遮蔽領域に投影されるような前記投影装置の投影範囲に関する情報を含む第二の情報を決定する決定手段と、
前記決定手段により決定された第二の情報を前記投影装置に出力する出力手段と、を備えることを特徴とする情報処理装置。 - 前記取得手段は、撮像手段によって撮像された前記被投影面を含む領域の撮像画像に基づいて前記第一の情報を取得することを特徴とする請求項1に記載の情報処理装置。
- 前記第二の情報は、前記投影装置の位置に関する情報をさらに含むことを特徴とする請求項1または2に記載の情報処理装置。
- 前記第一の情報は、前記オブジェクトの姿勢に関する情報をさらに含むことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
- 前記オブジェクトには、人物が含まれ、
前記取得手段は、前記オブジェクトの姿勢に関する情報として、前記人物の顔の向きに関する情報を取得し、
前記判定手段は、前記人物の視界に入る前記被投影面上に、前記遮蔽領域が存在するか否かを判定することを特徴とする請求項4に記載の情報処理装置。 - 前記被投影面に前記投影画像を投影する複数の前記投影装置のうち、前記人物の視界外の前記被投影面に前記投影画像を投影する前記投影装置からの投影を制限する第一の制限手段をさらに備えることを特徴とする請求項5に記載の情報処理装置。
- 複数の前記投影装置からそれぞれ前記被投影面に投影される複数の前記投影画像を投影前に解析し、前記複数の投影画像のうち、特徴量が所定値以上である前記投影画像を少なくとも1つ選択する選択手段をさらに備え、
前記判定手段は、前記選択手段により選択された前記投影画像が投影される前記被投影面上に、前記遮蔽領域が存在するか否かを判定することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 - 前記選択手段により選択されなかった前記投影画像を投影する前記投影装置からの投影を制限する第二の制限手段をさらに備えることを特徴とする請求項7に記載の情報処理装置。
- 請求項1から8のいずれか1項に記載の情報処理装置と、
前記投影装置と、を備えることを特徴とする映像投影システム。 - 投影装置と前記投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得するステップと、
前記第一の情報に基づいて、前記被投影面上に、前記オブジェクトにより前記投影画像が遮蔽された遮蔽領域が存在するか否かを判定するステップと、
前記遮蔽領域が存在すると判定された場合に、前記遮蔽領域に前記投影画像を投影するような前記投影装置の投影範囲に関する情報を含む第二の情報を決定するステップと、
前記第二の情報を前記投影装置に出力するステップと、を含むことを特徴とする情報処理方法。 - コンピュータを、請求項1から8のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016002328A JP2017123589A (ja) | 2016-01-08 | 2016-01-08 | 情報処理装置、情報処理方法および映像投影システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016002328A JP2017123589A (ja) | 2016-01-08 | 2016-01-08 | 情報処理装置、情報処理方法および映像投影システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017123589A true JP2017123589A (ja) | 2017-07-13 |
Family
ID=59305899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016002328A Pending JP2017123589A (ja) | 2016-01-08 | 2016-01-08 | 情報処理装置、情報処理方法および映像投影システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017123589A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019187501A1 (ja) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、および、記録媒体 |
CN113794868A (zh) * | 2021-09-29 | 2021-12-14 | 中国联合网络通信集团有限公司 | 投影方法及*** |
CN114166448A (zh) * | 2022-02-10 | 2022-03-11 | 西南交通大学 | 高铁震后运行安全评估方法、装置、设备及可读存储介质 |
-
2016
- 2016-01-08 JP JP2016002328A patent/JP2017123589A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019187501A1 (ja) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、および、記録媒体 |
CN113794868A (zh) * | 2021-09-29 | 2021-12-14 | 中国联合网络通信集团有限公司 | 投影方法及*** |
CN114166448A (zh) * | 2022-02-10 | 2022-03-11 | 西南交通大学 | 高铁震后运行安全评估方法、装置、设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11245806B2 (en) | Method and apparatus for scanning and printing a 3D object | |
US10491830B2 (en) | Information processing apparatus, control method therefor, and non-transitory computer-readable storage medium | |
US8007110B2 (en) | Projector system employing depth perception to detect speaker position and gestures | |
KR102187974B1 (ko) | 가상 시점 화상의 생성에 관한 정보 처리 장치, 방법 및 프로그램 | |
JP2018142164A (ja) | 画像処理装置、画像生成方法及びプログラム | |
JP5645450B2 (ja) | 画像処理装置および方法 | |
US20220078385A1 (en) | Projection method based on augmented reality technology and projection equipment | |
US11244423B2 (en) | Image processing apparatus, image processing method, and storage medium for generating a panoramic image | |
JP2019152980A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN108447105A (zh) | 一种全景图像的处理方法及装置 | |
JP2017123589A (ja) | 情報処理装置、情報処理方法および映像投影システム | |
JP6896452B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6579727B1 (ja) | 動体検出装置、動体検出方法、動体検出プログラム | |
KR101414362B1 (ko) | 영상인지 기반 공간 베젤 인터페이스 방법 및 장치 | |
JP2019175112A (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
KR101219126B1 (ko) | 영상 특성을 반영하여 산출한 영상 움직임 정보에 기반한 제어 방법 및 시스템 | |
US11770551B2 (en) | Object pose estimation and tracking using machine learning | |
JP2022182836A (ja) | 映像処理装置及びその制御方法及びプログラム | |
WO2018173183A1 (ja) | 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム | |
US20240144530A1 (en) | Method, program, and system for 3d scanning | |
US20220408069A1 (en) | Information processing apparatus, information processing method, and storage medium | |
US20230269478A1 (en) | Information processing apparatus, method of generating moving path, and computer-readable medium storing program | |
JP6089549B2 (ja) | 情報処理装置、情報処理システム、およびプログラム | |
US10321052B2 (en) | Method and apparatus of seam finding | |
JP2023175503A (ja) | 画像処理装置及びその画像処理方法 |