JP2011254411A - 映像投影システムおよび映像投影プログラム - Google Patents

映像投影システムおよび映像投影プログラム Download PDF

Info

Publication number
JP2011254411A
JP2011254411A JP2010128469A JP2010128469A JP2011254411A JP 2011254411 A JP2011254411 A JP 2011254411A JP 2010128469 A JP2010128469 A JP 2010128469A JP 2010128469 A JP2010128469 A JP 2010128469A JP 2011254411 A JP2011254411 A JP 2011254411A
Authority
JP
Japan
Prior art keywords
projection
marker
video
screen
invisible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010128469A
Other languages
English (en)
Inventor
Tsuyoshi Yamamoto
強 山本
Masahiro Yamamoto
真裕 山本
Kazue Yamamoto
一枝 山本
Tsutomu Morishita
勉 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JTB HOKKAIDO CORP
Hokkaido University NUC
Weather Cock Co Ltd
Original Assignee
JTB HOKKAIDO CORP
Hokkaido University NUC
Weather Cock Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JTB HOKKAIDO CORP, Hokkaido University NUC, Weather Cock Co Ltd filed Critical JTB HOKKAIDO CORP
Priority to JP2010128469A priority Critical patent/JP2011254411A/ja
Publication of JP2011254411A publication Critical patent/JP2011254411A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Overhead Projectors And Projection Screens (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Projection Apparatus (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 動体に設けられた立体スクリーンに対して、被投影体の映像を整合させ自動的に追従することができる映像投影システムおよび映像投影プログラムを提供する。
【解決手段】 動体2に設けられた立体スクリーン3に映像投影装置13から所定の映像を投影する映像投影システム1であって、立体スクリーン3の位置情報および方向情報を取得する立体スクリーン情報取得部35と、立体スクリーン3に投影しようとする被投影体4の2次元映像をテクスチャとして、被投影体4の3次元モデルを作成する3次元モデル作成部32と、立体スクリーン情報取得部35が取得した立体スクリーン3の位置情報および方向情報に基づいて、被投影体4の位置、大きさおよび方向を立体スクリーン3に整合させた投影映像を3次元モデルから作成する投影映像作成部36と、投影映像作成部36が作成した投影映像を映像投影装置13に出力する投影映像出力部37とを有する。
【選択図】 図2

Description

本発明は、動体に設けられた立体スクリーンに追従させて、所定の映像を投影する映像投影システムおよび映像投影プログラムに関するものである。
従来、任意の三次元形状を有するスクリーンの表面に画像を投影して表示する投影システムが知られている。例えば、特開2001−320652号公報には、投影面の三次元形状を測定し、該測定結果に応じて投影画像を補正して投影するプロジェクタ装置が開示されている(特許文献1)。このプロジェクタ装置によれば、歪みのない出力画像を得ることができるとされている。
特開2001−320652号公報
しかしながら、特許文献1に記載された発明を含め、従来の映像投影技術では、単に、固定されたスクリーンに映像を投影しているに過ぎない。このため、人間等の動体に設けられたスクリーンに対しては、そのスクリーンの動きに合わせて被投影体の映像を追従させることができないという問題がある。
本発明は、このような問題点を解決するためになされたものであって、動体に設けられた立体スクリーンに対して、被投影体の映像を整合させ自動的に追従することができる映像投影システムおよび映像投影プログラムを提供することを目的としている。
本発明に係る映像投影システムは、動体に設けられた立体スクリーンに映像投影装置から所定の映像を投影する映像投影システムであって、前記立体スクリーンの位置情報および方向情報を取得する立体スクリーン情報取得部と、前記立体スクリーンに投影しようとする被投影体の2次元映像をテクスチャとして、前記被投影体の3次元モデルを作成する3次元モデル作成部と、前記立体スクリーン情報取得部が取得した前記立体スクリーンの位置情報および方向情報に基づいて、前記被投影体の位置、大きさおよび方向を前記立体スクリーンに整合させた投影映像を前記3次元モデルから作成する投影映像作成部と、前記投影映像作成部が作成した投影映像を前記映像投影装置に出力する投影映像出力部とを有している。また、本発明に係る映像投影プログラムは、上記各構成部としてコンピュータを機能させるものである。
また、本発明において、不可視光を撮影可能なマーカー撮影装置から前記立体スクリーンを含む映像を取得し、当該映像の中から前記立体スクリーンに設けられた複数の不可視光マーカーの位置座標を検出する不可視光マーカー検出部を有しており、前記立体スクリーン情報取得部は、前記不可視光マーカー検出部が検出した各不可視光マーカーの位置座標に基づいて、前記立体スクリーンの位置情報および方向情報を算出してもよい。
さらに、本発明において、前記被投影体および前記立体スクリーンが複数ある場合、各被投影体ごとに、互いに識別可能なマーカーが設けられているとともに、各立体スクリーンごとに、互いに識別可能な不可視光マーカーが設けられており、各被投影体に設けられた前記マーカーの識別情報を記憶するとともに、各被投影体に対応付けて、各被投影体を投影すべき各立体スクリーンに設けられた前記不可視光マーカーの識別情報を記憶するマーカー対応記憶部と、各被投影体に設けられたマーカーの発光パターンを検出するマーカー検出部と、各立体スクリーンに設けられた不可視光マーカーの発光パターンを検出する不可視光マーカー検出部と、前記マーカー検出部が検出した発光パターンおよび前記不可視光マーカーが検出した発光パターンを前記マーカー対応記憶部に記憶された識別情報と照合し、各被投影体を投影すべき立体スクリーンを判別する対応関係判別部とを有していてもよい。
また、本発明において、前記不可視光マーカーが発光マーカーである場合、各立体スクリーンごとに、異なる発光パターンを有する発光マーカーが設けられており、前記マーカー識別情報記憶部には、各立体スクリーンに対応付けて、前記発光パターンが前記識別情報として記憶されていてもよい。
本発明によれば、動体に設けられた立体スクリーンに対して、被投影体の映像を整合させ自動的に追従することができる。
本発明に係る映像投影システムおよび映像投影プログラムの一実施形態を示す全体構成図である。 本実施形態の映像投影システムおよび映像投影プログラムを示すブロック図である。 本実施形態において、マーカー対応記憶部内のデータを示す図である。 本実施形態において、2次元映像をテクスチャとして顔面モデルに投影してなる3次元モデルを示す図である。 本実施形態において、立体スクリーンの位置情報および方向情報を算出する際に使用する3つの座標系を示す図である。 本実施形態の映像投影システムおよび映像投影プログラムが実行する処理を示すフローチャート図である。
以下、本発明に係る映像投影システムおよび映像投影プログラムの実施形態について図面を用いて説明する。
図1および図2に示すように、本実施形態の映像投影システム1は、動体2に設けられた立体スクリーン3に対して、被投影体4の映像を追従させるためのものであり、主として、被投影体4を撮影する被投影体撮影装置11と、不可視光を撮影可能なマーカー撮影装置12と、立体スクリーン3に映像を投影する映像投影装置13と、被投影体4の映像を立体スクリーン3に整合させる映像処理装置14とを有している。以下、各構成について詳細に説明する。
なお、本実施形態では、図1に示すように、動体2としてはステージ上を動き回る人間を想定しており、この人間の顔面部分に立体スクリーン3を設けている。そして、被投影体4としては、ステージ上にいない他の人間を想定し、この人間の顔面部分を投影対象部分としているが、この構成に限定されるものではない。例えば、人間の胴体に立体スクリーン3を設けて、他の人間の胴体を投影してもよいし、人間以外の動物の顔を投影してもよい。
本発明において、動体2とは、自らの意思によって動き回るものに限られるものではなく、機械等のように、何らかの動力を得て動作する全てのものも含む概念である。また、立体スクリーン3とは、3次元形状を有しており、所定の映像を投影可能な全てのものを含む概念である。さらに被投影体4は、現実のものに限られるものではなく、アニメーション等を使用してもよいし、リアルタイムで投影するだけではなく、過去に撮影した映像を使用してもよい。
被投影体撮影装置11は、立体スクリーン3に投影しようとする被投影体4の2次元映像を撮影するためのものである。本実施形態において、被投影体撮影装置11は、ビデオカメラ等から構成されており、図1に示すように、複数台設けられている。そして、被投影体4の2次元映像を複数の角度から撮影し、映像処理装置14へ入力するようになっている。なお、本実施形態では、被投影体4をリアルタイムで投影するために被投影体撮影装置11を用いているが、予め撮影した映像を使用する場合には、被投影体撮影装置11は不要である。
また、本実施形態において、複数の被投影体4を被投影体撮影装置11で撮影する場合、各被投影体4を区別するため、各被投影体4ごとに互いに識別可能なマーカーを取り付ける。具体的には、各被投影体4ごとに点滅間隔や配置間隔が異なる発光マーカーや、各被投影体4ごとに発光形状が「○」「□」「+」等のように異なる発光マーカーを使用する。なお、被投影体4に設けるマーカーは、発光マーカー(アクティブ式)に限られず、反射マーカー(パッシブ式)でもよい。
マーカー撮影装置12は、立体スクリーン3に設けられた不可視光マーカーmを撮影するためのものである。ここで、不可視光マーカーmは、立体スクリーン3の位置情報および方向情報を推定するためのものであり、図1に示すように、1つの立体スクリーン3に対し複数個設けられている。また、不可視光マーカーmを使用することにより、立体スクリーン3を観賞する際、マーカーの光が邪魔にならないという利点がある。
また、立体スクリーン3が複数ある場合、例えば複数人の顔面に立体スクリーン3を設ける場合等には、各立体スクリーン3を識別するため、各立体スクリーン3ごとに、異なる発光パターンを有する不可視光マーカーmを別途、取り付ける。具体的には、上述した位置情報および方向情報を推定するための不可視光マーカーmが常時発光する場合、各立体スクリーン3ごとに点滅間隔や配置間隔が異なるもの、あるいは各立体スクリーン3ごとに発光形状が異なるものを使用する。また、各立体スクリーン3ごとに、波長の異なる不可視光マーカーmを使用することもできるが、この場合、マーカー撮影装置12が2台必要になる。
なお、本実施形態において、不可視光マーカーmは、赤外光を発するアクティブ式(発光式)の発光マーカーから構成されているがこの構成に限定されるものではない。不可視光マーカーmは、赤外光を発するものに限られるものではなく、紫外光でもよい。また、不可視光マーカーmは、アクティブ式(発光式)に限られず、パッシブ式(反射式)でもよい。
本実施形態において、マーカー撮影装置12は、赤外領域まで撮影可能な高感度カメラに赤外線フィルタを装着して構成されている。この赤外線フィルタは、可視光線をカットし、赤外線のみを透過させるバンドパスフィルタである。この構成により、マーカー撮影装置12は、立体スクリーン3に設けられた不可視光マーカーmのみを撮影することとなる。なお、マーカー撮影装置12は、不可視光マーカーmのみを撮影可能に構成されていれば、上記の構成に限定されるものではない。
映像投影装置13は、所定の映像を立体スクリーン3へ投影するためのものである。本実施形態において、映像投影装置13は、高輝度のプロジェクタから構成されており、映像処理装置14から入力された映像を投影するようになっている。また、本実施形態では、映像投影装置13の投影範囲が、動体2の移動範囲をカバーするように設定されている。これにより、動体2が映像投影装置13の投影範囲内で動き回る限り、当該動体2に設けられた立体スクリーン3に対して、映像を投影できるようになっている。
映像処理装置14は、被投影体4の映像を立体スクリーン3に整合させる変換処理を行うものである。本実施形態において、映像処理装置14は、図2に示すように、主として、本実施形態の映像投影プログラム1aや各種のデータ等を記憶する記憶手段20と、この記憶手段20を制御するとともに各種のデータを取得して演算処理する演算処理手段30とから構成されている。以下、各構成手段についてより詳細に説明する。
記憶手段20は、ROM(Read Only memory)、RAM(Random Access Memory)およびフラッシュメモリ等から構成されており、各種のデータを記憶するとともに、演算処理手段30が演算処理を行う際のワーキングエリアとして機能するものである。本実施形態において、記憶手段20は、図2に示すように、主として、プログラム記憶部21と、マーカー対応記憶部22と、2次元映像記憶部23と、投影対象モデル記憶部24とを有している。
プログラム記憶部21には、本実施形態の映像投影プログラム1aがインストールされている。そして、演算処理手段30が、映像投影プログラム1aを実行することにより、後述する各構成部としてコンピュータ(映像処理装置14)を機能させるようになっている。なお、映像投影プログラム1aの利用形態は、この構成に限られるものではなく、CD−ROM等の記録媒体に記憶させておき、この記録媒体から直接起動して実行し得るようにしてもよい。
マーカー対応記憶部22は、被投影体4および立体スクリーン3が複数存在する場合、各被投影体4と、各被投影体4を投影する各立体スクリーン3との対応関係を記憶するものである。本実施形態において、マーカー対応記憶部22は、図3に示すように、各被投影体4(O1〜O3)に設けられたマーカーの識別情報を記憶している。そして、各被投影体4に対応付けて、各被投影体4を投影しようとする立体スクリーン3(S1〜S3)に設けられた不可視光マーカーmの識別情報を記憶している。識別情報としては、上述したように、点滅間隔、配置間隔あるいは発光形状等の発光パターンを識別情報として記憶するようになっている。
なお、本実施形態では、対応付けられた被投影体4および立体スクリーン3について、同じ識別情報を使用しているが、対応付けされている限り、異なる識別情報でもよい。また、全ての被投影体4および立体スクリーン3について、点滅間隔を識別情報として使用しているが、各被投影体3および各立体スクリーン3ごとに異なる識別情報を使用してもよい。
2次元映像記憶部23は、立体スクリーン3に投影しようとする被投影体4の2次元映像を予め記憶するものである。本実施形態では、被投影体撮影装置11から被投影体4の2次元映像をリアルタイムで取得しているが、予め撮影しておいた過去の映像等を使用する場合、2次元映像記憶部23に記憶させるようになっている。
投影対象モデル記憶部24は、被投影体4の投影対象部分に類似する形状の投影対象モデルを記憶するものである。本実施形態では、被投影体4として人物を想定し、投影対象部分として顔面部分を想定している。このため、投影対象モデル記憶部24には、図4に示すように、人間の顔面部分をポリゴンで近似させた顔面モデルが、投影対象モデルとして記憶されている。
演算処理手段30は、CPU(Central Processing Unit)等から構成されており、記憶手段20にインストールされた映像投影プログラム1aを実行させることにより、図2に示すように、2次元映像正規化部31と、3次元モデル作成部32と、不可視光マーカー検出部33と、マーカー検出部34と、対応関係判別部35と、立体スクリーン情報取得部36と、投影映像作成部37と、投影映像出力部38としてコンピュータ(映像処理装置14)を機能させるようになっている。以下、各構成部についてより詳細に説明する。
2次元映像正規化部31は、被投影体4の2次元映像を正規化するためのものである。ここで、正規化とは、被投影体4の向きを画面中央において正面とし、かつ、被投影体4の大きさ(画面上のサイズ)を調整することをいう。本実施形態において、2次元映像正規化部31は、図1に示すように、被投影体撮影装置11から被投影体4(人物)の2次元映像を取得し、当該2次元映像から投影対象部分(顔面)を切り出す。また、当該投影対象部分を拡大または縮小するとともに、顔面方向を推定し、顔面モデルへテクスチャ投影する。そして、当該顔面モデルの目、鼻、口を検出して画面中央に配置するとともに、正面視点から画像化することにより正規化映像を作成するようになっている。
なお、上述した正規化に際しては、被投影体4にマーカー等を付している場合、後述する処理と同様、マーカーのローカル座標系における位置座標に基づいて、テクスチャとして投影するのに必要な顔面位置および顔面方向が自動推定される。一方、2次元映像記憶部23からマーカー等を付していない過去の映像等を使用する場合には、人間の目視による推定で手動編集し、別途、顔面位置および顔面方向に関する情報を作成する必要がある。
また、本実施形態では、正規化されていない2次元映像を使用しているが、この構成に限定されるものではなく、最初から正規化された2次元映像を使用する場合には、2次元映像正規化部31を機能させる必要はない。例えば、被投影体撮影装置11によって、直立し正面を向いている状態の被投影体4を撮影すれば、最初から正規化された2次元映像が得られることとなる。
3次元モデル作成部32は、被投影体4の3次元モデルを作成するためのものである。本実施形態において、3次元モデル作成部32は、2次元映像正規化部31が正規化した2次元映像を取得するとともに、投影対象モデル記憶部24から投影対象モデルを読み出す。そして、正規化された2次元映像をテクスチャとして投影対象モデルへ投影することで、被投影体4の3次元モデルを作成するようになっている。
不可視光マーカー検出部33は、マーカー撮影装置12が撮影した映像の中から不可視光マーカーmを検出するものである。本実施形態において、不可視光マーカー検出部33は、マーカー撮影装置12から立体スクリーン3を含む映像フレームを連続して取得する。そして、当該映像フレームの中から不可視光マーカーmが発する不可視光を波長分離し、各不可視光マーカーmの位置座標を検出するようになっている。なお、本実施形態では、不可視光として赤外光を使用しているため、ノイズとなる赤外光の強度が低い屋内での使用が好ましく、屋内で行われる舞台演出や会議演出等に特に有効である。
また、本実施形態において、立体スクリーン3が複数ある場合、不可視光マーカー検出部33は、マーカー撮影装置12から取得した映像フレーム間でオプティカルフローを解析し、点滅する不可視光マーカーmの発光パターンを検出する。そして、点滅する不可視光マーカーmのそれぞれについて、その周辺で常時発光する不可視光マーカーm群を検出し、上述した位置座標を算出するようになっている。
マーカー検出部34は、被投影体4が複数ある場合、被投影体撮影装置11が撮影した2次元画像の中からマーカーの発光パターンを検出するものである。本実施形態において、マーカー検出部34は、被投影体撮影装置11から被投影体4を含む映像フレームを連続して取得する。そして、当該映像フレーム間でオプティカルフローを解析し、マーカーの発光パターンを検出するようになっている。
対応関係判別部35は、被投影体4および立体スクリーン3が複数ある場合に、各被投影体4と各立体スクリーン3との対応関係を判別するものである。本実施形態において、対応関係判別部35は、マーカー検出部34が検出した各マーカーの発光パターンと、不可視光マーカー検出部33が検出した各不可視光マーカーmの発光パターンとを取得する。そして、各発光パターンをマーカー対応記憶部22に記憶された識別情報と照合することで、各被投影体4を投影すべき立体スクリーン3を判別するようになっている。
立体スクリーン情報取得部36は、動体2に設けられた立体スクリーン3の位置情報および方向情報を取得するものである。本実施形態において、立体スクリーン情報取得部36は、不可視光マーカー検出部33が検出した各不可視光マーカーmの位置座標(下記モデル座標系での座標)に基づいて、立体スクリーン3の位置情報および方向情報を逆算するようになっている。以下、具体的に説明する。
まず、以下の説明では、図5に示すように、3つの座標系を使用する。
(1)カメラ座標系
マーカー撮影装置12のレンズ焦点を原点(0,0,0)とし、マーカー撮影装置12のレンズ光軸をz座標の正方向とする3次元座標系(x,y,z)。本実施形態では、映像投影装置13の座標系と同一とする。
(2)スクリーン座標系
マーカー撮影装置12で撮影された映像の2次元座標系(u,v)。マーカー撮影装置12のレンズ光軸である(0,0,1)が投影される座標値を原点(0,0)とする。
(3)モデル座標系
投影対象(立体スクリーン3)が記述されている3次元座標系(x’,y’,z’)。立体スクリーン3の中心(重心など)を原点(0,0,0)とし、その座標上で投影対象モデルが記述される。
以上において、カメラ座標系(x,y,z)とモデル座標系(x’,y’,z’)との関係は、回転変換行列Mと移動ベクトルTとを用いて以下の式(1)により表される。
すなわち、モデル座標系(x’,y’,z’)からカメラ座標系(x,y,z)への変換は、以下の式(2)〜(4)により表される。
x=x’m11+y’m12+z’m13+x0 …式(2)
y=x’m21+y’m22+z’m23+y0 …式(3)
z=x’m31+y’m32+z’m33+z0 …式(4)
また、カメラ座標系(x,y,z)からスクリーン座標系(u,v)への透視変換は、以下の式(5)により行われる。
ただし、S(スケール係数)は、撮影装置の画角と画素数から算出される定数である。
したがって、モデル座標系(x’,y’,z’)からスクリーン座標系(u,v)への変換は、式(2)〜(4)を式(5)に代入し、以下の式(6),(7)により表される。
u=S(x’m11+y’m12+z’m13+x0)/(x’m31+y’m32+z’m33+z0) …式(6)
v=S(x’m21+y’m22+z’m23+y0)/(x’m31+y’m32+z’m33+z0) …式(7)
以上のように、回転変換行列Mと移動ベクトルTとを合わせて、未知数が12個あるため、完全な位置情報および方向情報を得るには、12本の関係式を必要とする。この点、本実施形態では、不可視光マーカー検出部33が、各不可視光マーカーmiのモデル座標系における位置座標(x’i,y’i,z’i)を検出する。このため、1つの不可視光マーカーmにつき、2本の関係式(6),(7)が定義される。したがって、6個以上の不可視光マーカーmがあれば、12次連立非線形方程式が得られるため、回転変換行列Mおよび移動ベクトルTが算出可能となる。
ただし、12次連立非線形方程式を短時間かつ安定的に解こうとすると、システムに負担がかかる。そこで、本実施形態では、立体スクリーン3の移動ベクトルTのz値(z0)が既知であり、かつ、立体スクリーン3の範囲が、z0に比べて十分に小さい(zi≒z0)と仮定した。本実施形態のように、ステージ上の人間に投影することを想定した場合、舞台設計に基づいてz0の概略値が得られるとともに、立体スクリーン3がz軸方向(ステージの前後方向)に移動することはほとんどないからである。
上記の仮定により、本実施形態では、未知数が8個に減少し、かつ、方程式が線形化する。したがって、図5に示すように、不可視光マーカーmiが4個あれば、下記式(8)〜(15)が成立するため、立体スクリーン情報取得部36は、短時間かつ安定的に、方向情報としての回転変換行列M、および位置情報としての移動ベクトルTを算出するようになっている。
u1=S(x’1m11+y’1m12+z’1m13+x0)/z0 …式(8)
v1=S(x’1m21+y’1m22+z’1m23+y0)/z0 …式(9)
u2=S(x’2m11+y’2m12+z’2m13+x0)/z0 …式(10)
v2=S(x’2m21+y’2m22+z’2m23+y0)/z0 …式(11)
u3=S(x’3m11+y’3m12+z’3m13+x0)/z0 …式(12)
v3=S(x’3m21+y’3m22+z’3m23+y0)/z0 …式(13)
u4=S(x’4m11+y’4m12+z’4m13+x0)/z0 …式(14)
v4=S(x’4m21+y’4m22+z’4m23+y0)/z0 …式(15)
なお、本実施形態において、回転変換行列Mは、回転角(ρ,θ,φ)形式で算出することもできるが、計算式が複雑になるのを避けるため、3×3行列形式で算出している。また、本実施形態では、不可視光マーカーmを用いて立体スクリーン3の位置情報および方向情報を算出しているが、この構成に限定されるものではない。例えば、立体スクリーン3に6自由度を検出可能な3次元位置センサを設け、立体スクリーン情報取得部36が、当該センサから直接位置情報および方向情報を取得するようにしてもよい。
また、本実施形態において、立体スクリーン3が複数ある場合、立体スクリーン情報取得部36は、対応関係判別部35が判別した各立体スクリーン3のそれぞれについて、上述した処理を実行し、位置情報および方向情報を取得するようになっている。
投影映像作成部37は、立体スクリーン3へ投影するための投影映像を作成するためのものである。本実施形態において、投影映像作成部37は、立体スクリーン情報取得部36が取得した立体スクリーン3の位置情報および方向情報を取得する。そして、これらの情報に基づいて、被投影体4の位置、大きさおよび方向が立体スクリーン3に整合した状態の投影映像を3次元モデルから作成するようになっている。
具体的には、まず、映像投影装置13の座標系と上記のカメラ座標系とが同一であると仮定する。この仮定は、映像投影装置13の位置と、マーカー撮影装置12の焦点位置および方向画角を一致させることと同意である。なお、厳密には、映像投影装置13とマーカー撮影装置12との焦点位置を一致させることはできないが、立体スクリーン3までの距離と比べると、両焦点位置は十分に近距離であるため問題はない。
以上において、投影映像作成部37は、3次元モデル作成部32が作成した3次元モデルを取得し、その中心をカメラ座標系の原点に設置する。そして、投影映像作成部37は、立体スクリーン情報取得部36が取得した回転変換行列Mおよび移動ベクトルTを用いて、3次元モデルに対して投影変換を実行する。さらに、投影映像作成部37は、投影変換後の3次元モデルに対し、上記式(5)にz0およびS(スケール係数)を用いて透視変換を実行し、投影映像を作成するようになっている。
なお、被投影体4が複数ある場合、投影映像作成部37は、各被投影体4について、上述した処理を実行し、各被投影体4が対応する各立体スクリーン3上に投影されるように投影映像内に配置する。
投影映像出力部38は、投影映像を映像投影装置13へ出力するものである。本実施形態において、投影映像出力部38は、投影映像作成部37が作成した投影映像を取得し、当該投影映像を映像投影装置13へ出力するようになっている。
つぎに、本実施形態の映像投影プログラム1aによって実行される映像処理装置14と、この映像処理装置14を含む映像投影システム1の作用につき、図6を参照しつつ説明する。
本実施形態の映像投影システム1を用いて、ステージ上を動き回る人間の顔面に装着された立体スクリーン3に、他の人物の顔面映像をリアルタイムで追従させて投影する場合、映像処理装置14は、被投影体撮影装置11からリアルタイムで被投影体4の2次元映像を入力するとともに(ステップS1)、マーカー撮影装置12から立体スクリーン3を含む映像を入力する(ステップS2)。なお、ステップS1およびステップS2は、同時並行的に実行される。
つぎに、2次元映像正規化部31が、ステップS1で入力された2次元映像から顔面部分を切り出し、当該顔面部分を正規化する(ステップS3)。これにより、被投影体4となる人物の顔面部分が、画面の中央において、常に正面を向いており、かつ、正規化された大きさ(画面上のサイズ)に調整される。
つづいて、3次元モデル作成部32が、ステップS3で正規化された顔面の2次元映像をテクスチャとして投影対象モデル(顔面モデル)へ投影し、被投影体4の3次元モデルを作成する(ステップS4)。これにより、映像処理装置14内において、被投影体4となる人物の仮想的な顔面データが3次元的に構築される。
一方、不可視光マーカー検出部33は、ステップS2で入力された映像の中から不可視光マーカーmの位置座標を検出する(ステップS5)。このとき、本実施形態では、不可視光のみを撮影可能なマーカー撮影装置12を使用しているため、不可視光マーカーmを検出する画像処理が高速化され、リアルタイムでの追従投影が可能となる。
本実施形態において、被投影体4およびこれを投影するための立体スクリーン3が複数ある場合、不可視光マーカー検出部33が、各不可視光マーカーmの発光パターンを検出するとともに、マーカー検出部34が、各マーカーの発光パターンを検出する(ステップS6)。そして、対応関係判別部35が、各発光パターンをマーカー対応記憶部22に記憶された識別情報と照合し、各被投影体4を投影すべき立体スクリーン3を判別する(ステップS7)。
これにより、複数の被投影体4を同時に複数の立体スクリーン3へ投影する場合であっても、各被投影体4を投影すべき立体スクリーン3が識別される。また、各不可視光マーカーmごとに異なる発光パターンを有しているため、動体2が交差する場合や、構造物の裏から出現する場合等でも、各立体スクリーン3を瞬時に識別する。なお、被投影体4および立体スクリーン3がそれぞれ1つの場合、上記ステップS6,S7は実行されない。
つぎに、立体スクリーン情報取得部36が、ステップS5で検出された各不可視光マーカーmの位置座標に基づいて、立体スクリーン3の位置情報および方向情報を取得する(ステップS8)。また、立体スクリーン3が複数ある場合、立体スクリーン情報取得部36は、各立体スクリーン3について位置情報および方向情報を取得する。
つづいて、投影映像作成部37が、ステップS8で取得した位置情報および方向情報に基づいて、ステップS4で作成された3次元モデルを投影変換するとともに、透視変換を実行し、投影映像を作成する(ステップS9)。これにより、立体スクリーン3の動きに合わせて、被投影体4の位置、大きさおよび方向が整合するように、リアルタイムで投影映像がレンダリングされる。
ステップS9で作成された投影映像は、投影映像出力部38が、逐次、映像投影装置13へと出力する(ステップS10)。これにより、映像投影装置13の投影範囲内に存在する限り、動体2に設けられた立体スクリーン3に対して、投影映像が投影される。その後、投影処理が終了するまで、上記のステップS1〜S10を繰り返した後(ステップS11)、本処理は終了する。
以上のような本実施形態によれば、以下のような効果を奏する。
1.動体2に設けられた立体スクリーン3に対して、被投影体4の映像をリアルタイムで整合させ自動的に追従させることができる。
2.複数の被投影体4が存在する場合でも、各被投影体4を同時にリアルタイムで複数の立体スクリーン3に追従投影することができる。
3.例えばステージ上の人物や衣装に、その場にいない人物や故人等の表情や演技を合成し、実際にその人物がその場にいるような臨場感のある演出を行うことができる。
4.例えば会議室内の人物や人物模型に、遠隔地から参加者の顔面映像を投影し、あたかも参加者が会議室に参列しているかのような臨場感を与えることができる。
なお、本発明に係る映像投影システム1および映像投影プログラム1aは、前述した実施形態に限定されるものではなく、適宜変更することができる。
例えば、上述した本実施形態では、映像投影装置13を1台だけ使用しているが、この構成に限定されるものではなく、動体2が広範囲に移動する場合には、映像投影装置13を複数台設置し、投影範囲を広げればよい。そして、立体スクリーン情報取得部36が取得した立体スクリーン3の位置情報に基づいて、投影映像出力部38が、映像投影装置13を切り換えながら投影映像を出力するように制御してもよい。
1 映像投影システム
1a 映像投影プログラム
2 動体
3 立体スクリーン
4 被投影体
11 被投影体撮影装置
12 マーカー撮影装置
13 映像投影装置
14 映像処理装置
20 記憶手段
21 プログラム記憶部
22 マーカー対応記憶部
23 2次元映像記憶部
24 投影対象モデル記憶部
30 演算処理手段
31 2次元映像正規化部
32 3次元モデル作成部
33 マーカー検出部
34 不可視光マーカー検出部
35 対応関係判別部
36 立体スクリーン情報取得部
37 投影映像作成部
38 投影映像出力部
m 不可視光マーカー

Claims (8)

  1. 動体に設けられた立体スクリーンに映像投影装置から所定の映像を投影する映像投影システムであって、
    前記立体スクリーンの位置情報および方向情報を取得する立体スクリーン情報取得部と、
    前記立体スクリーンに投影しようとする被投影体の2次元映像をテクスチャとして、前記被投影体の3次元モデルを作成する3次元モデル作成部と、
    前記立体スクリーン情報取得部が取得した前記立体スクリーンの位置情報および方向情報に基づいて、前記被投影体の位置、大きさおよび方向を前記立体スクリーンに整合させた投影映像を前記3次元モデルから作成する投影映像作成部と、
    前記投影映像作成部が作成した投影映像を前記映像投影装置に出力する投影映像出力部と
    を有する映像投影システム。
  2. 不可視光を撮影可能なマーカー撮影装置から前記立体スクリーンを含む映像を取得し、当該映像の中から前記立体スクリーンに設けられた複数の不可視光マーカーの位置座標を検出する不可視光マーカー検出部を有しており、
    前記立体スクリーン情報取得部は、前記不可視光マーカー検出部が検出した各不可視光マーカーの位置座標に基づいて、前記立体スクリーンの位置情報および方向情報を算出する請求項1に記載の映像投影システム。
  3. 前記被投影体および前記立体スクリーンが複数ある場合、各被投影体ごとに、互いに識別可能なマーカーが設けられているとともに、各立体スクリーンごとに、互いに識別可能な不可視光マーカーが設けられており、
    各被投影体に設けられた前記マーカーの識別情報を記憶するとともに、各被投影体に対応付けて、各被投影体を投影すべき各立体スクリーンに設けられた前記不可視光マーカーの識別情報を記憶するマーカー対応記憶部と、
    各被投影体に設けられたマーカーの発光パターンを検出するマーカー検出部と、
    各立体スクリーンに設けられた不可視光マーカーの発光パターンを検出する不可視光マーカー検出部と、
    前記マーカー検出部が検出した発光パターンおよび前記不可視光マーカーが検出した発光パターンを前記マーカー対応記憶部に記憶された識別情報と照合し、各被投影体を投影すべき立体スクリーンを判別する対応関係判別部と
    を有している請求項2に記載の映像投影システム。
  4. 前記不可視光マーカーが発光マーカーである場合、各立体スクリーンごとに、異なる発光パターンを有する発光マーカーが設けられており、前記マーカー識別情報記憶部には、各立体スクリーンに対応付けて、前記発光パターンが前記識別情報として記憶されている請求項3に記載の映像投影システム。
  5. 動体に設けられた立体スクリーンに映像投影装置から所定の映像を投影するようにコンピュータを機能させる映像投影プログラムであって、
    前記立体スクリーンの位置情報および方向情報を取得する立体スクリーン情報取得部と、
    前記立体スクリーンに投影しようとする被投影体の2次元映像をテクスチャとして、前記被投影体の3次元モデルを作成する3次元モデル作成部と、
    前記立体スクリーン情報取得部が取得した前記立体スクリーンの位置情報および方向情報に基づいて、前記被投影体の位置、大きさおよび方向を前記立体スクリーンに整合させた投影映像を前記3次元モデルから作成する投影映像作成部と、
    前記投影映像作成部が作成した投影映像を前記映像投影装置に出力する投影映像出力部と
    してコンピュータを機能させる映像投影プログラム。
  6. 不可視光を撮影可能なマーカー撮影装置から前記立体スクリーンを含む映像を取得し、当該映像の中から前記立体スクリーンに設けられた複数の不可視光マーカーの位置座標を検出する不可視光マーカー検出部としてコンピュータを機能させ、
    前記立体スクリーン情報取得部は、前記不可視光マーカー検出部が検出した各不可視光マーカーの位置座標に基づいて、前記立体スクリーンの位置情報および方向情報を算出する請求項5に記載の映像投影プログラム。
  7. 前記被投影体および前記立体スクリーンが複数ある場合、各被投影体ごとに、互いに識別可能なマーカーが設けられているとともに、各立体スクリーンごとに、互いに識別可能な不可視光マーカーが設けられており、
    各被投影体に設けられた前記マーカーの識別情報を記憶するとともに、各被投影体に対応付けて、各被投影体を投影すべき各立体スクリーンに設けられた前記不可視光マーカーの識別情報を記憶するマーカー対応記憶部と、
    各被投影体に設けられたマーカーの発光パターンを検出するマーカー検出部と、
    各立体スクリーンに設けられた不可視光マーカーの発光パターンを検出する不可視光マーカー検出部と、
    前記マーカー検出部が検出した発光パターンおよび前記不可視光マーカーが検出した発光パターンを前記マーカー対応記憶部に記憶された識別情報と照合し、各被投影体を投影すべき立体スクリーンを判別する対応関係判別部と
    してコンピュータを機能させる請求項6に記載の映像投影プログラム。
  8. 前記不可視光マーカーが発光マーカーである場合、各立体スクリーンごとに、異なる発光パターンを有する発光マーカーが設けられており、前記マーカー識別情報記憶部には、各立体スクリーンに対応付けて、前記発光パターンが前記識別情報として記憶されている請求項7に記載の映像投影プログラム。
JP2010128469A 2010-06-04 2010-06-04 映像投影システムおよび映像投影プログラム Pending JP2011254411A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010128469A JP2011254411A (ja) 2010-06-04 2010-06-04 映像投影システムおよび映像投影プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010128469A JP2011254411A (ja) 2010-06-04 2010-06-04 映像投影システムおよび映像投影プログラム

Publications (1)

Publication Number Publication Date
JP2011254411A true JP2011254411A (ja) 2011-12-15

Family

ID=45417942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010128469A Pending JP2011254411A (ja) 2010-06-04 2010-06-04 映像投影システムおよび映像投影プログラム

Country Status (1)

Country Link
JP (1) JP2011254411A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013192189A (ja) * 2012-03-15 2013-09-26 Casio Comput Co Ltd 画像処理装置、投影システム、プログラム及び画像処理方法
WO2014003099A1 (ja) * 2012-06-29 2014-01-03 株式会社セガ 映像演出装置
JP2014032304A (ja) * 2012-08-03 2014-02-20 National Institute Of Advanced Industrial & Technology 情報処理装置、情報処理方法及びプログラム
JP2014089242A (ja) * 2012-10-29 2014-05-15 Casio Comput Co Ltd 画像処理装置、映像データ補正方法及びプログラム
WO2015008756A1 (ja) * 2013-07-19 2015-01-22 株式会社ニコン 投影装置、制御装置、制御プログラム、および投影制御方法
JP2015506121A (ja) * 2011-11-16 2015-02-26 ストーウェル・リンネル・エルエルシー ロボット制御のオブジェクトによる3dプロジェクション・マッピングのシステム及び方法
WO2015151766A1 (ja) * 2014-03-31 2015-10-08 コニカミノルタ株式会社 投影撮影システム、カラオケ装置及びシミュレーション装置
WO2015170680A1 (ja) * 2014-05-09 2015-11-12 コニカミノルタ株式会社 投影システム
JP2016063394A (ja) * 2014-09-18 2016-04-25 日本電信電話株式会社 投影画像生成装置、投影画像生成方法および投影画像生成プログラム
JP2016081497A (ja) * 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
JP2016085379A (ja) * 2014-10-27 2016-05-19 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP2017026652A (ja) * 2015-07-15 2017-02-02 国立大学法人東北大学 スクリーン、位置特定装置、映像処理装置、パターン生成装置、スクリーンの製造方法
JP2017192040A (ja) * 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 3次元的な投影対象のための投影方法及び装置
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
JP2020014075A (ja) * 2018-07-17 2020-01-23 恵 志水 画像投影システム、画像投影方法、及びプログラム
CN113259642A (zh) * 2021-05-12 2021-08-13 华强方特(深圳)科技有限公司 一种影片视角调节方法及***
JP2021533391A (ja) * 2018-08-03 2021-12-02 オックスフォード メトリックス ピーエルシー アクティブマーカデバイスおよびその設計方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001083949A (ja) * 1999-09-16 2001-03-30 Japan Science & Technology Corp 映像投影装置
JP2008085641A (ja) * 2006-09-27 2008-04-10 Gifu Univ 三次元像表示装置
JP2009147480A (ja) * 2007-12-12 2009-07-02 Gifu Univ 投影システムの校正装置
JP2009216958A (ja) * 2008-03-11 2009-09-24 Gifu Univ 三次元表示装置
JP2010204759A (ja) * 2009-02-27 2010-09-16 Gifu Univ 三次元像表示装置の座標校正方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001083949A (ja) * 1999-09-16 2001-03-30 Japan Science & Technology Corp 映像投影装置
JP2008085641A (ja) * 2006-09-27 2008-04-10 Gifu Univ 三次元像表示装置
JP2009147480A (ja) * 2007-12-12 2009-07-02 Gifu Univ 投影システムの校正装置
JP2009216958A (ja) * 2008-03-11 2009-09-24 Gifu Univ 三次元表示装置
JP2010204759A (ja) * 2009-02-27 2010-09-16 Gifu Univ 三次元像表示装置の座標校正方法

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
US9472011B2 (en) 2011-11-16 2016-10-18 Google Inc. System and method for 3D projection mapping with robotically controlled objects
JP2015506121A (ja) * 2011-11-16 2015-02-26 ストーウェル・リンネル・エルエルシー ロボット制御のオブジェクトによる3dプロジェクション・マッピングのシステム及び方法
US10447899B2 (en) 2011-11-16 2019-10-15 X Development Llc System and method for 3D projection mapping with robotically controlled objects
JP2013192189A (ja) * 2012-03-15 2013-09-26 Casio Comput Co Ltd 画像処理装置、投影システム、プログラム及び画像処理方法
WO2014003099A1 (ja) * 2012-06-29 2014-01-03 株式会社セガ 映像演出装置
JP2014032304A (ja) * 2012-08-03 2014-02-20 National Institute Of Advanced Industrial & Technology 情報処理装置、情報処理方法及びプログラム
JP2014089242A (ja) * 2012-10-29 2014-05-15 Casio Comput Co Ltd 画像処理装置、映像データ補正方法及びプログラム
WO2015008756A1 (ja) * 2013-07-19 2015-01-22 株式会社ニコン 投影装置、制御装置、制御プログラム、および投影制御方法
WO2015151766A1 (ja) * 2014-03-31 2015-10-08 コニカミノルタ株式会社 投影撮影システム、カラオケ装置及びシミュレーション装置
WO2015170680A1 (ja) * 2014-05-09 2015-11-12 コニカミノルタ株式会社 投影システム
JP2016063394A (ja) * 2014-09-18 2016-04-25 日本電信電話株式会社 投影画像生成装置、投影画像生成方法および投影画像生成プログラム
JP2016081497A (ja) * 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
US9946146B2 (en) 2014-10-27 2018-04-17 Canon Kabushiki Kaisha Control apparatus configured to control projection of an image based on position information, projection information, and shape information, corresponding control method and corresponding storage medium
JP2016085379A (ja) * 2014-10-27 2016-05-19 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP2017026652A (ja) * 2015-07-15 2017-02-02 国立大学法人東北大学 スクリーン、位置特定装置、映像処理装置、パターン生成装置、スクリーンの製造方法
JP2017192040A (ja) * 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 3次元的な投影対象のための投影方法及び装置
WO2017179432A1 (ja) * 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 3次元的な投影対象のための画像投影方法及び画像投影装置
JP2020014075A (ja) * 2018-07-17 2020-01-23 恵 志水 画像投影システム、画像投影方法、及びプログラム
JP2021533391A (ja) * 2018-08-03 2021-12-02 オックスフォード メトリックス ピーエルシー アクティブマーカデバイスおよびその設計方法
CN113259642B (zh) * 2021-05-12 2023-05-30 华强方特(深圳)科技有限公司 一种影片视角调节方法及***
CN113259642A (zh) * 2021-05-12 2021-08-13 华强方特(深圳)科技有限公司 一种影片视角调节方法及***

Similar Documents

Publication Publication Date Title
JP2011254411A (ja) 映像投影システムおよび映像投影プログラム
US11693242B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
US10223834B2 (en) System and method for immersive and interactive multimedia generation
JP6690041B2 (ja) 三次元物体上の注視点決定方法及び装置
US10320437B2 (en) System and method for immersive and interactive multimedia generation
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP3624353B2 (ja) 3次元形状計測方法およびその装置
US20180046874A1 (en) System and method for marker based tracking
TWI496108B (zh) AR image processing apparatus and method
US9740282B1 (en) Gaze direction tracking
JP2016218905A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5147980B1 (ja) 対象物複数画像対応付け装置、そのデータ再生装置、画像処理システム
CN108139876B (zh) 用于沉浸式和交互式多媒体生成的***和方法
US11562537B2 (en) System for rapid digitization of an article
JP6027952B2 (ja) 拡張現実画像生成システム、3次元形状データ生成装置、拡張現実提示装置、拡張現実画像生成方法、及びプログラム
JP4623320B2 (ja) 三次元形状推定システム及び画像生成システム
JPH0273471A (ja) 三次元形状推定方法
KR20160073488A (ko) 3d 스캐너
TW201508413A (zh) 立體掃描裝置
JP2024089738A (ja) 三次元情報抽出装置及び三次元情報抽出方法
JP2023080688A (ja) 画像作成方法、画像作成プログラム、画像作成装置及び画像作成システム
Fikke et al. 3D Face Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140730