JP5509044B2 - 多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラム - Google Patents

多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラム Download PDF

Info

Publication number
JP5509044B2
JP5509044B2 JP2010260482A JP2010260482A JP5509044B2 JP 5509044 B2 JP5509044 B2 JP 5509044B2 JP 2010260482 A JP2010260482 A JP 2010260482A JP 2010260482 A JP2010260482 A JP 2010260482A JP 5509044 B2 JP5509044 B2 JP 5509044B2
Authority
JP
Japan
Prior art keywords
camera
gazing point
robot
slave
master
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010260482A
Other languages
English (en)
Other versions
JP2012114593A (ja
Inventor
健佑 池谷
祐一 岩舘
健介 久富
美和 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2010260482A priority Critical patent/JP5509044B2/ja
Publication of JP2012114593A publication Critical patent/JP2012114593A/ja
Application granted granted Critical
Publication of JP5509044B2 publication Critical patent/JP5509044B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、複数のロボットカメラ(遠隔制御カメラ)を用いて、3次元空間中の被写体の多視点映像を撮影する、多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラムに関するものである。
カーネギーメロン大学は、複数のテレビカメラをそれぞれ電動雲台に乗せて設置し、パン、チルトの制御を可能にすることにより、スポーツ試合のように被写体が動き回るような場合においても、多視点映像表現を準リアルタイムで実現することができる“EyeVision(登録商標)”と呼ばれるシステムを開発し、米国の放送会社であるCBSが「スーパーボール」のテレビ中継に利用した。
“EyeVision”では、フィールドを俯瞰でとれる位置に複数台の電動雲台カメラを配置し、そのうちの1台をマスターカメラとしてカメラマンが操作する。マスターカメラでフィールド上の被写体を追随することで被写体を注視点と設定し、その他のカメラが注視点に向かって自動的に方向制御することで多視点映像を撮影し、多視点映像表現を行う。
伊佐憲一、他4名、「最新スポーツ中継技術 世界初! プロ野球中継におけるEyeVisionTM(アイビジョン)の活用」、放送技術、兼六館出版、2001年11月、p.96−p.105
”EyeVision”は多視点映像を撮影することができるが、被写体を注視点と設定するために必要な、マスターカメラから被写体までの距離値を正確に求めることができなかった。”EyeVision”では、被写体を地上の人間に限定し、被写体が地面にいるという拘束条件から距離値を求めている。そのため、フィールドを俯瞰でとれる位置にカメラを配置しなければならず、被写体とカメラの位置関係に制限が生じるという問題があった。例えば、カメラより高い位置にある被写体を撮影することはできなかった。また、被写体の位置を地面から0mの位置に設定していると、スレーブカメラが被写体を捉えきれない場合があり、その場合には被写体の位置を地面から1m〜1.5mぐらいの高さに設定しなおさなければならないという問題があった。
本発明の目的は、上記問題を解決するため、被写体及びカメラの位置を制限することなく様々な用途で多視点映像を撮影することが可能な、多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラムを提供することにある。
本発明では、上記課題を解決するために、マスターカメラの光軸上に注視点を設定し、全てのカメラを注視点へ方向制御後、注視点を光軸上で連続的に変化させ、マスターカメラによる撮影映像及びスレーブカメラによる撮影映像の画角中央に被写体が映るポイントを探索することで、マスターカメラから被写体までの正確な距離値を求める。
すなわち、本発明に係る多視点ロボットカメラシステムは、複数台のロボットカメラを用いて3次元空間中の被写体の多視点映像を撮影する多視点ロボットカメラシステムであって、1台のマスターカメラ及び1台以上のスレーブカメラからなる複数台のロボットカメラと、該複数台のロボットカメラを制御する多視点ロボットカメラ制御装置とを備え、前記多視点ロボットカメラ制御装置は、前記マスターカメラ及び前記スレーブカメラの初期パラメータを格納するパラメータ格納部と、前記マスターカメラのエンコーダ値を取得し、前記初期パラメータを用いて、方向操作されたマスターカメラの回転行列を生成する回転行列生成部と、指定された距離値に基づいて前記方向操作されたマスターカメラの注視点を光軸上に設定する注視点制御部と、前記スレーブカメラを方向制御して、該スレーブカメラの注視点を前記方向操作されたマスターカメラの注視点に一致させる方向制御部とを備え、前記注視点制御部は、前記方向操作されたマスターカメラによる撮影映像と前記スレーブカメラによる撮影映像について所定の類似度が得られるまで、前記設定された注視点を前記光軸に沿って被写体方向に移動させることを特徴とする。
さらに、本発明に係る多視点ロボットカメラシステムにおいて、前記方向制御部は、前記スレーブカメラから前記方向操作されたマスターカメラの注視点へ向かう単位ベクトルを、前記スレーブカメラの初期パラメータを用いて算出し、該単位ベクトルから、前記スレーブカメラの注視点を前記方向操作されたマスターカメラの注視点に一致させるパン角度及びチルト角度を算出することを特徴とする。
さらに、本発明に係る多視点ロボットカメラシステムにおいて、前記方向操作されたマスターカメラによる撮影映像と前記スレーブカメラによる撮影映像の類似度を算出し、該類似度が高いか否かを判定する判定信号を生成する映像比較部を更に備え、前記注視点制御部は、前記判定信号に基づいて、前記設定された注視点を前記光軸に沿って被写体方向に移動させることを特徴とする。
さらに、本発明に係る多視点ロボットカメラシステムにおいて、前記回転行列生成部は、前記方向操作されたマスターカメラの回転行列、及び前記方向制御部により方向制御されたスレーブカメラの回転行列を生成することを特徴とする。
さらに、本発明に係る多視点ロボットカメラシステムにおいて、前記注視点制御部により決定された注視点の位置を微調整するユーザーインターフェース部を更に備えることを特徴とする。
また、上記課題を解決するために、多視点ロボットカメラ制御装置は、3次元空間中の被写体の多視点映像を撮影する複数台のロボットカメラを制御する多視点ロボットカメラ制御装置であって、1台のマスターカメラ及び1台以上のスレーブカメラからなる前記複数台のロボットカメラの初期パラメータを格納するパラメータ格納部と、前記マスターカメラのエンコーダ値を取得し、前記初期パラメータを用いて、方向操作されたマスターカメラの回転行列を生成する回転行列生成部と、指定された距離値に基づいて前記方向操作されたマスターカメラの注視点を光軸上に設定する注視点制御部と、前記スレーブカメラを方向制御して、該スレーブカメラの注視点を前記方向操作されたマスターカメラの注視点に一致させる方向制御部とを備え、前記注視点制御部は、前記方向操作されたマスターカメラによる撮影映像と前記スレーブカメラによる撮影映像について所定の類似度が得られるまで、前記設定された注視点を前記光軸に沿って被写体方向に移動させることを特徴とする。
また、上記課題を解決するために、本発明は、3次元空間中の被写体の多視点映像を撮影する複数台のロボットカメラを制御する多視点ロボットカメラ制御装置として機能するコンピュータに、1台のマスターカメラ及び1台以上のスレーブカメラからなる前記複数台のロボットカメラの初期パラメータを格納するステップと、前記マスターカメラのエンコーダ値を取得し、前記初期パラメータを用いて、方向操作されたマスターカメラの回転行列を生成するステップと、指定された距離値に基づいて前記方向操作されたマスターカメラの注視点を光軸上に設定するステップと、記スレーブカメラを方向制御して、該スレーブカメラの注視点を前記方向操作されたマスターカメラの注視点に一致させるステップと、前記方向操作されたマスターカメラによる撮影映像と前記スレーブカメラによる撮影映像について所定の類似度が得られるまで、前記設定された注視点を前記光軸に沿って被写体方向に移動させるステップと、を実行させるためのプログラムとしても特徴付けられる。
本発明によれば、被写体を注視点と設定するために必要となる、マスターカメラから被写体までの距離値を正確に求めることができるため、カメラ及び被写体の位置関係に拘束条件がなくなり、様々な用途で多視点映像を撮影することができるようになる。
本発明による実施例1の多視点ロボットカメラシステムの構成を示すブロック図である。 世界座標系とカメラ座標系との関係を示す図である。 本発明による実施例1の多視点ロボットカメラシステムの動作を示すフローチャートである。 本発明による実施例1の多視点ロボットカメラシステムの動作を説明する図である。 本発明による実施例1の多視点ロボットカメラシステムの動作を説明する図である。 本発明による実施例1の多視点ロボットカメラシステムの動作を説明する図である。 本発明による実施例2の多視点ロボットカメラシステムの構成を示すブロック図である。 本発明による実施例2の多視点ロボットカメラシステムの動作を示すフローチャートである。 本発明による実施例3の多視点ロボットカメラシステムの構成を示すブロック図である。 本発明による実施例3の多視点ロボットカメラシステムのインターフェース部による類似度判定を説明する図である。 本発明による実施例3の多視点ロボットカメラシステムのインターフェース部による類似度判定を説明する図である。 本発明による実施例3の多視点ロボットカメラシステムの動作を示すフローチャートである。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
[多視点ロボットカメラシステムの構成]
図1は、実施例1の多視点ロボットカメラシステムの構成を示すブロック図である。多視点ロボットカメラシステム1は、n台のロボットカメラ10(10−1〜10−n)と、多視点ロボットカメラ制御装置20とを備える。多視点ロボットカメラ制御装置20は、マスターカメラセレクト部21と、パラメータ格納部22と、回転行列生成部23と、距離値設定部24と、注視点制御部25と、方向制御部26と、映像処理部27と、映像比較部28とを備える。
ロボットカメラ10は、3次元空間中の被写体の多視点映像を撮影する。また、ロボットカメラ10は、雲台に設置されたロータリエンコーダからカメラ姿勢(雲台のパン角度及びチルト角度)を取得する。ロボットカメラ10は、キャリブレーション時には、外部パラメータ(回転行列及び並進ベクトル)を算出する。
マスターカメラセレクト部21は、ユーザーからの指示により、n台のロボットカメラ10から1台のロボットカメラをマスターカメラ(10Mと表記する)として選択する。以下、マスターカメラ10Mを除く他のロボットカメラをスレーブカメラ(10Sと表記する)と称する。
パラメータ格納部22は、ロボットカメラ10のキャリブレーション時に、ロボットカメラ10から初期パラメータを取得し、格納する。ここで、初期パラメータとは、初期の外部パラメータである回転行列R0m及び並進ベクトルTと、初期のエンコーダ値として得られるロボットカメラ10の雲台のパン角度p0m及びチルト角度t0mを含み、さらに、初期の内部パラメータAや、初期のエンコーダ値として得られるズーム値z0m、フォーカス値f0m、及びアイリス値i0mを含めてもよい。ここで、添え字のmは、カメラ番号1〜nを表す。また、マスターカメラ10Mのパラメータについて言及する場合には添え字をMと表記し、スレーブカメラ10Sのパラメータについて言及する場合には添え字をSと表記する。
図2は、世界座標系(X,Y,Z)とカメラ座標系(x,y,z)との関係を示す図である。回転行列R0mは、世界座標系に対するカメラの姿勢を示すパラメータであり、並進ベクトルTは、世界座標系に対するカメラの位置を示すパラメータである。世界座標系(X,Y,Z)とカメラ座標系(x,y,z)との関係は、回転行列R0m及び並進ベクトルTを用いて、次式(1)で示される。
Figure 0005509044
回転行列生成部23は、キャリブレーション後に、ユーザーによりマスターカメラ10Mが被写体を捉えるように方向操作されると、マスターカメラ10Mの方向操作後の回転行列を生成する。以下に、回転行列の生成について具体的に説明する。まず、回転行列生成部23は、パラメータ格納部22から取得した、マスターカメラ10Mのキャリブレーション時のエンコーダ値(雲台のパン角度p0M及びチルト角度t0M)と、マスターカメラ10Mの方向操作後のエンコーダ値(雲台のパン角度p及びチルト角度t)とを用いて、次式(2)及び(3)に示すように、カメラキャリブレーション時と方向操作後のパン角度差θpM及びチルト角度差θtMを算出する。なお、回転行列生成部23は、マスターカメラ10Mの方向操作後の雲台のパン角度p及びチルト角度tを、マスターカメラ10Mから直接取得してもよいし、パラメータ格納部22に格納した後に取得してもよい。
Figure 0005509044
方向操作後のマスターカメラ10Mは、カメラ座標系においてx軸回りにチルト角度差θtM、y軸回りにパン角度差θpMだけ回転したことになるので、回転行列生成部23は、次式(4)により、カメラ座標系における回転行列R’CMを算出する。
Figure 0005509044
次に、回転行列生成部23は、式(4)で求めたマスターカメラ10Mの方向操作後の回転行列R’CMと、パラメータ格納部22から取得したマスターカメラ10Mのキャリブレーション時の回転行列R0Mとを用いて、次式(5)により、マスターカメラ10Mの方向操作後の世界座標系における回転行列R’を算出する。
Figure 0005509044
ここで、算出した回転行列R’の3列目のベクトルezMは、世界座標系におけるカメラ姿勢のz軸のベクトルを表す。
回転行列生成部23は、次式(6)により、ベクトルezMと世界座標系のY軸eの外積を求めて正規化し、マスターカメラ10Mのカメラ姿勢のx軸のベクトルexMを算出する。
Figure 0005509044
そして、回転行列生成部23は、次式(7)により、ベクトルezMとベクトルexMの外積を求めて正規化し、マスターカメラ10Mのカメラ姿勢のy軸のベクトルeyMを算出する。
Figure 0005509044
最後に、回転行列生成部23は、次式(8)により、算出したベクトルexM,yM及びezMで規定される、マスターカメラ10Mの方向操作後の回転行列Rを生成する。
Figure 0005509044
距離値設定部24は、ユーザーにより指定された、方向操作後のマスターカメラ10Mから被写体近傍までの距離値kを設定する。なお、距離値kは、後述する映像比較部28で生成する判定信号に基づいて適切な距離に調整されるため、高い精度は要求されない。
注視点制御部25は、パラメータ格納部22から取得したマスターカメラ10Mの並進行列Tと、回転行列生成部23から取得したマスターカメラ10Mの方向操作後の回転行列Rと、距離値設定部24から取得した距離値kとを用いて、次式(9)により、方向操作後のマスターカメラ10Mの注視点Pの世界座標を算出する。また、注視点制御部25は、映像比較部28で求める判定信号に基づいて距離値kを連続的に変化させ、注視点Pを光軸に沿って被写体方向に移動させる。
Figure 0005509044
方向制御部26は、スレーブカメラ10Sの注視点が、注視点制御部25により設定された注視点(方向操作後のマスターカメラ10Mの注視点)Pに一致するように、スレーブカメラ10Sを方向制御する。そのために、まず、パラメータ格納部22から取得したスレーブカメラ10Sの並進行列Tと、注視点制御部25から取得した注視点Pとを用いて、次式(10)により、スレーブカメラ10Sから注視点Pへ向かう単位ベクトルezSを算出する。
Figure 0005509044
次に、方向制御部26は、算出した単位ベクトルezSから、スレーブカメラ10Sが注視点Pを向くためのパン角度θPS及びチルト角度θTSを求める。まず、パラメータ格納部22から取得したスレーブカメラ10Sのキャリブレーション時の回転行列Rを用いて、次式(11)により、単位ベクトルezSを、カメラ座標系におけるスレーブカメラ10Sから注視点Pへ向かう単位ベクトルeCzSに変換する。
Figure 0005509044
そして、方向制御部26は、次式(12)〜(14)により、単位ベクトルeCzmから、注視点Pを向くためのパン角度θPS、及びチルト角度θTSを求め、スレーブカメラ10Sへ送る。なお、方向制御部26は、複数台のスレーブカメラ10Sに同時に信号を送り、複数台のスレーブカメラ10Sを一斉に方向制御することもできる。
Figure 0005509044
映像処理部27は、ロボットカメラ10が撮影した撮影映像を取得し、映像処理を施して出力する。
映像比較部28は、マスターカメラ10Mの映像とスレーブカメラ10Sの映像とを比較し、撮影映像の画角中央における類似度を算出する。類似度は、例えば、ブロックマッチングや特徴点の特徴量比較、パターン認識などの画像処理技術を用いて求めてもよいし、両者の相関値又は両者の差分値(差の絶対値の和、差の絶対値の積、差の絶対値の最小値、又は差の二乗和など)の逆数値を算出することにより求めてもよい。そして、映像比較部28は、類似度を判定し、類似度が高いか否かを示す判定信号を注視点制御部25に出力する。
注視点制御部25は、映像比較部28によりマスターカメラ10Mによる撮影映像とスレーブカメラ10Sによる撮影映像の類似度が高いと判定されるまで、距離値kを連続的に変化させ、注視点Pを光軸に沿って被写体方向に移動させる。
[多視点ロボットカメラシステムの動作]
次に、このように構成される多視点ロボットカメラシステム1の動作について説明する。図3は、多視点ロボットカメラシステム1の動作を示すフローチャートである。図4は、多視点ロボットカメラシステム1の動作を説明する図である。
まず、被写体の撮影を開始する前に、ステップS101では、各ロボットカメラ10によりキャリブレーション用のパターン(例えば、ドットパターンや市松模様)を撮影し、キャリブレーションを行う。すなわち、ロボットカメラ10は、回転行列R0m及び並進ベクトルTを算出し、パラメータ格納部22により格納する。また、ロボットカメラ10は、雲台に設置されたロータリエンコーダからエンコーダ値(雲台のパン角度及びチルト角度)を取得し、パラメータ格納部22により格納する。
ステップS102では、マスターカメラセレクト部21により、複数台のロボットカメラ10から1台のマスターカメラ10Mを選択する。
ステップS103では、ユーザーにより、図4Aに示すように、マスターカメラ10Mが被写体Oを捉えるようにマスターカメラ10Mの方向が操作される。方向操作により、マスターカメラ10Mの撮影映像aでは中央に被写体Oが映る。一方、スレーブカメラ10Sは方向制御がなされていないので、スレーブカメラ10S−1の撮影映像b及びスレーブカメラ10S−2の撮影映像cには、被写体Oが映っていない。
ステップS104では、マスターカメラ10Mの雲台に設置されたロータリエンコーダにより、マスターカメラ10Mの方向操作後のパン角度及びチルト角度を取得する。
ステップS105では、パラメータ格納部22により、マスターカメラ10Mの方向操作後のパン角度及びチルト角度から、マスターカメラ10Mの回転行列Rを算出する。
ステップS106では、距離値設定部24により、マスターカメラ10Mから被写体O近傍までの距離値を設定する。
ステップS107では、注視点制御部25により、図4Aに示すように、マスターカメラ10Mの光軸上に初期の注視点Pを設定し、この初期の注視点Pの世界座標を算出する。
ステップS108では、方向制御部26により、図4Bに示すように、全てのスレーブカメラ10Sを初期の注視点Pに向かうように方向制御する。
ステップS109では、映像比較部28により、マスターカメラ10Mによる撮影映像aとスレーブカメラ10S−2による撮影映像cとを比較し、画角中央の映像の類似度を判定する。類似度を判定する際には、いずれのスレーブカメラ10Sによる撮影映像を用いることも可能であるが、マスターカメラ10Mと画角(撮像領域)の重なる部分が少ないスレーブカメラ10Sによる撮影映像を用いるのが好適である。類似度が高いと判定した場合には、処理をステップS111に進め、類似度が高くない又は所定の閾値を超えないと判定した場合には、処理をステップS110に進める。ここで、類似度が高いか低いかの判定を、類似度が所定の閾値を超えるか超えないかの判定とすることができるのは勿論である。
ステップS110では、注視点制御部25により、注視点Pを、マスターカメラ10Mの光軸に沿って、被写体Oに近づく方向に移動させる。その後、処理を再びステップS108に戻す。すなわち、マスターカメラ10Mによる撮影映像とスレーブカメラ10Sによる撮影映像について所定の類似度が得られるまで、図4Cに示すように、注視点Pを被写体Oに徐々に近づくように制御する。注視点Pの位置が被写体Oの位置と一致する時に、マスターカメラ10Mによる撮像映像とスレーブカメラ10Sによる撮影映像との類似度が最も高くなり、スレーブカメラ10S−1の撮影映像b及びスレーブカメラ10S−2の撮影映像cの中央に被写体Oが映る。
ステップS111では、方向制御部26によるスレーブカメラ10Sの方向制御を終了し、必要に応じて映像処理部27により映像を処理して出力する。
被写体が移動する場合には、被写体を捉えるようにマスターカメラ10Mを方向操作し、距離値kを再指定して同様にスレーブカメラ10Sを方向制御することにより、被写体に追従した多視点映像を撮影することができる。
以上、図1を参照して多視点ロボットカメラシステム1について説明したが、多視点ロボットカメラ制御装置の構成は図1の構成に限られるものではなく、マスターカメラセレクト部21、パラメータ格納部22、回転行列生成部23、距離値設定部24、注視点制御部25、方向制御部26、映像処理部27、及び映像比較部28を複数の装置に分散させてもよい。例えば、各ロボットカメラ10が方向制御部26を備える構成とすることもできる。この場合、各スレーブカメラ10Sに備えられた方向制御部26は、注視点制御部25からマスターカメラ10Mの注視点Pを取得し、各スレーブカメラ10Sの方向制御を行う。
このように、実施例1の多視点ロボットカメラシステム1によれば、方向操作されたマスターカメラ10Mの回転行列を算出して距離値kに基づく注視点Pを設定し、スレーブカメラ10Sを注視点Pに向くように方向制御することにより、ロボットカメラ10と被写体との位置関係における拘束条件がなくなり、様々な用途で多視点映像を撮影することができる。
また、距離値kを連続的に変化させていくインターフェースでは、距離値からフォーカス値を算出することが可能であるため、テレビカメラのフォーカス制御インターフェースを利用できる。そのため、既存のテレビカメラと同様のインターフェースで距離値を制御でき、カメラマンが操作に慣れるための負担が少ない。
次に、実施例2の多視点ロボットカメラシステムについて説明する。図5は、実施例2の多視点ロボットカメラシステム2の構成を示すブロック図である。なお、実施例1と同じ構成要素には同一の参照番号を付して説明を省略する。実施例2の多視点ロボットカメラシステム2は、実施例1の多視点ロボットカメラシステム1と同じ構成であるが、回転行列生成部23の機能が相違する。
本実施例の回転行列生成部23は、方向操作後のマスターカメラ10Mの回転行列Rだけでなく、方向制御後のスレーブカメラ10Sの回転行列Rも生成する。算出方法は、マスターカメラ10Mの回転行列Rと同様であり、スレーブカメラ10Sの方向制御後の回転行列Rは、次式(15)により表される。生成した回転行列は、後処理用として、例えば、3次元モデルを生成する場合などに用いることができる。
Figure 0005509044
図6は、実施例2の多視点ロボットカメラシステム2の動作を示すフローチャートである。本実施例では、方向制御部26により、全てのスレーブカメラ10Sを注視点に向かうように方向制御し(ステップS108)、次に、回転行列生成部23により、スレーブカメラ10Sの回転行列Rを算出する(ステップS109)。映像比較部28により、マスターカメラによる撮影映像とスレーブカメラによる撮影映像の類似度が高いと判定した場合には(ステップS110−YES)、回転行列生成部23により、生成したロボットカメラ10の回転行列R(R及びR)を出力する(ステップS112)。
このように、実施例2の多視点ロボットカメラシステム2によれば、回転行列生成部23により生成した方向制御後の回転行列を応用することができるため、撮影した多視点映像からの3次元モデルの生成等、多視点映像にさまざまな画像処理を行うことができるようになり応用範囲を広げることができる。
次に、実施例3の多視点ロボットカメラシステム3について説明する。図7は、実施例3の多視点ロボットカメラシステム3の構成を示すブロック図である。なお、実施例1と同じ構成要素には同一の参照番号を付して説明を省略する。実施例3の多視点ロボットカメラシステム3は、実施例1の多視点ロボットカメラシステム1と比較して、多視点ロボットカメラ制御装置20がユーザーインターフェース部29を更に備える点で相違する。
ユーザーインターフェース部29は、ユーザーによりキーボード等から入力された、ロボットカメラ10を制御するために必要となる、パン角度、チルト角度、フォーカス値、ズーム値、アイリス値、及びマスターカメラ10Mから被写体までの距離値k等を示す制御信号をロボットカメラ10へ送出する。ロボットカメラ10は、カメラ制御部40から入力される制御信号に基づいて、パン、チルト、ズーム、フォーカス、ズーム、アイリス等の制御を行う。
また、ユーザーインターフェース部29は、映像処理部27から出力されるマスターカメラ10Mによる撮影映像とスレーブカメラ10Sによる撮影映像が類似しているか否かをユーザーに視覚的に表示するディスプレイを有する。
図8は、実施例3のユーザーインターフェース部29による類似度判定を説明する図である。例えば、図8Aに示すように、マスターカメラ10Mの撮影映像aとスレーブカメラ10S−2の撮影映像cとを、2眼立体用ディスプレイ等で交互の走査線に表示させ、ディスプレイ映像dを表示する。注視点Pと被写体Oの位置とが一致すると、図8Bに示すようにディスプレイ映像dには被写体Oが重なって表示される。これにより、ユーザーは、表示されたディスプレイ映像dを見て、視覚的に類似度を判定することができる。したがって、映像比較部28に代えてユーザーインターフェース部29により類似度を判定することができる。また、映像比較部28により類似度を判定した後に、ユーザーインターフェース部29により距離値k(注視点P)を微調整するようにしてもよい。
なお、ユーザーインターフェース部29は、類似度の高さを音に変換し、聴覚的に類似度を判定することができるようにしてもよい。また、このとき、類似度の高さを示す音量を、音量ゲージで表示してもよい。
図9は、実施例3の多視点ロボットカメラシステム3の動作を示すフローチャートである。ここでは、映像比較部28により類似度を判定し、スレーブカメラ10Sの方向制御をした後に、更にユーザーにより距離値k(注視点P)を微調整する例を示している。すなわち、映像比較部28により、マスターカメラ10Mによる撮影映像とスレーブカメラ10Sによる撮影映像との類似度が高いと判定した場合には(ステップS109−YES)、ユーザーインターフェース部29により、類似度を視覚的及び/又は聴覚的に確認し、必要に応じて距離値kを微調整することで、注視点Pを微調整する(ステップS111)。
このように、実施例3の多視点ロボットカメラシステム3によれば、ユーザーインターフェース部29を備えることにより、映像比較部28により自動で距離値kを調整した後に、更に距離値k微調整することができ、より正確な距離値kを用いて多視点を撮影することができる。
ここで、コンピュータを好適に用いて、多視点ロボットカメラ制御装置20として機能させることができ、そのようなコンピュータは、マスターカメラセレクト部21と、パラメータ格納部22と、回転行列生成部23と、距離値設定部24と、注視点制御部25と、方向制御部26と、映像処理部27と、映像比較部28とを機能させるための制御部を、CPU(中央演算処理装置)と、記憶部とで実現できる。
また、そのようなコンピュータに、CPUによって所定のプログラムを実行させることにより、マスターカメラセレクト部21と、パラメータ格納部22と、回転行列生成部23と、距離値設定部24と、注視点制御部25と、方向制御部26と、映像処理部27と、映像比較部28の有する機能を実現させることができる。
上述の各実施例は、個々に代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができ、更に、各実施例を組み合わせて別の実施例を実現することができることは当業者に明らかである。従って、本発明は、上述の実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施例2の多視点ロボットカメラ制御装置20において、更にユーザーインターフェース部29を備える構成とすることができる。
このように、本発明によれば、マスターカメラから被写体までの距離値を正確に求めることができるので、多視点映像を撮影する任意の用途に有用である。
1,2,3 多視点ロボットカメラシステム
10 ロボットカメラ
20 多視点ロボットカメラ制御装置
21 マスターカメラセレクト部
22 パラメータ格納部
23 回転行列生成部
24 距離値設定部
25 注視点制御部
26 方向制御部
27 映像処理部
28 映像比較部
29 ユーザーインターフェース部

Claims (7)

  1. 複数台のロボットカメラを用いて3次元空間中の被写体の多視点映像を撮影する多視点ロボットカメラシステムであって、
    1台のマスターカメラ及び1台以上のスレーブカメラからなる複数台のロボットカメラと、該複数台のロボットカメラを制御する多視点ロボットカメラ制御装置とを備え、
    前記多視点ロボットカメラ制御装置は、
    前記マスターカメラ及び前記スレーブカメラの初期パラメータを格納するパラメータ格納部と、
    前記マスターカメラのエンコーダ値を取得し、前記初期パラメータを用いて、方向操作されたマスターカメラの回転行列を生成する回転行列生成部と、
    指定された距離値に基づいて前記方向操作されたマスターカメラの注視点を光軸上に設定する注視点制御部と、
    前記スレーブカメラを方向制御して、該スレーブカメラの注視点を前記方向操作されたマスターカメラの注視点に一致させる方向制御部とを備え、
    前記注視点制御部は、前記方向操作されたマスターカメラによる撮影映像と前記スレーブカメラによる撮影映像について所定の類似度が得られるまで、前記設定された注視点を前記光軸に沿って被写体方向に移動させることを特徴とする多視点ロボットカメラシステム。
  2. 前記方向制御部は、前記スレーブカメラから前記方向操作されたマスターカメラの注視点へ向かう単位ベクトルを、前記スレーブカメラの初期パラメータを用いて算出し、該単位ベクトルから、前記スレーブカメラの注視点を前記方向操作されたマスターカメラの注視点に一致させるパン角度及びチルト角度を算出することを特徴とする、請求項1に記載の多視点ロボットカメラシステム。
  3. 前記方向操作されたマスターカメラによる撮影映像と前記スレーブカメラによる撮影映像の類似度を算出し、該類似度が高いか否かを判定する判定信号を生成する映像比較部を更に備え、
    前記注視点制御部は、前記判定信号に基づいて、前記設定された注視点を前記光軸に沿って被写体方向に移動させることを特徴とする、請求項1又は2に記載の多視点ロボットカメラシステム。
  4. 前記回転行列生成部は、前記方向操作されたマスターカメラの回転行列、及び前記方向制御部により方向制御されたスレーブカメラの回転行列を生成することを特徴とする、請求項1〜3のいずれか一項に記載の多視点ロボットカメラシステム。
  5. 前記注視点制御部により決定された注視点の位置を微調整するユーザーインターフェース部を更に備えることを特徴とする、請求項1〜4のいずれか一項に記載の多視点ロボットカメラシステム。
  6. 3次元空間中の被写体の多視点映像を撮影する複数台のロボットカメラを制御する多視点ロボットカメラ制御装置であって、
    1台のマスターカメラ及び1台以上のスレーブカメラからなる前記複数台のロボットカメラの初期パラメータを格納するパラメータ格納部と、
    前記マスターカメラのエンコーダ値を取得し、前記初期パラメータを用いて、方向操作されたマスターカメラの回転行列を生成する回転行列生成部と、
    指定された距離値に基づいて前記方向操作されたマスターカメラの注視点を光軸上に設定する注視点制御部と、
    前記スレーブカメラを方向制御して、該スレーブカメラの注視点を前記方向操作されたマスターカメラの注視点に一致させる方向制御部とを備え、
    前記注視点制御部は、前記方向操作されたマスターカメラによる撮影映像と前記スレーブカメラによる撮影映像について所定の類似度が得られるまで、前記設定された注視点を前記光軸に沿って被写体方向に移動させることを特徴とする多視点ロボットカメラ制御装置。
  7. 3次元空間中の被写体の多視点映像を撮影する複数台のロボットカメラを制御する多視点ロボットカメラ制御装置として機能するコンピュータに、
    1台のマスターカメラ及び1台以上のスレーブカメラからなる前記複数台のロボットカメラの初期パラメータを格納するステップと、
    前記マスターカメラのエンコーダ値を取得し、前記初期パラメータを用いて、方向操作されたマスターカメラの回転行列を生成するステップと、
    指定された距離値に基づいて前記方向操作されたマスターカメラの注視点を光軸上に設定するステップと、
    記スレーブカメラを方向制御して、該スレーブカメラの注視点を前記方向操作されたマスターカメラの注視点に一致させるステップと、
    前記方向操作されたマスターカメラによる撮影映像と前記スレーブカメラによる撮影映像について所定の類似度が得られるまで、前記設定された注視点を前記光軸に沿って被写体方向に移動させるステップと、
    を実行させるためのプログラム。
JP2010260482A 2010-11-22 2010-11-22 多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラム Active JP5509044B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010260482A JP5509044B2 (ja) 2010-11-22 2010-11-22 多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010260482A JP5509044B2 (ja) 2010-11-22 2010-11-22 多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2012114593A JP2012114593A (ja) 2012-06-14
JP5509044B2 true JP5509044B2 (ja) 2014-06-04

Family

ID=46498344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010260482A Active JP5509044B2 (ja) 2010-11-22 2010-11-22 多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5509044B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6055223B2 (ja) * 2012-07-27 2016-12-27 日本放送協会 射影変換映像生成装置及びそのプログラム、並びに、多視点映像表現装置
JP6073114B2 (ja) * 2012-11-19 2017-02-01 日本放送協会 ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP2014103490A (ja) * 2012-11-19 2014-06-05 Nippon Hoso Kyokai <Nhk> ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP5988842B2 (ja) * 2012-11-19 2016-09-07 日本放送協会 ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP6180925B2 (ja) * 2013-12-26 2017-08-16 日本放送協会 ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP2015126402A (ja) * 2013-12-26 2015-07-06 日本放送協会 ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP6643162B2 (ja) * 2016-03-30 2020-02-12 キヤノン株式会社 制御装置、制御方法、撮像システム及びプログラム
JP7187768B2 (ja) * 2017-09-25 2022-12-13 富士フイルムビジネスイノベーション株式会社 カメラ装置、カメラ装置制御システム、及びプログラム
JP7397001B2 (ja) * 2018-04-17 2023-12-12 シアヴィジョン・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング ロボットカメラソフトウェアと制御装置
CN112396662B (zh) * 2019-08-13 2024-05-24 杭州海康威视数字技术股份有限公司 一种转换矩阵修正的方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083246A (ja) * 1998-09-04 2000-03-21 Canon Inc カメラ制御システム、カメラ制御方法、およびその処理を実行するプログラムを記憶した記録媒体
US7512261B2 (en) * 2004-07-27 2009-03-31 Microsoft Corp. System and method for calibrating multiple cameras without employing a pattern by inter-image homography
JP4991395B2 (ja) * 2007-05-28 2012-08-01 キヤノン株式会社 情報処理方法及び情報処理装置
WO2009101798A1 (ja) * 2008-02-12 2009-08-20 Panasonic Corporation 複眼撮像装置、測距装置、視差算出方法及び測距方法

Also Published As

Publication number Publication date
JP2012114593A (ja) 2012-06-14

Similar Documents

Publication Publication Date Title
JP5509044B2 (ja) 多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラム
CN109960401B (zh) 一种基于人脸追踪的动向投影方法、装置及其***
JP6168577B2 (ja) マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法
TW202036480A (zh) 影像定位方法及其系統
US20200106966A1 (en) Camera array for a mediated-reality system
JP2019159950A5 (ja)
US10534426B2 (en) Interactive system, remote controller and operating method thereof
KR20170041636A (ko) 표시 제어장치, 표시 제어방법 및 프로그램
US9268408B2 (en) Operating area determination method and system
WO2018098772A1 (zh) 视点确定方法、装置、电子设备和计算机程序产品
CN105282420A (zh) 拍摄的实现方法及装置
JP6055223B2 (ja) 射影変換映像生成装置及びそのプログラム、並びに、多視点映像表現装置
JP7379785B2 (ja) 3dツアーの比較表示システム及び方法
JP6624800B2 (ja) 画像処理装置、画像処理方法、及び画像処理システム
Schacter et al. A multi-camera active-vision system for deformable-object-motion capture
JP2011170174A (ja) 光学投影安定化装置、光学投影安定化方法およびプログラム
JP2022516466A (ja) 情報処理装置、情報処理方法、並びにプログラム
JP2011146762A (ja) 立体モデル生成装置
CN108616744B (zh) 一种仿生双眼视觉校准***及校准方法
KR20150028623A (ko) 영상 처리 방법 및 영상 처리 장치
JP2015126402A (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP2010146303A (ja) 3次元物体姿勢・位置検出装置、方法、およびプログラム
WO2020111053A1 (ja) 監視装置、監視システム、監視方法、監視プログラム
CN106558071B (zh) 一种获取人体关节信息的方法及终端
TWI524213B (zh) 控制方法及電子裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R150 Certificate of patent or registration of utility model

Ref document number: 5509044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250