JP4949134B2 - カメラ位置認識システム - Google Patents

カメラ位置認識システム Download PDF

Info

Publication number
JP4949134B2
JP4949134B2 JP2007160117A JP2007160117A JP4949134B2 JP 4949134 B2 JP4949134 B2 JP 4949134B2 JP 2007160117 A JP2007160117 A JP 2007160117A JP 2007160117 A JP2007160117 A JP 2007160117A JP 4949134 B2 JP4949134 B2 JP 4949134B2
Authority
JP
Japan
Prior art keywords
camera
image
cameras
host device
index member
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007160117A
Other languages
English (en)
Other versions
JP2008312110A (ja
Inventor
岳志 三沢
幹夫 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007160117A priority Critical patent/JP4949134B2/ja
Priority to US12/141,534 priority patent/US20090153650A1/en
Publication of JP2008312110A publication Critical patent/JP2008312110A/ja
Application granted granted Critical
Publication of JP4949134B2 publication Critical patent/JP4949134B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、複数のカメラを備えてなるカメラシステムに関し、特にカメラの位置を認識するカメラ位置認識システムに関するものである。
近年、複数のカメラを備えた様々なカメラシステムが提案されている。このようなカメラシステムには、3D(三次元)撮影等を行うためのものがあり、例えば立体形状を有する被写体の周囲に複数のカメラを配設し、各カメラにより撮影された複数の画像データを1枚のレンチキュラープリントとすることにより立体視が可能な3D画像を生成している。
一方、遠隔地に設置されたカメラの映像を、ネットワークを介して鑑賞する遠隔カメラシステムも提案されており、この遠隔カメラシステムには、複数のカメラを接続し、全てのカメラの画像データを1つのモニタに表示して、所望とするカメラの画像のみを他の画像とは異なるサイズで表示することにより、所望とするカメラの画像を容易に認識可能にしたものがある(特許文献1)。
特開2004−112771号公報
しかしながら、上記のように複数のカメラを使用するカメラシステムでは、カメラと、カメラから画像データが伝送されるホスト装置とを接続する伝送インターフェースがUSBケーブル等のシリアルバス形式である場合には、通常、ホスト装置内部の通信ソフトとUSBケーブルとが接続した順にカメラが認識され、該認識された順にカメラの初期IDが付与されるため、カメラの設置された位置とカメラIDとの相関がない。
また特許文献1に記載の遠隔カメラシステムにおいても、所望とするカメラの画像を認識することはできても、各カメラの設置位置を認識することは困難である。
一方、3D画像を生成する際には、ホスト装置は複数のカメラから取得した複数の画像を順序よく並べる必要があり、撮影位置が不明だと画像を合成する順序が混乱してしまい、高精度な3D画像を得られない虞がある。このため従来のカメラシステムでは、ホスト装置上でカメラの位置を特定するために、一台ずつカメラのレンズを遮光する等の必要があり、著しく不便であった。
本発明は、上記事情に鑑みてなされたものであり、各カメラの設置位置を簡易に、かつ確実に識別することができるカメラ位置認識システムを提供することを目的とするものである。
本発明のカメラ位置認識システムは、被写体を水平方向に異なる視点から撮影可能な複数の位置に着脱可能に設置された複数のカメラと、
各カメラの相対位置を表すカメラ識別情報をカメラ毎に付与するホスト装置と、
被写体の位置に置かれて各カメラに撮影される指標部材とからなるカメラ位置認識システムであって、
指標部材は複数のカメラの位置によって該各カメラにより撮影される形状が異なる形態をしており、
ホスト装置は、各カメラにより撮影された指標部材の画像を取得し、該画像における指標部材の形状の相違に基づいてカメラ識別情報を決定するものであることを特徴とするものである。
ここで「被写体の位置に置かれて」は、被写体が置かれる位置と厳密に同じ位置でなくても、各カメラの撮影方向の先であれば、例えば被写体の前等であってもよい。
また「指標部材」は、立体であってもよいし、壁や板、紙等の平面に描かれた図形であってもよい。なおこれらの立体や図形は、印刷されたものであっても、例えばLEDによる表示等のように電子的に表示されたものであってもよい。
なお本発明のカメラ位置認識システムにおいては、指標部材が、前記水平方向に垂直な左右端を有する形状を有し、ホスト装置が、複数のカメラにより撮影された指標部材の左右端の垂直方向の長さの比の値の大きさに基づいてカメラ識別情報を決定するものであるとしてもよい。
この場合、ホスト装置が、複数のカメラにより撮影された指標部材の複数の画像における複数の前記長さの比の値の平均値に最も近い長さの比を示す画像を撮像したカメラをメインカメラとする識別情報を決定するものであることが好ましい。
また本発明のカメラ位置認識システムにおいては、指標部材が、前記水平方向の左右端以外に垂直方向の長さが最も大きいかまたは小さい部分を有する形状を有し、ホスト装置が、複数のカメラにより撮影された指標部材の該垂直方向の長さが最も大きいかまたは小さい部分の、左右端からの距離の比の値の大きさに基づいてカメラ識別情報を決定するものであるとしてもよい。
この場合、ホスト装置が、複数のカメラにより撮影された指標部材の複数の画像における複数の前記距離の比の値の平均値に最も近い距離の比を示す画像を撮像したカメラをメインカメラとする識別情報を決定するものであることが好ましい。
本発明のカメラ位置認識システムによれば、水平方向に異なる視点から複数のカメラにより撮影される指標部材が、複数のカメラの位置によって各カメラにより撮影される形状が異なる形態をしているので、この形状の相違によりカメラの相対位置を識別することができる。従ってホスト装置は、各カメラにより撮影された指標部材の画像を取得し、該画像における指標部材の形状の相違に基づいてカメラの相対位置を表わすカメラ識別情報を決定してカメラ毎に付与することができる。
これにより、指標部材をカメラの視野内に配設することでカメラの設置位置を簡易に、かつ確実に識別することができるので、ホスト装置は取得した画像の順序を確認する必要がなくなり、3D画像を容易に作成することが可能となる。
以下、本発明にかかる一実施形態のカメラ位置認識システム1について図面を参照して詳細に説明する。図1はカメラ位置認識システム1の概略構成を示す図、図2は図1の指標部材4aの拡大図、図3はホスト装置のカメラIDの並べ替え前後の画面の表示例である。
本実施形態のカメラ位置認識システム1は、図1に示す如く、固定台6に着脱可能に設置された4台のカメラ2A〜2Dと、ホスト装置3と、指標部材4aが表示された表示部材4とを備え、カメラ2A〜2Dとホスト装置は伝送インターフェースとしてのUSBケーブル5A〜5Dにより図示しないハブを介してそれぞれ接続されている。なお伝送インターフェースとしては、USBケーブル等のシリアルバス形式のものの他、例えばLANケーブルや無線LAN等であってもよい。
4台のカメラ2A〜2Dは、図1に示すように、それぞれ水平方向(横方向)に任意の間隔を有して固定台6に設置され、立体視したい被写体(図示せず)を異なる視点から撮影可能にされている。このときカメラ2のA、B、C、Dは各カメラが製造時に付与されているハードウエア番号とする。
ホスト装置3は、例えばモニタやキーボード、マウス等を有するPC(パーソナルコンピュータ)で構成され、4台のカメラ2A〜2Dのそれぞれの相対位置を表わすカメラID(カメラ識別情報)をカメラ2毎に付与する機能を備えている。なお各カメラ2A〜2Dの相対位置の検出方法については後で詳細に説明する。
表示部材4は直方体であり、図1に示す如く、所定の広さを有する面が前記水平方向に対して垂直で、かつ4台のカメラ2A〜2Dに臨むようにして配設され、本実施形態ではカメラ2A〜2Dの光軸方向に対して前記面が斜めに位置するように配置されている。
また表示部材4のカメラ2A〜2D側の面には、図2に示す如く、垂直方向に延びる複数の直線で形成された長方形で構成された指標部材4aが印刷されており、この指標部材4aは、視点によって異なる形状を有する。指標部材4aの形状の相違については後で詳細に説明する。
なお指標部材4aは、表示部材4の外表面に表示できるものであれば、印刷に限られるものではなく、例えば指標部材4aが印字された紙を前記外表面に貼着してもよいし、光等の照射により指標部材4aを前記外表面に表示してもよい。また、発光素子により指標部材4aを表示しても良い。
そして上記のように構成されるカメラ認識システム1では、各カメラ2A〜2Dの電源が起動されると、ホスト装置3が該装置3内の通信ソフトとUSBケーブル5A〜5Dとが接続された順にカメラ2A〜2Dのハードウエア番号を認識して、該認識した順番にカメラの初期ID#1〜#4(図3中、左図参照)を付与する。
そしてホスト装置3は、上記カメラの初期IDを、各カメラ2A〜2Dの相対位置を表わす、すなわちカメラ視点の順序に並べ替えた新規カメラIDをカメラ毎に付与する。この新規カメラIDの付与は、ホスト装置3においてカメラ視点順序検出モードが選択されたときに行われ、カメラ視点順序の検出処理を行うためには先ず図1に示す如く、表示部材4すなわち指標部材4aを被写体の位置に配置する。
なお指標部材4aを配置する位置は、被写体が置かれる位置と厳密に同じ位置でなくても、カメラ2A〜2Dの視野に指標部材4aの左右端を含むことができれば、例えば既に配置されている被写体の前等であってもよい。
次にカメラ視点順序の検出処理について詳細に説明する。図4はカメラ視点の順序の検出処理のフローチャートである。図4に示す如く、先ず4台のカメラ2A〜2Dがホスト装置3からの撮影指示によりそれぞれ指標部材4aを撮影し、ホスト装置3が各カメラ2A〜2Dにより撮影された指標部材4aの画像をUSBケーブル5A〜5Dを介して取得して、取得した画像を、図3の左図に示す如く、カメラの初期ID#1〜#4の順に並べて画面に表示する。このとき初期ID#1〜#4のカメラにより撮影された画像をそれぞれ画像P1〜P4とする。
なお画像P1〜P4は、表示部材4に表示された指標部材4aを、4台のカメラ2A〜2Dによってそれぞれ異なる視点から撮影したものであるため、図3の左図に示す如く、各カメラ2A〜2Dの位置(視点)によって各カメラ2A〜2Dにより指標部材4aの形状が、具体的には垂直方向に延びる複数の直線の長さ、上下端の水平方向の長さや水平方向に対する角度等が異なる形態となる。
そしてホスト装置3は取得した画像P1〜P4の各々において、図3の左図に示す如く、指標部材4aの左端の垂直方向の長さL1及び右端の垂直方向の長さL2を検出する(ステップS1)。ここで図5に長さL1、L2の検出処理のフローチャート、図6にカメラにより撮影された指標部材4aの画像の一例を示す。なお図6において、画像Pの左上を原点として、横方向をX軸、縦方向をY軸として、画像PはX軸が1280画素、Y軸が1024画素の画素数を有するものとする。
ホスト装置3による左右端の長さL1、L2の検出は、図5に示す如く、先ず、例えばローパスフィルタや孤立点除去処理等により画像Pにおけるノイズを除去し(ステップS10)、図6に示す画像全体の画素値P(X,Y)の平均値を閾値として、この閾値以上の画素を“255”、閾値以下の画素を“0”とすることにより画像Pの二値化を行い、画像Pを白黒画像に変換する(ステップS11)。なおX、Yは画像Pにおける座標を示す。
次に、X及び左端の長さL1に0を代入し(ステップS12)、さらにY及びカウンタであるBLに0を代入して初期化を行う(ステップS13)。
そして次に、黒から白へかわるエッジ(下端)を検出することにより垂直方向の長さLを検出するために、図6の画像において原点からX軸のプラス方向(右方向)に1画素分ずつずらしながら、Y軸のプラス方向(下方向)に走査すべく、以下の処理を行う。このとき図6の画像は、向かって右側が左側よりもカメラ2から離れるように設置された指標部材4aを撮影した画像であるため、垂直方向の長さLが最も長い箇所が左端となり、最も短い箇所が右端となる。
先ずホスト装置3は、画素値P(X,Y)が0であるか否か、つまり黒であるか否かを判別する(ステップS14)。そして画素値P(X,Y)が0つまり黒である場合(ステップS14;YES)には、黒の画素数を長さとしてカウントするために、BLをカウントアップし(ステップS15)、Yをカウントアップして(ステップS16)、Yが1024画素以上であるか否かを判別する(ステップS17)。
そしてYが1024画素以上でない場合(ステップS17;NO)には、ステップS14へ処理を移行して、さらにY方向の走査を行い、Yが1024画素以上である場合(ステップS17;YES)には、座標値XでY方向において黒から白にかわるエッジが検出されない、つまり下端が検出されずに画像PのY方向の走査が終了したとして、ステップS23へ処理を移行する。
そしてXをカウントアップつまりX方向に1画素分ずらして(ステップS23)、Xが1280画素以上であるか否かを判別し(ステップS24)、Xが1280画素以上でない場合(ステップS24;NO)には、Xが1280画素以上になるまで、つまり画像PのX方向の走査が終了するまでステップS13以降の処理を繰り返して行う。
このときXが1280画素以上である場合には(ステップS24;YES)、画像PのX方向の走査が終了し、すなわち画像P全ての走査が終了したとして、上下端のエッジは検出されずに処理が終了する。
一方、ステップS14にて画素値P(X,Y)が0でない、つまり白である場合(ステップS14;NO)、Y方向において一つ前の画素値P(X,Y−1)が0であるか否か、つまり黒であるか否かを判別し(ステップS18)、0でない、つまり白である場合(ステップS18;NO)には、黒から白にかわるエッジつまり下端が検出されていないので、ステップS16へ処理を移行してさらにY方向を走査する。なおYが初期値つまり0である場合は(Y−1)をYとする。
またステップS18にて画素値P(X,Y−1)が0つまり黒である場合(ステップS18;YES)、黒から白にかわるエッジつまり下端が検出されたとして、L(X)にBLを代入し(ステップS19)、BLに0を代入する(ステップS20)。
そして次にL(X)がL1よりも小さいか否かを判別する(ステップS21)。このとき図3及び図6に示す如く、長さL1がもっとも長い端部となるように指標部材4aが配設されているので、L(X)がL1よりも大きいとき(ステップS21;NO)には、L1にL(X)を代入して(ステップS22)、L1が最も大きい値となるようにする。
そしてXをカウントアップつまりX方向に1画素分ずらして(ステップS23)、Xが1280画素以上であるか否かを判別し(ステップS24)、Xが1280画素以上でない場合(ステップS24;NO)には、Xが1280画素以上になるまで、つまり画像PのX方向の走査が終了するまでステップS13以降の処理を繰り返して行う。
一方ステップS21にて、L(X)がL1よりも小さいとき(ステップS21;YES)には、図3及び図6に示す如く、長さL2がもっとも短い端部となるように指標部材4aが配置されているので、先ず指標部材4aの左右端がY方向に対して斜めであった場合等に、長さL2が誤って小さい値とならないように、L(X)とX方向において1つ前の画素値のL(X−1)との差分を識別して(ステップS25)、例えば5画素以内である場合には(ステップS25;YES)、指標部材4aの左右端がY方向に対して斜め等ではなく信頼できる値であるとしてL2にL(X)を代入し(ステップS26)、ステップS23へ処理を移行する。
一方ステップS25にて、5画素以内ではない場合には(ステップS25;NO)、指標部材4aの左右端がY方向に対して斜めの可能性があるとして、L2にL(X)を代入せずにそのままステップS23へ処理を移行する。
そしてXをカウントアップつまりX方向に1画素分ずらし(ステップS23)、Xが1280画素以上であるか否かを判別して(ステップS24)、Xが1280画素以上でない場合(ステップS24;NO)には、Xが1280画素以上になるまで、つまり画像PのX方向の走査が終了するまでステップS13以降の処理を繰り返して行う。
そしてXが1280画素以上である場合には(ステップS24;YES)、画像PのX方向の走査が終了、すなわち画像P全ての走査が終了したとして、長さL1、L2の検出処理は終了する。このようにして、画像P1〜P4の各々について指標部材4aの左右端の長さL1、L2を検出する。
そして図4に示す如く、ホスト装置3が画像P1〜P4の各々において指標部材4aの左右端の長さL1、L2をそれぞれ検出すると(ステップS1)、次に検出した左右端の長さL1、L2の長さ比L2/L1をそれぞれ算出し、画像P1〜P4においてそれぞれ算出した長さ比が小さい値から大きい値になるように、画像P1〜P4を並べ替える(ステップS2)。
具体的には、図3の左図に示す如く、例えば画像P1において、左端の長さL1が「670」、右端の長さL2が「473」が検出されたときには、ホスト装置3は「0.706」を長さ比L2/L1として算出する。同様にしてホスト装置3が、画像P2は「0.684」、画像P3は「0.723」、画像P4は「0.714」を長さ比L2/L1として検出する。
従って、長さ比L2/L1は「0.684」、「0.706」、「0.714」、「0.723」の順に並べ替えられ、図3の右図に示す如く、各画像P1〜P4は画像P2、画像P1、画像P4、画像P3の順に並べ替えられる。
つまり4台のカメラ2A〜2Dは、画像P2、画像P1、画像P4、画像P3をそれぞれ撮影したカメラ2B、カメラ2A、カメラ2D、カメラ2Cの順に配置されていることとなるので、この順序でカメラ毎にカメラの新規ID#1〜#4を付与する(ステップS3)。
このときホスト装置3は、各カメラ2A〜2Dのハードウエア番号(A、B、C、D)と上記カメラの新規ID#1〜#4とを関連つけて記憶しておく。こうすることにより、各カメラ2A〜2Dの設置位置を変更することなくホスト装置3を再起動したときに上記ハードウエア番号と前記新規IDとを再度読み出すことで、上述のカメラ視点順序の検出処理にかかる時間を省くことができる。
またユーザにより、新規IDを例えば図1の左端のカメラから#1〜#4のように付与したい場合、右端のカメラから#1〜#4のように付与したい場合、又は文字や記号によって視点順序としたい場合等、様々な場合があるため、新規IDの付与にバリエーションをもたせ、これらをユーザ毎にホスト装置3が記憶しておくことで、ユーザが代わった際に各ユーザが自分のIDをダウンロードして、各カメラの画像とともにホスト装置3の表示画面上に表示することも可能である。
また、さらにホスト装置3は、ステップS2にて検出した各画像P1〜P4の長さ比L2/L1「0.684」、「0.706」、「0.714」、「0.723」の平均値「0.707」を算出し、この「0.707」に最も近い「0.706」すなわち画像P1を撮影したカメラ2Aをメインカメラに指定する(ステップS4)。
このとき例えば平均値が「0.71」であり、上記長さ比L2/L1「0.706」及び「0.714」の中間値である場合には、「0.706」すなわち画像P1を撮影したカメラ2A、及び、「0.714」すなわち画像P4を撮影したカメラ2Dのどちらをメインカメラに指定してもよいが、例えばホスト装置3にユーザの効き目を記憶しておき、ユーザの効き目が右目である場合には図1中紙面右側に位置するカメラをメインカメラに指定してもよい。
そしてホスト装置3は、上述により付与されたカメラの新規IDとメインカメラ指定コードとを記憶する(ステップS5)。このようにしてカメラ視点順序の検出処理を行う。
以上により、本実施形態のカメラ位置認識システム1によれば、各カメラ2A〜2Dの位置によって各カメラ2A〜2Dにより撮影される指標部材4aが、各カメラ2A〜2Dの位置によって撮影される形状が異なる形態をしているので、この形状の相違によりカメラ2A〜2Dの相対位置を識別することができる。従ってホスト装置3は、各カメラ2A〜2Dにより撮影された指標部材4aの画像P1〜P4を取得し、画像P1〜P4における指標部材4aの形状の相違に基づいてカメラ2A〜2Dの相対位置を表わすカメラ新規IDを決定してカメラ毎に付与することができる。
これにより、指標部材4aをカメラ2A〜2Dの視野内に配設することでカメラ2A〜2Dの設置位置を簡易に、かつ確実に識別することができるので、ホスト装置3は取得した画像P1〜P4の順序を確認する必要がなくなり、3D画像を容易に作成することが可能となる。
なお本実施形態では上述したように、指標部材4aの形状を、垂直方向に延びる複数の直線で形成された長方形としたが、本発明はこれに限られるものではない。ここで図7に第二の実施形態の指標部材4a−2の拡大図、図8に図7の長さL1、L2の検出処理のフローチャート、図9にカメラにより撮影された指標部材4a−2の画像の一例を示す。
本実施形態の指標部材4a−2は、図7に示す如く、垂直方向に延びる2本の直線で構成されている。次にこのように構成された指標部材4a−2の左右端の垂直方向の長さ、すなわち左の直線の長さL1及び右の直線の長さL2を検出処理について説明する。
なお図9において、画像Pの左上を原点とし、横方向をX軸、縦方向をY軸として、画像PはX軸が1280画素、Y軸が1024画素の画素数を有するものとする。ここでX、Yは画像Pにおける座標を示す。またホスト装置3が、1つの画素(ピクセル)について8ビットの色情報を持たせる方式を採用している場合には、図9に示す画像の画素値P(X,Y)の信号レベルが、50未満であるときに「黒」とし、200以上であるときに「白」とする。なおカメラ視点順序の検出処理は、上記実施形態の図4と同様であるため、説明は省略する。
ホスト装置3は、図9の画像Pにおいて、X軸をプラス方向に走査することにより白から黒へかわるエッジつまり直線の左端を検出して直線を検出し、直線が検出されたときにY軸をプラス方向に走査することにより黒から白へかわるエッジつまり下端を検出して垂直方向の長さLを検出すべく、以下の処理を行う。
ホスト装置3による左右の直線の長さL1、L2の検出は、図8に示す如く、先ずYに0、FLGに1をそれぞれ代入する(ステップS30)。そして次にXに(X+100)*(FLG−1)、カウンタであるELに0をそれぞれ代入し、1回目はXに0、FLGに1がそれぞれ代入されて初期化され、2回目以降は、最終X値からX軸のプラス方向へ100画素分シフトし、ここが初期値となるように設定する(ステップS31)。
そしてP(X,Y)が50未満であるか否か、つまり黒であるか否かを判別し(ステップS32)、黒でない場合(ステップS32;NO)には、Xをカウントアップし(ステップS33)、Xが1280画素以上であるか否かを判別して(ステップS34)、Xが1280画素以上でない場合(ステップS34;NO)には、Xが1280画素以上になるまで、つまり画像PのX方向の走査が終了するまでステップS32以降の処理を繰り返して行う。
一方、ステップS34にてXが1280画素以上である場合には(ステップS34;YES)、画像PのX方向の走査が終了したとして、YをカウントアップつまりY軸プラス方向に1画素分ずらして(ステップS35)、Yが1024画素以上であるか否かを判別し(ステップS36)、Yが1024画素以上でない場合(ステップS36;NO)には、Yが1024画素以上になるまで、つまり画像PのY方向の走査が終了するまでステップS32以降の処理を繰り返して行う。
またステップS36にて、Yが1024画素以上である場合(ステップS36;YES)には、ステップS32からステップS36の処理において黒が検出されない、つまり直線が検出されずに画像PのY軸方向の走査が終了したとして処理を終了する。
一方、ステップS32にて、P(X,Y)が黒である場合(ステップS32;YES)には、P(X−1,Y)が200以上であるか否か、つまりX方向において一つ前の画素値P(X−1,Y)が白であるか否かを判別する(ステップS37)。
そしてP(X−1,Y)が白でない場合(ステップS37;NO)には、白から黒にかわるエッジつまり直線の左端が検出されていないと判断し、X方向の走査を継続するようにステップS33へ処理を移行する。またP(X−1,Y)が白である場合(ステップS37;YES)には、白から黒にかわるエッジつまり直線の左端が検出されたと判断し、エッジが検出された座標値Xにおいて1画素下のエッジを検出すべく、Yをカウントアップし(ステップS38)、P(X,Y)が50未満であるか否か、つまり黒であるか否かを判別する(ステップS39)。
そして黒である場合(ステップS39;YES)には、X方向において一つ前の画素値P(X−1,Y)が200以上であるか否か、つまり白であるか否かを判別し(ステップS40)、P(X−1,Y)が白である場合(ステップS40;YES)には、1画素分下で白から黒にかわるエッジが検出された、つまり指標部材4aとしての直線が斜めではないと判断し、ELをカウントアップし(ステップS41)、Yが1024画素以上であるか否かを判別する(ステップS42)。
またYが1024画素以上でない場合(ステップS52;NO)には、Yが1024画素以上になるまで、つまり画像PのY方向の走査が終了するまでステップS38以降の処理を繰り返して行い、Yが1024画素以上である場合(ステップS52;YES)には、画像PのY軸方向の走査が終了したとして処理を終了する。
そしてステップS40にて、P(X−1,Y)が白でない場合(ステップS40;NO)には、Y方向において1画素分下で白から黒にかわるエッジが検出されていない、つまり指標部材4aとしての直線が斜めの可能性があると判断し、さらに1画素分下のエッジを検出するためにステップS38へ処理を移行する。
一方、ステップS39にて黒でない場合(ステップS39;NO)には、指標部材4aとしての直線が斜めであると判断し、X方向に±1画素ずらした位置でさらにエッジの検出を行うために、先ずXをカウントアップし(ステップS43)、X軸をプラス方向に1画素分ずらした位置でP(X,Y)が50未満であるか否か、つまり黒であるか否かを判別する(ステップS44)。
そして黒である場合(ステップS44;YES)には、処理をステップS40へ移行し、X方向において一つ前の画素値P(X−1,Y)が白であるか否かを判別して(ステップS40)白から黒へかわるエッジを検出する。
また黒でない場合(ステップS44;NO)には、ステップS39での座標値XからX軸のマイナス方向に1画素分ずらすために、XにX−2を代入し(ステップS45)、1画素分ずらした位置でP(X,Y)が50未満であるか否か、つまり黒であるか否かを判別し(ステップS46)、黒である場合(ステップS46;YES)には、ステップS40へ処理を移行し、X方向において一つ前の画素値P(X−1,Y)が白であるか否かを判別して(ステップS40)、白から黒へかわるエッジを検出する。
またステップS46にて黒でない場合(ステップS46;NO)には、X方向に±1画素ずらした位置で黒が検出されなかった、つまり直線の下端が検出されたとしてL(FLG)にELを代入して(ステップS47)、直線の長さL1を検出し、さらに右の直線の長さL2を検出するために、FLGをカウントアップして(ステップS48)、ステップS31へ処理を移行し、現在のX位置からX軸のプラス方向へ100画素分シフトしたX位置を初期値に再設定し、ステップS31以降の処理を上記と同様にして繰り返し行う。このようにして左右の直線の長さL1、L2をそれぞれ検出する。
なお上記実施形態において図8のフローチャートでは、P(X,Y)の信号レベルが、50未満であるときに「黒」とし、200以上であるときに「白」としたが、これらの閾値は誤検出を防ぐために、例えば画像全体のヒストクラムから算出することで精度を向上させることができる。
また上記実施形態では、「黒」が検出された画素のX方向に隣の画素で「白」が検出されたときに、この「白」と「黒」との境をエッジと判断しているが、画像処理によりエッジがボケてしまい、隣の画素の信号レベルが500以上200未満の中間値となる場合があるので、この場合は「黒」が検出された画素のX方向に2つ隣の画素が「白」であるか否かを検出することにより、検出精度を向上させることができる。
なお図8のフローチャートは、長さLを配列データとして定義し、
L(1),L(2)・・・L(N)(Nは直線の総数)としているので、図10に示すような複数の直線からなる指標部材4a−2’にも適用することができる。このとき例えば水平方向の間隔が狭い直線で構成された指標部材4aのときには、ステップS31にてX軸プラス方向へシフトする画素数を少なくして調整することにより、様々な形態の指標部材4aに対応することができる。
次に第三の実施形態の指標部材4a−3、第四の実施形態の指標部材4a−4について説明する。図11の(a)は指標部材4a−3の拡大図、(b)は指標部材4a−4の拡大図である。
第三の実施形態の指標部材4a−3は、図11(a)に示す如く、垂直方向に延びる複数の直線で構成され、左右端を有するとともに左右端の間に垂直方向の長さが最も小さい部分4a’−3を有する形状となっている。このような形状の指標部材4a−3では、上記実施形態と同様に、左右端の垂直方向の長さの比の値の大きさに基づいてカメラ新規IDを決定することも可能であるが、図11(a)に示す如く、左端から最も小さい部分4a’−3までの距離R1と、右端から最も小さい部分4a’−3までの距離R2との距離比R2/R1の値の大きさに基づいてカメラ新規IDを決定することができる。
この場合小さい部分4a’−3の垂直方向の長さの検出は、図8のフローチャートの処理により、垂直方向に延びる全ての直線の長さL(N)を検出し、検出された長さL(N)のうち最も小さい長さの直線を最も小さい部分4a’−3として、最も小さい部分4a’−3の直線が検出されたときのX座標値と、左右端の直線がそれぞれ検出されたときのX座標値とから距離R1、R2を算出し、距離比R2/R1を求める。
なおこの場合ホスト装置3は、指標部材4a−3が撮影された画像P1〜P4においてそれぞれ求められた距離比R2/R1の平均値を算出し、この平均値に最も近い距離比R2/R1の画像Pを撮影したカメラ2をメインカメラに指定する。
第四の実施形態の指標部材4a−4は、図11(b)に示す如く、垂直方向に延びる複数の直線で構成され、左右端を有するとともに左右端の間に垂直方向の長さが最も大きい部分4a’−4を有する形状となっている。このような形状の指標部材4a−4では、上記実施形態の指標部材4a−3と同様に、図8のフローチャートの処理により、垂直方向に延びる全ての直線の長さL(N)を検出し、検出された長さL(N)のうち最も大きい長さの直線を最も大きい部分4a’−4として、最も大きい部分4a’−4の直線が検出されたときのX座標値と、左右端の直線がそれぞれ検出されたときのX座標値とから距離R1、R2を算出し、距離比R2/R1を求める。
なおこの場合ホスト装置3は上記と同様に、指標部材4a−4が撮影された画像P1〜P4においてそれぞれ求められた距離比R2/R1の平均値を算出し、この平均値に最も近い距離比R2/R1の画像Pを撮影したカメラ2をメインカメラに指定する。
なお上述した実施形態のカメラ位置認識システムでは、1つの固定台6に複数のカメラ2を設置したが、本発明はこれに限られるものではなく、複数のカメラ2を所定の位置に着脱可能に固定可能であれば、例えば複数の固定台6を使用してもよい。
また上述した実施形態では、使用するカメラを4台としたが、本発明はこれに限られるものではなく、複数のカメラであれば、例えば6台であっても、9台であってもよい。
また複数のカメラは、同一平面に沿って設置され、且つその平面に沿って被写体を撮影可能なものとしてもよい。
また本発明において指標部材4aは、上記に限られるものではなく、各カメラの位置によって、各カメラにより撮影される形状が異なる形態のものであれば、例えば立体であってもよいし、壁や板、紙等の平面に描かれた図形であってもよい。なおこれらの図形は、印刷されたものであっても、例えば文字や所定のパターンを電子的に表示する、例えばLEDによる表示であっても良い。この場合には、ある表示パターンで検出される情報が類似していることによりホスト装置3によるカメラ視点順序の検出が困難であるときには、ホスト装置3から指標部材4aにパターン変更を指示することにより、指標部材4aを変更して前記検出を行うことができる。
本発明は、被写体に向けて同一平面上の複数の位置に設置された複数のカメラを特定するための方法であって、前記各カメラの位置によって見え方が異なる形状をした指標部材の画像を前記各カメラで取得し、前記画像に含まれる前記指標部材の形状の相違に基づいて前記各カメラを特定する方法であってもよい。
なお本発明のカメラ位置認識システムは、上述した実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
カメラ位置認識システムの概略構成を示す図 指標部材の拡大図 ホスト装置のカメラIDの並べ替え前後の画面の表示例 カメラ視点の順序の検出処理のフローチャート 直線の長さ検出処理のフローチャート カメラにより撮影された指標部材の画像の一例を示す図 第二の実施形態の指標部材の拡大図 図7の直線の長さ検出処理のフローチャート カメラにより撮影された図7の指標部材の画像の一例を示す図 カメラにより撮影された別の指標部材の画像の一例 (a)第三の実施形態の指標部材の拡大図、(b)第四の実施形態の指標部材の拡大図
符号の説明
1 カメラ位置認識システム
2 カメラ
3 ホスト装置
4 表示部材
4a 指標部材
4a’−3 最も小さい部分
4a’−4 最も大きい部分
5 USBケーブル
6 固定台
L1 左端長さ
L2 右端長さ
L2/L1 長さ比
R1 左端からの距離
R2 右端からの距離
R2/R1 距離比

Claims (5)

  1. 被写体を水平方向に異なる視点から撮影可能な複数の位置に着脱可能に設置された複数のカメラと、
    該各カメラの相対位置を表すカメラ識別情報をカメラ毎に付与するホスト装置と、
    前記被写体の位置に置かれて前記各カメラに撮影される指標部材とからなるカメラ位置認識システムであって、
    前記指標部材は前記複数のカメラの位置によって該各カメラにより撮影される形状が異なる形態をしており、
    前記ホスト装置は、前記各カメラにより撮影された前記指標部材の画像を取得し、該画像における前記指標部材の形状の相違に基づいて前記カメラ識別情報を決定するものであることを特徴とするカメラ位置認識システム。
  2. 前記指標部材が、前記水平方向に垂直な左右端を有する形状を有し、前記ホスト装置が、前記複数のカメラにより撮影された前記指標部材の左右端の垂直方向の長さの比の値の大きさに基づいて前記カメラ識別情報を決定するものであることを特徴とする請求項1に記載のカメラ位置認識システム。
  3. 前記ホスト装置が、前記複数のカメラにより撮影された前記指標部材の複数の画像における複数の前記長さの比の値の平均値に最も近い長さの比を示す画像を撮像したカメラをメインカメラとする識別情報を決定するものであることを特徴とする請求項2に記載のカメラ位置認識システム。
  4. 前記指標部材が、前記水平方向の左右端以外に垂直方向の長さが最も大きいかまたは小さい部分を有する形状を有し、前記ホスト装置が、前記複数のカメラにより撮影された前記指標部材の該垂直方向の長さが最も大きいかまたは小さい部分の、左右端からの距離の比の値の大きさに基づいて前記カメラ識別情報を決定するものであることを特徴とする請求項1に記載のカメラ位置認識システム。
  5. 前記ホスト装置が、前記複数のカメラにより撮影された前記指標部材の複数の画像における複数の前記距離の比の値の平均値に最も近い距離の比を示す画像を撮像したカメラをメインカメラとする識別情報を決定するものであることを特徴とする請求項4に記載のカメラ位置認識システム。
JP2007160117A 2007-06-18 2007-06-18 カメラ位置認識システム Expired - Fee Related JP4949134B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007160117A JP4949134B2 (ja) 2007-06-18 2007-06-18 カメラ位置認識システム
US12/141,534 US20090153650A1 (en) 2007-06-18 2008-06-18 Camera position recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007160117A JP4949134B2 (ja) 2007-06-18 2007-06-18 カメラ位置認識システム

Publications (2)

Publication Number Publication Date
JP2008312110A JP2008312110A (ja) 2008-12-25
JP4949134B2 true JP4949134B2 (ja) 2012-06-06

Family

ID=40239271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007160117A Expired - Fee Related JP4949134B2 (ja) 2007-06-18 2007-06-18 カメラ位置認識システム

Country Status (2)

Country Link
US (1) US20090153650A1 (ja)
JP (1) JP4949134B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2444533B (en) * 2006-12-06 2011-05-04 Sony Uk Ltd A method and an apparatus for generating image content
JP4990852B2 (ja) * 2008-07-31 2012-08-01 Kddi株式会社 3次元移動の自由視点映像生成システムおよび記録媒体
US8217993B2 (en) * 2009-03-20 2012-07-10 Cranial Technologies, Inc. Three-dimensional image capture system for subjects
US20110216173A1 (en) * 2010-03-02 2011-09-08 Comcast Cable Communications, Llc Impairments To 3D Experiences
CA2890174A1 (en) 2012-11-05 2014-05-08 360 Heros, Inc. 360 degree camera mount and related photographic and video system
GB201306109D0 (en) * 2013-04-04 2013-05-22 Zaybu Ltd Image capture apparatus and method
JP6163899B2 (ja) 2013-06-11 2017-07-19 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994017636A1 (en) * 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
JP3287117B2 (ja) * 1994-07-05 2002-05-27 株式会社日立製作所 撮像装置を用いた車両用の環境認識装置
US5768443A (en) * 1995-12-19 1998-06-16 Cognex Corporation Method for coordinating multiple fields of view in multi-camera
EP1211520B1 (en) * 1997-05-30 2005-08-10 British Broadcasting Corporation Position determination
JP2000201345A (ja) * 1999-01-08 2000-07-18 Nec Corp 映像選択装置および映像選択方法
JP2003179800A (ja) * 2001-12-13 2003-06-27 Sony Corp 多視点画像生成装置、画像処理装置、および方法、並びにコンピュータ・プログラム
JP4014453B2 (ja) * 2002-06-10 2007-11-28 三洋電機株式会社 カメラ
JP4418935B2 (ja) * 2004-07-15 2010-02-24 株式会社国際電気通信基礎技術研究所 光学マーカシステム
JP4708752B2 (ja) * 2004-09-28 2011-06-22 キヤノン株式会社 情報処理方法および装置
JP4460528B2 (ja) * 2004-12-14 2010-05-12 本田技研工業株式会社 識別対象識別装置およびそれを備えたロボット
US7681796B2 (en) * 2006-01-05 2010-03-23 International Business Machines Corporation Mobile device tracking
JP2007208905A (ja) * 2006-02-06 2007-08-16 Olympus Corp 情報呈示装置
JP2007212187A (ja) * 2006-02-07 2007-08-23 Mitsubishi Electric Corp ステレオ写真計測装置、ステレオ写真計測方法、及びステレオ写真計測プログラム

Also Published As

Publication number Publication date
JP2008312110A (ja) 2008-12-25
US20090153650A1 (en) 2009-06-18

Similar Documents

Publication Publication Date Title
JP4949134B2 (ja) カメラ位置認識システム
JP6397977B2 (ja) ドットパターン、ドットパターン形成媒体、ドットパターンの画像データを生成するプログラム、ドットパターン形成装置、光学装置、光学読み取り装置、情報入出力装置、ドットパターン読み取り装置
US6454419B2 (en) Indicated position detection by multiple resolution image analysis
US8605987B2 (en) Object-based 3-dimensional stereo information generation apparatus and method, and interactive system using the same
EP2511801B1 (en) Optical touch screen
JP5742399B2 (ja) 画像処理装置及びプログラム
US7489832B2 (en) Imaging apparatus, image processing method for imaging apparatus and recording medium
JP2010050540A (ja) 投写型表示装置および表示方法
JP5773436B2 (ja) 情報端末装置
CN1897644A (zh) 用于捕捉图像的方法和***
JP2016201668A (ja) 画像処理装置、画像処理方法およびプログラム
JP2015127668A (ja) 計測装置、システムおよびプログラム
JP2017032335A (ja) 情報処理装置、情報処理方法、プログラム
JP5735861B2 (ja) 画像表示プログラム、画像表示装置、画像表示方法、画像表示システム、マーカ
JP6098784B2 (ja) 画像処理装置及びプログラム
JP2016081110A (ja) 画像表示装置、画像表示方法及びプログラム
JPWO2005096130A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
KR20090116544A (ko) 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
CN113066128B (zh) 自识别标识板的视觉检测与恢复方法、装置、设备及介质
JP2018180986A (ja) 情報処理装置、情報処理方法及びプログラム
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
US20130176399A1 (en) System and method for creating a three-dimensional image file
JP5636966B2 (ja) 誤差検出装置及び誤差検出プログラム
JP2008311923A (ja) カメラ位置認識システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120307

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees