JP2004135208A - Video shooting apparatus and method - Google Patents

Video shooting apparatus and method Download PDF

Info

Publication number
JP2004135208A
JP2004135208A JP2002299788A JP2002299788A JP2004135208A JP 2004135208 A JP2004135208 A JP 2004135208A JP 2002299788 A JP2002299788 A JP 2002299788A JP 2002299788 A JP2002299788 A JP 2002299788A JP 2004135208 A JP2004135208 A JP 2004135208A
Authority
JP
Japan
Prior art keywords
camera
image
cameras
angle
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002299788A
Other languages
Japanese (ja)
Other versions
JP4277503B2 (en
Inventor
Chigiri Utsugi
宇都木 契
Toshio Moriya
守屋 俊夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002299788A priority Critical patent/JP4277503B2/en
Publication of JP2004135208A publication Critical patent/JP2004135208A/en
Application granted granted Critical
Publication of JP4277503B2 publication Critical patent/JP4277503B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To shoot images which can be more smoothly linked by moving position and angles of cameras in accordance with the situation of the circumference in a system wherein scenery is shot by the plurality of cameras and the images are linked to obtain an entire image. <P>SOLUTION: Video around a camera apparatus 101 is shot by the apparatus for shooting omni-azimuth video by combining the plurality of cameras. In such a case, in accordance with information of a sensor apparatus 103 for measuring a distance to a shooting target, a control device 104 calculates an angle to reduce shooting of an object near the camera in the link of video of the cameras, and the camera apparatus 101 is rotated by a driving apparatus 102. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、動画および静止画を撮影する画像作成装置に関する。
【0002】
【従来の技術】
広視野角の画像を撮影することによって、ユーザの入力に応じて自由な風景の見回しを行ったり、特殊な画像表示システムに周囲の映像を表示して没入感覚を味わったりするためのカメラシステムやそのコンテンツを応用したアプリケーションが生まれている。
【0003】
このような高視野角の映像を撮影するための技術手法としては、曲面鏡などを利用して単一カメラで撮影する装置や、複数カメラの画像をつなぎ合わせることで画像を撮影する装置が発明されている。
【0004】
前者のように単一のカメラを利用する例としては、双曲面ミラーとCCDカメラを組み合わせたシステムなどが研究、発表されている。この種のシステムでは、装置全体が小さくまとまり、複数カメラの画像を合成することに起因する問題は生まれない。
【0005】
しかし、ミラーの歪みによる誤差が最終画像の画質を大きく左右する問題点や、単一のカメラで全周囲の画像を撮影するため最終画像の解像度が不足がちになることが欠点として挙げられる。
【0006】
複数のカメラを使用する後者の例としては、複数の小型カメラを単一の筐体に収めた全方位撮影用カメラが実現されている(例えば、特許文献1参照。)。このカメラでは、外部の制御装置から撮影命令を受信し、連動して動作する6台のカメラが撮影する各デジタル画像を専用の記憶装置に保存する。このデータは撮影終了後に汎用計算機に転送され、専用のソフトウェアを利用してつなぎ合わせ処理が行われて全周囲動画像へと変換される。このように複数台数のカメラを用いるシステムでは高い解像度の映像を得ることが出来る半面、画像同士のつなぎ合わせに起因する映像の劣化が見られる。
【0007】
【特許文献1】
特開2001−204015号公報(要約)
【0008】
【発明が解決しようとする課題】
複数カメラの画像をつなぎ合わせて単一の画像を作成するためには、各画像を撮影したレンズ位置(光学中心)が一致していることが望ましい。光学中心が一致していない場合には、撮影対象物とカメラとの相対的な配置が映像ごとに異なるため、各画像の間で3次元的な視野差に起因する画像間の矛盾が起きるようになる。しかし、各カメラの光学中心を完全に一致させるためには複雑な反射鏡の設計が必要であり、その作成は極めて困難なかつ高価なものとなる。そのため複数カメラを組み合わせて撮影を行う製品の多くにおいては、光学中心は数センチから数十センチ離れている。
【0009】
【課題を解決するための手段】
本発明では複数カメラを用いて画像を撮影する際に、カメラの位置と角度を物理的に変化させる動的な制御を行い、画像合成時に各カメラ間の視差に起因する品質の劣化が起こりにくい映像を作成する。そのために、周囲の撮影対象物の配置状況をセンサで取得し、撮影後につなぎ合わせ部分になる画像領域には、上述の示唆による映像の不整合が比較的おきにくい遠距離の対象物が写る配置になるようにカメラの配置を動かす。このことによって、視差の大きい映像をつなぎ合わせることによる画像品質の劣化を防ぐ。
【0010】
【発明の実施の形態】
図1は、当発明の一実施例の側面図を図示したものである。本発明による撮影装置は大きく分けて、カメラ装置部分101、駆動装置部分102、センサ装置部分103、そして制御装置部分104から構成される。それぞれの部分の挙動および実現方法については、既存の実現例が数多く存在しているため、この実施例の解説においても、それら既存の技術においては必要な機能のみ記述するものとする。
【0011】
図2は、カメラ装置部分101を別の角度(上面図)から見た図である。カメラ装置部分101は、複数のカメラ121〜126を周囲の各方向に向けて取り付けることで構成されたものである。以下ではこのカメラ装置部分の構成要素である各カメラ121〜126を要素カメラと呼称する。ただし、ここで要素カメラと呼称する部品は、レンズとカメラ機器の組み合わせで構成される部品であり、それぞれが光学中心を独立に持ち、映像を撮影する能力をもつ。この実施例においては、中心軸120を中心とした円周上に一定の間隔で要素カメラが配置されているものとする。図には 6個の要素カメラが記載されているが、本発明はこの要素カメラの台数として任意のn台を用いて構成することが可能である。このカメラ装置部分101は、制御装置104に電気信号を送信するケーブルによって接続され、同装置によって制御される。カメラ装置部分101は制御装置104から転送される命令データを受信し、各カメラを同期させて撮影し、撮影結果をデジタル画像データとしてデータ記憶装置105に転送する機能を有するものとする。これらの各要素カメラによるデジタル撮影手法、信号を伝達するケーブル、および記憶装置105など個々の部品の実現方法は、既存の発明に順ずるものとする。
【0012】
制御装置104は汎用的な情報処理装置であり、各部へと制御命令を転送し、動作結果を受信する。また、カメラ装置部分101から転送されてくる撮影画像を記憶装置105に保持することができ、撮影中、もしくは撮影終了後に各画像をつなぎ合わせることによって画像データを全方位画像データへと変換する処理を行うことが出来る。
【0013】
図4に、制御装置104の構成例を表したブロック図を挙げる。CPU(中央演算処理装置)401は、主記憶装置402に記録されているプログラムに従い各種の処理を実行する。主記憶装置402と外部記憶装置105には制御処理を実行するに当たって必要なプログラムやデータが記憶される。外部記憶装置105にはハードディスクドライブやその他の既存の大容量メディアが使用されるものとする。入出力I/F部403では、カメラ装置部分、駆動装置部分、センサ装置への入力および出力データをやり取りするために必要なデータの転送手段を備えているものとする。ユーザの命令は入力機器106から行われる。このインタフェースにはキーボード、マウス、タッチパネルなどの既存の入力機器を使用する。また、制御装置104はタイマーによる割り込み処理を保有しており、ある時間ごとに設定された一連の動作を行う機能を有しているものとする。
【0014】
図3はセンサ装置部分の構成例を示した図である。センサ装置部分103は、m台の距離センサによって構成され、撮影対象物とカメラの距離を測定する機能を有する。距離測定センサ131〜134が装置の周囲に一定の間隔で取り付けられており、各センサは割り当てられた範囲角度内に存在するオブジェクトとカメラとの距離を測定する。このセンサは赤外線、レーザ、音波、またはステレオ視画像処理などを利用した既存のセンサシステムを使用するものとし、各センサが距離を測定する方法は既存の発明に順ずる。これらの各センサ類の実装方法については既存の実現例が多く存在するため、特定の実装手法について本明細書において記載はしない。
【0015】
図3に示すように、このセンサ装置部分103も制御装置104と接続されている。制御装置104からの命令を受信すると、各センサ131〜134が作動し、周囲の物体との距離を測定して、測定結果を制御装置に転送する。このセンサ装置の測定結果は制御装置104に送られ、周囲の方向とその方向に存在する物体との距離関係を示すテーブルに保存される。このテーブルの実装例を図7に示す。記載されるデータの内容と作成方法は後述の動作手順解説内において記載する。
駆動装置部分102は、カメラ装置部分101を回転させる機器である。この回転の中心軸120は各要素カメラの光学中心の重心を通るカメラ装置部分101の中心軸と一致する。本実施例においては各カメラの位置および方向の移動はこの一軸の周りの回転のみを想定している。駆動装置部分102には、この回転軸を駆動させるためにモータが取り付けられている。このモータはネットワークで接続された制御装置104によって制御され、制御装置104からの命令信号を受け取ると、命令信号のデータ構造体に記載された角度になるように駆動する。また、各時刻における軸の回転角度を記録する機能を有する。
【0016】
以下では、上記の各装置が動作する処理の流れを順序だてて解説する。図5は一連の動作順序をブロック図にしたものである。
【0017】
入力機器106からユーザから制御装置への入力があると、設備は撮影機能を開始する(工程501)。制御装置104はタイマーの割り込み機能を利用して、一定のタイミング毎にあるルーチンを行う。以下この一定時間ごとによびだされるルーチン処理を撮影スレッドと呼ぶ。撮影スレッドは工程502で開始され、509で停止の命令が行われるまで、1/30秒に一度の割合で呼び出されるものとする。この撮影スレッドは工程503〜508とは独立に並列のプロセスとして動作する。
【0018】
図6は、一定時間ごとに呼び出される撮影スレッドのルーチン処理工程を示す。図6の左側は制御装置104の動作ルーチンを示し、右側はそれに伴ってのカメラ装置部分101の動作を示す。制御装置104の内臓タイマーによって撮影ルーチンが呼びだされる(工程601)と、制御装置104はカメラ装置部分101に撮像命令を発信し(工程602)、それと同時にその時刻の駆動装置部分102の回転角度情報を取得する。カメラ装置部分101ではこの撮像命令を受信する(工程610)と、映像を撮像し(工程611)、制御装置に撮像データを転送する。制御装置104はその映像情報を受信し、記憶装置105に保存する。また、この保存の際に工程603で得られた駆動装置部分102の回転角度の情報も一緒に保存する。以上で1回分の撮影ルーチンの処理が終了する。
【0019】
制御装置104は、この撮影スレッドの動作と並行して、センサ装置103の情報に基づいて、駆動装置部分102の制御を行う。この処理は図5の工程503〜508に示されている。
【0020】
制御装置104は、取得をセンサ装置103に命令する。各センサ131〜134は各々の設置された角度に対応した周囲の情報を取得し、得られた距離データを制御装置104に転送する(工程504)。制御装置104は各センサの距離情報をテーブルに記録する。このテーブルの実装例のひとつを図7に示す。図7のID_0,ID_1…はセンサのID番号を示す値である。各カメラから得られた情報は、このカメラのID番号をキーとしてテーブルから検索される。テーブル内のD_0,D_1…には各センサが向けられている方向を示す角度値が保管される。各々のセンサが取得した距離の情報は、対応するID番号をキーとしてS_0,S_1, …に登録される。また、この距離の逆数R_0,R_1…をテーブル内の対応する位置に登録する。この値R_0,R_1…は、後に行う画像のつなぎ合わせを評価する値の作成において使用される。
【0021】
続いて制御装置104は、センサから得られた距離情報を基にして、カメラの角度に対する評価関数を作成する(工程505)。
【0022】
カメラ装置部分101の回転角度θは0〜360度の間の変数であらわされる。またこの角度がθ度であるときの画像をつなぎ合わせたときの合成品質を評価値E(θ)で推定する。制御装置104には下記の手順に基づいたプログラムが内蔵されており評価値E(θ)の計算を行う。以下、この評価関数の計算手順をしめす。
全周囲画像を作成したときに各画像が接続される部分となる画像領域は、駆動装置部分の回転角度θにのみ依存して一意に定めることが出来る。前述の通り本実施例ではn個のカメラが円弧状に連なっているものと想定してあり、θ=0度のときにある要素カメラkの向く方向を(θ(k),0)として表現する。ただし、kはカメラの番号1からnのどれかを示す整数である。またθ(k)は水平方向の角度を示す値であり、カメラの仰角方向の成分は0、すなわち水平方向に向けて設置されているものとする。カメラは等間隔に並んでいるため、カメラ装置部分102の角度がθを向いているときに要素カメラk(=1〜n)は角度θ(k) =(360/n)*(k+0.5)+θの方向を向いていると表現することが出来る。この場合、つなぎ目となる領域θ_cは、数1が示す不等式において、kが1からnまでの整数値をとったときに、いずれかのkの値に対して不等式の条件を満たしている領域として表現することが出来る。ただしeはつなぎ目の幅を表す値である。
【0023】
【数1】
− e/2 ≦ θ_c −θ−(360/n) k ≦ e/2
工程803〜806において、つなぎ目上での不整合の度合いを推定する値Eを求める。センサ装置の測定によって得られたテーブル700において、センサの設置された角度D_nが数1の条件を満たす領域はつなぎ目領域と判定される。この領域に対応する全センサのデータをテーブル700から読み取り、それらの各評価値R_n(本実施例においては距離の逆数)の平均値を取る。この平均値が推定評価値E(θ)として用いられる。
【0024】
この評価値E(θ)があらかじめ定められた定数である基準となる閾値Dよりも大きかった場合には、駆動装置部分を回転させる必要があると判断され、工程506と507を行う。Dよりも小さかった場合には、現状においては回転の必要がないものと判断され、一定時間待機(工程508)した後、再び503から一連の工程を行う。
【0025】
駆動装置部分を回転させる必要があると判断した場合、制御装置は、前述の距離情報を基にして、図8のブロック図に示される手順に従い、カメラの回転角度を決定する(工程506)。
【0026】
図8のブロック図に基づいてこの回転角度の決定手順の方法について記述する。駆動装置部分の計算処理506開始時点での回転角度をθとする。この値を変数θ_0、θ_1に初期値として代入し、θ_0=θ_1=θと設定する。また、同時点での回転角度に対応するつなぎ目上での不整合の度合いを推定する値Eには、工程505で計算した値E(θ)を用いる。
【0027】
工程803〜807では、駆動装置部分の回転核がθ_1であったときの、つなぎ目上での不整合の度合いを推定する値E_t=E(θ_1)を計算する。この計算は前述のE(θ)の計算手法と同じ方法を用いる。すなわち、現在仮に定められているθ_1の値に対して、センサ装置の測定によって得られたテーブル700から、D_kが前述のつなぎ目領域を判定する方程式を満たす評価値R_k(本実施例においては距離の逆数)を読み取り(工程804〜805)、これらの値の平均を取る(工程806)。この平均値はつなぎ目上での不整合の度合いを推定する値として用いられる。平均値をEと比較する(工程807)。新しい平均値がEよりも小さかった場合にはEに現在の合計値を上書き設定し、θ_0に現在の角度θ_1を保存する(工程808)。θ_1を角度Δθだけ増加させる。θ_1がθ+360/n度を超過した場合には繰り返し処理を終了し、工程810に移行する。それ以外の場合には、工程 803〜808 を更新されたカメラ角度θ_1に対して再び行う(工程809)。工程802〜809の繰り返し処理が終了した辞典で、最終的に保存されている角度θ_0をカメラの回転角度として決定する。
【0028】
以上の一連の処理によって、最もつなぎ目の不整合が少なくなるカメラ角度θ_0を推定することが出来る。
【0029】
この情報を記憶装置に記録する。図9では記録されるデータ構造の一例を示す。このデータの中には、映像情報、回転角度(θ_0)、計算終了時点の時刻情報が記載される。
【0030】
制御装置104は、カメラの角度を上記処理によって計算されたθ_0に向けて回転させる(工程507)。また、撮影スレッドがカメラ装置部分101の回転中に呼び出された場合には、回転中の駆動装置部分102から得ることの出来る回転角度情報を前述の工程603で示したように保存する。
【0031】
撮影された各カメラの画像は、以下の手法を用いて全周囲画像へと変換することが出来る。この画像形式の変換処理は、撮影終了後に保存されたデータをオフラインで処理することも可能であり、制御装置に十分な計算能力があるならば、リアルタイムで変換処理をおこなうことも可能である。
【0032】
各カメラの光学中心の位置、および単独のカメラが撮影可能な範囲(画角)の情報は、それぞれ公知の手法を用いて測定されているものとする。また各撮影タイミングにおけるカメラ装置部分101の向いている水平角度は、工程605によって記憶装置に保存されている。
【0033】
カメラ装置部分101に搭載された各カメラの光学中心がカメラ装置部分101の中心にあるものと仮定して、各画像から全周囲画像を作成する方法を示す。ここでは全周囲画像を、カメラ装置部分101の光学中心から方向(η、φ)の対応する画素への写像として表現する。ただし、ηは水平方向の回転角度、φは仰角を表すものとする。すなわち全周囲画像は、図に示すようなデータ表現であらわされるものであるとする。
【0034】
ある要素カメラの向いている方向を(θ_k,0)とする。このときθ_kは水平方向の回転角度であり、仰角は0であるとする。機構の光学中心を(0,0)として、カメラの光学中心とシステム中心との相対位置を(d1,d2)と定める。またカメラの垂直画角をFx、水平画角をFyとする。このとき、カメラで撮影された画像上の画素(u,v)と、方向(η、φ)の関係を以下のように対応付ける。
【0035】
【数2】
tan(η−θ_k)=F_x u
【0036】
【数3】
tanφ=F_y v
上述の対応付けを用いて複数の画像をつなぎ合わせ、円筒形の全周囲画像を求める方法を以下に記す。また、本実施例においては周囲画像を円筒系のフォーマットで作成する方法を挙げるが、この装置が出力する出力フォーマットを円筒形に制限するものではない。図全周囲画像Xの各画素(η、φ)に対して各要素画像から対応する画素(u_k,v_k)を探す。ただし、u_k,v_kは以下のように示される。
【0037】
【数4】
u_k=tan(η−θ_k)/F_x
【0038】
【数5】
v_k=tanφ / F_y
各k(=1..n)に対してそれぞれ目的の画素位置が撮影された映像範囲内に存在するか検索する。1つの画像においてだけ対応する画素が存在した場合には、その画素の情報を方向(η、φ)の画素情報として用いる。2つ以上の画像において対応画素が発見された場合には、各画像k内における画素位置(u_k,v_k)を比較して画素を合成する。画素の合成は以下のように行われる。
【0039】
この処理により周囲画像データが作成される。
【0040】
【発明の効果】
以上述べたように、本発明によって撮影された画像は、複数画像のつなぎ合わせ処理を行った際に、画像間の不整合に起因する映像の乱れの影響が少なくなっている。
【図面の簡単な説明】
【図1】装置の構成を示す代表図である。
【図2】カメラ装置部分の構成を示す図である。
【図3】センサ装置部分の構成を示す図である。
【図4】制御装置部分の構成を示す図である。
【図5】装置動作工程を解説するフローチャートである。
【図6】撮影スレッドの工程を解説するフローチャートである。
【図7】センサ情報を記録するテーブルの図である
【図8】合成品質の高いカメラの角度を計算するフローチャートである。
【符号の説明】
101 カメラ装置部分、102 駆動装置部分、103 センサ装置部分、104 制御装置部分、105 記憶装置、120 回転軸、121〜125 要素カメラ、131〜134 センサ
401 CPU、402主記憶装置、403入出力インタフェース、404外部記憶装置、405操作用出力機器、406操作用入力機器、700センサ情報登録テーブル
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image creation device that captures moving images and still images.
[0002]
[Prior art]
By taking images with a wide viewing angle, it is possible to look around the landscape freely according to the user's input, or to view the surrounding images on a special image display system and enjoy the immersive feeling. Applications that apply that content are born.
[0003]
As a technique for capturing such a high-viewing-angle video, a device that captures images with a single camera using a curved mirror or the like, or a device that captures images by connecting images from multiple cameras is invented. Have been.
[0004]
As an example of using a single camera as in the former case, a system combining a hyperboloid mirror and a CCD camera has been studied and published. In this type of system, the entire apparatus is small and does not have a problem caused by combining images of a plurality of cameras.
[0005]
However, the drawbacks are that errors due to the distortion of the mirror greatly affect the quality of the final image, and that the resolution of the final image tends to be insufficient because a single camera captures the entire image.
[0006]
As an example of the latter using a plurality of cameras, a camera for omnidirectional photography in which a plurality of small cameras are housed in a single housing is realized (for example, see Patent Document 1). In this camera, a photographing command is received from an external control device, and each digital image photographed by the six cameras operating in conjunction with each other is stored in a dedicated storage device. This data is transferred to a general-purpose computer after the photographing is completed, and is subjected to a joining process using dedicated software to be converted into an omnidirectional moving image. As described above, in a system using a plurality of cameras, a high-resolution image can be obtained, but on the other hand, image deterioration due to joining of images is observed.
[0007]
[Patent Document 1]
JP 2001-204015 A (Abstract)
[0008]
[Problems to be solved by the invention]
In order to create a single image by connecting images from a plurality of cameras, it is desirable that the lens position (optical center) at which each image was taken coincides. If the optical centers do not match, since the relative arrangement of the object to be photographed and the camera is different for each image, inconsistencies between images may occur due to a three-dimensional visual field difference between the images. become. However, perfect alignment of the optical centers of each camera requires a complex reflector design, which is extremely difficult and expensive to make. Therefore, in many products that combine a plurality of cameras for photographing, the optical center is apart from several centimeters to several tens centimeters.
[0009]
[Means for Solving the Problems]
In the present invention, when capturing an image using a plurality of cameras, dynamic control for physically changing the position and angle of the camera is performed, and quality deterioration due to parallax between the cameras during image synthesis hardly occurs Create a video. For this purpose, the arrangement state of the surrounding object to be photographed is acquired by the sensor, and in the image area that becomes the joint portion after photographing, the arrangement of the object at a long distance where the image inconsistency is relatively unlikely to occur due to the above suggestion. Move the camera arrangement so that This prevents image quality degradation caused by joining images having a large parallax.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows a side view of one embodiment of the present invention. The photographing device according to the present invention is roughly divided into a camera device portion 101, a drive device portion 102, a sensor device portion 103, and a control device portion 104. As for the behavior of each part and the realization method, there are many existing realization examples. Therefore, in the description of this embodiment, only the functions necessary for those existing technologies will be described.
[0011]
FIG. 2 is a view of the camera device portion 101 viewed from another angle (top view). The camera device portion 101 is configured by mounting a plurality of cameras 121 to 126 in respective directions around the camera. Hereinafter, each of the cameras 121 to 126, which are components of the camera device, is referred to as an element camera. However, the components referred to as element cameras here are components composed of a combination of a lens and a camera device, each of which has an optical center independently and has a capability of capturing an image. In this embodiment, it is assumed that element cameras are arranged at regular intervals on a circumference around the center axis 120. Although six element cameras are shown in the figure, the present invention can be configured using any number n of the element cameras. The camera device portion 101 is connected by a cable for transmitting an electric signal to the control device 104, and is controlled by the same device. The camera device section 101 has a function of receiving command data transferred from the control device 104, synchronizing each camera to shoot an image, and transferring the shooting result to the data storage device 105 as digital image data. The method of realizing individual components such as the digital photographing method by these element cameras, the cable for transmitting signals, and the storage device 105 is in accordance with the existing invention.
[0012]
The control device 104 is a general-purpose information processing device, transfers a control command to each unit, and receives an operation result. In addition, a photographed image transferred from the camera device portion 101 can be stored in the storage device 105, and the image data is converted into omnidirectional image data by joining the images during or after the photographing. Can be performed.
[0013]
FIG. 4 is a block diagram illustrating a configuration example of the control device 104. A CPU (Central Processing Unit) 401 executes various processes according to a program recorded in a main storage device 402. The main storage device 402 and the external storage device 105 store programs and data necessary for executing the control processing. It is assumed that a hard disk drive or another existing large-capacity medium is used for the external storage device 105. It is assumed that the input / output I / F unit 403 includes a data transfer unit necessary for exchanging input and output data with respect to the camera device portion, the drive device portion, and the sensor device. The user's command is issued from the input device 106. This interface uses existing input devices such as a keyboard, mouse, and touch panel. Further, it is assumed that the control device 104 has an interrupt process by a timer and has a function of performing a series of operations set at certain time intervals.
[0014]
FIG. 3 is a diagram showing a configuration example of a sensor device portion. The sensor device portion 103 includes m distance sensors and has a function of measuring the distance between the imaging target and the camera. Distance measuring sensors 131 to 134 are attached at regular intervals around the device, and each sensor measures the distance between an object existing within an assigned range angle and the camera. This sensor uses an existing sensor system using infrared, laser, sound wave, or stereoscopic image processing, and the method for measuring the distance by each sensor follows the existing invention. Since there are many existing implementation examples of the mounting method of each of these sensors, a specific mounting method is not described in this specification.
[0015]
As shown in FIG. 3, the sensor device portion 103 is also connected to the control device 104. When a command from the control device 104 is received, each of the sensors 131 to 134 operates, measures the distance to a surrounding object, and transfers the measurement result to the control device. The measurement result of the sensor device is sent to the control device 104, and is stored in a table indicating a distance relationship between a surrounding direction and an object existing in the direction. FIG. 7 shows an implementation example of this table. The contents of the data to be described and the creation method will be described later in the operation procedure description.
The drive unit 102 is a device that rotates the camera unit 101. The center axis 120 of this rotation coincides with the center axis of the camera device portion 101 passing through the center of gravity of the optical center of each element camera. In the present embodiment, the movement of the position and direction of each camera assumes only rotation about this one axis. A motor is mounted on the drive unit 102 to drive the rotating shaft. The motor is controlled by a control device 104 connected via a network, and upon receiving a command signal from the control device 104, drives the motor to the angle described in the data structure of the command signal. Further, it has a function of recording the rotation angle of the shaft at each time.
[0016]
In the following, the flow of processing in which the above devices operate will be described in order. FIG. 5 is a block diagram showing a series of operation order.
[0017]
When there is an input from the user to the control device from the input device 106, the facility starts the photographing function (step 501). The control device 104 performs a certain routine at a certain timing by using the interrupt function of the timer. Hereinafter, the routine processing called out at regular intervals is referred to as an imaging thread. The imaging thread is started at step 502 and is called once every 1/30 second until a stop command is issued at 509. This imaging thread operates as a parallel process independently of the steps 503 to 508.
[0018]
FIG. 6 shows a routine processing step of the photographing thread called at regular intervals. The left side of FIG. 6 shows an operation routine of the control device 104, and the right side shows an operation of the camera device portion 101 accompanying the operation routine. When the shooting routine is called by the built-in timer of the control device 104 (step 601), the control device 104 sends an imaging command to the camera device portion 101 (step 602), and at the same time, the rotation of the drive device portion 102 at that time. Get angle information. Upon receiving the imaging command (step 610), the camera unit 101 captures an image (step 611) and transfers the imaging data to the control device. The control device 104 receives the video information and stores it in the storage device 105. In addition, the information of the rotation angle of the drive unit 102 obtained in step 603 is also stored at the time of this storage. Thus, the processing of one shooting routine is completed.
[0019]
The control device 104 controls the driving device portion 102 based on the information of the sensor device 103 in parallel with the operation of the imaging thread. This processing is shown in steps 503 to 508 in FIG.
[0020]
The control device 104 commands the sensor device 103 to acquire. Each of the sensors 131 to 134 acquires surrounding information corresponding to each installed angle, and transfers the obtained distance data to the control device 104 (step 504). The control device 104 records distance information of each sensor in a table. FIG. 7 shows one implementation example of this table. .. In FIG. 7 are values indicating the ID numbers of the sensors. Information obtained from each camera is searched from a table using the ID number of this camera as a key. D_0, D_1,... In the table store angle values indicating the direction in which each sensor is directed. The distance information acquired by each sensor is registered in S_0, S_1,... Using the corresponding ID number as a key. Also, reciprocals R_0, R_1,... Of the distances are registered at corresponding positions in the table. The values R_0, R_1,... Are used in creating values for evaluating image joining performed later.
[0021]
Subsequently, the control device 104 creates an evaluation function for the camera angle based on the distance information obtained from the sensor (step 505).
[0022]
The rotation angle θ of the camera device portion 101 is represented by a variable between 0 and 360 degrees. Further, the combining quality when the images having the angle of θ degrees are connected is estimated by the evaluation value E (θ). The control device 104 includes a program based on the following procedure and calculates the evaluation value E (θ). Hereinafter, the calculation procedure of this evaluation function will be described.
The image area serving as a portion to which each image is connected when the omnidirectional image is created can be uniquely determined only depending on the rotation angle θ of the drive unit. As described above, in the present embodiment, it is assumed that n cameras are connected in an arc shape, and the direction of an element camera k when θ = 0 degrees is expressed as (θ (k), 0). I do. Here, k is an integer indicating one of the camera numbers 1 to n. Θ (k) is a value indicating the angle in the horizontal direction, and the component in the elevation angle direction of the camera is 0, that is, the camera is installed in the horizontal direction. Since the cameras are arranged at equal intervals, when the angle of the camera device portion 102 is oriented at θ, the element camera k (= 1 to n) becomes the angle θ (k) = (360 / n) * (k + 0.5). ) It can be described that the direction is + θ. In this case, the region θ_c serving as a joint is a region that satisfies the inequality condition for one of the values of k when k takes an integer value from 1 to n in the inequality represented by Expression 1. Can be expressed. Here, e is a value representing the width of the joint.
[0023]
(Equation 1)
−e / 2 ≦ θ_c−θ− (360 / n) k ≦ e / 2
In steps 803 to 806, a value E for estimating the degree of mismatch at the joint is obtained. In the table 700 obtained by the measurement of the sensor device, a region where the angle D_n at which the sensor is installed satisfies the condition of Expression 1 is determined as a joint region. The data of all the sensors corresponding to this area are read from the table 700, and the average value of the respective evaluation values R_n (the reciprocal of the distance in this embodiment) is obtained. This average value is used as the estimated evaluation value E (θ).
[0024]
If the evaluation value E (θ) is larger than a predetermined threshold value D, which is a reference, it is determined that the drive unit needs to be rotated, and steps 506 and 507 are performed. If it is smaller than D, it is determined that there is no need for rotation at present, and after waiting for a certain time (step 508), a series of steps is performed again from 503.
[0025]
If it is determined that the drive unit needs to be rotated, the control unit determines the rotation angle of the camera according to the procedure shown in the block diagram of FIG. 8 based on the distance information described above (step 506).
[0026]
The method of determining the rotation angle will be described with reference to the block diagram of FIG. The rotation angle at the start of the calculation processing 506 of the drive unit is assumed to be θ. This value is substituted into variables θ_0 and θ_1 as initial values, and θ_0 = θ_1 = θ is set. The value E (θ) calculated in step 505 is used as the value E for estimating the degree of mismatch on the joint corresponding to the rotation angle at the same time.
[0027]
In steps 803 to 807, a value E_t = E (θ_1) for estimating the degree of misalignment at the joint when the rotation nucleus of the drive unit is θ_1 is calculated. This calculation uses the same method as the above-described method of calculating E (θ). That is, from the table 700 obtained by the measurement of the sensor device, the evaluation value R_k satisfying the above-described equation for determining the joint region with respect to the value of θ_1 which is temporarily determined at present. (Reciprocal number) is read (steps 804 to 805), and the average of these values is calculated (step 806). This average value is used as a value for estimating the degree of mismatch on the joint. The average value is compared with E (step 807). If the new average value is smaller than E, E is overwritten with the current total value, and the current angle θ_1 is stored in θ_0 (step 808). θ_1 is increased by the angle Δθ. When θ_1 exceeds θ + 360 / n degrees, the repetition processing is terminated, and the process proceeds to step 810. Otherwise, steps 803 to 808 are performed again for the updated camera angle θ_1 (step 809). The finally stored angle θ_0 is determined as the rotation angle of the camera in the dictionary in which the repetition processing of the steps 802 to 809 is completed.
[0028]
Through the above series of processing, it is possible to estimate the camera angle θ_0 that minimizes the mismatch between the joints.
[0029]
This information is recorded in the storage device. FIG. 9 shows an example of a data structure to be recorded. In this data, the video information, the rotation angle (θ_0), and the time information at the end of the calculation are described.
[0030]
The control device 104 rotates the angle of the camera toward θ_0 calculated by the above processing (step 507). When the photographing thread is called while the camera device portion 101 is rotating, the rotation angle information that can be obtained from the rotating drive device portion 102 is stored as shown in step 603 described above.
[0031]
The captured image of each camera can be converted into an omnidirectional image using the following method. In this image format conversion process, it is also possible to process the data stored after the photographing is completed off-line, and if the control device has sufficient calculation capability, it is possible to perform the conversion process in real time.
[0032]
It is assumed that the information on the position of the optical center of each camera and the range (angle of view) that can be taken by a single camera is measured using a known method. Further, the horizontal angle at which the camera device portion 101 faces at each shooting timing is stored in the storage device in step 605.
[0033]
A method of creating an omnidirectional image from each image assuming that the optical center of each camera mounted on the camera device portion 101 is located at the center of the camera device portion 101 will be described. Here, the omnidirectional image is expressed as a mapping from the optical center of the camera device portion 101 to the corresponding pixel in the direction (η, φ). Here, η represents the rotation angle in the horizontal direction, and φ represents the elevation angle. That is, it is assumed that the omnidirectional image is represented by a data expression as shown in the figure.
[0034]
The direction in which a certain element camera is directed is (θ_k, 0). At this time, it is assumed that θ_k is the rotation angle in the horizontal direction and the elevation angle is 0. The optical center of the mechanism is defined as (0,0), and the relative position between the optical center of the camera and the center of the system is defined as (d1, d2). The vertical angle of view of the camera is Fx, and the horizontal angle of view is Fy. At this time, the relationship between the pixel (u, v) on the image captured by the camera and the direction (η, φ) is associated as follows.
[0035]
(Equation 2)
tan (η−θ_k) = F_x u
[0036]
[Equation 3]
tanφ = F_y v
A method of connecting a plurality of images using the above-described association to obtain a cylindrical omnidirectional image will be described below. Further, in the present embodiment, a method of creating a peripheral image in a cylindrical format will be described, but the output format output by this device is not limited to a cylindrical format. A corresponding pixel (u_k, v_k) is searched from each element image for each pixel (η, φ) of the entire image X in the figure. Here, u_k and v_k are represented as follows.
[0037]
(Equation 4)
u_k = tan (η−θ_k) / F_x
[0038]
(Equation 5)
v_k = tanφ / F_y
For each k (= 1... N), a search is performed to determine whether the target pixel position exists within the captured video range. When a corresponding pixel exists in only one image, information on the pixel is used as pixel information in the direction (η, φ). When corresponding pixels are found in two or more images, the pixels are synthesized by comparing the pixel positions (u_k, v_k) in each image k. The combination of pixels is performed as follows.
[0039]
By this process, the surrounding image data is created.
[0040]
【The invention's effect】
As described above, in the images captured according to the present invention, the effect of video disturbance due to inconsistency between images is reduced when the joining processing of a plurality of images is performed.
[Brief description of the drawings]
FIG. 1 is a representative diagram showing a configuration of an apparatus.
FIG. 2 is a diagram illustrating a configuration of a camera device portion.
FIG. 3 is a diagram showing a configuration of a sensor device portion.
FIG. 4 is a diagram showing a configuration of a control device portion.
FIG. 5 is a flowchart illustrating an apparatus operation process.
FIG. 6 is a flowchart illustrating steps of a shooting thread.
FIG. 7 is a diagram of a table for recording sensor information. FIG. 8 is a flowchart for calculating an angle of a camera having high synthetic quality.
[Explanation of symbols]
101 camera device portion, 102 drive device portion, 103 sensor device portion, 104 control device portion, 105 storage device, 120 rotation axis, 121 to 125 element camera, 131 to 134 sensor 401 CPU, 402 main storage device, 403 input / output interface , 404 external storage device, 405 operation output device, 406 operation input device, 700 sensor information registration table

Claims (2)

複数のカメラ機器を用いて高解像度の映像を撮影する撮影装置において、
撮影された映像をつなぎ合わせる部分に特定の被写体が来た場合に、装置を物理的に回転させることにより各カメラの撮像範囲を変えて、つなぎ合わせ部分となる領域を変更することを特徴とする撮影装置。
In a shooting device that shoots high-resolution video using a plurality of camera devices,
When a specific subject comes to a portion where the captured images are to be joined, the imaging range of each camera is changed by physically rotating the device to change an area to be a joining portion. Shooting equipment.
複数のカメラ機器を用いて高解像度の映像を撮影する撮影方法において、
撮影された映像をつなぎ合わせる部分に特定の被写体が来た場合に、装置を物理的に回転させることにより各カメラの撮像範囲を変えて、つなぎ合わせ部分となる領域を変更することを特徴とする撮影方法。
In a shooting method of shooting a high-resolution video using a plurality of camera devices,
When a specific subject comes to a portion where the captured images are to be joined, the imaging range of each camera is changed by physically rotating the device to change an area to be a joining portion. Shooting method.
JP2002299788A 2002-10-15 2002-10-15 Video photographing apparatus and method Expired - Fee Related JP4277503B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002299788A JP4277503B2 (en) 2002-10-15 2002-10-15 Video photographing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002299788A JP4277503B2 (en) 2002-10-15 2002-10-15 Video photographing apparatus and method

Publications (2)

Publication Number Publication Date
JP2004135208A true JP2004135208A (en) 2004-04-30
JP4277503B2 JP4277503B2 (en) 2009-06-10

Family

ID=32288824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002299788A Expired - Fee Related JP4277503B2 (en) 2002-10-15 2002-10-15 Video photographing apparatus and method

Country Status (1)

Country Link
JP (1) JP4277503B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017505566A (en) * 2013-12-09 2017-02-16 シゼイ シジブイ カンパニー リミテッド Multi-plane video generation method and system
JP2017511057A (en) * 2013-12-09 2017-04-13 シゼイ シジブイ カンパニー リミテッド Multi-projection video generation method and system
WO2019082820A1 (en) * 2017-10-26 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント Camera system
US20190342501A1 (en) * 2016-10-28 2019-11-07 Samsung Electronics Co., Ltd Method and apparatus for acquiring omnidirectional video
WO2019229887A1 (en) * 2018-05-30 2019-12-05 マクセル株式会社 Camera apparatus
JP2021019228A (en) * 2019-07-17 2021-02-15 キヤノン株式会社 Imaging apparatus, computer program, and recording medium
KR102312932B1 (en) * 2020-07-31 2021-10-14 한화시스템 주식회사 Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover
WO2023116669A1 (en) * 2021-12-22 2023-06-29 华为技术有限公司 Video generation system and method, and related apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100947106B1 (en) 2009-10-30 2010-03-12 새한항업(주) Picture processing system updating the image installed the data
KR100950996B1 (en) 2009-10-30 2010-04-02 새한항업(주) Picture angle control system of camera

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017505566A (en) * 2013-12-09 2017-02-16 シゼイ シジブイ カンパニー リミテッド Multi-plane video generation method and system
JP2017511057A (en) * 2013-12-09 2017-04-13 シゼイ シジブイ カンパニー リミテッド Multi-projection video generation method and system
US20190342501A1 (en) * 2016-10-28 2019-11-07 Samsung Electronics Co., Ltd Method and apparatus for acquiring omnidirectional video
US11006048B2 (en) * 2016-10-28 2021-05-11 Samsung Electronics Co., Ltd. Method and apparatus for acquiring omnidirectional video
WO2019082820A1 (en) * 2017-10-26 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント Camera system
US11297299B2 (en) 2017-10-26 2022-04-05 Sony Interactive Entertainment Inc. Camera system
WO2019229887A1 (en) * 2018-05-30 2019-12-05 マクセル株式会社 Camera apparatus
JPWO2019229887A1 (en) * 2018-05-30 2021-07-26 マクセル株式会社 Camera device
JP7025539B2 (en) 2018-05-30 2022-02-24 マクセル株式会社 Camera device
JP2021019228A (en) * 2019-07-17 2021-02-15 キヤノン株式会社 Imaging apparatus, computer program, and recording medium
KR102312932B1 (en) * 2020-07-31 2021-10-14 한화시스템 주식회사 Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover
WO2023116669A1 (en) * 2021-12-22 2023-06-29 华为技术有限公司 Video generation system and method, and related apparatus

Also Published As

Publication number Publication date
JP4277503B2 (en) 2009-06-10

Similar Documents

Publication Publication Date Title
KR100385089B1 (en) Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera
JP4914171B2 (en) Imaging device control method and camera system
JP2004198732A (en) Photographic aid, method and apparatus for image processing, computer program, and recording medium with recorded program
JP4775474B2 (en) Imaging apparatus, imaging control method, and program
JP2003502925A (en) How to shoot 3D scenes with one portable camera
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
JP2011139368A (en) Control apparatus and control method for capturing device
WO2005084017A1 (en) Multiprojection system
JP4277503B2 (en) Video photographing apparatus and method
JP2004128997A (en) Device, method and program for video remote control, and recording medium with the program recorded thereon
US8860780B1 (en) Automatic pivoting in a wide-angle video camera
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
KR100585822B1 (en) Monitor system use panorama image and control method the system
JP2000083246A (en) Camera control system, camera control method, and recording medium stored with program to execute processing thereof
JP2015194587A (en) Image data processing device, image data processing method, image distortion response processing device, and image distortion response processing method
JPH0514751A (en) Panoramic picture fetching device
KR102138333B1 (en) Apparatus and method for generating panorama image
US6982749B2 (en) Remote control camera system and image transmission method
JP2002101408A (en) Supervisory camera system
JP2011182253A (en) Imaging apparatus and imaging method
JPH114373A (en) Method and system for configurating full circumference panorama image
JP5231119B2 (en) Display device
JP2012019285A (en) Imaging device and imaging method
JP2005309782A (en) Image processor
Qin et al. Aligning windows of live video from an imprecise pan-tilt-zoom robotic camera into a remote panoramic display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050412

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090302

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees