JP2004135208A - Video shooting apparatus and method - Google Patents
Video shooting apparatus and method Download PDFInfo
- Publication number
- JP2004135208A JP2004135208A JP2002299788A JP2002299788A JP2004135208A JP 2004135208 A JP2004135208 A JP 2004135208A JP 2002299788 A JP2002299788 A JP 2002299788A JP 2002299788 A JP2002299788 A JP 2002299788A JP 2004135208 A JP2004135208 A JP 2004135208A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- cameras
- angle
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、動画および静止画を撮影する画像作成装置に関する。
【0002】
【従来の技術】
広視野角の画像を撮影することによって、ユーザの入力に応じて自由な風景の見回しを行ったり、特殊な画像表示システムに周囲の映像を表示して没入感覚を味わったりするためのカメラシステムやそのコンテンツを応用したアプリケーションが生まれている。
【0003】
このような高視野角の映像を撮影するための技術手法としては、曲面鏡などを利用して単一カメラで撮影する装置や、複数カメラの画像をつなぎ合わせることで画像を撮影する装置が発明されている。
【0004】
前者のように単一のカメラを利用する例としては、双曲面ミラーとCCDカメラを組み合わせたシステムなどが研究、発表されている。この種のシステムでは、装置全体が小さくまとまり、複数カメラの画像を合成することに起因する問題は生まれない。
【0005】
しかし、ミラーの歪みによる誤差が最終画像の画質を大きく左右する問題点や、単一のカメラで全周囲の画像を撮影するため最終画像の解像度が不足がちになることが欠点として挙げられる。
【0006】
複数のカメラを使用する後者の例としては、複数の小型カメラを単一の筐体に収めた全方位撮影用カメラが実現されている(例えば、特許文献1参照。)。このカメラでは、外部の制御装置から撮影命令を受信し、連動して動作する6台のカメラが撮影する各デジタル画像を専用の記憶装置に保存する。このデータは撮影終了後に汎用計算機に転送され、専用のソフトウェアを利用してつなぎ合わせ処理が行われて全周囲動画像へと変換される。このように複数台数のカメラを用いるシステムでは高い解像度の映像を得ることが出来る半面、画像同士のつなぎ合わせに起因する映像の劣化が見られる。
【0007】
【特許文献1】
特開2001−204015号公報(要約)
【0008】
【発明が解決しようとする課題】
複数カメラの画像をつなぎ合わせて単一の画像を作成するためには、各画像を撮影したレンズ位置(光学中心)が一致していることが望ましい。光学中心が一致していない場合には、撮影対象物とカメラとの相対的な配置が映像ごとに異なるため、各画像の間で3次元的な視野差に起因する画像間の矛盾が起きるようになる。しかし、各カメラの光学中心を完全に一致させるためには複雑な反射鏡の設計が必要であり、その作成は極めて困難なかつ高価なものとなる。そのため複数カメラを組み合わせて撮影を行う製品の多くにおいては、光学中心は数センチから数十センチ離れている。
【0009】
【課題を解決するための手段】
本発明では複数カメラを用いて画像を撮影する際に、カメラの位置と角度を物理的に変化させる動的な制御を行い、画像合成時に各カメラ間の視差に起因する品質の劣化が起こりにくい映像を作成する。そのために、周囲の撮影対象物の配置状況をセンサで取得し、撮影後につなぎ合わせ部分になる画像領域には、上述の示唆による映像の不整合が比較的おきにくい遠距離の対象物が写る配置になるようにカメラの配置を動かす。このことによって、視差の大きい映像をつなぎ合わせることによる画像品質の劣化を防ぐ。
【0010】
【発明の実施の形態】
図1は、当発明の一実施例の側面図を図示したものである。本発明による撮影装置は大きく分けて、カメラ装置部分101、駆動装置部分102、センサ装置部分103、そして制御装置部分104から構成される。それぞれの部分の挙動および実現方法については、既存の実現例が数多く存在しているため、この実施例の解説においても、それら既存の技術においては必要な機能のみ記述するものとする。
【0011】
図2は、カメラ装置部分101を別の角度(上面図)から見た図である。カメラ装置部分101は、複数のカメラ121〜126を周囲の各方向に向けて取り付けることで構成されたものである。以下ではこのカメラ装置部分の構成要素である各カメラ121〜126を要素カメラと呼称する。ただし、ここで要素カメラと呼称する部品は、レンズとカメラ機器の組み合わせで構成される部品であり、それぞれが光学中心を独立に持ち、映像を撮影する能力をもつ。この実施例においては、中心軸120を中心とした円周上に一定の間隔で要素カメラが配置されているものとする。図には 6個の要素カメラが記載されているが、本発明はこの要素カメラの台数として任意のn台を用いて構成することが可能である。このカメラ装置部分101は、制御装置104に電気信号を送信するケーブルによって接続され、同装置によって制御される。カメラ装置部分101は制御装置104から転送される命令データを受信し、各カメラを同期させて撮影し、撮影結果をデジタル画像データとしてデータ記憶装置105に転送する機能を有するものとする。これらの各要素カメラによるデジタル撮影手法、信号を伝達するケーブル、および記憶装置105など個々の部品の実現方法は、既存の発明に順ずるものとする。
【0012】
制御装置104は汎用的な情報処理装置であり、各部へと制御命令を転送し、動作結果を受信する。また、カメラ装置部分101から転送されてくる撮影画像を記憶装置105に保持することができ、撮影中、もしくは撮影終了後に各画像をつなぎ合わせることによって画像データを全方位画像データへと変換する処理を行うことが出来る。
【0013】
図4に、制御装置104の構成例を表したブロック図を挙げる。CPU(中央演算処理装置)401は、主記憶装置402に記録されているプログラムに従い各種の処理を実行する。主記憶装置402と外部記憶装置105には制御処理を実行するに当たって必要なプログラムやデータが記憶される。外部記憶装置105にはハードディスクドライブやその他の既存の大容量メディアが使用されるものとする。入出力I/F部403では、カメラ装置部分、駆動装置部分、センサ装置への入力および出力データをやり取りするために必要なデータの転送手段を備えているものとする。ユーザの命令は入力機器106から行われる。このインタフェースにはキーボード、マウス、タッチパネルなどの既存の入力機器を使用する。また、制御装置104はタイマーによる割り込み処理を保有しており、ある時間ごとに設定された一連の動作を行う機能を有しているものとする。
【0014】
図3はセンサ装置部分の構成例を示した図である。センサ装置部分103は、m台の距離センサによって構成され、撮影対象物とカメラの距離を測定する機能を有する。距離測定センサ131〜134が装置の周囲に一定の間隔で取り付けられており、各センサは割り当てられた範囲角度内に存在するオブジェクトとカメラとの距離を測定する。このセンサは赤外線、レーザ、音波、またはステレオ視画像処理などを利用した既存のセンサシステムを使用するものとし、各センサが距離を測定する方法は既存の発明に順ずる。これらの各センサ類の実装方法については既存の実現例が多く存在するため、特定の実装手法について本明細書において記載はしない。
【0015】
図3に示すように、このセンサ装置部分103も制御装置104と接続されている。制御装置104からの命令を受信すると、各センサ131〜134が作動し、周囲の物体との距離を測定して、測定結果を制御装置に転送する。このセンサ装置の測定結果は制御装置104に送られ、周囲の方向とその方向に存在する物体との距離関係を示すテーブルに保存される。このテーブルの実装例を図7に示す。記載されるデータの内容と作成方法は後述の動作手順解説内において記載する。
駆動装置部分102は、カメラ装置部分101を回転させる機器である。この回転の中心軸120は各要素カメラの光学中心の重心を通るカメラ装置部分101の中心軸と一致する。本実施例においては各カメラの位置および方向の移動はこの一軸の周りの回転のみを想定している。駆動装置部分102には、この回転軸を駆動させるためにモータが取り付けられている。このモータはネットワークで接続された制御装置104によって制御され、制御装置104からの命令信号を受け取ると、命令信号のデータ構造体に記載された角度になるように駆動する。また、各時刻における軸の回転角度を記録する機能を有する。
【0016】
以下では、上記の各装置が動作する処理の流れを順序だてて解説する。図5は一連の動作順序をブロック図にしたものである。
【0017】
入力機器106からユーザから制御装置への入力があると、設備は撮影機能を開始する(工程501)。制御装置104はタイマーの割り込み機能を利用して、一定のタイミング毎にあるルーチンを行う。以下この一定時間ごとによびだされるルーチン処理を撮影スレッドと呼ぶ。撮影スレッドは工程502で開始され、509で停止の命令が行われるまで、1/30秒に一度の割合で呼び出されるものとする。この撮影スレッドは工程503〜508とは独立に並列のプロセスとして動作する。
【0018】
図6は、一定時間ごとに呼び出される撮影スレッドのルーチン処理工程を示す。図6の左側は制御装置104の動作ルーチンを示し、右側はそれに伴ってのカメラ装置部分101の動作を示す。制御装置104の内臓タイマーによって撮影ルーチンが呼びだされる(工程601)と、制御装置104はカメラ装置部分101に撮像命令を発信し(工程602)、それと同時にその時刻の駆動装置部分102の回転角度情報を取得する。カメラ装置部分101ではこの撮像命令を受信する(工程610)と、映像を撮像し(工程611)、制御装置に撮像データを転送する。制御装置104はその映像情報を受信し、記憶装置105に保存する。また、この保存の際に工程603で得られた駆動装置部分102の回転角度の情報も一緒に保存する。以上で1回分の撮影ルーチンの処理が終了する。
【0019】
制御装置104は、この撮影スレッドの動作と並行して、センサ装置103の情報に基づいて、駆動装置部分102の制御を行う。この処理は図5の工程503〜508に示されている。
【0020】
制御装置104は、取得をセンサ装置103に命令する。各センサ131〜134は各々の設置された角度に対応した周囲の情報を取得し、得られた距離データを制御装置104に転送する(工程504)。制御装置104は各センサの距離情報をテーブルに記録する。このテーブルの実装例のひとつを図7に示す。図7のID_0,ID_1…はセンサのID番号を示す値である。各カメラから得られた情報は、このカメラのID番号をキーとしてテーブルから検索される。テーブル内のD_0,D_1…には各センサが向けられている方向を示す角度値が保管される。各々のセンサが取得した距離の情報は、対応するID番号をキーとしてS_0,S_1, …に登録される。また、この距離の逆数R_0,R_1…をテーブル内の対応する位置に登録する。この値R_0,R_1…は、後に行う画像のつなぎ合わせを評価する値の作成において使用される。
【0021】
続いて制御装置104は、センサから得られた距離情報を基にして、カメラの角度に対する評価関数を作成する(工程505)。
【0022】
カメラ装置部分101の回転角度θは0〜360度の間の変数であらわされる。またこの角度がθ度であるときの画像をつなぎ合わせたときの合成品質を評価値E(θ)で推定する。制御装置104には下記の手順に基づいたプログラムが内蔵されており評価値E(θ)の計算を行う。以下、この評価関数の計算手順をしめす。
全周囲画像を作成したときに各画像が接続される部分となる画像領域は、駆動装置部分の回転角度θにのみ依存して一意に定めることが出来る。前述の通り本実施例ではn個のカメラが円弧状に連なっているものと想定してあり、θ=0度のときにある要素カメラkの向く方向を(θ(k),0)として表現する。ただし、kはカメラの番号1からnのどれかを示す整数である。またθ(k)は水平方向の角度を示す値であり、カメラの仰角方向の成分は0、すなわち水平方向に向けて設置されているものとする。カメラは等間隔に並んでいるため、カメラ装置部分102の角度がθを向いているときに要素カメラk(=1〜n)は角度θ(k) =(360/n)*(k+0.5)+θの方向を向いていると表現することが出来る。この場合、つなぎ目となる領域θ_cは、数1が示す不等式において、kが1からnまでの整数値をとったときに、いずれかのkの値に対して不等式の条件を満たしている領域として表現することが出来る。ただしeはつなぎ目の幅を表す値である。
【0023】
【数1】
− e/2 ≦ θ_c −θ−(360/n) k ≦ e/2
工程803〜806において、つなぎ目上での不整合の度合いを推定する値Eを求める。センサ装置の測定によって得られたテーブル700において、センサの設置された角度D_nが数1の条件を満たす領域はつなぎ目領域と判定される。この領域に対応する全センサのデータをテーブル700から読み取り、それらの各評価値R_n(本実施例においては距離の逆数)の平均値を取る。この平均値が推定評価値E(θ)として用いられる。
【0024】
この評価値E(θ)があらかじめ定められた定数である基準となる閾値Dよりも大きかった場合には、駆動装置部分を回転させる必要があると判断され、工程506と507を行う。Dよりも小さかった場合には、現状においては回転の必要がないものと判断され、一定時間待機(工程508)した後、再び503から一連の工程を行う。
【0025】
駆動装置部分を回転させる必要があると判断した場合、制御装置は、前述の距離情報を基にして、図8のブロック図に示される手順に従い、カメラの回転角度を決定する(工程506)。
【0026】
図8のブロック図に基づいてこの回転角度の決定手順の方法について記述する。駆動装置部分の計算処理506開始時点での回転角度をθとする。この値を変数θ_0、θ_1に初期値として代入し、θ_0=θ_1=θと設定する。また、同時点での回転角度に対応するつなぎ目上での不整合の度合いを推定する値Eには、工程505で計算した値E(θ)を用いる。
【0027】
工程803〜807では、駆動装置部分の回転核がθ_1であったときの、つなぎ目上での不整合の度合いを推定する値E_t=E(θ_1)を計算する。この計算は前述のE(θ)の計算手法と同じ方法を用いる。すなわち、現在仮に定められているθ_1の値に対して、センサ装置の測定によって得られたテーブル700から、D_kが前述のつなぎ目領域を判定する方程式を満たす評価値R_k(本実施例においては距離の逆数)を読み取り(工程804〜805)、これらの値の平均を取る(工程806)。この平均値はつなぎ目上での不整合の度合いを推定する値として用いられる。平均値をEと比較する(工程807)。新しい平均値がEよりも小さかった場合にはEに現在の合計値を上書き設定し、θ_0に現在の角度θ_1を保存する(工程808)。θ_1を角度Δθだけ増加させる。θ_1がθ+360/n度を超過した場合には繰り返し処理を終了し、工程810に移行する。それ以外の場合には、工程 803〜808 を更新されたカメラ角度θ_1に対して再び行う(工程809)。工程802〜809の繰り返し処理が終了した辞典で、最終的に保存されている角度θ_0をカメラの回転角度として決定する。
【0028】
以上の一連の処理によって、最もつなぎ目の不整合が少なくなるカメラ角度θ_0を推定することが出来る。
【0029】
この情報を記憶装置に記録する。図9では記録されるデータ構造の一例を示す。このデータの中には、映像情報、回転角度(θ_0)、計算終了時点の時刻情報が記載される。
【0030】
制御装置104は、カメラの角度を上記処理によって計算されたθ_0に向けて回転させる(工程507)。また、撮影スレッドがカメラ装置部分101の回転中に呼び出された場合には、回転中の駆動装置部分102から得ることの出来る回転角度情報を前述の工程603で示したように保存する。
【0031】
撮影された各カメラの画像は、以下の手法を用いて全周囲画像へと変換することが出来る。この画像形式の変換処理は、撮影終了後に保存されたデータをオフラインで処理することも可能であり、制御装置に十分な計算能力があるならば、リアルタイムで変換処理をおこなうことも可能である。
【0032】
各カメラの光学中心の位置、および単独のカメラが撮影可能な範囲(画角)の情報は、それぞれ公知の手法を用いて測定されているものとする。また各撮影タイミングにおけるカメラ装置部分101の向いている水平角度は、工程605によって記憶装置に保存されている。
【0033】
カメラ装置部分101に搭載された各カメラの光学中心がカメラ装置部分101の中心にあるものと仮定して、各画像から全周囲画像を作成する方法を示す。ここでは全周囲画像を、カメラ装置部分101の光学中心から方向(η、φ)の対応する画素への写像として表現する。ただし、ηは水平方向の回転角度、φは仰角を表すものとする。すなわち全周囲画像は、図に示すようなデータ表現であらわされるものであるとする。
【0034】
ある要素カメラの向いている方向を(θ_k,0)とする。このときθ_kは水平方向の回転角度であり、仰角は0であるとする。機構の光学中心を(0,0)として、カメラの光学中心とシステム中心との相対位置を(d1,d2)と定める。またカメラの垂直画角をFx、水平画角をFyとする。このとき、カメラで撮影された画像上の画素(u,v)と、方向(η、φ)の関係を以下のように対応付ける。
【0035】
【数2】
tan(η−θ_k)=F_x u
【0036】
【数3】
tanφ=F_y v
上述の対応付けを用いて複数の画像をつなぎ合わせ、円筒形の全周囲画像を求める方法を以下に記す。また、本実施例においては周囲画像を円筒系のフォーマットで作成する方法を挙げるが、この装置が出力する出力フォーマットを円筒形に制限するものではない。図全周囲画像Xの各画素(η、φ)に対して各要素画像から対応する画素(u_k,v_k)を探す。ただし、u_k,v_kは以下のように示される。
【0037】
【数4】
u_k=tan(η−θ_k)/F_x
【0038】
【数5】
v_k=tanφ / F_y
各k(=1..n)に対してそれぞれ目的の画素位置が撮影された映像範囲内に存在するか検索する。1つの画像においてだけ対応する画素が存在した場合には、その画素の情報を方向(η、φ)の画素情報として用いる。2つ以上の画像において対応画素が発見された場合には、各画像k内における画素位置(u_k,v_k)を比較して画素を合成する。画素の合成は以下のように行われる。
【0039】
この処理により周囲画像データが作成される。
【0040】
【発明の効果】
以上述べたように、本発明によって撮影された画像は、複数画像のつなぎ合わせ処理を行った際に、画像間の不整合に起因する映像の乱れの影響が少なくなっている。
【図面の簡単な説明】
【図1】装置の構成を示す代表図である。
【図2】カメラ装置部分の構成を示す図である。
【図3】センサ装置部分の構成を示す図である。
【図4】制御装置部分の構成を示す図である。
【図5】装置動作工程を解説するフローチャートである。
【図6】撮影スレッドの工程を解説するフローチャートである。
【図7】センサ情報を記録するテーブルの図である
【図8】合成品質の高いカメラの角度を計算するフローチャートである。
【符号の説明】
101 カメラ装置部分、102 駆動装置部分、103 センサ装置部分、104 制御装置部分、105 記憶装置、120 回転軸、121〜125 要素カメラ、131〜134 センサ
401 CPU、402主記憶装置、403入出力インタフェース、404外部記憶装置、405操作用出力機器、406操作用入力機器、700センサ情報登録テーブル[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image creation device that captures moving images and still images.
[0002]
[Prior art]
By taking images with a wide viewing angle, it is possible to look around the landscape freely according to the user's input, or to view the surrounding images on a special image display system and enjoy the immersive feeling. Applications that apply that content are born.
[0003]
As a technique for capturing such a high-viewing-angle video, a device that captures images with a single camera using a curved mirror or the like, or a device that captures images by connecting images from multiple cameras is invented. Have been.
[0004]
As an example of using a single camera as in the former case, a system combining a hyperboloid mirror and a CCD camera has been studied and published. In this type of system, the entire apparatus is small and does not have a problem caused by combining images of a plurality of cameras.
[0005]
However, the drawbacks are that errors due to the distortion of the mirror greatly affect the quality of the final image, and that the resolution of the final image tends to be insufficient because a single camera captures the entire image.
[0006]
As an example of the latter using a plurality of cameras, a camera for omnidirectional photography in which a plurality of small cameras are housed in a single housing is realized (for example, see Patent Document 1). In this camera, a photographing command is received from an external control device, and each digital image photographed by the six cameras operating in conjunction with each other is stored in a dedicated storage device. This data is transferred to a general-purpose computer after the photographing is completed, and is subjected to a joining process using dedicated software to be converted into an omnidirectional moving image. As described above, in a system using a plurality of cameras, a high-resolution image can be obtained, but on the other hand, image deterioration due to joining of images is observed.
[0007]
[Patent Document 1]
JP 2001-204015 A (Abstract)
[0008]
[Problems to be solved by the invention]
In order to create a single image by connecting images from a plurality of cameras, it is desirable that the lens position (optical center) at which each image was taken coincides. If the optical centers do not match, since the relative arrangement of the object to be photographed and the camera is different for each image, inconsistencies between images may occur due to a three-dimensional visual field difference between the images. become. However, perfect alignment of the optical centers of each camera requires a complex reflector design, which is extremely difficult and expensive to make. Therefore, in many products that combine a plurality of cameras for photographing, the optical center is apart from several centimeters to several tens centimeters.
[0009]
[Means for Solving the Problems]
In the present invention, when capturing an image using a plurality of cameras, dynamic control for physically changing the position and angle of the camera is performed, and quality deterioration due to parallax between the cameras during image synthesis hardly occurs Create a video. For this purpose, the arrangement state of the surrounding object to be photographed is acquired by the sensor, and in the image area that becomes the joint portion after photographing, the arrangement of the object at a long distance where the image inconsistency is relatively unlikely to occur due to the above suggestion. Move the camera arrangement so that This prevents image quality degradation caused by joining images having a large parallax.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows a side view of one embodiment of the present invention. The photographing device according to the present invention is roughly divided into a
[0011]
FIG. 2 is a view of the
[0012]
The
[0013]
FIG. 4 is a block diagram illustrating a configuration example of the
[0014]
FIG. 3 is a diagram showing a configuration example of a sensor device portion. The
[0015]
As shown in FIG. 3, the
The
[0016]
In the following, the flow of processing in which the above devices operate will be described in order. FIG. 5 is a block diagram showing a series of operation order.
[0017]
When there is an input from the user to the control device from the
[0018]
FIG. 6 shows a routine processing step of the photographing thread called at regular intervals. The left side of FIG. 6 shows an operation routine of the
[0019]
The
[0020]
The
[0021]
Subsequently, the
[0022]
The rotation angle θ of the
The image area serving as a portion to which each image is connected when the omnidirectional image is created can be uniquely determined only depending on the rotation angle θ of the drive unit. As described above, in the present embodiment, it is assumed that n cameras are connected in an arc shape, and the direction of an element camera k when θ = 0 degrees is expressed as (θ (k), 0). I do. Here, k is an integer indicating one of the
[0023]
(Equation 1)
−e / 2 ≦ θ_c−θ− (360 / n) k ≦ e / 2
In
[0024]
If the evaluation value E (θ) is larger than a predetermined threshold value D, which is a reference, it is determined that the drive unit needs to be rotated, and steps 506 and 507 are performed. If it is smaller than D, it is determined that there is no need for rotation at present, and after waiting for a certain time (step 508), a series of steps is performed again from 503.
[0025]
If it is determined that the drive unit needs to be rotated, the control unit determines the rotation angle of the camera according to the procedure shown in the block diagram of FIG. 8 based on the distance information described above (step 506).
[0026]
The method of determining the rotation angle will be described with reference to the block diagram of FIG. The rotation angle at the start of the
[0027]
In
[0028]
Through the above series of processing, it is possible to estimate the camera angle θ_0 that minimizes the mismatch between the joints.
[0029]
This information is recorded in the storage device. FIG. 9 shows an example of a data structure to be recorded. In this data, the video information, the rotation angle (θ_0), and the time information at the end of the calculation are described.
[0030]
The
[0031]
The captured image of each camera can be converted into an omnidirectional image using the following method. In this image format conversion process, it is also possible to process the data stored after the photographing is completed off-line, and if the control device has sufficient calculation capability, it is possible to perform the conversion process in real time.
[0032]
It is assumed that the information on the position of the optical center of each camera and the range (angle of view) that can be taken by a single camera is measured using a known method. Further, the horizontal angle at which the
[0033]
A method of creating an omnidirectional image from each image assuming that the optical center of each camera mounted on the
[0034]
The direction in which a certain element camera is directed is (θ_k, 0). At this time, it is assumed that θ_k is the rotation angle in the horizontal direction and the elevation angle is 0. The optical center of the mechanism is defined as (0,0), and the relative position between the optical center of the camera and the center of the system is defined as (d1, d2). The vertical angle of view of the camera is Fx, and the horizontal angle of view is Fy. At this time, the relationship between the pixel (u, v) on the image captured by the camera and the direction (η, φ) is associated as follows.
[0035]
(Equation 2)
tan (η−θ_k) = F_x u
[0036]
[Equation 3]
tanφ = F_y v
A method of connecting a plurality of images using the above-described association to obtain a cylindrical omnidirectional image will be described below. Further, in the present embodiment, a method of creating a peripheral image in a cylindrical format will be described, but the output format output by this device is not limited to a cylindrical format. A corresponding pixel (u_k, v_k) is searched from each element image for each pixel (η, φ) of the entire image X in the figure. Here, u_k and v_k are represented as follows.
[0037]
(Equation 4)
u_k = tan (η−θ_k) / F_x
[0038]
(Equation 5)
v_k = tanφ / F_y
For each k (= 1... N), a search is performed to determine whether the target pixel position exists within the captured video range. When a corresponding pixel exists in only one image, information on the pixel is used as pixel information in the direction (η, φ). When corresponding pixels are found in two or more images, the pixels are synthesized by comparing the pixel positions (u_k, v_k) in each image k. The combination of pixels is performed as follows.
[0039]
By this process, the surrounding image data is created.
[0040]
【The invention's effect】
As described above, in the images captured according to the present invention, the effect of video disturbance due to inconsistency between images is reduced when the joining processing of a plurality of images is performed.
[Brief description of the drawings]
FIG. 1 is a representative diagram showing a configuration of an apparatus.
FIG. 2 is a diagram illustrating a configuration of a camera device portion.
FIG. 3 is a diagram showing a configuration of a sensor device portion.
FIG. 4 is a diagram showing a configuration of a control device portion.
FIG. 5 is a flowchart illustrating an apparatus operation process.
FIG. 6 is a flowchart illustrating steps of a shooting thread.
FIG. 7 is a diagram of a table for recording sensor information. FIG. 8 is a flowchart for calculating an angle of a camera having high synthetic quality.
[Explanation of symbols]
101 camera device portion, 102 drive device portion, 103 sensor device portion, 104 control device portion, 105 storage device, 120 rotation axis, 121 to 125 element camera, 131 to 134
Claims (2)
撮影された映像をつなぎ合わせる部分に特定の被写体が来た場合に、装置を物理的に回転させることにより各カメラの撮像範囲を変えて、つなぎ合わせ部分となる領域を変更することを特徴とする撮影装置。In a shooting device that shoots high-resolution video using a plurality of camera devices,
When a specific subject comes to a portion where the captured images are to be joined, the imaging range of each camera is changed by physically rotating the device to change an area to be a joining portion. Shooting equipment.
撮影された映像をつなぎ合わせる部分に特定の被写体が来た場合に、装置を物理的に回転させることにより各カメラの撮像範囲を変えて、つなぎ合わせ部分となる領域を変更することを特徴とする撮影方法。In a shooting method of shooting a high-resolution video using a plurality of camera devices,
When a specific subject comes to a portion where the captured images are to be joined, the imaging range of each camera is changed by physically rotating the device to change an area to be a joining portion. Shooting method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002299788A JP4277503B2 (en) | 2002-10-15 | 2002-10-15 | Video photographing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002299788A JP4277503B2 (en) | 2002-10-15 | 2002-10-15 | Video photographing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004135208A true JP2004135208A (en) | 2004-04-30 |
JP4277503B2 JP4277503B2 (en) | 2009-06-10 |
Family
ID=32288824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002299788A Expired - Fee Related JP4277503B2 (en) | 2002-10-15 | 2002-10-15 | Video photographing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4277503B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017505566A (en) * | 2013-12-09 | 2017-02-16 | シゼイ シジブイ カンパニー リミテッド | Multi-plane video generation method and system |
JP2017511057A (en) * | 2013-12-09 | 2017-04-13 | シゼイ シジブイ カンパニー リミテッド | Multi-projection video generation method and system |
WO2019082820A1 (en) * | 2017-10-26 | 2019-05-02 | 株式会社ソニー・インタラクティブエンタテインメント | Camera system |
US20190342501A1 (en) * | 2016-10-28 | 2019-11-07 | Samsung Electronics Co., Ltd | Method and apparatus for acquiring omnidirectional video |
WO2019229887A1 (en) * | 2018-05-30 | 2019-12-05 | マクセル株式会社 | Camera apparatus |
JP2021019228A (en) * | 2019-07-17 | 2021-02-15 | キヤノン株式会社 | Imaging apparatus, computer program, and recording medium |
KR102312932B1 (en) * | 2020-07-31 | 2021-10-14 | 한화시스템 주식회사 | Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover |
WO2023116669A1 (en) * | 2021-12-22 | 2023-06-29 | 华为技术有限公司 | Video generation system and method, and related apparatus |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100947106B1 (en) | 2009-10-30 | 2010-03-12 | 새한항업(주) | Picture processing system updating the image installed the data |
KR100950996B1 (en) | 2009-10-30 | 2010-04-02 | 새한항업(주) | Picture angle control system of camera |
-
2002
- 2002-10-15 JP JP2002299788A patent/JP4277503B2/en not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017505566A (en) * | 2013-12-09 | 2017-02-16 | シゼイ シジブイ カンパニー リミテッド | Multi-plane video generation method and system |
JP2017511057A (en) * | 2013-12-09 | 2017-04-13 | シゼイ シジブイ カンパニー リミテッド | Multi-projection video generation method and system |
US20190342501A1 (en) * | 2016-10-28 | 2019-11-07 | Samsung Electronics Co., Ltd | Method and apparatus for acquiring omnidirectional video |
US11006048B2 (en) * | 2016-10-28 | 2021-05-11 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring omnidirectional video |
WO2019082820A1 (en) * | 2017-10-26 | 2019-05-02 | 株式会社ソニー・インタラクティブエンタテインメント | Camera system |
US11297299B2 (en) | 2017-10-26 | 2022-04-05 | Sony Interactive Entertainment Inc. | Camera system |
WO2019229887A1 (en) * | 2018-05-30 | 2019-12-05 | マクセル株式会社 | Camera apparatus |
JPWO2019229887A1 (en) * | 2018-05-30 | 2021-07-26 | マクセル株式会社 | Camera device |
JP7025539B2 (en) | 2018-05-30 | 2022-02-24 | マクセル株式会社 | Camera device |
JP2021019228A (en) * | 2019-07-17 | 2021-02-15 | キヤノン株式会社 | Imaging apparatus, computer program, and recording medium |
KR102312932B1 (en) * | 2020-07-31 | 2021-10-14 | 한화시스템 주식회사 | Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover |
WO2023116669A1 (en) * | 2021-12-22 | 2023-06-29 | 华为技术有限公司 | Video generation system and method, and related apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP4277503B2 (en) | 2009-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100385089B1 (en) | Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera | |
JP4914171B2 (en) | Imaging device control method and camera system | |
JP2004198732A (en) | Photographic aid, method and apparatus for image processing, computer program, and recording medium with recorded program | |
JP4775474B2 (en) | Imaging apparatus, imaging control method, and program | |
JP2003502925A (en) | How to shoot 3D scenes with one portable camera | |
KR20150050172A (en) | Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object | |
JP2011139368A (en) | Control apparatus and control method for capturing device | |
WO2005084017A1 (en) | Multiprojection system | |
JP4277503B2 (en) | Video photographing apparatus and method | |
JP2004128997A (en) | Device, method and program for video remote control, and recording medium with the program recorded thereon | |
US8860780B1 (en) | Automatic pivoting in a wide-angle video camera | |
KR101452342B1 (en) | Surveillance Camera Unit And Method of Operating The Same | |
KR100585822B1 (en) | Monitor system use panorama image and control method the system | |
JP2000083246A (en) | Camera control system, camera control method, and recording medium stored with program to execute processing thereof | |
JP2015194587A (en) | Image data processing device, image data processing method, image distortion response processing device, and image distortion response processing method | |
JPH0514751A (en) | Panoramic picture fetching device | |
KR102138333B1 (en) | Apparatus and method for generating panorama image | |
US6982749B2 (en) | Remote control camera system and image transmission method | |
JP2002101408A (en) | Supervisory camera system | |
JP2011182253A (en) | Imaging apparatus and imaging method | |
JPH114373A (en) | Method and system for configurating full circumference panorama image | |
JP5231119B2 (en) | Display device | |
JP2012019285A (en) | Imaging device and imaging method | |
JP2005309782A (en) | Image processor | |
Qin et al. | Aligning windows of live video from an imprecise pan-tilt-zoom robotic camera into a remote panoramic display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050412 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090217 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090302 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |