JP5456020B2 - 情報処理装置および方法 - Google Patents
情報処理装置および方法 Download PDFInfo
- Publication number
- JP5456020B2 JP5456020B2 JP2011503302A JP2011503302A JP5456020B2 JP 5456020 B2 JP5456020 B2 JP 5456020B2 JP 2011503302 A JP2011503302 A JP 2011503302A JP 2011503302 A JP2011503302 A JP 2011503302A JP 5456020 B2 JP5456020 B2 JP 5456020B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- virtual viewpoint
- virtual
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19645—Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、複数視点画像から仮想視点画像を生成するものに関する。
撮影した位置とは異なる視点の画像(仮想視点画像)を得る方法として、光軸を移動させて撮影するティルト・シフト撮影、および距離マップを生成し距離マップに応じて視点の異なる複数の画像(複数視点画像)を合成することにより任意視点画像を得る方法が知られている。複数視点画像を得る方法として、特許文献1のように互いに重複領域を持つように被写体を複数回撮影して合成する方法および、特許文献2のようにカメラアレイを用いる方法が知られている。手持ち撮影などを考えた場合には、後者の方が優れている。
カメラアレイによって多視点画像を得る撮影システムには、特許文献2のように被写体を全方位から撮影するものと、ViewPLUS社のProFUSION25のように複数のカメラを平面上に配置して撮影するものがある。撮影した位置とは異なる視点の画像を得るためには、被写体が含まれる撮影領域の距離マップを取得することは非常に重要である。そして、カメラアレイを構成するカメラの配置は、距離マップの精度に大きく影響する。特許文献3のように、光軸に対して前後にカメラを配置する方法が提案されている。複数視点画像から距離マップを生成する方法としては、例えば、非特許文献1に記載されているプレーンスイープ法が知られている。
従来のカメラアレイを構成するカメラの配置は、格子状、放射状、半球状などのように規則正しく配置されている。規則正しくカメラを配置した場合、ある程度の大きさを持った単色被写体の距離情報を正しく取得できないという問題が生じる。
例えば、図5(a)のように、単色被写体である単一色の棒X(例えば手すり)が、複数のカメラの配置と平行に配置されていたとする。カメラA、カメラB、カメラCで撮影した画像は例えば、図5(b)のようになる。図5(b)における黒いラインの部分が、各画像における単色被写体Xの画像部分である。図5(b)におけるa、b、cは、図5(a)中に示した現実空間における位置(仮想オブジェクト位置)a、b、cに対応する画像上の位置を示している。
図5(a)と(b)に示したように、位置a、b、cに対応する各カメラの画像における画素値は、被写体Xが単色であることから同じになってしまう。したがって、各カメラの画像から、単色被写体Xが存在する位置bに対応する画素を特定することができない。よって、被写体Xの位置b(オブジェクト位置)を1点に絞ることができない。
図5(c)に示したようにカメラ2台を通る直線を含む平面上に、ほぼ均一な特徴量を持つ被写体がある場合、複数の仮想オブジェクト位置で特徴量が略一致するため、原理的に2台だけではオブジェクト位置を特定できない。したがって、仮想オブジェクト位置を絞り込むために、カメラを更に追加することが必要である。しかしながら、この2台のカメラを通る直線上に他のカメラを追加した場合には前述のようにオブジェクト位置を特定ことはできないので、この位置にカメラを追加するのはあまり意味が無い。カメラアレイ上に配置するカメラ台数は物理的な制約があるので、情報量増加に貢献しないカメラをできるだけ減らすということが、正しい三次元推定結果を得、ひいては高画質な仮想視点画像を得ることに大きく貢献する。
本発明は、上記課題を解決するためになされたものであり、撮像部の位置を最適化することにより、好適な仮想視点画像または距離マップを得ることができるようにすることを目的とする。
本願請求項1記載の発明は、異なる位置に配置された複数の撮像部で撮影された画像から、該カメラが配置されている位置とは異なる仮想視点の仮想視点画像を生成する情報処理装置において、仮想視点を設定する仮想視点設定手段と、異なる位置に配置された複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の仮想画像において被写体距離を確定できない未確定領域を決定する決定手段と、前記未確定領域からすくなくとも1つの前記撮影部の位置の補正量を設定する補正量設定手段と、前記補正量に応じて補正された位置に配置された前記複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の前記仮想画像を生成する生成手段とを有することを特徴とする。
本願請求項8記載の発明は、異なる位置に配置された複数の撮像部で撮影された画像から、該カメラが配置されている位置とは異なる仮想視点の距離マップを生成する情報処理装置において、仮想視点を設定する仮想視点設定手段と、異なる位置に配置された複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の仮想画像において被写体距離を確定できない未確定領域を決定する決定手段と、前記未確定領域からすくなくとも1つの前記撮影部の位置の補正量を設定する補正量設定手段と、前記補正量に応じて補正された位置に配置された前記複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の距離マップを生成する生成手段とを有することを特徴とする。
本発明によれば、撮像部の位置を適切にすることができ、好適な仮想視点画像または距離マップを得ることができる。
実施例1は、カメラアレイを構成するカメラユニットの位置を動的に補正する。カメラアレイは2台以上のカメラで構成されるが、本実施例では多眼デジタルカメラとカメラアレイを構成するカメラとを明確にするために、カメラアレイを構成するカメラを「カメラユニット」と呼称する。
図1は本実施例に係る多眼デジタルカメラの概観を示す斜視図であり、図1(a)は正面、図1(b)は背面の概観を示している。多眼デジタルカメラ本体100の正面には、カメラユニット101を格子状に配置したカメラアレイが設けられており、この複数のカメラユニットを用いて、同時に複数の視点画像を得ることができる。多眼デジタルカメラ本体100の上部には、撮影開始を指示するためのレリーズボタン104が設けられている。
カメラアレイを構成するカメラユニット101の夫々は撮像装置102と保持環103、アクチュエータ125で構成され、アクチュエータによって撮像装置102を保持環103の範囲内で水平および垂直移動することができる。本実施例における撮像装置102は、レンズ121とLPF122、撮像センサ(例えば、CCD)123、水平・垂直方向駆動ステージ124、周辺回路(不図示)が一体となって構成される。この撮像装置を、駆動用のアクチュエータ125によって水平・垂直に駆動する(図1(c))。
本実施例では撮像装置102を水平・垂直に駆動するが、水平・垂直方向の駆動に加え、例えば光軸方向に前後駆動したり、旋回したりしても良い (図1(d))。ただし、撮像素子中心を基準としたカメラユニットの旋回は、被写体距離が特定できないという問題を解決することはできない。なお、カメラユニット101の移動量は、カメラユニット毎に保持され、バッファメモリ208(図2参照)へ撮影画像データを転送する際に、画像に付加して送信される。
多眼デジタルカメラ本体100の側面には、外部記録媒体(例えば、半導体メモリカード)を挿入するためのカードスロット111が設けられている。多眼デジタルカメラ本体100の背面には画像表示装置105、十字配置スイッチ106、電源ボタン107、メニューボタン108、決定ボタン109、キャンセルボタン110が設けられている。本実施例では光学ファインダを設けていないので、ピントや構図の確認は、画像表示装置105を用いて行う。画像表示装置105には、撮影範囲をリアルタイムに表示するライブビュー表示を行う他、メニューボタン108を押下した場合にはカメラ設定メニューを表示する。カメラ設定メニューを表示した状態でメニューボタン108を押下した場合には、ライブビュー状態に戻る。
メニューボタン108によって表示されるカメラ設定メニューでは、まず項目を選択し、選択された項目の状態を決定ボタン109で変更するか、キャンセルボタン110で変更せずに項目の選択に戻る。カメラ設定メニューで変更できる項目には、絞り値や、カメラシャッタースピード、仮想カメラ視点、出力画像形式、画像データフォーマットを指定できる。
本実施例では、絞り値やシャッタースピードについては、カメラアレイを構成する各カメラユニットに対して同じ値を設定する。なお、カメラユニット毎に個別に設定できるようにしても良い。各カメラユニットを同じ設定にすることで従来のデジタルカメラと同様の操作感で撮影条件を設定できるが、個別に設定することでより高精度なかそう視点の画像をを得ることができる。
仮想カメラ視点情報は、仮想カメラの位置、姿勢、画角、撮影距離の情報を含む。撮影距離とは仮想カメラ視点から仮想ピント面までの距離であり、仮想カメラ視点から被写体までの距離である被写体距離とは異なる。撮影距離は、通常のデジタルカメラと同様に、撮影領域内のうち、撮影準備状態に入った時点で指定されている位置を測距して決定する。例えば本実施例の多眼デジタルカメラでは、AF測距枠に最も近い位置のカメラユニットを選択し、選択したカメラユニットを使って撮影距離を決定し、決定した撮影距離を他のカメラへ通知する。
本実施例では、多眼デジタルカメラが生成する画像データの形式は、出力画像形式と画像データフォーマットとに基づき決定される。本実施例では、出力画像形式として、2D画像、ステレオ画像、多視差画像、RAW画像の4種類を選択することができる。2D画像は、仮想カメラ視点から見た映像を示す1枚の仮想視点画像データである。ステレオ画像は、仮想カメラ視点から見た時の両眼視差画像を示す右眼視点画像データと左眼視点画像データである。図6に示すように、仮想カメラ視点を基準として、両眼視差(例えば、6cm)に応じて2台の仮想カメラ(右目用仮想カメラと左目用仮想カメラ)を設定し、この2台のカメラのそれぞれから見た映像を画像データとして出力する。2台の仮想カメラを設定する際に、両眼視差に加え、輻輳角を指定しても良い。輻輳角を指定することで、撮影距離が短い場合でも違和感の無いステレオ画像を得ることができる。多視差画像は、ステレオ画像とは異なり、視差数を水平方向に2に限定せず、別途指定された任意の数の視差に応じて複数の画像データを生成する。視差数は、水平・垂直夫々に独立に指定可能である。RAW画像は、各カメラユニットで撮影した画像データを無加工で記録する形式である。この出力画像形式の場合、各カメラユニットに対応した各画像データをカメラユニットの仮想カメラ視点情報とともに格納する。各カメラユニットの出力(複数視点の画像)をそのまま保存しておくことで、PCなどを用いて被写界深度や視点位置などを変更(リフォーカス処理)することが可能になる。
画像データフォーマットは、ステレオ画像、多視差画像のような複数の仮想カメラ視点の画像データの保存方法を指定するための情報である。本実施例は、画像データフォーマットとして、複数の画像データをそのまま記録する通常記録と、レンチキュラー印刷/表示用に複数の視差画像を短冊状または格子状に合成するレンチキュラー記録を選択することができる(図7)。レンチキュラー記録の場合、水平・垂直のいずれかにのみ視差が指定されている場合には短冊状に複数の視差画像を交互に合成し、両方に視差が設定されている場合は格子状に複数の視差画像を交互に合成する。レンチキュラー記録は、視差を水平・垂直について独立に設定できるので、インテグラル方式の裸眼立体視モニタにも対応することができる。
本実施例は、さらに、画像データフォマットとして、カメラに接続された出力機器を認識し、通常記録とレンチキュラー記録のいずれかを自動選択する「自動選択」を用意する。画像データフォーマットとして、「自動選択」が設定されている場合は、レリーズボタン104によって撮影が指示された時点で、マイクロコンピュータ200が図8に示す処理を実行して出力画像データフォーマットを決定する。まず、多眼デジタルカメラ本体と出力機器が接続されているかどうかを判定する(ステップS801)。出力機器が接続されていていると判定された場合は、出力機器から出力機器がサポートするデータ形式の情報を取得(ステップS802)する。取得したデータ形式に応じて、画像データフォーマットとして通常記録またはレンチキュラー記録のいずれかを設定する。さらに、レンチキュラー記録が設定された場合は、取得したデータ形式に基づき、水平・垂直の数を設定する(ステップS803)。一方、ステップS801において出力危機が接続されていないと判定された場合は、予め定められた画像データフォーマットを設定する。本実施例では、通常記録を設定する(ステップS804)。
出力画像形式としてRAW画像が指定されている場合は、画像データフォーマットとして「自動選択」は選択できない。そして、画像データフォーマットとして「自動選択」が設定された状態で出力画像形式としてRAW画像を選択すると、自動的に「通常記録」が設定される。
図2は、本実施例にかかる多眼デジタルカメラの回路構成を示すブロック図である。図2において、マイクロコンピュータ200は、撮像装置102が出力する画像データの処理や、撮像装置102の駆動制御、LCDモニタ装置211の表示制御をはじめ、カメラ全体の動作を制御する。
スイッチ(SW1)205は、レリーズボタン104(図1参照)の半押し状態でオンになり、スイッチ(SW1)205がオンすると本実施形態の多眼デジタルカメラは撮影準備状態になる。スイッチ(SW2)206は、レリーズボタン104が最後まで押された状態(全押し状態)でオンし、スイッチ(SW2)206がオンすると本実施形態の多眼デジタルカメラは撮影動作を開始する。本実施形態による多眼デジタルカメラでは、複数の撮像装置102を同期して駆動する必要があるので、カメラユニット同期回路207でこれを制御する。
撮像装置(カメラユニット)102は、撮影レンズ121、撮像センサ123、撮像装置駆動回路203、画像処理回路204で構成される。撮像装置102の位置を調整するアクチュエータ125の制御は、カメラユニット駆動回路213で行う。撮影装置制御回路203は、レンズ制御やシャッター制御などを行う。例えばレンズ制御として、撮影レンズ121との通信およびAF(オートフォーカス)時の撮影レンズ121の駆動制御や絞り羽の駆動制御などを行う。また、シャッター制御によって、撮像素子123に対して適正な露光を行う。撮像センサ123で得た画像データは画像処理回路204によって処理され、バッファメモリ208へ伝送される。画像処理209は、バッファメモリ208に格納された複数の撮像装置102によって撮影された複数の画像の画像データを用いて、仮想カメラ視点情報に応じた仮想画像を高精度に生成するための撮像装置102の移動量を算出し、算出された移動量を撮像装置制御回路203に通知する。さらに、画像処理209は、バッファメモリ208に格納された、移動量に応じて制御された撮像装置102にて撮影された複数の画像の画像データを用いて、仮想カメラ視点情報、出力画像形式および画像データフォーマットに応じた画像データを生成し、記録装置212に記録する。なお、本実施例では仮想カメラ視点からの画像を生成する処理は、プレーンスイープ法によって行うが、他の方法によって生成しても良い。プレーンスイープ法による仮想視点画像の生成処理については後述する。
LCDモニター211とバックライト照明210は、画像表示装置105を構成している。記録装置212は、例えばカードスロット111によってカメラ本体に着脱可能な半導体メモリカードや、外部端子(不図示)によって接続されるハードディスクドライブなどである。
次に、プレーンスイープ法について説明する。プレーンスイープ法は、まず、仮想視点画像における推定対象画素に対応する被写体が存在する位置(被写***置)の候補点として仮想ピント面を設定する。複数のカメラユニットによって撮影された複数の画像のそれぞれにおける、設定されたピント面上の点に対応する画素値を用いて、設定されたピント面の信頼度を求める。設定されたピント面上の点は注目画素に対応する。そして、信頼度の高いピント面に応じた距離を、仮想視点画像における推定対象画素に対応する距離として決定する。
仮想視点画像上の各画素について距離情報を求めることで、撮影領域の距離マップを生成することができる。そして、距離マップに応じて、複数のカメラユニットによって撮影された複数の画像を再構成することにより仮想視点画像を作成することができる。
図3(a)は、図3(b)に示した仮想カメラによる撮影画像(仮想視点画像)を示す。図3(b)は、図3(a)における推定対象画素Fの仮想カメラからの距離の推定処理の概要を示す。推定対象画素Fに対応する被写体は仮想視点位置と推定対象画素Fの空間上の位置とを結ぶ直線上に存在する。そこで、仮想ピント面を点Aから点Bまで移動させながら、複数のカメラユニットPによって撮影された複数の画像のそれぞれにおける、仮想ピント面と直線上の交点(候補点)の位置に対応する画素値を特定する。図3(b)の例では、配置されている6つのカメラユニットPのすべての撮影画像は、点Aから点Bまでに対応する画素を含む。特定された複数の画素値の特徴量の一致度から設定された仮想ピント面の信頼度を求める。仮想ピント面が正しい場合は、複数のカメラユニットPによって撮影された画像のそれぞれから特定された画素値は同一の被写体に対応する画素値になるので、一致度は高くなる。一方、仮想ピント面が不適切である場合は、それぞれから特定された画素値は異なる被写体に対応する画素値になるので、一致度は低くなる。信頼度の高いピント面に応じた距離を、仮想視点画像における推定対象画素に対応する距離として決定する。
図4を用いてプレーンスイープ法による画像処理の流れを説明する。仮想視点画像を構成する画素iを選択する(ステップS401)。次に、仮想カメラ視点から画素iへの方向ベクトルを算出し、この方向ベクトルを含む直線Lを設定する(ステップS402)。直線L上での探索範囲を決定する(ステップS403)。この探索範囲内に仮想カメラの至近位置から無限遠方向へ順に仮想ピント面を設定し、被写体距離を探索する。探索範囲を設定した直線上に仮の被写体距離となる点Fを配置する(ステップS404)。撮影画像群から点Fに対応する画素を取得する(ステップS405)。仮の被写体距離とは、点Fを含む仮想ピント面と仮想カメラとの距離である。ここで、例えば図3(b)のように仮想カメラの撮影範囲を6台のカメラでカバーしている場合、点Fに対応する画素として、6枚の撮影画像からそれぞれ1画素ずつ合計6画素を取得する。点Fに対応する画素位置の算出方法については後述する。
取得した画素群を用いて、点Fで指定した位置にオブジェクト(被写体)が存在するかどうかを判断する。オブジェクトが存在するかどうかは、画素群のうち一定割合以上の画素が略一致するかどうかで判断できる。本実施例では、略一致しているかどうかの判断を、画素の特徴量の分散を用いて判定する。そこで、ステップS405において、取得された複数の画素の特徴量の分散値を算出し、点Fの被写体距離の信頼度とする(ステップS406)。探索範囲内で点Fの位置を更新し、ステップS405およびステップS406の処理を繰り返す(ステップS407、S410)。
次に、探索範囲内の各点について算出した分散値から分散値が最も低い点Fminを抽出し、この点Fminに応じた被写体距離を画素iの被写体距離として採用する(ステップS408)。ステップS401〜S410までの処理を、仮想視点画像の全ての画素に対して行い(ステップS409)、仮想視点画像の各画素の被写体距離情報を示す距離マップを得ることができる。
この被写体距離情報から、被写体の三次元形状を推定したり、仮想視点画像を生成したりすることができる。なお、点F_minに対応する画素の特徴量を用いて仮想視点画像の特徴量を決定すると、距離マップを作成せず直接仮想視点画像を作成することが可能である。例えば、撮影画像群における点Fminに対応する画素の平均色を、仮想視点画像上の点Fの画素値とすることが考えられる。
撮影画像上での点Fに対応する座標の算出方法について、図3(c)を用いて説明する。図中のカメラAは、例えば図3(b)におけるカメラユニットPや、仮想カメラに対応する。カメラAによる撮影領域は、カメラAを頂点、水平画角をθH、水平画角をθVとなる四角錘をした空間となる。この空間においてカメラAからの撮影距離を1とした平面を撮影領域投影面とする。
まず、実空間をマッピングした座標系において、点Fの位置ベクトルをX、カメラAの位置ベクトルをXC、カメラAから撮影領域投影面の中心CへのベクトルをXVとする。撮影領域投影面の上方向をXVV,右方向をXVHとする。ここで、XVV、XVHは単位ベクトルとする。また、点Fに対応する、撮影領域投影面上での座標を点Pとする。点Pの位置ベクトルpは、次式で表すことが出来る。
式(1)
ここで、
式(2)
とする。なお、tは転置行列を示す。このカメラによる撮影画像の水平画素数をNH、垂直画素数をNV、画像の左上を原点とし、右方向をX成分の正の方向、下方向をY成分の正の方向とすると、撮影画像上での点Pに対応する画素の座標( px, py )は、次式で表すことができる。
式(3)
ここで、p = ( p0, p1, p2 )とする。
以上で述べたような式を用いて、各カメラユニットおよび仮想カメラの撮影画像上での点Fに対応する画素の座標を計算できる。
次に、図9を用いて、画像処理部209によって行われる画像処理の流れを説明する。
まず、スイッチ(SW1)205の押下に応じて、ユーザによってカメラ設定メニュー上で設定された出力画像形式、出力データフォーマット、仮想カメラ視点情報を取得する(ステップS901)。出力データフォマットとして「自動選択」が設定されている場合は、マイクロコンピュータによって図8に示す処理によって設定された出力画像データフォーマットを取得する。仮想カメラ視点情報に応じて、カメラ位置補正処理を行い、算出された補正後のカメラ位置をカメラユニットに通知する(ステップS902)。
次に、スイッチ(SW2)206の押下に応じて、補正後のカメラ位置に基づき複数のカメラユニットにより撮影された複数の画像を用いて出力画像形式および仮想カメラ視点情報に応じた仮想カメラ画像を生成し、出力データフォーマットに応じた画像データを生成する(ステップS903)。図4に示したように、複数の画像を用いて、仮想カメラ視点画像の各画素について被写体距離を算出し、前記複数の画像における被写体距離に対応する画素の値から仮想視点画像の画素値を算出する。
図10(a)は、ステップS902で行われるカメラユニット位置補正処理の流れを示すフローチャートである。まず、スイッチ(SW1)205が押下された時点での複数のカメラユニット101の出力画像を得る(ステップS1001)。次に、図4に示した処理を用いて、仮想視点画像の画像データの各画素について被写体距離を推定し、被写体距離が一意に特定できない被写体距離未確定領域を抽出する(ステップS1002)。本実施例では、探索範囲をカメラの最短撮影距離(例えば24cm)から無限遠までとする。
被写体距離未確定領域を矩形で近似して直線オブジェクトを生成し(ステップS1003)、この直線オブジェクトの短辺の中点を結ぶ中心線(図11(a))を設定する(ステップS1004)。
所定の座標系において、仮想視点画像における被写体距離未確定領域の座標位置と複数のカメラユニットの座標位置との関係から、移動対象のカメラユニットを選択する。所定の座標系は、例えば、図3に示した実空間を定義した座標系である。具体的には、被写体距離未確定領域の中心線付近に位置する複数のカメラユニットと、被写体距離未確定領域の内部もしくは周辺に位置するカメラユニットを選択する。被写体距離未確定領域の中心線付近に位置する複数のカメラユニットについては移動させない。被写体距離未確定領域の内部もしくは周辺に位置するカメラユニットについて移動量を算出する。次に、移動対象として選択されたカメラユニットに対する移動量を、中心線の法線ベクトルに基づき算出する(ステップS1005)。
中心線に対する法線ベクトルは2つ存在するが、本実施例では中心線からより遠くなるような法線ベクトルを選択する。カメラユニットの移動量は、撮影レンズの画角と、直線オブジェクトの幅(短辺の長さ)によって決まる。本実施例では、基準移動量と移動補正量の和だけ、撮影画像の中心が移動するように移動する(図11(b))。基準移動量は、例えば直線オブジェクトの幅を半分にした値とする。移動量は例えば、直線オブジェクトの幅の5%に、撮影条件から想定される手ぶれ量を加算した値とする。
最後に、移動対象となったカメラユニットに対し、補正後の位置を通知する(ステップS906)。以後、通知されたカメラユニットは、この補正後の座標を付加した撮影画像データをバッファメモリ208へ送信する。このようにカメラユニットの位置を補正して、被写体距離が取得できない状態を回避することができる。なお、カメラユニット移動時の法線ベクトルの選択方法について、本実施例で述べた方法に限らない。例えば、移動先候補の位置に近い2つのカメラユニットの画像から、より情報量が多いと思われる候補(例えば、検出されるエッジが多い、など)を選択することで、より精度の高い距離マップを得ても良い。
次に、ステップ図10(b)は、ステップS1002で行われる被写体距離推定処理の流れを示すフローチャートである。まず、仮想カメラによる撮影画像の各画素に対応する被写体距離カウンタマップを設け、これを全て0に初期化する(ステップS1011)。次に、仮想カメラによる撮影画像の各画素について図4で説明した方法と同様に、各ピント面における対応画素の分散値を算出する(ステップS1012〜S1018)。ここで、各カメラユニットの位置は、図10(a)で説明した処理によって更新された後の座標を用いる。
探索範囲全てについて対応画素の分散値を算出したら(ステップS1019)、この分散値が予め定められた閾値未満のピント面の面数をカウントし、カウント数を被写体距離カウンタに反映する(ステップS1020)。すなわち、被写体が存在する可能性が高いピント面の面数をカウントする。全ての画素について被写体距離カウンタを設定した後(ステップS1021)、この被写体距離カウンタマップのカウンタ値を閾値と比較する(ステップS1022)。カウンタ値が閾値より大きい画素、すなわち、オブジェクトが存在する可能性が高いピント面が一定面数以上存在する画素を、被写体距離未確定領域と判定する。図5のように、単色被写体Xが、複数のカメラの配置と平行に配置されていた場合、ピント面a 、b、cのいずれにおいても、ステップ1019で算出される分散値は、予め定められた閾値より小さくなる。本実施例によれば、このような仮想視点画像における画素を、被写体距離未確定領域と判定することができる。
以上の処理によって各画素に対して被写体距離が一意に定まるかどうかを判定することができる。本実施例によれば、カメラユニットの位置を動的に補正することで高精度な距離マップを生成できるので好適な出力画像を得ることが可能になる。また、この方法はカメラユニットの位置を変更可能としたため、カメラユニットの初期配置はどのような配置であっても問題が無いという利点がある。したがって、図1に示した概観では格子状配置となっているが、その他の配置形態(例えば、球状配置)であっても問題は無い。
実施例1では、カメラアレイを構成するカメラの位置を動的に変更することで課題を解決する方法について述べた。しかしながら、コンパクトデジタルカメラなどにおけるカメラ本体サイズなどの物理的な制約によってアクチュエータを設けられないなど、カメラ位置を動的に変更できない場合がある。そこで本実施例では、カメラ位置を動的に変更できない場合における課題の解決方法について述べる。
図5を用いて説明したように、カメラ2台を通る直線上に別のカメラを配置しても、情報量が増えない領域が存在することが問題となっている。そこで、カメラアレイを構成する全てのカメラについて、どの3台を選択しても同一直線上にならないような配置にすることが考えられる。
図12は、カメラアレイを構成する全てのカメラについて、3台が同一直線上にならないような配置を決定するための処理の流れを示すフローチャートである。以後、3台が同一直線上に配置されている状態のことを、直線配置と呼ぶ。
まずカメラの位置を初期化し(ステップS1201)、各カメラについて、直線配置判定を行う(ステップS1202)。直線配置判定とは、他のカメラ2台を結ぶ直線に対する対象カメラの距離Lを算出し、その距離が予め定められた距離よりも小さい場合には対象カメラが直線配置されていると判定する(図13)。直線配置と判定されたカメラが存在しない場合には処理を終了するが(ステップS1203)、そうでない場合には、カメラの位置を更新する(ステップS1204)。カメラ位置の更新処理は、直線配置になっているカメラについてのみ適用する。
図14は、カメラ位置の更新処理の流れを示すフローチャートである。まず、全てのカメラについて、カメラ位置を補正したかどうかを示す補正済みフラグをFALSEに初期化する(ステップS1401)。次に、各カメラについて、直線配置判定で直線配置と判定されたかどうかをチェックする(ステップS1402)。直線配置で無いと判定されたカメラについては、補正済みフラグをTRUEにセットする(ステップS1403)。以後、各カメラについて処理を実行する。補正済みフラグがFALSEのカメラについて、直線配置を構成する3台のカメラ位置を直線近似した基準直線pを算出する(ステップS1404、S1405)。算出した基準直線pに対して各カメラ位置から下ろした垂線の足を求め、得られた3点のうち中央の点Qに対応する補正対象カメラを選択する(ステップS1406)。具体的には、点Qと補正対象カメラの位置を結んだ直線上で、補正対象カメラ位置から予め定めた距離rの2点のうち、基準直線pから遠い方の点を選択して更新後の位置を決定する(図15)。距離rは、カメラアレイを構成するカメラ間の間隔によって異なるが、例えばカメラ間隔が平均1cmだった場合、0.001mm(0.1%)単位で位置を更新する。
直線配置を構成する3台のカメラについて、補正済みフラグをTRUEにした後、補正対象カメラの位置を更新する(ステップS1407、S1408)。全てのカメラの補正済みフラグがTRUEになった場合、処理を終了する(ステップS1409)。
ステップS1201におけるカメラの初期配置には、例えば図1で示したような格子状配置とすることが考えられる。しかしながら、1回目の直線配置判定で全てのカメラがカメラ位置更新処理の対象となってしまうので効率が良いとはいえない。初期位置をランダムに配置することも考えられるが、カメラアレイ上におけるカメラの分布が一様にならない上、カメラ位置更新処理対象のカメラが少なくなるという保障は無い。そこで、ブルーノイズマスクを利用して初期位置を決定することが考えられる。ブルーノイズマスクは、巨大なサイズ(例えば、256×256)のディザ行列であり、この行列を構成する全ての数について、その数以下の数を持つ要素が一様に散らばるという特性がある。また、同じ数が存在する場合、これらがほぼ等距離になるように配置される。したがって、カメラアレイを構成するカメラ台数分の要素数になるような濃度を設定し、その結果選ばれる要素をカメラの初期位置として設定することが考えられる。初期位置をブルーノイズマスクによって決定することで、乱数とは異なりカメラの分布が一様になる上、格子状配置とは異なり直線配置になりにくくなるので収束が速くなるという利点がある。
以上で説明した方法を用いて決定したカメラ配置のカメラアレイを用いることで、カメラアレイを構成するカメラの位置を動的に変更できない場合でも、高精度な距離マップを生成し好適な出力画像を得ることが可能になる。また、カメラ位置を決定する処理において、初期配置をブルーノイズマスクによって決定することで、少ない時間で適切なカメラ配置を決定することができるようになる。
実施例2では、カメラアレイを構成する全てのカメラについて、直線配置にならないようにする方法について述べた。しかしながら、スタジオ撮影など、最大撮影距離が限定されている場合には、必ずしも全てのカメラについて直線配置を回避しなくてはならないという訳ではない。問題となるのは、重複する撮影領域を持つカメラ群において、このカメラ群に含まれるカメラが直線配置になる場合である。つまり、最大撮影距離が限定されているような状況においては、局所的に直線配置を回避すれば良いので、カメラ全体で最適化する必要は無い。
そこで、本実施例では、直線配置判定を行うカメラを、対象カメラと重複する撮影領域を持つカメラ群に限定する。処理の流れ自体は、図12で示したものと同様であるので、詳細な説明は省略する。このような処理を行うことで、より少ない時間で適切なカメラ配置を決定することが可能になる。
カメラアレイには、図1に示したような小さいサイズのカメラアレイではなく、例えばイベント会場の天井に多数のカメラを配置して構成するような大規模なものも考えられる。このような大規模なカメラアレイの場合には、実施例1のようにカメラの位置を動的に変えるのはコストの面から難しかったり、実施例2や実施例3のように不規則な配置にするのは設置が難しくなったりするという問題がある。
そこで本実施例では、このような状況における直線配置の回避方法について説明する。
図16(a)は、会場の見取り図の一例である。ここで、主な被写体は会場の床、手すり、および観客(不図示)となる。このような場合、実施例3で述べたように、最大撮影距離がカメラ設置位置から床面までの距離で制限されているので、直線配置を回避しやすい。
課題で述べたような問題が生じるのは、主に会場に設置された手すりであるので、この手すりに対して直線状配置を回避すれば良いということになる。そこで、手すりに平行にならないように、図16(b)に示したような配置にすることが考えられる。図16の配置は格子状配置と似ているが、手すりに対して平行に配置されるカメラが無いという点で異なる。また、規則的な配置になっているので設置作業が簡単で、設置精度を向上させることができる。
このような配置にすることで、手すりの形状を正しく取得することが可能になるだけでなく、設置コストを大幅に低減することが可能になる。 また、上記実施例では、デジタルカメラの画象処理部にて上記処理(図9、図10)を行ったが、以下の処理を実行することによっても実現することができる。上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPUやMPU等)が、プログラムを読み出して実行することにより、デジタルカメラから取得した画像データに対して画像処理を行うようにしても構わない。
Claims (8)
- 異なる位置に配置された複数の撮像部で撮影された画像から、該カメラが配置されている位置とは異なる仮想視点の仮想視点画像を生成する情報処理装置において、
仮想視点を設定する仮想視点設定手段と、
異なる位置に配置された複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の仮想画像において被写体距離を確定できない未確定領域を決定する決定手段と、
前記未確定領域からすくなくとも1つの前記撮影部の位置の補正量を設定する補正量設定手段と、
前記補正量に応じて補正された位置に配置された前記複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の前記仮想画像を生成する生成手段とを有することを特徴とする情報処理装置。 - 前記決定手段は、
前記仮想視点と、前記仮想視点の仮想画像における被写体距離推定対象画素とから決定される直線上に、複数の被写***置の候補点を設定し、
該被写体の候補点に対応する、前記複数の画像の画素値から、前記被写体距離推定対象画素の被写体距離を確定できるか否かを決定することを特徴とする請求項1記載の情報処理装置。 - 前記補正量設定手段は、前記未確定領域の中心線に基づき前記補正量を設定することを特徴とする請求項1または2記載の情報処理装置。
- さらに、出力画像形式を設定する出力画像形式設定手段を有し、
前記生成手段は、前記仮想視点と前記設定された出力画像形式とに応じて前記仮想画像を生成し、
前記出力画像形式には2D画像と視差画像とが含まれ、前記生成手段は、該出力画像形式として該2D画像が選択された場合は前記仮想視点に基づく1枚の画像を生成し、該出力画像形式として該視差画像が選択された場合は前記仮想視点と視差情報とに応じて求められる複数の視点に対応する複数の画像を生成することを特徴とする請求項1乃至3のいずれかに記載の情報処理装置。 - さらに、前記複数の視点に対応する複数の画像の保存方法を指定する出力画像データフォーマットを設定する出力画像データフォーマット設定手段を有し、
前記生成手段は、前記複数の視点に対応する複数の画像を、前記出力画像データフォーマットに応じた保存方法を用いて保存することを特徴とする請求項4記載の情報処理装置。 - 請求項1乃至5のいずれかに記載の情報処理装置をコンピュータを用いて実現するためのコンピュータが読み取り可能であるプログラム。
- 異なる位置に配置された複数の撮像部で撮影された画像から、該カメラが配置されている位置とは異なる仮想視点の仮想視点画像を生成する情報処理方法において、
仮想視点を設定する仮想視点設定工程と、
異なる位置に配置された複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の仮想画像において被写体距離を確定できない未確定領域を決定する決定工程と、
前記未確定領域からすくなくとも1つの前記撮影部の位置の補正量を設定する補正量設定工程と、
前記補正量に応じて補正された位置に配置された前記複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の前記仮想画像を生成する生成工程とを有することを特徴とする情報処理方法。 - 異なる位置に配置された複数の撮像部で撮影された画像から、該カメラが配置されている位置とは異なる仮想視点の距離マップを生成する情報処理装置において、
仮想視点を設定する仮想視点設定手段と、
異なる位置に配置された複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の仮想画像において被写体距離を確定できない未確定領域を決定する決定手段と、
前記未確定領域からすくなくとも1つの前記撮影部の位置の補正量を設定する補正量設定手段と、
前記補正量に応じて補正された位置に配置された前記複数の撮影部によって撮影された複数の画像の画像データから、前記仮想視点の距離マップを生成する生成手段とを有することを特徴とする情報処理装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2009/068661 WO2011052064A1 (ja) | 2009-10-30 | 2009-10-30 | 情報処理装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2011052064A1 JPWO2011052064A1 (ja) | 2013-03-14 |
JP5456020B2 true JP5456020B2 (ja) | 2014-03-26 |
Family
ID=43921505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011503302A Active JP5456020B2 (ja) | 2009-10-30 | 2009-10-30 | 情報処理装置および方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8928755B2 (ja) |
JP (1) | JP5456020B2 (ja) |
CN (1) | CN102598652B (ja) |
WO (1) | WO2011052064A1 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
JP5267891B2 (ja) * | 2010-09-30 | 2013-08-21 | 横河電機株式会社 | シートに形成されたパターンの位置および形状測定装置および塗工パターン測定装置 |
JP5863280B2 (ja) * | 2011-05-24 | 2016-02-16 | キヤノン株式会社 | 撮像装置、画像処理方法及びプログラム |
JP5725979B2 (ja) * | 2011-06-03 | 2015-05-27 | キヤノン株式会社 | 撮影装置およびその制御方法 |
JP2012253690A (ja) * | 2011-06-06 | 2012-12-20 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP6000520B2 (ja) * | 2011-07-25 | 2016-09-28 | キヤノン株式会社 | 撮像装置およびその制御方法およびプログラム |
JP5868055B2 (ja) * | 2011-07-26 | 2016-02-24 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
KR102002165B1 (ko) | 2011-09-28 | 2019-07-25 | 포토내이션 리미티드 | 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법 |
JP6021489B2 (ja) * | 2011-10-03 | 2016-11-09 | キヤノン株式会社 | 撮像装置、画像処理装置およびその方法 |
CN107346061B (zh) | 2012-08-21 | 2020-04-24 | 快图有限公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的***和方法 |
US9124762B2 (en) * | 2012-12-20 | 2015-09-01 | Microsoft Technology Licensing, Llc | Privacy camera |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
JP2014230251A (ja) * | 2013-05-27 | 2014-12-08 | ソニー株式会社 | 画像処理装置、および画像処理方法 |
EP2884460B1 (en) * | 2013-12-13 | 2020-01-01 | Panasonic Intellectual Property Management Co., Ltd. | Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium |
JP2015129846A (ja) * | 2014-01-07 | 2015-07-16 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP6223226B2 (ja) * | 2014-02-25 | 2017-11-01 | 日本放送協会 | カメラパラメータ算出装置及びそのプログラム |
JP6381266B2 (ja) * | 2014-04-15 | 2018-08-29 | キヤノン株式会社 | 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体 |
CN113256730B (zh) * | 2014-09-29 | 2023-09-05 | 快图有限公司 | 用于阵列相机的动态校准的***和方法 |
JPWO2017072975A1 (ja) * | 2015-10-30 | 2018-08-30 | オリンパス株式会社 | 撮像システム |
US9868212B1 (en) * | 2016-02-18 | 2018-01-16 | X Development Llc | Methods and apparatus for determining the pose of an object based on point cloud data |
US11006098B2 (en) * | 2016-05-10 | 2021-05-11 | Sony Corporation | Information processing apparatus, information processing system, and information processing method |
JP6833348B2 (ja) * | 2016-05-25 | 2021-02-24 | キヤノン株式会社 | 情報処理装置、画像処理システム、情報処理装置の制御方法、仮想視点画像の生成方法、及び、プログラム |
JP2018036898A (ja) * | 2016-08-31 | 2018-03-08 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
CN106210489B (zh) * | 2016-09-13 | 2017-10-31 | 北京清影机器视觉技术有限公司 | 一种基于***头矩阵的图像获取装置 |
JP6472486B2 (ja) * | 2016-09-14 | 2019-02-20 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6948171B2 (ja) * | 2016-11-30 | 2021-10-13 | キヤノン株式会社 | 画像処理装置および画像処理方法、プログラム |
KR102534875B1 (ko) * | 2016-12-08 | 2023-05-22 | 한국전자통신연구원 | 카메라 어레이와 다중 초점 영상을 이용하여 임의 시점의 영상을 생성하는 방법 및 장치 |
JP7086522B2 (ja) * | 2017-02-28 | 2022-06-20 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
JP2018196693A (ja) | 2017-05-25 | 2018-12-13 | コニカミノルタ株式会社 | 動態解析システム |
JP6878177B2 (ja) * | 2017-07-04 | 2021-05-26 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7033865B2 (ja) * | 2017-08-10 | 2022-03-11 | キヤノン株式会社 | 画像生成装置、画像生成方法、及びプログラム |
JP7109907B2 (ja) * | 2017-11-20 | 2022-08-01 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6415675B1 (ja) * | 2017-12-04 | 2018-10-31 | キヤノン株式会社 | 生成装置、生成方法及びプログラム |
JP7130385B2 (ja) | 2018-02-19 | 2022-09-05 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP7132730B2 (ja) * | 2018-03-14 | 2022-09-07 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP7170441B2 (ja) * | 2018-07-12 | 2022-11-14 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7237538B2 (ja) * | 2018-11-14 | 2023-03-13 | キヤノン株式会社 | 情報処理装置、それを含むシステム、情報処理方法、およびプログラム |
US20220343595A1 (en) * | 2021-04-23 | 2022-10-27 | The Boeing Company | Generating equirectangular imagery of a 3d virtual environment |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5175616A (en) * | 1989-08-04 | 1992-12-29 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada | Stereoscopic video-graphic coordinate specification system |
JP3365182B2 (ja) * | 1995-12-27 | 2003-01-08 | 三菱電機株式会社 | 映像監視装置 |
GB9707554D0 (en) * | 1997-04-15 | 1997-06-04 | Aea Technology Plc | Control apparatus and method |
JP4324271B2 (ja) * | 1999-04-16 | 2009-09-02 | 株式会社リコー | 画像処理装置およびその方法 |
JP3561446B2 (ja) | 1999-08-25 | 2004-09-02 | 日本電信電話株式会社 | 画像生成方法及びその装置 |
JP2004363758A (ja) * | 2003-06-03 | 2004-12-24 | Konica Minolta Photo Imaging Inc | 画像処理方法、撮像装置、画像処理装置及び画像記録装置 |
JP4595313B2 (ja) * | 2003-11-14 | 2010-12-08 | ソニー株式会社 | 撮像表示装置及び方法、画像送受信システム |
JP4069855B2 (ja) * | 2003-11-27 | 2008-04-02 | ソニー株式会社 | 画像処理装置及び方法 |
JP2006352539A (ja) * | 2005-06-16 | 2006-12-28 | Sharp Corp | 広視野映像システム |
JP2009110137A (ja) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | 画像処理装置、画像処理方法及び画像処理プログラム |
-
2009
- 2009-10-30 JP JP2011503302A patent/JP5456020B2/ja active Active
- 2009-10-30 WO PCT/JP2009/068661 patent/WO2011052064A1/ja active Application Filing
- 2009-10-30 CN CN200980162023.XA patent/CN102598652B/zh not_active Expired - Fee Related
-
2010
- 2010-10-25 US US12/911,616 patent/US8928755B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US8928755B2 (en) | 2015-01-06 |
WO2011052064A1 (ja) | 2011-05-05 |
JPWO2011052064A1 (ja) | 2013-03-14 |
CN102598652B (zh) | 2015-08-12 |
US20110102596A1 (en) | 2011-05-05 |
CN102598652A (zh) | 2012-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5456020B2 (ja) | 情報処理装置および方法 | |
JP5499778B2 (ja) | 撮像装置 | |
JP4942221B2 (ja) | 高解像度仮想焦点面画像生成方法 | |
JP4328311B2 (ja) | 三次元画像表示用多視点画像の作成方法およびプログラム | |
US8581961B2 (en) | Stereoscopic panoramic video capture system using surface identification and distance registration technique | |
JP5320524B1 (ja) | ステレオ撮影装置 | |
JP6734620B2 (ja) | 映像処理方法及び映像処理装置 | |
JP2019511024A (ja) | パノラマフレームを生成するプロセスにおけるフレームの適応ステッチング | |
JP5291755B2 (ja) | 立体視画像生成方法および立体視画像生成システム | |
JP4661824B2 (ja) | 画像処理装置、方法およびプログラム | |
JP2010128820A (ja) | 立体画像処理装置、方法及びプログラム並びに立体撮像装置 | |
JP4764624B2 (ja) | 立体視表示装置及び立体視用画像生成方法 | |
JP4928476B2 (ja) | 立体像生成装置、その方法およびそのプログラム | |
JP2013009274A (ja) | 画像処理装置および画像処理方法、プログラム | |
JP7196421B2 (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
CN111212219B (zh) | 使用虚拟相机生成多面图像的方法和*** | |
US8072487B2 (en) | Picture processing apparatus, picture recording apparatus, method and program thereof | |
JPWO2019065260A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ | |
KR20150003576A (ko) | 삼차원 영상 생성 또는 재생을 위한 장치 및 방법 | |
JP6021489B2 (ja) | 撮像装置、画像処理装置およびその方法 | |
US20140362197A1 (en) | Image processing device, image processing method, and stereoscopic image display device | |
JP5704885B2 (ja) | 撮影機器、撮影方法及び撮影制御プログラム | |
WO2012014695A1 (ja) | 立体撮像装置およびその撮像方法 | |
JP6200316B2 (ja) | 画像生成方法、画像生成装置及び画像生成プログラム | |
JP4632060B2 (ja) | 画像記録装置、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140107 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5456020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |