JP2015119395A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2015119395A
JP2015119395A JP2013262756A JP2013262756A JP2015119395A JP 2015119395 A JP2015119395 A JP 2015119395A JP 2013262756 A JP2013262756 A JP 2013262756A JP 2013262756 A JP2013262756 A JP 2013262756A JP 2015119395 A JP2015119395 A JP 2015119395A
Authority
JP
Japan
Prior art keywords
information
light ray
unit
data
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013262756A
Other languages
English (en)
Other versions
JP6223169B2 (ja
Inventor
知宏 西山
Tomohiro Nishiyama
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013262756A priority Critical patent/JP6223169B2/ja
Priority to US14/571,696 priority patent/US20150177062A1/en
Publication of JP2015119395A publication Critical patent/JP2015119395A/ja
Application granted granted Critical
Publication of JP6223169B2 publication Critical patent/JP6223169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4257Photometry, e.g. photographic exposure meter using electric radiation detectors applied to monitoring the characteristics of a beam, e.g. laser beam, headlamp beam
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4228Photometry, e.g. photographic exposure meter using electric radiation detectors arrangements with two or more detectors, e.g. for sensitivity compensation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】 異なるシーンで得られた複数のLFデータのスティッチを可能とする。
【解決手段】 情報処理装置が、複数の異なる視点位置にそれぞれ対応し、共通の被写体に関する情報を含む光線情報であって、被写体から対応する視点位置に入射される光線の方向と強度とを示す複数の光線情報を取得する取得手段と、前記複数の光線情報の少なくとも一つを座標変換し、前記座標変換した複数の光線情報を含む前記複数の光線情報を合成する合成手段とを有することを特徴とする情報処理装置。
【選択図】 図1

Description

本発明は、光線情報を用いた画像処理に関する。
従来の光学系に特殊な光学素子を追加した光学系を用いて撮像を行うことで、被写体から入射される光線の向きと強度の情報(ライトフィールドデータ)を取得する技術がある。そして、ライトフィールドデータを用いた画像処理により、撮像後の画像の合焦位置や被写界深度などを調整する技術(リフォーカス)がある(特許文献1)。
一方、従来の撮像系においては、画像を射影変換してから、画像同士を結合(スティッチ)して画角を拡大する手法が知られている(特許文献2)。
特許4752031号公報 特許4324271号公報
1台のカメラで一度に撮影できる画角は限られているので、広視野範囲にわたる一枚のLFデータを取得するためには、1台のカメラによる複数回撮影や、複数台のカメラによる撮影により取得されたライトフィールドデータをスティッチする必要がある。しかしながら、特許文献2のような手法を用いて画像同士のスティッチを行う技術は提案されているものの、異なる視点で得られた複数のライトフィールドデータのスティッチを行う技術は開示されていなかった。そこで、本発明は、異なるシーンで得られた複数のライトフィールドデータのスティッチを可能とすることを目的としている。
上記課題を解決するために、本発明に係る情報処理装置は、複数の異なる視点位置にそれぞれ対応し、共通の被写体に関する情報を含む光線情報であって、被写体から対応する視点位置に入射される光線の方向と強度とを示す複数の光線情報を取得する取得手段と、前記複数の光線情報の少なくとも一つを座標変換し、前記座標変換した複数の光線情報を含む前記複数の光線情報を合成する合成手段とを有する。
異なる視点で得られた複数のライトフィールドデータのスティッチが可能となる。
実施例1のカメラおよび情報処理部の構成を示す図。 撮像部の構成を示す図。 LF座標を説明する図。 光線とLF座標との関係を示す図。 LF座標上にプロットしたLFデータを示す図。 異なるLFカメラに入射する光線とLF座標との関係を示す図。 実施例1の情報処理部で行われる処理の流れを示すフローチャート。 ラドン変換の概念を説明する図。 実施例1で行われる合成処理を説明する図。 実施例1による視野範囲拡大を説明する図。 LFデータからの画像生成を説明する図。 実施例2のカメラの構成を示す図。 実施例2の情報処理部で行われる処理の流れを示すフローチャート。
<実施例1>
本実施例では、LFデータを取得可能な撮像部を複数備えたカメラで取得されたLFデータを合成する場合について説明する。
図1は本実施例のカメラの構成を示す図である。本実施例のカメラ100は、撮像部101aおよび101b、記憶部102、情報処理部110を備えている。また、情報処理部110は、取得部103、直線検出部104、対応線検出部105、パラメータ算出部106、座標変換部107、合成部108を有している。以下、カメラ100の各構成部について順に説明する。
撮像部101aおよび撮像部101bは、複数のレンズ及び、CMOSやCCDなどの撮像素子などから構成される。そして、被写体から入射される光線の方向と強度との光線情報を示すデータ(以下、ライトフィールドデータ、或いはLFデータとも呼ぶ)を取得するカメラユニットである。各撮像部はカメラ100本体から着脱可能に構成されており、様々な視点の組み合わせで撮像を行うことが可能である。各撮像部はそれぞれ、複数の微小な凸レンズを二次元に並べたマイクロレンズアレイを撮像レンズと撮像素子との間に配置したプレノプティックカメラである。なお、撮像部101aおよび撮像部101bはそれぞれ同一の構成のカメラユニットであるとするが、LFデータを取得可能な構成であればどのような構成を取ってもよい。例えば、複数のカメラユニットを所定のパターンで配置したカメラユニットを少なくとも2つ有する多眼カメラであってもよい。撮像部101aの構成の詳細については後述する。
記憶部102は、撮像部101aおよび101bで取得されたLFデータや、情報処理部110で合成されたLFデータを記憶することができる、メモリカードやHDDなどの不揮発性の記憶媒体である。記憶部102としては、データを記憶可能な記憶媒体であればどのようなものを用いてもよく、インターネットを通じて接続された外部記憶装置であってもよい。
図1(b)は情報処理部110の構成を示す図である。情報処理部110は、CPU111、RAM112およびROM113を有し、ROM113に格納されたプログラムをCPU111がRAM112をワークエリアとして実行することで、図1(a)に示す角手段としての役割を果たす。なお、情報処理部110の構成はこれに限られず、図1(a)に示す各構成部の機能を持つ処理回路を有していてもよい。以上が本実施例のカメラ100の構成の概要である。次に、撮像部101aおよび撮像部101bの構成と役割の詳細について述べる。撮像部101aと撮像部101bはそれぞれ同様の構成であるので、ここでは撮像部101aの構成についてのみ述べる。
図2(a)は、撮像部101aの内部構成を表す図である。撮像部101aは撮像レンズ201〜203、開口絞り204、シャッター205、マイクロレンズアレイ206、光学ローパスフィルタ207、IRカットフィルタ208、カラーフィルタ209、撮像素子210およびA/D変換部211で構成される。撮像レンズ201〜203はそれぞれ、ズームレンズ201、フォーカスレンズ202、203である。撮像部101aに入射される光量や、撮像部101aで取得される画像の被写界深度は、開口絞り204(以下、単に絞りと呼ぶ)を調整することにより調整することができる。マイクロレンズアレイ206は、LFデータを取得するために設けられた、入射する光線をその入射方向に応じて分割する機能を有するものであり、撮像素子210の直前に配置されている不図示の集光用マイクロレンズアレイとは異なるものである。一般的に集光用のマイクロレンズアレイでは撮像素子の一画素に付き一つのレンズが配置されているが、LFデータ取得用のマイクロレンズアレイでは、複数の画素について一つのレンズ(例えば、16の画素に一つのレンズ)が配置される。なお、LFデータ取得用マイクロレンズアレイ206の各レンズは、その大きさに関わらず全てマイクロレンズと呼ぶこととする。
図2(b)を用いて、マイクロレンズアレイ206を用いたLFデータの取得方法を説明する。LFデータとは、前述のように、被写体から入射される光線の方向と強度とを示すデータのことである。図2(b)において、ズームレンズ201およびフォーカスレンズ202〜203は、まとめて1枚のメインレンズ212として概念的に表わされており、マイクロレンズアレイ206は、メインレンズ212のピント面に配置されている。マイクロレンズアレイ206をメインレンズ212のピント面に配置すると、マイクロレンズアレイ206で結像した光は、それぞれその光が入射した方向に応じて異なる画素に入射される。例えば、図2(b)においては、同じ被写体から射出された光であってもメインレンズ212の上半分を通った光である光線213は画素223に入射し、メインレンズ212の下半分を通った光である光線214は画素224に入射する。
このように、各画素にはメインレンズのある領域を通った光が選択的に入射されるため、その画素の画素値と画素位置から、入射された光の方向に対応する入射光の強度を得ることができる。なお、入射光の方向の分解能はマイクロレンズアレイに含まれるマイクロレンズの大きさに依存する。例えば、マイクロレンズが2×2=4画素に対して1つの割合で設けられている場合は、光線の方向を、メインレンズの左上を通った光線、右上を通った光線、左下を通った光線、右下を通った光線の4つに分解することができる。同様に、マイクロレンズが4×4=16画素に対して1つの割合で設けられている場合は、16の方向に分解することができる。すなわち、マイクロレンズが小さい場合、光線の方向分解能を高めることは困難である。そこで、本実施例においては線型補間などの補間処理によって、疎なデータであるLFデータを密なLFデータに変換する処理を行っている。なお、LFデータを得るための撮像部はプレノプティックカメラに限定されるものではなく、異なる方向から入射された光線を弁別することができるものであればどのような構成でもよい。例えば、複数のカメラユニットを有し、異なる視点から同時撮像を行うことができる多眼カメラなどでもよい。
[LF座標の定義]
本実施例では、上記の撮像部により複数のシーンについて得られたLFデータを、ライトフィールド座標(以下、LF座標とする)上で合成する。以下、その原理について説明する。まず、LF座標の定義について述べる。
LFデータとは、光線の方向と強度を示すデータであるため、光線の方向と強度をそれぞれ示す複数のスカラー値を持つ多次元のベクトルとして表現される。ある光線の方向は、図3に示されるように、光線とその光線が交わる二つの平行な平面との交点の座標により定義することができる。光線が通過する1枚目の平面をu平面、光線が通過する2枚目の平面をx平面とし、光線とu平面との交点の座標を(u,v),光線とx平面との交点の座標を(x,y)とすると、ある光線の方向はベクトル(u,v,x,y)として表わされる。LFデータはある一本の光線に対応する強度を示すデータであるため、光線の強度をLとすると、LFデータはL(u,v,x,y)、つまり、u軸、v軸、x軸、y軸で表現される四次元空間における、各点に対応する強度として表現される。そこで、本実施例においては、上記u軸、v軸、x軸、y軸で規定される四次元座標のことをLF座標と呼ぶ。なお、LF座標の表現は上記に限られず、例えば、光線とu平面との交点(u,v)と、点(u,v)からの光線の射出角度である(θ,φ)により表現してもよい。
[LF座標上での見え方]
次に、被写体のある1点から出た光線の集合が、LF座標上でどのようにマッピングされるのかを、図4を用いて説明する。平面401および平面402は三次元空間において仮想的に設置された互いに平行な仮想平面であり、それぞれu平面、x平面と呼ぶことにする。本来u平面401、x平面402は二次元平面であるが、ここでは図示の都合上一次元で表現する。
図4(a)は、三次元空間中に被写体403と被写体404が配置されており、撮像部101aが被写体403および404を含む空間のLFデータを取得する状況を示している。光線405、406は被写体403から出た光線であり、光線がu平面401、x平面402を通った位置を(u,x)のようにペアで表すと、光線405は(u,x)を、光線406は(u,x)をそれぞれ通過する。これを、図4(b)に示すように、uを縦軸に、xを横軸にとったLF座標上にプロットすると、それぞれ点410、411にプロットされる。即ち一本の光線はLF座標上では一点に対応する。光線407および408は被写体404から出た光線であり、光線407は(u,x)を、光線408は(u,x)をそれぞれ通過する。これをLF座標上にプロットすると、それぞれ点412、413にプロットされる。
図4(b)を見ると分かるように、被写体のある点から出た各光線に対応する全ての点は、LF座標上では一本の直線上にプロットされる。例えば被写体403のある一点から出た光線に対応する点は全て直線414上にプロットされ、被写体404のある一点から出た光線に対応する点は全て直線415上に乗る。この直線の傾きは、u平面401から被写体までの距離によって変化する。なお、ここでは、u平面とx平面の次元をそれぞれ一次元ずつ落として表現した二次元空間のLF座標で考えたため、同一の点から射出された全ての光線は一本の直線上にプロットされた。しかしながら、これを実際の四次元のLF座標で考えると、被写体のある一点から出た光線に対応する点は、全て一つの平面上にプロットされることになる。
図5は、実際にどのようなLFデータが取得できるのかを、二次元空間のLF座標で表したものである。図5に示すLFデータにおいては、u平面をメインレンズ212の主面、x平面を撮像センサ面としている。図5右側の直線群501は、撮像部101aの合焦位置に存在する被写体に対応する直線群である。撮像部101aのピント面に存在する被写体から射出される光線は、メインレンズ212上で通過する点によらずに、撮像センサ上の狭い範囲に集まるので、ほぼu軸に平行な直線上にプロットされる。また、図5左側の直線群502は、撮像部101aの合焦位置から少し外れた位置に存在する被写体に対応する直線群である。合焦位置からずれた位置に存在する被写体から射出される光線は、メインレンズ212上で通過する点によって撮像センサ上に入射する位置がずれるので、このように直線群501よりも傾きの大きな直線を描く。
[LFデータ間のマッチング]
次に、同一の被写体を含む異なるシーンで取得されたLFデータを合成するにあたって、異なる2つのLFデータ間でマッチングを行う方法について説明する。図6は、視点の位置および向きが異なる二台のライトフィールドカメラ(LFカメラ)でLFデータを取得する例を示す図である。図6(a)はある被写体から射出される光線が、異なる二台のLFカメラにどのように入射されるかを示す図である。光線602および光線603は被写体601から射出された光線であり、光線602は、LFカメラ620の撮像面に平行なu平面604およびx平面605を通過する。また、光線603はLFカメラ621の撮像面に平行なu’平面606およびx’平面607を通過する。これらの光線をそれぞれ二次元のLF座標上にプロットしたものが図6(b)である。
図6(b)において、点610は、光線602をu平面604およびx平面605における通過点の座標に基づいてプロットしたものであり、点612は、光線603をu’平面606およびx’平面607における通過点に基づいてプロットしたものである。図6(b)において、直線611は被写体601から出るすべての光線をLFカメラ620のLF座標であるux平面上でプロットしたものである。一方、直線612は、被写体601から出る全ての光線を、LFカメラ621のLF座標であるu’x’平面上でプロットしたものである。このように、上記示した直線611および直線613は、それぞれ別の座標系で表現されている直線ではあるが、どちらも同じ被写体に対応する直線である。つまり、異なるシーンで取得されたLFデータを合成するためには、直線611および直線613のような対応する直線をそれぞれのLF座標上で検出し、それぞれが重なるように二つのLFデータのどちらか一方を座標変換すればよい。なお、繰返すが、実際のマッチングは四次元空間で示されるLFデータ間で行われるため、実際の変換においては対応する平面が重なるように座標変換がおこなわれる。しかし、平面ではなく直線のみに注目して座標変換を行う場合でも、複数組の対応直線が重なるように座標変換のパラメータを求めれば、平面が重なるような座標変換を行う場合と同様の座標変換を行うことが可能である。そこで、本実施例では後者の方法を用い、ux平面およびu’x’平面における対応直線が重なるような座標変換を行う。
[処理の詳細]
以上が本実施例のカメラ100で行われるLFデータ合成処理の概要である。以下、本実施例の情報処理部110で行われる処理の詳細について、図7に示すフローチャートを参照して説明する。本実施例のROM113には図7のフローチャートに示すプログラムが格納されており、情報処理部110は、CPU111がそのプログラムを実行することで、以下のステップの処理を行う。
S701では、取得部103が、撮像部101aおよび101bから、それぞれの撮像部で取得されたLFデータを取得する。撮像部101aによって取得されたLFデータをLFデータA、撮像部101bによって取得されたLFデータをLFデータBとする。取得部103は、ここで取得したLFデータAおよびLFデータBを、それぞれ直線検出部104に出力する。
S702では、直線検出部104が、取得部103から出力されたLFデータAおよびLFデータBについて、それぞれのLFデータ内に存在する直線を検出する。ここで、直線を検出する平面として、yおよびvを固定したux平面を用いる。なお、xおよびuを固定したyv平面で直線の検出を行ってもよい。以下、本実施例における直線検出の方法について説明する。
本実施例における直線検出にはラドン変換を用いる。ux平面におけるラドン変換は以下の式で定義される。
ラドン変換の概念図を図8に示す。図8(a)はLFデータ801をラドン変換する様子を表している。矢印802は積分を行う方向であり、座標軸UXは座標軸uxを回転角θだけ回転させたものである。ラドン変換では回転角θを変えることで座標軸UXを回転させ、次にU方向にLの値を積分する。図8(b)はLFデータ801を式(1)に基づいてラドン変換した概念図である。LFデータ801には直線が含まれているので、直線に相当した傾きθの場所にピークが現れ、それ以外の部分では小さい値になる。このピークのxθ平面における位置に基づいて、検出した直線の傾きおよび切片を求めることができる。このステップでは、直線検出部104が、式1のf(u,x)としてLFデータAに対応するL(u,x)とLFデータBに対応するL(u’,x’)を(1)に代入し、ラドン変換を行った結果の関数からピークを検出する。そして、検出されたピークの位置から、そのピークに対応する直線の傾きおよび切片を算出し、算出した傾きと切片、そして検出された直線上にマッピングされている点の平均強度を対応線検出部105に出力する。なお、ピークの検出は公知の技術を用いることができ、本実施例においては、ラドン変換されたLFデータをθおよびXでそれぞれ微分して、微分値の正負が反転する点をピークとして検出する。
S703では、対応線検出部105が、直線検出部104から出力された直線の強度に基づいて、対応する直線を検出する。本実施例のLはカラー画像を撮影可能なカメラにより取得されているので、R、G、Bの3つの画素値を持っている。LFデータAおよびLFデータBのそれぞれで検出された直線に対応する3つの画素値同士で差分二乗和を取り、その値が最も小さくなる直線の組を対応する直線として検出する。なお、ここで比較する値は3つの画素値に限られず、画像の輝度に対応する成分であってもいいし、ラドン変換されたLFデータ上で描かれるパターンの類似度に基づいて対応する直線を決定してもよい。
S704では、パラメータ算出部106が、対応線検出部105から出力された、対応する直線の式に基づいて、LFデータAおよびLFデータBを座標変換するための変換パラメータを算出する。以下、その方法について説明する。
図6(a)において、被写体601のLFカメラ620におけるカメラ座標を(Xobj,Yobj,Zobj)とし、u平面604およびx平面605の間の距離をdとする。ここで、カメラ座標とは、x平面605上に原点をとり、カメラの光軸方向をz軸に、z軸に対して垂直な面内にx,y軸をとったものであるとする。通常のカメラ座標ではカメラの主点位置を原点とするが、ここでは後の計算の便宜上、x平面605上に原点をとる。dは既知の量である。α=Zobj/dとして、被写体の存在する点を点A、光線602とu平面604およびx平面605との交点をそれぞれ点B(u,v)、点C(x,y)とすると、点Aは線分BCを1:α−1に外分する点なので、各座標間に以下の関係が成り立つ。
これが直線611に対応している。LF座標上における直線611の傾きと切片を式2に代入して計算すると、α,Xobj,Yobjを求めることができる。また、ここでdは既知なので、α=Zobj/dより、被写体のカメラ座標(Xobj,Yobj,Zobj)を求めることができる。また、同様の計算をLFカメラ621により取得されたLFデータについても行うことで、LFカメラ621から見た被写体601のカメラ座標(X’obj,Y’obj,Z’obj)についても求めることができる。
各LFカメラのカメラ座標間の回転を表す回転行列をR、並進ベクトルをtとすると、LFカメラ620と621のカメラ座標を結び付ける変換は以下の式で表わされる。
となる。ここで、太字XobjおよびX’objは、それぞれLFカメラ620と621から見た被写体のカメラ座標を示すベクトルである。式(3)において、回転行列の独立なパラメータは3つであり、並進ベクトルの独立なパラメータも3つで未知数は6個あるので、6つ以上の方程式があれば、各パラメータを求めることができる。式(3)は独立な方程式を3つ含むので、対応する被写体の組を2つ以上求めれば3×2=6つの方程式を立てることができ、回転行列Rおよび並進ベクトルtを求めることができる。
以上が座標変換の変換パラメータを算出する方法である。このステップでは、前述のLFカメラ620を撮像部101aに、LFカメラ621を撮像部101bに置き換え、パラメータ算出部106が、対応線検出部から出力された対応直線の傾きおよび切片を式(2)に代入することで複数の被写体の座標を算出する。そして、算出した被写体の座標を式(3)に代入することで回転行列Rおよび並進ベクトルtを求め、求めたRおよびtを座標変換部107に出力する。
S705では、座標変換部107が、パラメータ算出部106から出力された回転行列Rおよび並進ベクトルtを示す情報に基づいて、LFデータAを座標変換する。以下、その方法について説明する。図6(a)において、u平面604(u,v)、x平面605(x,y)を通る光線602の、LFカメラ620のカメラ座標における方程式は以下の式で表すことができる。以下の式において、(X,Y,Z)は光線602上の任意の点のカメラ座標を示す。
ここで、sは適当な変数である。LFカメラ620とLFカメラ621の位置関係から、光線603上の任意の点のカメラ座標を(X’,Y’,Z’)とすると、光線603のカメラ座標における方程式は、回転行列Rと並進ベクトルtを用いて以下の式で表わされる。
光線602をLFカメラ621のLF座標上にプロットするためには、光線602とu’平面606およびx’平面607との交点を求めればよい。u’平面606はZ’=dにあるので、光線602とu’平面606との交点はZ’=dと置くことで求めることができる。その時のsは式(5)のz成分の式より、
と導くことができる。ここで、添え字の「3」はベクトルのz要素を表している。式(6)で求めたsを式(5)に代入することにより、光線602とu’平面606との交点である(u’,v’)の座標を、
と求めることができる。
一方、上記式においてx’平面607はZ’=0にあるので、光線602とx’平面の交点はZ’=0と置くことで求めることができる。u’平面との交点を求めた場合と同様に、sの値を
と導くことができる。そして、式(8)で求めたsxを式(7)に代入することにより、光線602とx’平面607との交点である(x’,y’)の座標を
と求めることができる。上記の式(8)および(9)を用いることによって、LFデータAを、座標系(u,v,x,y)からLFデータBの座標系(u’,v’,x’,y’)へと変換することができる。このステップでは、座標変換部107が、LFデータAの各成分の座標(u,v,x,y)およびパラメータ算出部106から出力されたRとtを式(6)〜(9)に代入し、座標変換後のLFデータであるLFデータCを得る。
S706では、座標変換部107がS705で得られたLFデータCのサンプリング間隔を補間処理により調整する。本実施例においてLFデータAおよびLFデータBは、それぞれのLF座標上で、Δのサンプリング間隔で取得されている。そのため、各サンプリング点は一定の間隔で規則的に並ぶ。しかし、上記のような座標変換を行った場合、一般に変換後のサンプリング点は上記の規則にそぐわない位置に変換される。そこで、このステップにおいて、座標変換部107が、LFデータCの各サンプリング点をLFデータBのサンプリング点の間隔に合わせる補正を行う。具体的には、LFデータBのサンプリング規則に合う点を格子点と呼ぶと、座標変換後のLFデータCにおいて、ある格子点に強度値Lが格納されていない場合は、そのLの値を、強度値Lが格納されている周囲の点の位置と強度値に基づいて線型補間する。なお、補間対象の点の座標を(u,v,x,y)とし、補間に用いる周囲の点の座標(u,v,x,y)とすると、補間に用いる周囲の点は、以下の関係を全て満たす点である。
全ての格子点の補間が終了したら、格子点以外の点のデータを削除する。座標変換部107は、上記の関係に基づいてLFデータCのサンプリング間隔を調整し、サンプリング間隔の調整が終了したLFデータC’を合成部108に出力する。なお、ここで行われる補間は線型補間に限られず、様々な補間処理を用いることができる。また、ここでは格子点以外の点のデータを削除したが、格子点以外の点のデータを削除せずに、そのまま保持していてもよい。
S707では、合成部108が、LFデータBとLFデータC’の合成を行い、記憶部102に出力して処理を終了する。ここでの合成処理の概要を図9に示す。図9では、LFデータBに対応するLFデータ901と、LFデータCに対応するLFデータ902が合成されている。この際、LFデータ902は、LFデータC’に対応するLFデータ903として座標変換され、LFデータ901と合成される。このようにすれば、同じ被写体に対応する直線が重なるように合成され、2つのシーンで取得されたライトフィールドのスティッチを行うことができる。なお、合成において、2つのLFデータが重なる領域に関しては、補間により生成された値ではない、LFデータBの値が優先される。なお、もちろん、重なる領域のLの値をLFデータBのLの値とLFデータC’のLの値の平均として求めてもよい。
なお、本実施例において、取得部103は複数の異なる視点位置にそれぞれ対応し、共通の被写体に関する情報を含む光線情報であって、被写体から対応する視点位置に入射される光線の方向と強度とを示す複数の光線情報を取得する取得手段として機能する。また、座標変換部107および合成部108は、前記複数の光線情報の少なくとも一つを座標変換し、前記複数の光線情報を合成する合成手段として機能する。また、パラメータ算出部106は、前記座標変換で用いる変換パラメータを導出する導出手段として機能する。また、対応線検出部105は、第一の光線情報および前記第二の光線情報の間で同一の被写体に対応する情報を特定する特定手段として機能する。
以上が、本実施例の情報処理部110で行われる処理である。以上の処理によれば複数の異なるシーンで取得されたLFデータをスティッチすることが可能となる。例えば、図10に示すような場合を考える。図10において、LFカメラ620は、直線1003と1004で囲まれた画角範囲を有し、その画角範囲内でLFカメラ620向かう光線の向きと強度の情報を取得することができる。同様に、LFカメラ621は、直線1005と1006で囲まれた画角範囲を有し、その画角範囲内でLFカメラ621に向かう光線の向きと強度の情報を取得することができる。通常、被写体1001はLFカメラ621の画角範囲外に存在するため、LFカメラ621は被写体1001から射出される光線1007の情報を取得することができない。しかしながら、本発明を適用することにより、LFカメラ621のLF座標上に、光線1007の情報をマッピングすることができるようになる。また、同様にして、本発明を適用することによりLFカメラ620のLF座標上に、被写体1002から射出される光線1008の情報をマッピングすることができる。このように、本発明によれば、複数のシーンで取得されたLFデータを全て同一の座標系で取り扱うことができるので、リフォーカスなどのLFデータを用いる画像処理を広い範囲で統一的に行うことができるようになる。
<実施例2>
実施例1ではLFデータをスティッチする技術について説明したが、本実施例では、スティッチにより得られたLFデータを用いてリフォーカス画像を生成する処理について説明する。まず、LFデータからリフォーカス画像を生成する原理について述べる。
LF座標で規定されているLFデータは、通常のカメラで撮像した場合の画像データに変換することが可能である。通常のカメラで撮像した場合の画像データとは、二次元平面内の各点(x,y)それぞれに対してスカラー値(画素値I)が対応しているデータ群により構成される。LFデータは元をたどれば撮像センサの画素値から得られたものであるので、L(u,v,x,y)で表わされるLFデータを、u方向とv方向に積分することで、I(x,y)に変換することができる。この時の積分の方法により、合焦位置や被写界深度など、画像データの合焦状態を自由に変化させることができる。図11に、その例を示す。図11(a)は図5と同じ図であり、メインレンズ212の主面をu平面、撮像センサ面をx平面として取得されたLFデータである。前述のように本来四次元であるLF座標を二次元に落とし込んで示している。図11(b)および図11(c)は、それぞれ図11(a)を直線群501の方向に積分して得られた画像と、図11(a)を直線群502の方向に積分して得られた画像である。なお、ここで示す画像は本来一次元の画像であるが、図示の都合上、上下方向に幅を持たせて示している。
直線群501の方向に積分して得られた画像である図11(b)では、直線群501に対応する被写体にピントがあっており、直線群502に対応する被写体がぼけて表示されている。一方、直線群502の方向に積分して得られた画像である図11(c)では、直線群502に対応する被写体にピントが合っており、直線群501に対応する被写体がぼけて表示されている。このように、ピントを合わせたい被写体に対応する直線(四次元のLF座標においては平面)の方向に積分を行うことで、所望の被写体に合焦した画像を得ることができる。また、この時の積分範囲の広さによって、画像の被写界深度も変更することができる。例えば、積分範囲を広くすると、広い範囲を通った光線により形成された画像が得られるため、開口の大きいカメラで撮影されたような被写界深度の浅い画像が得られる。一方、積分範囲を狭くすると、狭い範囲を通った光線により形成された画像が得られるため、開口の小さいカメラで撮影されたような被写界深度の深い画像が得られる。
以上が、LFデータからリフォーカス画像を生成する原理である。次に、本実施例のカメラ100の構成について説明する。図12は、本実施例のカメラ100の構成を示すブロック図である。本実施例のカメラ100は、実施例1の構成に加えて新たに操作部1201を有し、情報処理部110は新たに合焦状態設定部1202と画像生成部1203としての機能を有する。操作部1201は、カメラ100が有する不図示の表示部に重畳されたタッチパネルであり、ユーザによるタッチ操作によりリフォーカス処理における合焦位置や被写界深度を設定することができる。なお、操作部1201の形態はタッチパネルに限られずボタンやモードダイヤルなど、ユーザの指示を入力することができるものであればどのようなものであってもよい。
以下、本実施例のカメラ100で行われる処理について、図13に示すフローチャートを参照して説明する。本実施例のROM113には図13のフローチャートに示すプログラムが格納されており、情報処理部110は、CPU111がそのプログラムを実行することで、以下のステップの処理を行う。なお、実施例1と同様の処理については、同様の符号を付して説明を省略する。
S1301では、合焦状態設定部1202が、操作部1201の操作により入力されたユーザ指示に基づいて、生成する画像データの合焦状態を設定し、設定した合焦状態を画像生成部1203に出力する。このステップでは、ユーザは表示部に表示された画像を見ながら、ピントを合わせたい被写体をタッチすることにより行う。合焦状態設定部1202は、操作部1201においてタッチされた点に基づいて、ピントを合わせる被写体に対応する画素位置を検出し、画像生成部1203に出力する。なお、ここでユーザが合焦状態を設定する際に表示部に表示される画像は、撮像部101aおよび撮像部101bで撮像された画像を単純に並べたものであってもよいし、合成されたLFデータから生成されたパンフォーカス画像であってもよい。なお、パンフォーカス画像は、合成されたLFデータにおいて、ある一枚のxy平面を抜き出すことによって生成することができる。なお、ここで、ユーザが仮想絞りの径を選択できるようにして、被写界深度の設定も行えるようにしてもよい。また、被写体の画素位置ではなく、合焦する被写体までの距離などをユーザが数字で設定できるようにして、それを画像生成部1203に出力できるようにしてもよい。
S1302では、画像生成部1203が、合焦状態設定部1202から出力された合焦状態に基づいて、合焦する被写体に対応する直線の傾きを取得する。このステップでは、画像生成部1203が、合焦状態設定部1202から出力された被写体の画素位置に基づいて、合焦する被写体に対応する直線を検出する。合焦する被写体の画素位置を(x,y)とした時、画像生成部1203は、y=yとして固定したux平面において、直線x=xと交わる直線を、合焦する被写体に対応する直線として検出する。なお、x=xと交わる直線が複数ある場合には、その交点のu座標の値が、u軸方向の描画範囲の中心に近い方の直線を合焦する被写体に対応する直線として検出する。これにより、カメラの中心視点から見た画像において合焦被写体を選択した場合に、所望の被写体がより正確に選択されるようになる。画像生成部1203は、y=ypとして固定したux平面においてLFデータをラドン変換し、検出された対応直線の傾きを取得する。なお、ここで用いる対応直線の検出方法としては他の方法を用いてもよい。
S1303では、画像生成部1203が、S1302で取得された傾きに基づいてLFデータの積分を行い、リフォーカス画像データを生成する。
図4において、x平面402のz座標を0、u平面401のz座標をd、ピントを合わせたい平面のz座標をdpintとすると、実施例1で説明したように、z=dpint上にある点から出た光線は、全て直線
上に乗る。ここで、(X,Y)は、u平面の点(u,v)およびx平面の点(x,y)を通る光線がピント面と交わる点の座標をカメラ座標で示すものである。z=dpintにピントが合った画像を得るには、式(11)で表される平面の接ベクトル(1−α,1−α,−α,−α)の方向に、uおよびvについてLFデータを積分すればよい。x平面402とLFカメラの距離をK、LFカメラのメインレンズ212のF値をFとすると、x平面402上では、LFカメラは、図11より[−K/F,K/F]の範囲のライトフィールドを取得することになる。よって、z=dpintの位置に形成される画像I(X,Y)は以下の式で表わされる。
なお、ここでFの値を変化させることによって、得られる画像データの被写界深度を変化させることができる。画像生成部1203は、S1302で取得された直線の傾きを式(11)に代入してαの値を求め、導出したαおよび、スティッチしたLFデータの値を式(12)に代入して、I(X,Y)を得る。なお、ここで得られる(X,Y)は実空間のカメラ座標で表わされる座標であるため、画像生成部1203は、これを撮像センサの画素ピッチに基づいて拡縮したものを画像データとして出力する。
なお、本実施例において、取得部103は複数の異なる視点位置にそれぞれ対応し、共通の被写体に関する情報を含む光線情報であって、被写体から対応する視点位置に入射される光線の方向と強度とを示す複数の光線情報を取得する取得手段として機能する。また、座標変換部107および合成部108は、前記複数の光線情報の少なくとも一つを座標変換し、前記複数の光線情報を合成する合成手段として機能する。また、パラメータ算出部106は、前記座標変換で用いる変換パラメータを導出する導出手段として機能する。また、対応線検出部105は、第一の光線情報および前記第二の光線情報の間で同一の被写体に対応する情報を特定する特定手段として機能する。また、画像生成部1203は、前記合成された光線情報から画像データを生成する生成手段として機能する。
以上が、本実施例の情報処理部110で行われる処理である。以上の処理によれば、スティッチしたLFデータを用いて任意の合焦状態の画像データを得ることができる。従来の技術を用いた場合では、共通の被写体を含む複数の異なるシーンをつなぎ合わせたリフォーカス画像を得る場合に、任意のピント位置でリフォーカスされた画像同士をその都度つなぎ合わせる必要があった。これは各カメラの位置情報や、各カメラからの被写体の距離情報を計算する煩雑な処理が必要であったが、上記のようにスティッチしたLFデータを用いてリフォーカス画像を生成すれば、そのような処理を行わずに広範囲のリフォーカス画像を得ることができる。
<その他の実施形態>
なお、本発明の実施形態は上記の実施例に限られるものではない。例えば実施例2のS1302で取得された直線の傾きから、式(11)に基づいて被写体の距離情報を求めるようにしてもよい。また、スティッチしたLFデータの画角内の全画素について距離情報を予め求めておき、その情報をリフォーカス処理に用いるようにするとより処理が高速化できる。また、リフォーカス画像を生成する方法は実施例2の方法に限られず、四次元のLFデータをフーリエ変換してそこからピント面に対応する二次元データを切り出して逆フーリエ変換する方法を用いてもよい。
また、上記の実施例ではLFデータのスティッチを行ったが、光線の方向および強度を示す情報であれば、上記実施例で定義される他の光線情報について本発明を適用してもよい。また、上記の実施例ではLFデータにおいて対応する直線を検出して座標変換のパラメータを求めたが、2つのLFデータの対応関係を規定する方法であれば他のどのような方法を用いてもよい。例えば、座標変換パラメータを変化させながらLFデータ同士のマッチングを行い、マッチング誤差の最も小さい座標変換パラメータを用いるようにしてもよい。
また、本発明の画像処理装置の構成は上記実施例に示したものに限られず、各ブロックの機能を複数のブロックに分けたり、複数のブロックの機能を持つブロックを含むような構成にしてもよい。なお、本発明は例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。また、複数の機器から構成されるシステムに適用してもよいし、一つの機器からなる装置に適用してもよい。つまり、上記の実施例は、プレノプティック撮像部を2つ備えたカメラに適用されたが、上記のLFデータのスティッチ処理を行うことができる情報処理装置であればどのような形態に適用してもよい。例えば、あらかじめ2つのプレノプティックカメラを用いて取得されていたLFデータをネットワークを通じて取得し、そのLFデータをスティッチするような情報処理装置に適用してもよい。
また、本発明は、上述した実施例の機能(例えば、上記のフローチャートにより示される工程)を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が、コンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。
101a〜101b 撮像部
103 取得部
107 座標変換部
108 合成部
110 情報処理部

Claims (13)

  1. 複数の異なる視点位置にそれぞれ対応し、共通の被写体に関する情報を含む光線情報であって、被写体から対応する視点位置に入射される光線の方向と強度とを示す複数の光線情報を取得する取得手段と、
    前記複数の光線情報の少なくとも一つを座標変換し、前記座標変換した複数の光線情報を含む前記複数の光線情報を合成する合成手段とを有することを特徴とする情報処理装置。
  2. 前記複数の光線情報は、第一の視点位置に対応し、第一の座標系で定義される第一の光線情報と、前記第一の視点位置とは異なる第二の視点位置に対応し、前記第一の座標系とは異なる第二の座標系で定義される第二の光線情報とを含み、
    前記合成手段は、前記第一の光線情報と前記第二の光線情報のうちの少なくとも一方を座標変換することで前記第一の光線情報と前記第二の光線情報の座標系を合わせ、前記座標系を合わせた前記第一の光線情報と前記第二の光線情報とを合成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記座標変換で用いる変換パラメータを導出する導出手段を更に有し、
    前記合成手段は、前記導出手段によって導出された変換パラメータに基づいて前記座標変換を行うことを特徴とする請求項2に記載の情報処理装置。
  4. 前記第一の光線情報および前記第二の光線情報の間で同一の被写体に対応する情報を特定する特定手段を更に有し、
    前記導出手段は、前記特定された同一の被写体に対応する情報に基づいて、前記変換パラメータを導出することを特徴とする請求項3に記載の情報処理装置。
  5. 前記特定手段は、前記第一の座標系および前記第二の座標系において、同一の被写体に対応する直線を検出することで、前記同一の被写体に対応する情報を特定することを特徴とする請求項4に記載の情報処理装置。
  6. 前記特定手段は、前記第一の光線情報および前記第二の光線情報をラドン変換し、前記ラドン変換の結果に基づいて前記対応する直線を検出することを特徴とする請求項5に記載の情報処理装置。
  7. 前記座標変換された光線情報に補間処理を行う補間手段を更に有し、
    前記合成手段は、前記補間手段により補間処理された光線情報を合成することを特徴とする請求項1乃至6のいずれか一項に記載の情報処理装置。
  8. 前記合成された光線情報から画像データを生成する生成手段を更に有することを特徴とする請求項1乃至7のいずれか一項に記載の情報処理装置。
  9. 前記生成手段は、前記合成手段により前記合成された光線情報を、所定の被写体に対応する直線に基づく方向に積分することで、前記画像データを生成することを特徴とする請求項8に記載の情報処理装置。
  10. 前記光線情報は、光線が通過する2つの平面において、前記光線が通過する点の座標を示した情報であることを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。
  11. 前記光線情報は、光線が通過するある平面における前記光線の座標と、前記光線の方向を示した情報であることを特徴とする請求項1乃至10のいずれか一項に記載の画像処理装置。
  12. 共通の被写体を含む複数の異なるシーンにそれぞれ対応し、対応するシーンに含まれる被写体から入射される光線の方向と強度とを示す複数の光線情報を取得するステップと、
    前記複数の光線情報の少なくとも一つを座標変換し、前記複数の光線情報を合成するステップとを含むことを特徴とする情報処理方法。
  13. コンピュータを請求項1乃至11のいずれか一項に記載の情報処理装置の各手段として機能させるプログラム。
JP2013262756A 2013-12-19 2013-12-19 情報処理装置、情報処理方法およびプログラム Active JP6223169B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013262756A JP6223169B2 (ja) 2013-12-19 2013-12-19 情報処理装置、情報処理方法およびプログラム
US14/571,696 US20150177062A1 (en) 2013-12-19 2014-12-16 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013262756A JP6223169B2 (ja) 2013-12-19 2013-12-19 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015119395A true JP2015119395A (ja) 2015-06-25
JP6223169B2 JP6223169B2 (ja) 2017-11-01

Family

ID=53399681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013262756A Active JP6223169B2 (ja) 2013-12-19 2013-12-19 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US20150177062A1 (ja)
JP (1) JP6223169B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016116120A (ja) * 2014-12-16 2016-06-23 日本電信電話株式会社 画像補正装置及びコンピュータプログラム
JP2017063414A (ja) * 2015-09-17 2017-03-30 トムソン ライセンシングThomson Licensing ライト・フィールドを表すデータを生成する方法および装置
KR20180053669A (ko) * 2015-09-17 2018-05-23 톰슨 라이센싱 라이트 필드 데이터 표현
KR20180054737A (ko) * 2015-09-17 2018-05-24 톰슨 라이센싱 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법
JP2018533066A (ja) * 2015-10-09 2018-11-08 ヴィスバイ カメラ コーポレイション ホログラフィックライトフィールドイメージングデバイス及びその使用方法
JP2018537877A (ja) * 2015-09-17 2018-12-20 トムソン ライセンシングThomson Licensing ライトフィールドコンテンツをエンコードする方法
JP2019511851A (ja) * 2015-12-30 2019-04-25 トムソン ライセンシングThomson Licensing ピクセルビームを表すデータを生成する方法及び装置
JP7403163B2 (ja) 2017-07-21 2023-12-22 无錫海斯凱尓医学技術有限公司 動き情報取得方法及び装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3144885A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing Light field data representation
EP3144887A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing A method and an apparatus for generating data representative of a pixel beam
EP3144884A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing Light field data representation
EP3188124A1 (en) * 2015-12-30 2017-07-05 Thomson Licensing A method and an apparatus for generating data representative of a pixel beam
EP3270589A1 (en) * 2016-07-11 2018-01-17 Thomson Licensing An apparatus and a method for generating data representative of a pixel beam
RU2651176C1 (ru) * 2016-11-17 2018-04-18 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет" Способ обработки сигналов для обнаружения и определения толщины прямых линий на изображении

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665449B1 (en) * 1999-09-03 2003-12-16 Battelle Memorial Institute Method and algorithm for image processing
JP4752031B2 (ja) * 2004-10-01 2011-08-17 ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティ 撮像の装置と方法
WO2013180748A1 (en) * 2012-06-01 2013-12-05 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US20140369594A1 (en) * 2013-06-12 2014-12-18 Vidinoti Sa Method and apparatus for identifying local features

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6839081B1 (en) * 1994-09-09 2005-01-04 Canon Kabushiki Kaisha Virtual image sensing and generating method and apparatus
EP1037069A3 (en) * 1999-03-17 2004-01-14 Matsushita Electric Industrial Co., Ltd. Rangefinder
US7286803B2 (en) * 2002-10-21 2007-10-23 Matsushita Electric Industrial Co., Ltd. Palm-sized mobile information terminal with finger-insertion hooking portion
JP4706882B2 (ja) * 2009-02-05 2011-06-22 ソニー株式会社 撮像装置
JP5766034B2 (ja) * 2011-06-08 2015-08-19 キヤノン株式会社 画像処理方法、画像処理装置及びプログラム。

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665449B1 (en) * 1999-09-03 2003-12-16 Battelle Memorial Institute Method and algorithm for image processing
JP4752031B2 (ja) * 2004-10-01 2011-08-17 ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティ 撮像の装置と方法
WO2013180748A1 (en) * 2012-06-01 2013-12-05 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US20140369594A1 (en) * 2013-06-12 2014-12-18 Vidinoti Sa Method and apparatus for identifying local features

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016116120A (ja) * 2014-12-16 2016-06-23 日本電信電話株式会社 画像補正装置及びコンピュータプログラム
JP2017063414A (ja) * 2015-09-17 2017-03-30 トムソン ライセンシングThomson Licensing ライト・フィールドを表すデータを生成する方法および装置
KR20180053669A (ko) * 2015-09-17 2018-05-23 톰슨 라이센싱 라이트 필드 데이터 표현
KR20180054737A (ko) * 2015-09-17 2018-05-24 톰슨 라이센싱 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법
JP2018536211A (ja) * 2015-09-17 2018-12-06 トムソン ライセンシングThomson Licensing ライトフィールド・データ表現
JP2018537877A (ja) * 2015-09-17 2018-12-20 トムソン ライセンシングThomson Licensing ライトフィールドコンテンツをエンコードする方法
JP2019502277A (ja) * 2015-09-17 2019-01-24 トムソン ライセンシングThomson Licensing ピクセルビームを表すデータを生成する装置および方法
KR102585129B1 (ko) 2015-09-17 2023-10-06 인터디지털 브이씨 홀딩스 인코포레이티드 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법
KR102635003B1 (ko) * 2015-09-17 2024-02-07 인터디지털 브이씨 홀딩스 인코포레이티드 라이트 필드 데이터 표현
JP2018533066A (ja) * 2015-10-09 2018-11-08 ヴィスバイ カメラ コーポレイション ホログラフィックライトフィールドイメージングデバイス及びその使用方法
JP2019511851A (ja) * 2015-12-30 2019-04-25 トムソン ライセンシングThomson Licensing ピクセルビームを表すデータを生成する方法及び装置
JP7403163B2 (ja) 2017-07-21 2023-12-22 无錫海斯凱尓医学技術有限公司 動き情報取得方法及び装置

Also Published As

Publication number Publication date
US20150177062A1 (en) 2015-06-25
JP6223169B2 (ja) 2017-11-01

Similar Documents

Publication Publication Date Title
JP6223169B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10949986B1 (en) Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
JP6736471B2 (ja) 画像処理方法および画像処理装置
JP2017022694A (ja) ユーザのデバイスに明視野ベースの画像を表示するための方法および装置ならびに対応するコンピュータプログラム製品
JP2017112602A (ja) パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
EP2504992A2 (en) Image processing apparatus and method
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
KR20160116075A (ko) 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
CN111108742A (zh) 信息处理装置、信息处理方法、程序以及可互换透镜
JP2014010783A (ja) 画像処理装置、画像処理方法およびプログラム
TWI501193B (zh) Computer graphics using AR technology. Image processing systems and methods
US8908012B2 (en) Electronic device and method for creating three-dimensional image
WO2018079283A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP7014175B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2013120435A (ja) 画像処理装置および画像処理方法、プログラム
JP2020193820A (ja) 計測装置、撮像装置、制御方法及びプログラム
JP6012396B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP5202448B2 (ja) 画像処理システム及び方法
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP6263024B2 (ja) 画像処理装置、画像処理方法および、プログラム、並びに画像再生装置
JP6292785B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6120535B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7200002B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171003

R151 Written notification of patent or utility model registration

Ref document number: 6223169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151