JP5929553B2 - 画像処理装置、撮像装置、画像処理方法およびプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP5929553B2
JP5929553B2 JP2012145036A JP2012145036A JP5929553B2 JP 5929553 B2 JP5929553 B2 JP 5929553B2 JP 2012145036 A JP2012145036 A JP 2012145036A JP 2012145036 A JP2012145036 A JP 2012145036A JP 5929553 B2 JP5929553 B2 JP 5929553B2
Authority
JP
Japan
Prior art keywords
distance
imaging
cameras
phase difference
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012145036A
Other languages
English (en)
Other versions
JP2014011526A (ja
Inventor
健吾 早坂
健吾 早坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012145036A priority Critical patent/JP5929553B2/ja
Priority to TW102122326A priority patent/TW201403031A/zh
Priority to PCT/JP2013/003994 priority patent/WO2014002492A1/en
Priority to US14/408,056 priority patent/US9715734B2/en
Priority to CN201380032678.1A priority patent/CN104380342A/zh
Publication of JP2014011526A publication Critical patent/JP2014011526A/ja
Application granted granted Critical
Publication of JP5929553B2 publication Critical patent/JP5929553B2/ja
Priority to US15/430,702 priority patent/US10043290B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本技術は、測定対象の距離情報を取得可能な画像処理装置、撮像装置および画像処理方法に関する。
視点の異なる複数の画像を用いて測定対象までの距離を測定する技術が知られている。例えば下記特許文献1にはステレオマッチングと呼ばれる手法を用いた距離算出方法が記載されている。
このようなステレオマッチングの手法では、画像内の水平方向(H方向)又は垂直方向(V方向)に沿った複数の視差画像から距離を算出する場合、視差画像間の位相差が求められる。位相差を求める処理は、比較対象の局所領域(単位領域)を水平方向に逐次移動させ、比較範囲内で最も相関が強い単位領域同士の視差画像間での位置ずれ(Pixelずれ、ディスパリティ)を位相差として求める。画像内の任意の角度方向に沿った複数の視差画像からも距離を算出することが可能である。
特開2011−171858号公報
ステレオマッチングにおいては、物体とカメラの距離によって視差画像間の位相差の測定精度が決定される。すなわち物体とカメラの距離が遠いほど、カメラノイズ、外乱などの影響によって、位相差の測定精度が低下し、これに伴って距離算出精度も低下するという問題がある。
以上のような事情に鑑み、本技術の目的は、距離算出精度を高めることができる画像処理装置、撮像装置および画像処理方法を提供することにある。
以上の目的を達成するため、本技術の一形態に係る画像処理装置は、距離情報生成部と、距離抽出部とを具備する。
上記距離情報生成部は、第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報と、上記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた上記測定対象に関する第2の距離情報とを生成する。
上記距離抽出部は、上記第1及び第2の距離情報に基づいて、撮像位置から上記測定対象までの距離を抽出する。
上記画像処理装置によれば、相互に異なる基線長を有する複数のカメラで取得した画像に基づいて測定対象の距離を算出するようにしているので、測定対象の距離精度を向上させることができる。
上記距離抽出部は、上記第1の距離情報から抽出される第1の距離範囲と、上記第2の距離情報から抽出される第2の距離範囲とのうち、相互に重複する距離範囲から上記測定対象までの距離を抽出する。これにより測定対象の距離の測定精度を高めることができる。
上記画像処理装置は、上記第1及び第2の基線長を記憶する記憶部をさらに具備してもよい。これにより、個々の撮像装置に対応した基線長に基づく測定対象の距離測定を実行することができる。
上記距離情報生成部は、上記第1及び第2の基線長とは異なる第3の基線長を有する複数のカメラで取得された画像間の位相差に基づいた上記測定対象に関する第3の距離情報をさらに生成してもよい。この場合、上記距離抽出部は、上記第1、第2及び第3の距離情報に基づいて、撮像位置から上記測定対象までの距離を抽出する。これにより測定対象の距離精度をさらに向上させることができる。
本技術の一形態に係る撮像装置は、撮像部と、距離情報生成部と、距離抽出部とを具備する。
上記撮像部は、一軸方向に配列された複数のカメラを有する。
上記距離情報生成部は、上記複数のカメラのうち第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報と、上記複数のカメラのうち上記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた上記測定対象に関する第2の距離情報とを生成する。
上記距離抽出部は、上記第1及び第2の距離情報に基づいて、撮像位置から上記測定対象までの距離を抽出する。
上記撮像装置によれば、相互に異なる基線長を有する複数のカメラで取得した画像に基づいて測定対象の距離を算出するようにしているので、測定対象の距離精度を向上させることができる。
上記撮像部は、開口絞りを有する撮像レンズと、受光した光に基づいて撮像データを取得する撮像素子と、上記撮影レンズと上記撮像素子との間に、上記撮像素子の一の領域内の複数の画素に対応して設けられた複数のマイクロレンズとを有してもよい。
これにより異なる基線長を有する複数の視差画像を取得することができる。
本技術の一形態に係る画像処理方法は、第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報を生成することを含む。
上記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた上記測定対象に関する第2の距離情報が生成される。
上記第1及び第2の距離情報に基づいて、撮像位置から上記測定対象までの距離が抽出される。
上記画像処理方法によれば、相互に異なる基線長を有する複数のカメラで取得した画像に基づいて測定対象の距離を算出するようにしているので、測定対象の距離精度を向上させることができる。
以上のように、本技術によれば、測定対象の距離算出精度を高めることができる。
本技術の一実施形態に係る撮像装置の概略構成図である。 マイクロレンズアレイのFナンバーを説明するための模式図である。 図1に示した画像処理部の概略構成を表す機能ブロック図である。 図1に示した撮像素子上の受光領域を表す平面図である。 撮像素子上で受光される光線について説明するための模式図である。 位相差検出処理について説明するための模式図である。 上記実施形態の位相差検出の際に用いる3つの視差画像を表す模式図である。 撮像レンズから測定対象までの距離の算出方法について説明するための模式図である。 距離情報とリフォーカス係数との関係について説明するための模式図である。 上記画像処理部における距離算出動作を説明する模式図である。 上記画像処理部における距離算出動作を説明する模式図である。 上記画像処理部における距離算出動作を説明するフローチャートである。 上記画像処理部における基線長の測定方法を説明する測定対象の模式図である。 上記画像処理部における基線長の測定方法を説明する模式図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
図1は、本技術の一実施形態に係る撮像装置の全体構成を示す概略図である。撮像装置1は、撮像対象物(被写体)2を撮像して所定の画像処理を施すことにより、画像データ(撮像データ)Doutを生成し出力する。
[全体構成]
撮像装置1は、開口絞り10を有する撮影レンズ11と、マイクロレンズアレイ12と、撮像素子13と、画像処理部14と、撮像素子駆動部15と、制御部16とを有する。
撮像装置1において、撮像素子13から得られる撮像データは、受光面における光の強度分布に加えてその光の進行方向の情報をも含む。撮像装置1は、画像処理部14において、任意の焦点や視点からの観察画像を再構築することが可能に構成される。
なお本実施形態の画像処理方法は、画像処理部14において具現化されるため、以下併せて説明する。また本実施形態の画像処理プログラムは、画像処理部14における各画像処理機能をソフトウェア的に実現したものに対応している。この場合、そのソフトウェアは、各画像処理機能をコンピュータにより実行させるためのプログラム群で構成される。各プログラムは、例えば、専用のハードウェアに予め組み込まれて用いられてもよいし、汎用のパーソナルコンピュータなどにネットワークや記録媒体からインストールして用いられてもよい。
開口絞り10は、撮像レンズ11の光学的な開口絞りである。この開口絞り10の開口の形状(例えば円形状)に相似形となる撮像対象物2の像(後述のユニット像)が、撮像素子13上にマイクロレンズごとに形成されるようになっている。これら複数のマイクロレンズと各マイクロレンズから出射する撮像素子13の受光領域とにより、2次元的に配列された複数のカメラユニットが構成される。
撮像レンズ11は、撮像対象物2を撮像するためのメインレンズであり、例えば、ビデオカメラやスチルカメラ等で使用される一般的な撮像レンズにより構成されている。
マイクロレンズアレイ12は、複数のマイクロレンズが水平方向(X軸方向)及び垂直方向(Y軸方向)に2次元配列したものであり、撮像レンズ11の焦点面(結像面)に配置されている。各マイクロレンズは、例えば円形の平面形状を有している。
撮像レンズ11のFナンバーFMLと、マイクロレンズアレイ12のFナンバーFMLAとは、概ね等しくなっていることが好ましい。これは、図2(A)に示したように、撮像レンズ11のFナンバーFMLがマイクロレンズアレイ12のFナンバーFMLAよりも小さい場合(FML<FMLAの場合)、隣接するマイクロレンズによる撮像光線間で重なりが生じるためである。この場合、クロストークが発生し、再構築画像の画質が劣化してしまうことになる。一方、図2(B)に示したように、撮像レンズ11のFナンバーFMLがマイクロレンズアレイ12のFナンバーFMLAよりも大きい場合(FML>FMLAの場合)、マイクロレンズによる撮像光線が受光されない撮像画素が生じる。この場合、撮像画素を十分に利用することができず、再構築画像の画素数が低下してしまうことになる。
撮像素子13は、マイクロレンズアレイ12からの光線を受光して複数の画素データを含む撮像データD0を取得するものであり、マイクロレンズアレイ12の焦点面(結像面)に配置されている。この撮像素子13は、水平方向(X軸方向)及び垂直方向(Y軸方向)にマトリクス状に配列された複数のCCD(Charge Coupled Device;電荷結合素子)またはCMOS(Complementary Metal-Oxide Semiconductor)などの2次元固体撮像素子により構成されている。
このような撮像素子13の受光面(マイクロレンズアレイ12側の面)には、M×N(M,N:整数)個の撮像画素(以下、単に画素という)が、マトリクス状に配置されている。そして、複数の画素に対して、マイクロレンズアレイ12内の1つのマイクロレンズが割り当てられて配置されている。すなわち複数のマイクロレンズは、撮像素子13の一の領域内の複数の画素に対応して設けられている。
例えば、受光面上の画素数はM×N=3720×2520=9374400個であり、このうちm×n=12×12=144個の画素に対して1つのマイクロレンズが割り当てられるようになっている。
再構築された画像の画素数(M×N)は、マイクロレンズアレイのレンズ数と等しくなる。これは再構築画像の2次元座標の情報がマイクロレンズアレイの座標で決まるためである。したがって、再構築画像の画素数は、撮像素子13の全画素数を各マイクロレンズに割り当てられる画素数(m×n)で割った数値となる。
ここで、各マイクロレンズに対する画素の割り当て個数(m×n)は、光線の角度情報の分解能に等しく、その値が大きくなるに従って、再構築画像の分解能、例えば任意の視野での分解能やリフォーカス演算処理に基づく奥行き方向の分解能(任意の焦点での分解能)などが高くなる。一方、再構築画像の画素数((M/m)×(N/n))は、再構築画像の解像度と関連しているため、その値が大きくなるに従って、再構築画像の解像度が高くなる。このように、再構築画像の分解能と解像度とはトレードオフの関係にあるが、分解能および解像度の両者をできるだけ高い値で両立させることが望ましい。
撮像素子13の受光面上には、例えば図示しないカラーフィルタを画素単位で2次元配置するようにしてもよい。カラーフィルタとしては、例えば、赤(R)、緑(G)および青(B)の3原色のカラーフィルタがR:G:B=1:2:1の比率で市松状に配置されたBayer配列のカラーフィルタ(原色フィルタ)を用いることができる。このようなカラーフィルタを設けるようにすれば、撮像素子13により得られた撮像データを、カラーフィルタの色に対応した複数の色(この場合、3原色)の画素データとすることができる。
画像処理部14は、撮像素子13により得られた撮像データD0に対して後述する所定の画像処理を施すことにより、画像データDoutを生成する。なお、この画像処理部14の詳細構成については後述する。
撮像素子駆動部15は、撮像素子13を駆動してその受光動作を制御する。
制御部16は、画像処理部14および撮像素子駆動部15の動作を制御し、このうち画像処理部14の動作の制御は、制御信号Soutを用いて行う。なお、制御部16は例えばマイクロコンピュータなどにより構成されている。
[画像処理部]
次に、図3を参照して、画像処理部14の詳細構成について説明する。図3は、画像処理部14の機能ブロック構成を表したものである。画像処理部14は、欠陥補正部141、クランプ処理部142、距離情報取得部143、並び替え処理部144、ノイズ低減処理部145、輪郭強調処理部146、ホワイトバランス処理部147、ガンマ補正処理部148および記憶部149を有している。
欠陥補正部141は、撮像データD0に含まれる黒とび等の欠陥(撮像素子13の素子自体の異常に起因した欠陥)を補正する。
クランプ処理部142は、欠陥補正部141による欠陥補正後の撮像データにおいて、各画素データの黒レベルの設定処理(クランプ処理)を行う。なお、クランプ処理後の撮像データに対して、更にデモザイク処理などのカラー補間処理を施すようにしてもよい。
距離情報取得部143は、クランプ処理部142から供給される撮像データD1に基づいて、後述する並び替え処理部144での並び替え処理に用いられるリフォーカス係数αを算出する。ここで、リフォーカス係数αは、撮像データD1に対応する撮像画像内の指定された奥行き面をリフォーカス面としたものに対応している。
距離情報取得部143は、位相差検出部143A、距離情報算出部143Bおよびリフォーカス係数設定部143Cを有している。
位相差検出部143Aは、撮像データD1に基づいて、後述する位相差分布(後述するDisparity Map)DMを生成(算出)する。
距離情報算出部143Bは、位相差分布DMに基づいて、後述する距離情報d(撮影位置(撮像レンズ11)から測定対象(例えば、測定物または後述するリフォーカス面までの距離情報)を算出する。距離情報算出部143Bは、距離情報生成部B1と、距離抽出部B2とを有する。
距離情報生成部B1は、後述するように、一軸方向に第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報と、上記一軸方向に上記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第2の距離情報とを生成する。
距離抽出部B2は、後述するように、上記第1の距離情報と上記第2の距離情報とに基づいて、撮像位置から測定対象までの距離情報Dを抽出する。
リフォーカス係数設定部143Cは、距離情報dに基づいてリフォーカス係数αを設定(算出)する。なお、距離情報取得部143の詳細動作については後述する。
並び替え処理部144は、リフォーカス係数設定部143Cにおいて算出されたリフォーカス係数αを用いて、クランプ処理部142から供給される撮像データD1に対して所定の並べ替え処理を行うことにより、画像データD2を生成するものである。この並び替え処理としては、例えば「Light Field Photography」と呼ばれる手法を用いたリフォーカス演算処理が用いられる。
ノイズ低減処理部145は、並び替え処理部144により供給される画像データD2に含まれるノイズ(例えば、暗い場所や感度の足りない場所で撮像したときに発生するノイズ)を低減する処理を行うものである。
輪郭強調処理部146は、ノイズ低減処理部145により供給される画像データに対し、映像の輪郭を強調する輪郭強調処理を行うものである。
ホワイトバランス処理部147は、輪郭強調処理部146により供給される画像データに対し、カラーフィルタの通過特性や撮像素子13の分光感度などのデバイスの個体差や照明条件などの影響に起因した色バランスの調整処理(ホワイトバランス処理)を行うものである。
ガンマ補正処理部148は、ホワイトバランス処理部147により供給される画像データに対して所定のガンマ補正(明暗やコントラストの補正)を行うことにより、画像データDoutを生成するものである。
記憶部149は、例えばROM(Read Only Memory)又はRAM(Random Access Memory)で構成され、画像処理部14を構成する上述した各部の演算に必要なプログラム、パラメータを記憶する。記憶部149は、制御部16に備えられてもよい。記憶部149は、画像処理部14および制御部16とは別に構成されてもよく、この場合、記憶部149は、画像処理部14または制御部16によって制御される。また、記憶部149は、ハードディスクドライブ等の外付けの記憶装置で構成されてもよい。
[撮像装置の動作]
続いて、本実施形態の撮像装置1の動作とともに、画像処理部14の詳細について説明する。
(基本動作)
撮像装置1では、図1に示したように、撮像レンズ11による撮像対象物2の像が、マイクロレンズアレイ12上に結像する。そして、マイクロレンズアレイ12への入射光線が、このマイクロレンズアレイ12を介して撮像素子13で受光される。
このとき、マイクロレンズアレイ12への入射光線は、その進行方向に応じて撮像素子13上の異なる位置で受光される。その結果、例えば図4に示したように、開口絞り10の開口形状に相似形となる撮像対象物2の像(ユニット像)13−1が、マイクロレンズごとに結像する。なお、このユニット像13−1、すなわち1つのマイクロレンズに割り当てられた画素Pによって構成される領域(再構築画素領域13D)が、再構築される画像の1画素分に相当する。
ここで図5を参照して、撮像素子13で受光される光線について説明する。図5に示したように、撮像レンズ11の撮像レンズ面上において直交座標系(u,v)を、撮像素子13の撮像面上において直交座標系(x,y)をそれぞれ考え、撮像レンズ11の撮像レンズ面と撮像素子13の撮像面との距離をsとする。すると、撮像レンズ11および撮像素子13を通る光線L1は、4次元関数Ls(x,y,u,v)で表されるため、光線の位置情報に加え、光線の進行方向が保持された状態で撮像素子13に記録される。すなわち、各マイクロレンズに割り当てられた複数の画素Pの配置によって、光線の入射方向が決まることとなる。
このようにして、撮像素子13で受光がなされると、撮像素子駆動部15による駆動動作に従って撮像データD0が得られ、画像処理部14へ入力される。そして、画像処理部14では、この撮像データD0に対して後述する所定の画像処理を施す。これにより、撮像装置1において画像データDoutが生成され、外部へ出力される。
(画像処理部の典型的な動作)
次に、図3および図6〜図9を参照して、画像処理部14における典型的な画像処理動作について詳細に説明する。
図3に示したように、画像処理部14では、欠陥補正部141が撮像データD0に対して欠陥補正を行ったのち、クランプ処理部142が欠陥補正後の撮像データに対してクランプ処理を行う。これにより、クランプ処理後の撮像データD1が、距離情報取得部143へ入力される。
次いで、距離情報取得部143は、この撮像データD1に基づいて、以下説明するようにしてリフォーカス係数αを算出する。
まず、位相差検出部143Aが、撮像データD1に基づいて、複数(例えば3つ以上)の視差画像(異なる視点による任意視点画像)を生成する。位相差を検出するための視差画像は、撮像素子13上で受光したユニット像同士の間で、同一の位置に配置された画素Pで取得された画素データを抽出して合成することにより生成することができる。このため、生成される視差画像の数は、1つのマイクロレンズに割り当てられた画素数と同数となる。
そして、位相差検出部143Aは、生成された複数の視差画像において、以下説明する相関値演算を行うことにより視差画像間の位相差を検出し、画像内の単位領域ごと(例えば画素Pごと)の位相差を示す位相差分布(Disparity Map)DMを生成する。
例えば図6に示したような左右2つの視差について考えた場合、右側の光線LRによる視差画像と、左側の光線LLによる視差画像との間の位相差Δφ(光線LRによる視差画像の位相φRと、光線LLによる視差画像の位相φLとの間の位相差)を検出する。
詳細には、本実施形態では、例えば図7に示したような、互いに異なる2方向以上(ここでは、画像内の水平(H)方向および垂直(V)方向の2方向)に沿った複数の視差画像(ここでは、3つの視差画像DC,DH,DV)を用いて、位相差分布DMを生成する。ここで、2つの視差画像DC,DH同士は、互いに水平方向に視差を有しており、2つの視差画像DC,DV同士は、互いに垂直方向に視差を有している。
ここで、このような2つの視差画像間の位相差を検出(位相差分布DMを生成)する際には、例えば以下のようなステレオマッチングの手法が用いられる。これは、2つの視差画像同士を局所領域で逐次比較していく(画像同士の類似度を示す相関値(画素相関値)を求める)ことにより、物体の移動量(視差画像間の位相差)を求めるという手法である。
具体的には、例えば水平方向に沿った2つの視差画像DC,DH間の位相差を求める場合、以下のようにして位相差分布DMを生成する。すなわち、まず、一方の視差画像DC内の単位領域(図7中の部分画像C1:中心座標(x1,y1))を取り出し、位置を固定させる。次いで、他方の視差画像DH内における比較対象の単位領域(図7中の部分画像H1:中心座標(x1,y1)を取り出し、この部分画像H1の位置を比較範囲H10内で水平方向に逐次移動させつつ、相関値を逐次算出する。そして、この比較範囲H10内で最も相関が強いときの部分画素C1,H1同士の位置ずれ(Pixelずれ)が、位相差(Disparity)として求められる。また、このような演算処理を、部分画像C1の位置を変化させつつ視差画像DC,DHの全面について繰り返し行うことにより、上記した位相差分布DM(Disparityの集合)が得られる。
垂直方向に沿った2つの視差画像DC,DV間の位相差を求める場合にも、同様にして位相差分布DMを生成する。すなわち、まず、視差画像DC内の部分画像C1と、視差画像DV内の部分画像V1とをそれぞれ取り出し、部分画像V1の位置を比較範囲V10内で垂直方向に逐次移動させつつ相関値を逐次算出する。そして、このような演算処理を、部分画像C1の位置を変化させつつ視差画像DC,DVの全面について繰り返し行うことにより、位相差分布DMを生成する。
このとき、相関値の算出式としては種々のものを用いることができるが、代表的なものとして、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、またはNCC(Normalized Cross-Correlation)などを相関値として用いることができる。SADおよびSSDはそれぞれ、値が小さいほど(0に近いほど)相関が強いことを示し、値が大きいほど(∞に近いほど)相関が弱いことを示している。一方、NCCは、値が1に近いほど相関が強いことを示し、値が0に近いほど相関が弱いことを示している。
このようにして、本実施の形態では、複数の視差画像(ここでは3つの視差画像DC,DH,DV)において、相関値演算がなされることにより視差画像間の位相差が検出され、画像内の位相差分布DMが生成される。
この際、互いに異なる2方向以上(ここでは、画像内の水平方向および垂直方向の2方向)に沿って個別に位相差検出が行われ、それら各方向についての位相差検出結果を利用して位相差分布DMが生成される。これにより、例えば画像にエッジ領域(水平エッジ領域や垂直エッジ領域)が含まれている場合であっても、相差検出の際にエッジ領域の影響を受けにくくなる。
次に、距離情報取得部143では、距離情報算出部143Bが、位相差検出部143Aにおいて求められた位相差分布DMに基づいて、所定の距離情報dを算出する。この距離情報dとは、ここでは、撮像レンズ11から、撮像データD1に対応する撮像画像内における任意の基準位置までの距離の情報を意味している。詳細には、撮像レンズ11と合焦させたいリフォーカス面との間の距離情報d(撮像レンズ11から上記基準位置までの距離dの情報)、すなわち、後述するリフォーカス時の撮像レンズ11の物体側の焦点距離のことである。
具体的には、距離情報算出部143Bは、位相差分布DMを用いて以下の(1)〜(8)式により、測定対象までの距離d(距離情報d)を算出する。ここでは、図8に示したように、撮像レンズ11の物体側焦点面をD、撮像レンズ11の焦点距離をF、位相差分布DMを求めたときの撮像レンズの開口の大きさをv、距離Dの物体を撮像したときの撮像レンズ11の像側焦点面をf、撮像レンズ11から距離dにある物体を撮像したときの撮像レンズ11の像側焦点面をg、距離dの物体を開口の大きさvを用いて計算した((Disparity)×(撮像素子13の画素Pの大きさ)×(マイクロレンズアレイ12の一辺の長さに割り当てられた画素数))の値をhとしている。
まず、相似関係により以下の(1)式が得られる。また図8により、e=(g−f)であるため、これを(1)式に代入することにより、以下の(2)式が得られ、この(2)式により以下の(3)式が得られる。また撮像レンズ11の結像式により以下の(4)式および(5)式が得られるため、(4)式を(3)式に代入することにより以下の(6)式が得られ、(5)式により以下の(7)式が得られる。したがって、(7)式を(6)式に代入することにより、以下の(8)式が得られる。この(8)式中においてF,D,vの値が既知のものであれば、位相差分布DMに基づいて距離dが算出される。
(h/e)=(v/g)……(1)
{h/(g−f)}=(v/g)……(2)
(1/g)=(1/f)×{1−(h/v)}……(3)
(1/F)=(1/g)+(1/d)……(4)
(1/F)=(1/D)+(1/f)……(5)
(1/d)=(1/F)−[(1/f)×{1−(h/v)}]……(6)
f=F×{D/(D−F)}……(7)
(1/d)=(1/F)−[1/{F×D/(D−F)}×{1−(h/v)}]……(8)
次に、距離情報取得部143では、リフォーカス係数設定部143Cが、距離情報算出部143Bにおいて求められた距離情報dに基づいて、リフォーカス係数αを設定(算出)する。具体的には、図9(A)に示したように、撮像レンズ11の物体側焦点面が距離Dだけ離れた位置にある状態で撮像された場合で考えると、以下のようになる。すなわち図9(B)に示したように、撮像レンズ11から距離dだけ離れた位置にある平面のリフォーカス像を得るためのリフォーカス係数αは、上記(5)式および以下の(9)式により算出される。このようにして算出されたリフォーカス係数αは、撮像データD1と共に並べ替え処理部144へ入力される。
(1/F)=(1/D)+(1/αf) ……(9)
次いで、並び替え処理部144は、このようにして距離情報取得部143において算出されたリフォーカス係数αを用いて、クランプ処理部142から供給される撮像データD1に対して所定の並べ替え処理を施し、画像データD2を生成する。具体的には、以下説明するリフォーカス演算処理(積分処理)を行うことにより、任意の焦点(リフォーカス係数αによって規定されるリフォーカス面)に設定された画像(再構築画像)を生成する。
その後、画像処理部14は、ノイズ低減処理部145において、このようにして生成された画像データD2に対し、ノイズ低減処理が行う。次いで、輪郭強調処理部146が、ノイズ低減処理後の画像データに対し、輪郭強調処理を行う。次に、ホワイトバランス処理部147は、輪郭強調処理後の画像データに対し、色バランス調整処理(ホワイトバランス処理)を行う。そして、ガンマ補正処理部148が、ホワイトバランス処理後の画像データに対し、ガンマ補正処理を行う。これにより、画像データDoutが生成され、画像処理部14から出力される。
以上のように画像処理部14は、複数の視差画像DC,DH,DVにおいて、相関値演算を行うことにより視差画像間の位相差を検出し、画像内の位相差分布DMを生成する際に、画像内の水平方向および垂直方向の2方向に沿って個別に位相差検出を行う。
一般に、検出すべき位相差(Disparity)は、物体とカメラの距離が近いほど大きく、遠いほど小さいことが知られている。すなわち、距離によって位相差の検出精度が変化するため、位相差が大きい近距離では正確に距離情報dを把握することができるが、位相差が小さくなると、カメラノイズ、外乱などにより影響され距離算出結果の精度が落ちるという課題が依然として存在する。
そこで本実施形態の画像処理部14は、複数のベースライン(光軸間の距離)を用いてノイズの影響を減少させ、より精度の高い距離算出を可能とするために、以下のような処理を実行する。
(本実施形態の画像処理部による距離算出動作)
上述のように本実施形態の画像処理部14において、距離情報取得部143は、距離情報算出部143Bを有し、距離情報算出部143Bは、距離情報生成部B1と、距離抽出部B2とを有する。
距離情報生成部B1は、第1の基線長を有する複数のカメラで取得された画像(第1の視差画像群)間の位相差に基づいた測定対象に関する第1の距離情報と、上記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像(第2の視差画像)間の位相差に基づいた上記測定対象に関する第2の距離情報とを生成する。ここでは、上記測定対象は、上述のリフォーカス面に相当するが、これに限られず、撮像装置1によって撮像される撮像対象物2であってもよい。
例えば図10に示すように、一軸方向(水平方向又は垂直方向)に配列された複数(3台)のカメラCA1,CA2及びCA3を用いて、撮像位置(撮像レンズのレンズ面)から測定対象20までの距離Z[mm]を算出する場合を考える。カメラCA1とカメラCA2間の光軸間の距離は基線長BL1[mm]と定義される。またカメラCA2とカメラCA3の光軸間の距離は基線長BL2[mm]と定義される。この場合、基線長BL1と基線長BL2は、それぞれ異なる大きさに設定される。
基線長BL1,BL2は、画像処理部14の記憶部149に記憶される。基線長BL1,BL2の測定方法については後述する。
第1の視差画像群における画像間の位相差および第2の視差画像群における画像間の位相差は、位相差検出部143Aよってそれぞれ検出される。距離情報生成部B1は、これら2つの視差画像群各々から求められる距離Zに関する情報を生成する。
すなわち距離情報生成部B1は、図11(A)に示すようにカメラCA1及びCA2で取得された第1の視差画像群から、外乱、カメラノイズ、カメラ個体差等に加え、位相差検出部143Aで検出された位相差の分解能により、測定対象20までの距離Zが距離Z0[mm]からZ1[mm]の範囲であるとの情報(第1の距離情報(d1))を生成する。同様に、距離情報生成部B1は、図11(B)に示すようにカメラCA2及びCA3で取得された視差画像群から、外乱、カメラノイズ、カメラ個体差等に加え、位相差検出部143Aで検出された位相差の分解能により、測定対象20までの距離Zが距離Z2[mm]からZ3[mm]の範囲であるとの情報(第2の距離情報(d2))を生成する。なおここでは、Z0<Z2<Z<Z1<Z3とする。
距離抽出部B2は、第1の距離情報(d1)と前記第2の距離情報(d2)とに基づいて、撮像位置から測定対象20までの距離Zを抽出する。すなわち距離抽出部B2は、基線長BL1,BL2の相違を利用して、第1及び第2の距離情報から、測定対象20までの距離Zに関する情報を抽出する。
距離抽出部B2は、第1の距離情報から抽出される第1の距離範囲(Z0≦Z≦Z1)と、第2の距離情報から抽出される第2の距離範囲(Z2<Z<Z3)とのうち、基線長BL1と基線長BL2が異なるため、相互に重複する距離範囲(Z2<Z<Z1)から測定対象20までの距離Zを抽出する。本例では、この処理をベースラインキャリブレーションと称する。
本例では、基線長(ベースライン)が相互に異なる3台のカメラからの視点画像を用いて測定対象20までの距離Zを算出したが、4台以上のカメラを用いることで距離Zの検出精度をより一層高めることができる。本実施形態によれば、一つのベースラインから算出した結果よりも測定対象20の距離精度を向上させることができる。
複数台のカメラを用いた距離算出フローの一例を図12に示す。本例では、第1の視差画像群と、第2の視差画像群と、第N(Nは3以上の自然数)の視差画像群に基づく測定対象20までの距離情報の抽出処理(ステップ11,12,13)がそれぞれ並列的に実行される例を示す。次いで、これらの処理で得られた複数の距離情報を統合するベースラインキャリブレーション処理が実行される(ステップ14)。
ベースラインキャリブレーションにおいては、適宜の演算手法が採用されてもよい。例えば、複数の視差画像群各々で抽出された測定対象20に関する距離範囲の平均から距離Zが求められてもよい。あるいは、抽出された複数の距離範囲のうち所定の距離情報について重み付けが付加されてもよい。
(基線長の測定方法)
次に、基線長の測定方法について説明する。基線長の測定には、例えば図13に示すように正確に視差(ディスパリティ)を算出可能なテクスチャを有する測定対象30が用いられる。この測定対象30が撮像装置1から既知に位置に配置された後、複数の視点画像についてディスパリティ値が算出される。
視差の測定には、算出されたディスパリティ値を上記(1)〜(8)式に代入することにより、基線長(図8の「v」に相当)を算出することができる。また図14に示すように、撮像装置1から測定対象30までの距離をZx,Zx1,Zx2と順次変化し、ディスパリティ値の算出を繰り返すことにより、より正確に基線長を算出することができる。このようにして得られた基線長は、記憶部149に記憶され、ベースラインキャリブレーション処理に用いられる。
視差の異なる複数の視差画像群(あるいは基線長の異なる複数のカメラ群)の選択方法は、上記のように、カメラCA1及びカメラCA2で取得される第1の視差画像群と、カメラCA2及びカメラCA3で取得される第2の視差画像群との組み合わせに限られない。例えば、カメラCA1及びカメラCA2で取得される第1の視差画像群と、カメラCA1とカメラCA3とで取得される第2の視差画像群との組み合わせであってもよい。
マイクロレンズアレイ12は、典型的には、個々のマイクロレンズが2軸方向に等間隔で配列されるように設計されるが、実際には、金型の設計公差等により微小ながらも個々のマイクロレンズは異なる基線長を有する。このため、相互に隣接する2個のマイクロレンズで取得された視差画像を距離情報の生成に有効に利用することが可能である。
また、マイクロレンズアレイ12は、撮像素子13の受光面と平行に配置されるように設計されるが、実際には、アライメントずれが生じるため、微小ながらも個々のマイクロレンズは異なる基線長を有することになる。このような場合においても当該ずれ量を距離情報の生成に有効に利用することができる。
以上のように本実施形態によれば、測定対象までの距離をより正確に算出することができるため、任意の焦点や視点からの観察画像をより高精度に再構築することができる。また、測定対象の奥行き(Z軸)方向の動き及びその移動量についても高精度に求めることができるため、撮像装置1をジェスチャ入力等のようなユーザインターフェースとして活用することも可能となる。
以上、本技術の実施形態について説明したが、本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
例えば以上の実施形態では、マイクロレンズアレイ12を備えた撮像装置1について説明したが、複数台のカメラユニットを2次元的に配列した撮像装置にも本技術は適用可能である。このような構成によっても、測定対象に関する複数の視点画像を同時に取得することが可能である。
また、マイクロレンズアレイ12に代えて、液晶レンズアレイ、液体レンズアレイ、回折レンズアレイ等の光線を振り分けることが可能な光学素子が用いられてもよい。
また以上の実施形態では、画像処理部14を撮像装置に組み込んだ例を説明したが、これに限られず、画像処理部をPC(Personal Computer)端末等の情報処理装置で構成してもよい。この場合、多視点カメラで取得した複数の視点画像データを有線又は無線で受信することにより、上述したような手法で測定対象の距離情報が算出される。
なお、本技術は以下のような構成も採ることができる。
(1)第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報と、前記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第2の距離情報とを生成する距離情報生成部と、
前記第1及び第2の距離情報に基づいて、撮像位置から前記測定対象までの距離を抽出する距離抽出部と
を具備する画像処理装置。
(2)上記(1)に記載の画像処理装置であって、
前記距離抽出部は、前記第1の距離情報から抽出される第1の距離範囲と、前記第2の距離情報から抽出される第2の距離範囲とのうち、相互に重複する距離範囲から前記測定対象までの距離を抽出する
画像処理装置。
(3)上記(1)又は(2)に記載の画像処理装置であって、
前記第1及び第2の基線長を記憶する記憶部をさらに具備する
画像処理装置。
(4)上記(1)から(3)のいずれか1つに記載の画像処理装置であって、
前記距離情報生成部は、前記第1及び第2の基線長とは異なる第3の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第3の距離情報をさらに生成し、
前記距離抽出部は、前記第1、第2及び第3の距離情報に基づいて、撮像位置から前記測定対象までの距離を抽出する
画像処理装置。
(5)一軸方向に配列された複数のカメラを有する撮像部と、
前記複数のカメラのうち第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報と、前記複数のカメラのうち前記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第2の距離情報とを生成する距離情報生成部と、
前記第1及び第2の距離情報に基づいて、撮像位置から前記測定対象までの距離を抽出する距離抽出部と
を具備する撮像装置。
(6)上記(5)に記載の撮像装置であって、
前記撮像部は、
開口絞りを有する撮像レンズと、
受光した光に基づいて撮像データを取得する撮像素子と、
前記撮影レンズと前記撮像素子との間に、前記撮像素子の一の領域内の複数の画素に対応して設けられた複数のマイクロレンズとを有する
撮像装置。
(7)第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報を生成し、
前記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第2の距離情報を生成し、
前記第1及び第2の距離情報に基づいて、撮像位置から前記測定対象までの距離を抽出する
画像処理方法。
1…撮像装置
2…撮像対象物
11…撮影レンズ
12…マイクロレンズアレイ
13…撮像素子
14…画像処理部
20…測定対象
143…距離情報取得部
143B…距離情報算出部
149…記憶部
B1…距離情報生成部
B2…距離抽出部

Claims (12)

  1. 第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報から抽出される第1の距離範囲と、前記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第2の距離情報から抽出される第2の距離範囲と、に対して重複する距離範囲から、撮像位置から前記測定対象までの距離を抽出する距離抽出部
    を具備する画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記第1の距離情報と前記第2の距離情報とを生成する距離情報生成部をさらに具備する
    画像処理装置。
  3. 請求項1に記載の画像処理装置であって、
    前記第1及び第2の基線長を記憶する記憶部をさらに具備する
    画像処理装置。
  4. 請求項1に記載の画像処理装置であって、
    前記距離抽出部は、前記第1の距離範囲と、前記第2の距離範囲と、前記第1及び第2の基線長とは異なる第3の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第3の距離情報から抽出される第3の距離範囲と、に対して重複する距離範囲から、撮像位置から前記測定対象までの距離を抽出する
    画像処理装置。
  5. 請求項1に記載の画像処理装置であって、
    前記第1の基線長を有する複数のカメラで取得された画像間の位相差と、前記第2の基線長を有する複数のカメラで取得された画像間の位相差とを検出する位相差検出部をさらに具備する
    画像処理装置。
  6. 第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報から第1の距離範囲を抽出し、
    前記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第2の距離情報から第2の距離範囲を抽出し、
    前記第1の距離範囲と前記第2の距離範囲とに対して重複する距離範囲から、撮像位置から前記測定対象までの距離を抽出する
    画像処理方法。
  7. 画像処理装置に、
    第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報から第1の距離範囲を抽出するステップと、
    前記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第2の距離情報から第2の距離範囲を抽出するステップと、
    前記第1の距離範囲と前記第2の距離範囲とに対して重複する距離範囲から、撮像位置から前記測定対象までの距離を抽出するステップと
    を実行させるプログラム。
  8. 一軸方向に配列された複数のカメラを有する撮像部と、
    前記複数のカメラのうち第1の基線長を有する複数のカメラで取得された画像間の位相差に基づいた測定対象に関する第1の距離情報から抽出される第1の距離範囲と、前記第1の基線長とは異なる第2の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第2の距離情報から抽出される第2の距離範囲と、に対して重複する距離範囲から、撮像位置から前記測定対象までの距離を抽出する距離抽出部と
    を具備する撮像装置。
  9. 請求項8に記載の撮像装置であって、
    前記第1の距離情報と前記第2の距離情報とを生成する距離情報生成部をさらに具備する
    撮像装置。
  10. 請求項8に記載の撮像装置であって、
    前記距離抽出部は、前記第1の距離範囲と、前記第2の距離範囲と、前記第1及び第2の基線長とは異なる第3の基線長を有する複数のカメラで取得された画像間の位相差に基づいた前記測定対象に関する第3の距離情報から抽出される第3の距離範囲と、に対して重複する距離範囲から、撮像位置から前記測定対象までの距離を抽出する
    撮像装置。
  11. 請求項に記載の撮像装置であって、
    前記撮像部は、
    開口絞りを有する撮像レンズと、
    受光した光に基づいて撮像データを取得する撮像素子と、
    前記撮像レンズと前記撮像素子との間に、前記撮像素子の一の領域内の複数の画素に対応して設けられた複数のマイクロレンズとを有する
    撮像装置。
  12. 請求項8に記載の撮像装置であって、
    前記複数のカメラは、前記一軸方向に順に配列された第1、第2及び第3のカメラを含み、
    前記第1の基線長は、前記第1のカメラと前記第2のカメラとの光軸間の距離であり、
    前記第2の基線長は、前記第1又は第2のカメラと前記第3のカメラとの光軸間の距離である
    撮像装置。
JP2012145036A 2012-06-28 2012-06-28 画像処理装置、撮像装置、画像処理方法およびプログラム Active JP5929553B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012145036A JP5929553B2 (ja) 2012-06-28 2012-06-28 画像処理装置、撮像装置、画像処理方法およびプログラム
TW102122326A TW201403031A (zh) 2012-06-28 2013-06-21 影像處理裝置、成像裝置及影像處理方法
PCT/JP2013/003994 WO2014002492A1 (en) 2012-06-28 2013-06-26 Image processing apparatus, imaging apparatus, and image processing method
US14/408,056 US9715734B2 (en) 2012-06-28 2013-06-26 Image processing apparatus, imaging apparatus, and image processing method
CN201380032678.1A CN104380342A (zh) 2012-06-28 2013-06-26 图像处理设备、成像设备以及图像处理方法
US15/430,702 US10043290B2 (en) 2012-06-28 2017-02-13 Image processing to enhance distance calculation accuracy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012145036A JP5929553B2 (ja) 2012-06-28 2012-06-28 画像処理装置、撮像装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2014011526A JP2014011526A (ja) 2014-01-20
JP5929553B2 true JP5929553B2 (ja) 2016-06-08

Family

ID=48783314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012145036A Active JP5929553B2 (ja) 2012-06-28 2012-06-28 画像処理装置、撮像装置、画像処理方法およびプログラム

Country Status (5)

Country Link
US (2) US9715734B2 (ja)
JP (1) JP5929553B2 (ja)
CN (1) CN104380342A (ja)
TW (1) TW201403031A (ja)
WO (1) WO2014002492A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9578259B2 (en) * 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9807372B2 (en) 2014-02-12 2017-10-31 Htc Corporation Focused image generation single depth information from multiple images from multiple sensors
WO2015125744A1 (ja) * 2014-02-18 2015-08-27 コニカミノルタ株式会社 測距装置および測距方法
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
WO2015137635A1 (en) * 2014-03-13 2015-09-17 Samsung Electronics Co., Ltd. Image pickup apparatus and method for generating image having depth information
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的***和方法
US20160150136A1 (en) * 2014-11-24 2016-05-26 Himax Technologies Limited Image sensing device with cover plate having optical pattern thereon
TWI509216B (zh) * 2014-12-19 2015-11-21 用以取得場景中的深度資訊之裝置與方法
TWI539139B (zh) 2015-04-27 2016-06-21 原相科技股份有限公司 物件距離計算方法以及物件距離計算裝置
CN104822026B (zh) * 2015-04-30 2018-10-09 武汉大学 用于核电站安全壳缺陷检测的相机姿态控制方法及装置
KR20170098089A (ko) * 2016-02-19 2017-08-29 삼성전자주식회사 전자 장치 및 그의 동작 방법
CN110431833A (zh) * 2017-03-08 2019-11-08 詹姆斯·皮特曼 移动终端
GB2566462A (en) * 2017-09-13 2019-03-20 pitman James Mobile terminal
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
JP7329143B2 (ja) 2019-11-30 2023-08-17 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的***和方法
KR20210108082A (ko) * 2020-02-25 2021-09-02 삼성전자주식회사 위상 차를 이용하는 라이브니스 검출 방법 및 장치
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
CN112129262B (zh) * 2020-09-01 2023-01-06 珠海一微半导体股份有限公司 一种多摄像头组的视觉测距方法及视觉导航芯片
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
JP5311016B2 (ja) * 2008-12-10 2013-10-09 コニカミノルタ株式会社 ステレオカメラユニット及びステレオマッチング方法
US8823775B2 (en) * 2009-04-30 2014-09-02 Board Of Regents, The University Of Texas System Body surface imaging
JP5387856B2 (ja) * 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP5776173B2 (ja) * 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置
WO2012092246A2 (en) * 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation

Also Published As

Publication number Publication date
US10043290B2 (en) 2018-08-07
CN104380342A (zh) 2015-02-25
US20170221228A1 (en) 2017-08-03
TW201403031A (zh) 2014-01-16
JP2014011526A (ja) 2014-01-20
US9715734B2 (en) 2017-07-25
US20150104076A1 (en) 2015-04-16
WO2014002492A1 (en) 2014-01-03

Similar Documents

Publication Publication Date Title
JP5929553B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US11272161B2 (en) System and methods for calibration of an array camera
US9741118B2 (en) System and methods for calibration of an array camera
EP2160018B1 (en) Image pickup apparatus
JP6509914B2 (ja) 深度推定のための画像センサ
US10027908B2 (en) Image sensor unit and imaging apparatus
US9633441B2 (en) Systems and methods for obtaining image depth information
JP2011171858A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP2012215785A (ja) 固体撮像素子及び撮像装置
US20150268392A1 (en) Filter-array-equipped microlens and solid-state imaging device
JP6353233B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP5673764B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
US20150077585A1 (en) Microlens array for solid-state image sensing device, solid-state image sensing device, imaging device, and lens unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R151 Written notification of patent or utility model registration

Ref document number: 5929553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250