JP2013219736A - 画像処理装置、撮像装置および画像処理プログラム - Google Patents

画像処理装置、撮像装置および画像処理プログラム Download PDF

Info

Publication number
JP2013219736A
JP2013219736A JP2012180648A JP2012180648A JP2013219736A JP 2013219736 A JP2013219736 A JP 2013219736A JP 2012180648 A JP2012180648 A JP 2012180648A JP 2012180648 A JP2012180648 A JP 2012180648A JP 2013219736 A JP2013219736 A JP 2013219736A
Authority
JP
Japan
Prior art keywords
color
pixel value
viewpoint
pixel
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012180648A
Other languages
English (en)
Other versions
JP6131545B2 (ja
JP2013219736A5 (ja
Inventor
Kenichi Ishiga
健一 石賀
Kiyoshige Shibazaki
清茂 芝崎
Muneki Hamashima
宗樹 浜島
Susumu Mori
晋 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012180648A priority Critical patent/JP6131545B2/ja
Priority to CN201380014451.4A priority patent/CN104185984B/zh
Priority to PCT/JP2013/001745 priority patent/WO2013136808A1/ja
Publication of JP2013219736A publication Critical patent/JP2013219736A/ja
Priority to US14/485,253 priority patent/US9727985B2/en
Publication of JP2013219736A5 publication Critical patent/JP2013219736A5/ja
Application granted granted Critical
Publication of JP6131545B2 publication Critical patent/JP6131545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ステレオ撮像装置のそれぞれの撮影光学系に対応した出力画像をカラー画像として取得する必要があった。
【解決手段】被写体像のカラーを構成する特定色において、第1視点に対応する第1視点カラー画像データから対象画素位置における特定色の画素値を抽出し、第2視点および第3視点に対応する第2視点カラー画像データ及び第3視点カラー画像データからそれぞれのカラー画像データの第1色成分と第2色成分の画素値を抽出し、第2視点カラー画像データの新たに求める特定色の画素値を、第2視点の新たに求める特定色の画素値と第1視点カラー画像データの特定色の画素値との間の差が、第2視点カラー画像データの第1色成分の画素値と第3視点カラー画像データの第1色成分の画素値との間の差、及び第2視点カラー画像データの第2色成分の画素値と第3視点カラー画像データの第2色成分の画素値との間の差との和に対して相関を保つように算出する。
【選択図】図15

Description

本発明は、画像処理装置、撮像装置および画像処理プログラムに関する。
2つの撮影光学系を用いて、右目用の画像と左目用の画像とから成るステレオ画像を取得するステレオ撮像装置が知られている。このようなステレオ撮像装置は、2つの撮像光学系を一定の間隔で配置することにより、同一の被写体を撮像して得られる2つの画像に視差を生じさせる。
[先行技術文献]
[特許文献]
[特許文献1] 特開平8−47001号公報
右目用の画像および左目用の画像をそれぞれカラー画像として取得するには、ステレオ撮像装置のそれぞれの撮影光学系に対応した出力画像を、カラー画像として取得する必要があった。
本発明の第1の態様における画像処理装置は、被写体像のカラーを構成する複数の色成分の一つであるX成分色において、被写体像を捉える複数の視点の一つである第1視点に対応する1X画素値を有するカラー画像データから、対象画素位置における1X画素値を抽出し、複数の色成分の一つであるA成分色において、第1視点とは異なる第2視点および第3視点に対応する2A画素値および3A画素値を有するカラー画像データから、対象画素位置における2A画素値および3A画素値を抽出し、複数の色成分の一つであってA成分色とは異なるB成分色において、第2視点および第3視点に対応する2B画素値および3B画素値を有するカラー画像データから、対象画素位置における2B画素値および3B画素値を抽出する画素値抽出部と、X成分色に対する第2視点の2X画素値または第3視点の3X画素値と、1X画素値との差が、2A画素値と3A画素値との差に、2B画素値と3B画素値との差を加えた値に対して相関を保つように2X画素値および3X画素値の少なくともいずれかを算出する算出部とを備える。
本発明の第2の態様における撮像装置は、被写体像を撮像する撮像素子と、上記の画像処理装置とを備える撮像装置であって、画素値抽出部は、撮像素子が出力する第1視点に対応する1X画素値を有するカラー画像データから第1画素値を抽出し、撮像素子が出力する第2視点および第3視点に対応する2A画素値および3A画素値を有するカラー画像データから2A画素値および3A画素値を抽出する。
本発明の第3の態様における画像処理プログラムは、被写体像のカラーを構成する複数の色成分の一つであるX成分色において、被写体像を捉える複数の視点の一つである第1視点に対応する1X画素値を有するカラー画像データから、対象画素位置における1X画素値を抽出する第1抽出ステップと、複数の色成分の一つであるA成分色において、第1視点とは異なる第2視点および第3視点に対応する2A画素値および3A画素値を有するカラー画像データから、対象画素位置における2A画素値および3A画素値を抽出し、複数の色成分の一つであってA成分色とは異なるB成分色において、第2視点および第3視点に対応する2B画素値および3B画素値を有するカラー画像データから、対象画素位置における2B画素値および3B画素値を抽出する第2抽出ステップと、X成分色に対する第2視点の2X画素値または第3視点の3X画素値と、1X画素値との差が、2A画素値と3A画素値との差に、2B画素値と3B画素値との差を加えた値に対して相関を保つように2X画素値および3X画素値の少なくともいずれかを算出する算出ステップとをコンピュータに実行させる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本発明の実施形態に係るデジタルカメラの構成を説明する図である。 本発明の実施形態に係る撮像素子の断面の構成を説明する図である。 撮像素子の一部を拡大した様子を表す概略図である。 視差画素と被写体の関係を説明する概念図である。 視差画像を生成する処理を説明する概念図である。 ベイヤー配列を説明する図である。 第1実施例における繰り返しパターン110の配列を説明する図である。 第1実施例における視差画素の画素間隔の関係を説明する図である。 2D画像データとしてのGプレーンデータ、Rプレーンデータ、Bプレーンデータの生成処理の例を説明する図である。 左視差画像データとしてのGLtプレーンデータ、BLtプレーンデータ、RLtプレーンデータの生成処理の例を説明する図である。 右視差画像データとしてのGRtプレーンデータ、BRtプレーンデータ、RRtプレーンデータの生成処理の例を説明する図である。 デフォーカスの概念を説明する図である。 視差画素デフォーカスの概念を説明する図である。 視差なし画素と視差画素の光強度分布を示す図である。 高精細な2D画像データから、高精細なカラー視差プレーンデータを生成する生成処理を説明する概念図である。 視差カラー画像データを生成するまでの処理フローである。 開口形状を説明する図である。 繰り返しパターン110のバリエーションの一例を示す図である。 補間処理を説明する図である。 デフォーカスの概念を説明する図である。 視差画素デフォーカスの概念を説明する図である。 一例としての実空間の配列とk空間を示す図である。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
画像処理装置および撮像装置の一形態である本実施形態に係るデジタルカメラは、1つのシーンについて複数の視点数の画像を一度の撮影により生成できるように構成されている。互いに視点の異なるそれぞれの画像を視差画像と呼ぶ。
<第1実施形態>
図1は、本発明の実施形態に係るデジタルカメラ10の構成を説明する図である。デジタルカメラ10は、撮影光学系としての撮影レンズ20を備え、光軸21に沿って入射する被写体光束を撮像素子100へ導く。撮影レンズ20は、デジタルカメラ10に対して着脱できる交換式レンズであっても構わない。デジタルカメラ10は、撮像素子100、制御部201、A/D変換回路202、メモリ203、駆動部204、画像処理部205、メモリカードIF207、操作部208、表示部209、LCD駆動回路210およびAFセンサ211を備える。
なお、図示するように、撮像素子100へ向かう光軸21に平行な方向をZ軸プラス方向と定め、Z軸と直交する平面において紙面手前へ向かう方向をX軸プラス方向、紙面上方向をY軸プラス方向と定める。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。
撮影レンズ20は、複数の光学レンズ群から構成され、シーンからの被写体光束をその焦点面近傍に結像させる。なお、図1では撮影レンズ20を説明の都合上、瞳近傍に配置された仮想的な1枚のレンズで代表して表している。撮像素子100は、撮影レンズ20の焦点面近傍に配置されている。撮像素子100は、二次元的に複数の光電変換素子が配列された、例えばCCD、CMOSセンサ等のイメージセンサである。撮像素子100は、駆動部204によりタイミング制御されて、受光面上に結像された被写体像を画像信号に変換してA/D変換回路202へ出力する。
A/D変換回路202は、撮像素子100が出力する画像信号をデジタル画像信号に変換してメモリ203へ出力する。画像処理部205は、メモリ203をワークスペースとして種々の画像処理を施し、画像データを生成する。特に、画像処理部205は、2Dカラー画像データおよび低解像度の視差カラー画像データの対象画素位置から画素値を抽出する画素値抽出部231、抽出した画素値を用いて対象画素位置における高精細な視差カラー画像データとしての画素値を算出する算出部233を有する。それぞれの処理の詳細については、後述する。
画像処理部205は、他にも選択された画像フォーマットに従って画像データを調整するなどの画像処理一般の機能も担う。生成された画像データは、LCD駆動回路210により表示信号に変換され、表示部209に表示される。また、メモリカードIF207に装着されているメモリカード220に記録される。
AFセンサ211は、被写体空間に対して複数の測距点が設定された位相差センサであり、それぞれの測距点において被写体像のデフォーカス量を検出する。一連の撮影シーケンスは、操作部208がユーザの操作を受け付けて、制御部201へ操作信号を出力することにより開始される。撮影シーケンスに付随するAF,AE等の各種動作は、制御部201に制御されて実行される。例えば、制御部201は、AFセンサ211の検出信号を解析して、撮影レンズ20の一部を構成するフォーカスレンズを移動させる合焦制御を実行する。
次に、撮像素子100の構成について詳細に説明する。図2は、本発明の実施形態に係る撮像素子100の断面を表す概略図である。
撮像素子100は、被写体側から順に、マイクロレンズ101、カラーフィルタ102、開口マスク103、配線層105および光電変換素子108が配列されて構成されている。光電変換素子108は、入射する光を電気信号に変換するフォトダイオードにより構成される。光電変換素子108は、基板109の表面に二次元的に複数配列されている。
光電変換素子108により変換された画像信号、光電変換素子108を制御する制御信号等は、配線層105に設けられた配線106を介して送受信される。また、各光電変換素子108に一対一に対応して設けられた開口部104を有する開口マスク103が、配線層に接して設けられている。開口部104は、後述するように、対応する光電変換素子108ごとにシフトされて、相対的な位置が厳密に定められている。詳しくは後述するが、この開口部104を備える開口マスク103の作用により、光電変換素子108が受光する被写体光束に視差が生じる。
一方、視差を生じさせない光電変換素子108上には、開口マスク103が存在しない。別言すれば、対応する光電変換素子108に対して入射する被写体光束を制限しない、つまり入射光束の全体を通過させる開口部104を有する開口マスク103が設けられているとも言える。視差を生じさせることはないが、実質的には配線106によって形成される開口107が入射する被写体光束を規定するので、配線106を、視差を生じさせない入射光束の全体を通過させる開口マスクと捉えることもできる。開口マスク103は、各光電変換素子108に対応して別個独立に配列しても良いし、カラーフィルタ102の製造プロセスと同様に複数の光電変換素子108に対して一括して形成しても良い。
カラーフィルタ102は、開口マスク103上に設けられている。カラーフィルタ102は、各光電変換素子108に対して特定の波長帯域を透過させるように着色された、光電変換素子108のそれぞれに一対一に対応して設けられるフィルタである。カラー画像を出力するには、互いに異なる少なくとも2種類のカラーフィルタが配列されれば良いが、より高画質のカラー画像を取得するには3種類以上のカラーフィルタを配列すると良い。例えば赤色波長帯を透過させる赤フィルタ(Rフィルタ)、緑色波長帯を透過させる緑フィルタ(Gフィルタ)、および青色波長帯を透過させる青フィルタ(Bフィルタ)を格子状に配列すると良い。具体的な配列については後述する。
マイクロレンズ101は、カラーフィルタ102上に設けられている。マイクロレンズ101は、入射する被写体光束のより多くを光電変換素子108へ導くための集光レンズである。マイクロレンズ101は、光電変換素子108のそれぞれに一対一に対応して設けられている。マイクロレンズ101は、撮影レンズ20の瞳中心と光電変換素子108の相対的な位置関係を考慮して、より多くの被写体光束が光電変換素子108に導かれるようにその光軸がシフトされていることが好ましい。さらには、開口マスク103の開口部104の位置と共に、後述の特定の被写体光束がより多く入射するように配置位置が調整されても良い。
このように、各々の光電変換素子108に対応して一対一に設けられる開口マスク103、カラーフィルタ102およびマイクロレンズ101の一単位を画素と呼ぶ。特に、視差を生じさせる開口マスク103が設けられた画素を視差画素、視差を生じさせる開口マスク103が設けられていない画素を視差なし画素と呼ぶ。例えば、撮像素子100の有効画素領域が24mm×16mm程度の場合、画素数は1200万程度に及ぶ。
なお、集光効率、光電変換効率が良いイメージセンサの場合は、マイクロレンズ101を設けなくても良い。また、裏面照射型イメージセンサの場合は、配線層105が光電変換素子108とは反対側に設けられる。また、開口マスク103の開口部104に色成分を持たせれば、カラーフィルタ102と開口マスク103を一体的に形成することもできる。
また、本実施形態においては、開口マスク103と配線106を別体として設けているが、視差画素における開口マスク103の機能を配線106が担っても良い。すなわち、規定される開口形状を配線106により形成し、当該開口形状により入射光束を制限して特定の部分光束のみを光電変換素子108へ導く。この場合、開口形状を形成する配線106は、配線層105のうち最も光電変換素子108側であることが好ましい。
また、開口マスク103は、光電変換素子108に重ねて設けられる透過阻止膜によって形成されても良い。この場合、開口マスク103は、例えば、SiN膜とSiO膜を順次積層して透過阻止膜とし、開口部104に相当する領域をエッチングで除去して形成される。
次に、開口マスク103の開口部104と、生じる視差の関係について説明する。図3は、撮像素子100の一部を拡大した様子を表す概略図である。ここでは、説明を簡単にすべく、カラーフィルタ102の配色については後に言及を再開するまで考慮しない。カラーフィルタ102の配色に言及しない以下の説明においては、同色のカラーフィルタ102を有する視差画素のみを寄せ集めたイメージセンサであると捉えることができる。したがって、以下に説明する繰り返しパターンは、同色のカラーフィルタ102における隣接画素として考えても良い。
図3に示すように、開口マスク103の開口部104は、それぞれの画素に対して相対的にシフトして設けられている。そして、隣接する画素同士においても、それぞれの開口部104は互いに変位した位置に設けられている。
図の例においては、それぞれの画素に対する開口部104の位置として、互いに左右方向にシフトした6種類の開口マスク103が用意されている。そして、撮像素子100の全体は、紙面左側から右側へ徐々にシフトする開口マスク103をそれぞれ有する6つの視差画素を一組とする光電変換素子群が、二次元的かつ周期的に配列されている。
図4は、視差画素と被写体の関係を説明する概念図である。特に図4(a)は撮像素子100のうち撮影光軸21と直交する中心に配列されている繰り返しパターン110tの光電変換素子群を示し、図4(b)は周辺部分に配列されている繰り返しパターン110uの光電変換素子群を模式的に示している。図4(a)、(b)における被写体30は、撮影レンズ20に対して合焦位置に存在する。図4(c)は、図4(a)に対応して、撮影レンズ20に対して非合焦位置に存在する被写体31を捉えた場合の関係を模式的に示している。
まず、撮影レンズ20が合焦状態に存在する被写体30を捉えている場合の、視差画素と被写体の関係を説明する。被写体光束は、撮影レンズ20の瞳を通過して撮像素子100へ導かれるが、被写体光束が通過する全体の断面領域に対して、6つの部分領域Pa〜Pfが規定されている。そして、例えば繰り返しパターン110t、110uを構成する光電変換素子群の紙面左端の画素は、拡大図からもわかるように、部分領域Pfから射出された被写体光束のみが光電変換素子108へ到達するように、開口マスク103の開口部104fの位置が定められている。同様に、右端の画素に向かって、部分領域Peに対応して開口部104eの位置が、部分領域Pdに対応して開口部104dの位置が、部分領域Pcに対応して開口部104cの位置が、部分領域Pbに対応して開口部104bの位置が、部分領域Paに対応して開口部104aの位置がそれぞれ定められている。
別言すれば、例えば部分領域Pfと左端画素の相対的な位置関係によって定義される、部分領域Pfから射出される被写体光束(部分光束)の主光線Rfの傾きにより、開口部104fの位置が定められていると言っても良い。そして、合焦位置に存在する被写体30からの被写体光束を、開口部104fを介して光電変換素子108が受光する場合、その被写体光束は、点線で図示するように、光電変換素子108上で結像する。同様に、右端の画素に向かって、主光線Reの傾きにより開口部104eの位置が、主光線Rdの傾きにより開口部104dの位置が、主光線Rcの傾きにより開口部104cの位置が、主光線Rbの傾きにより開口部104bの位置が、主光線Raの傾きにより開口部104aの位置がそれぞれ定められていると言える。
図4(a)で示すように、合焦位置に存在する被写体30のうち、光軸21と交差する被写体30上の微小領域Otから放射される光束は、撮影レンズ20の瞳を通過して、繰り返しパターン110tを構成する光電変換素子群の各画素に到達する。すなわち、繰り返しパターン110tを構成する光電変換素子群の各画素は、それぞれ6つの部分領域Pa〜Pfを介して、一つの微小領域Otから放射される光束を受光している。微小領域Otは、繰り返しパターン110tを構成する光電変換素子群の各画素の位置ずれに対応する分だけの広がりを有するが、実質的には、ほぼ同一の物点と近似することができる。同様に、図4(b)で示すように、合焦位置に存在する被写体30のうち、光軸21から離間した被写体30上の微小領域Ouから放射される光束は、撮影レンズ20の瞳を通過して、繰り返しパターン110uを構成する光電変換素子群の各画素に到達する。すなわち、繰り返しパターン110uを構成する光電変換素子群の各画素は、それぞれ6つの部分領域Pa〜Pfを介して、一つの微小領域Ouから放射される光束を受光している。微小領域Ouも、微小領域Otと同様に、繰り返しパターン110uを構成する光電変換素子群の各画素の位置ずれに対応する分だけの広がりを有するが、実質的には、ほぼ同一の物点と近似することができる。
つまり、被写体30が合焦位置に存在する限りは、撮像素子100上における繰り返しパターン110の位置に応じて、光電変換素子群が捉える微小領域が異なり、かつ、光電変換素子群を構成する各画素は互いに異なる部分領域を介して同一の微小領域を捉えている。そして、それぞれの繰り返しパターン110において、対応する画素同士は同じ部分領域からの被写体光束を受光している。つまり、図においては、例えば繰り返しパターン110t、110uのそれぞれの左端の画素は、同じ部分領域Pfからの部分光束を受光している。
撮影光軸21と直交する中心に配列されている繰り返しパターン110tにおいて左端画素が部分領域Pfからの被写体光束を受光する開口部104fの位置と、周辺部分に配列されている繰り返しパターン110uにおいて左端画素が部分領域Pfからの被写体光束を受光する開口部104fの位置は厳密には異なる。しかしながら、機能的な観点からは、部分領域Pfからの被写体光束を受光するための開口マスクという点で、これらを同一種類の開口マスクとして扱うことができる。したがって、図4の例では、撮像素子100上に配列される視差画素のそれぞれは、6種類の開口マスクの一つを備えると言える。
次に、撮影レンズ20が非合焦状態に存在する被写体31を捉えている場合の、視差画素と被写体の関係を説明する。この場合も、非合焦位置に存在する被写体31からの被写体光束は、撮影レンズ20の瞳の6つの部分領域Pa〜Pfを通過して、撮像素子100へ到達する。ただし、非合焦位置に存在する被写体31からの被写体光束は、光電変換素子108上ではなく他の位置で結像する。例えば、図4(c)に示すように、被写体31が被写体30よりも撮像素子100に対して遠い位置に存在すると、被写体光束は、光電変換素子108よりも被写体31側で結像する。逆に、被写体31が被写体30よりも撮像素子100に対して近い位置に存在すると、被写体光束は、光電変換素子108よりも被写体31とは反対側で結像する。
したがって、非合焦位置に存在する被写体31のうち、微小領域Ot'から放射される被写体光束は、6つの部分領域Pa〜Pfのいずれを通過するかにより、異なる組の繰り返しパターン110における対応画素に到達する。例えば、部分領域Pdを通過した被写体光束は、図4(c)の拡大図に示すように、主光線Rd'として、繰り返しパターン110t'に含まれる、開口部104dを有する光電変換素子108へ入射する。そして、微小領域Ot'から放射された被写体光束であっても、他の部分領域を通過した被写体光束は、繰り返しパターン110t'に含まれる光電変換素子108へは入射せず、他の繰り返しパターンにおける対応する開口部を有する光電変換素子108へ入射する。換言すると、繰り返しパターン110t'を構成する各光電変換素子108へ到達する被写体光束は、被写体31の互いに異なる微小領域から放射された被写体光束である。すなわち、開口部104dに対応する108へは主光線をRd'とする被写体光束が入射し、他の開口部に対応する光電変換素子108へは主光線をRa、Rb、Rc、Re、Rfとする被写体光束が入射するが、これらの被写体光束は、被写体31の互いに異なる微小領域から放射された被写体光束である。このような関係は、図4(b)における周辺部分に配列されている繰り返しパターン110uにおいても同様である。
すると、撮像素子100の全体で見た場合、例えば、開口部104aに対応する光電変換素子108で捉えた被写体像Aと、開口部104dに対応する光電変換素子108で捉えた被写体像Dは、合焦位置に存在する被写体に対する像であれば互いにずれが無く、非合焦位置に存在する被写体に対する像であればずれが生じることになる。そして、そのずれは、非合焦位置に存在する被写体が合焦位置に対してどちら側にどれだけずれているかにより、また、部分領域Paと部分領域Pdの距離により、方向と量が定まる。つまり、被写体像Aと被写体像Dは、互いに視差像となる。この関係は、他の開口部に対しても同様であるので、開口部104aから104fに対応して、6つの視差像が形成されることになる。
したがって、このように構成されたそれぞれの繰り返しパターン110において、互いに対応する画素の出力を寄せ集めると、視差画像が得られる。つまり、6つの部分領域Pa〜Pfうちの特定の部分領域から射出された被写体光束を受光した画素の出力は、視差画像を形成する。
図5は、視差画像を生成する処理を説明する概念図である。図は、左列から順に、開口部104fに対応する視差画素の出力を集めて生成される視差画像データIm_fの生成の様子、開口部104eの出力による視差画像データIm_eの生成の様子、開口部104dの出力による視差画像データIm_dの生成の様子、開口部104cの出力による視差画像データIm_cの生成の様子、開口部104bの出力による視差画像データIm_bの生成の様子、開口部104aの出力による視差画像データIm_aの生成の様子を表す。まず開口部104fの出力による視差画像データIm_fの生成の様子について説明する。
6つの視差画素を一組とする光電変換素子群から成る繰り返しパターン110は、横一列に配列されている。したがって、開口部104fを有する視差画素は、視差なし画素を除いた仮想的な撮像素子100上において、左右方向に6画素おき、かつ、上下方向に連続して存在する。これら各画素は、上述のようにそれぞれ異なる微小領域からの被写体光束を受光している。したがって、これらの視差画素の出力を寄せ集めて配列すると、視差画像が得られる。
しかし、本実施形態における撮像素子100の各画素は正方画素であるので、単に寄せ集めただけでは、横方向の画素数が1/6に間引かれた結果となり、縦長の画像データが生成されてしまう。そこで、補間処理を施して横方向に6倍の画素数とすることにより、本来のアスペクト比の画像として視差画像データIm_fを生成する。ただし、そもそも補間処理前の視差画像データが横方向に1/6に間引かれた画像であるので、横方向の解像度は、縦方向の解像度よりも低下している。つまり、生成される視差画像データの数と、解像度の向上は相反関係にあると言える。なお、本実施形態に適用する具体的な補間処理については後述する。
同様にして、視差画像データIm_e〜視差画像データIm_aが得られる。すなわち、デジタルカメラ10は、横方向に視差を有する6視点の視差画像を生成することができる。
上述のように開口部の画素中心からのずれを6種類持たせたときに、それぞれの視差画素が瞳分割光学系として働き、6つの視点の視差画素を生み出す例を説明してきた。ここで主に述べたのは各々の視差画素がそれぞれ異なる視点の被写体像を結像し、異なる種類の視差画素の間では、視点の異なる像の間へ視差を生むということである。
視差画素による瞳分割光学系は単に視差を生み出すという事実だけでなく、視差が生み出されるのは合焦位置からずれた非合焦位置のボケた被写体像にのみ、その非合焦度に応じて視差を生み出すという重要な事実が存在する。
この様子を通常の視差なし画素と2視差(左視差、右視差)に場合の説明図を図20、図21(図12、13、14に対応)に示す。1つの光学系を通ってきた光は、右視差画素にとっては光学系の左側に仮想瞳があるような光学像を結像し、左視差画素にとっては光学系の右側に仮想瞳があるような光学像を結像する。したがって、ピント位置の被写体像の点像分布関数は鋭く結像し、どちらの仮想瞳を通っても同じように鋭い点像分布をもった視差のない被写体像を結像する。他方、ピント位置から前後にボケた被写***置の点像分布関数は、ピント位置から離れるに従ってボケ幅の大きい広がりを示すとともに結像の中心位置は左右に分離してゆき、視差が生まれる。この2つに分離した点像分布関数を加算合成した1つの点像分布関数は、視差なし画素に結像される点像分布関数に一致し、そのピーク位置は、仮想瞳によって2つに分離した光学像の点像分布関数の真ん中に位置する。
このボケの中にだけ視差が存在し、ボケ具合が大きくなるほど視差量が増大しているという重要な事実に着目し本実施形態では、高解像な2D画像と3D画像を同時に取得するための色・視差配列を入力した場合の例について説明する。
1.色・視差多重化モザイク画像データの入力
次に、カラーフィルタ102と視差画像について説明する。図6は、ベイヤー配列を説明する図である。図示するように、ベイヤー配列は、Gフィルタが左上(Gb)と右下(Gr)の2画素に、Rフィルタが左下の1画素に、Bフィルタが右上の1画素に割り当てられる配列である。
このようなカラーフィルタ102の配列に対して、視差画素と視差なし画素を、何色の画素にどのような周期で割り振っていくかにより、膨大な数の繰り返しパターン110が設定され得る。視差なし画素の出力を集めれば、通常の撮影画像と同じく視差のない撮影画像データを生成することができる。したがって、相対的に視差なし画素の割合を増やせば、解像度の高い2D画像を出力させることができる。この場合、視差画素は相対的に少ない割合となるので、複数の視差画像からなる3D画像としては画質が低下する。逆に、視差画素の割合を増やせば、3D画像としては画質が向上するが、視差なし画素は相対的に減少するので、解像度の低い2D画像が出力される。RGBのいずれの画素に対しても視差画素を割り振れば、3D画像でありながら、色再現性の良い高品質のカラー画像データとなる。
理想的には、2D画像であっても3D画像であっても、高解像度、高品質のカラー画像データが出力されることが望ましい。ところで、3D画像において観察者が視差を感じる画像領域は、図4、図12、図13、図14を用いて説明した視差の発生原理からも理解されるように、同一の被写体像が互いにずれる非合焦領域である。したがって、観察者が視差を感じる画像領域は、ピントの合っている主要被写体に対して高周波成分が少ないと言える。すると、3D画像を生成するに当たっては、視差が生じている領域において、それほど高解像でない画像データが存在すれば足りることになる。
ピントの合っている画像領域については2D画像データから切り出し、ピントの合っていない画像領域については3D画像データを切り出して、それぞれの視差画像データを合成により生成することができる。あるいは、詳しくは後述するが、高解像データである2D画像データを基礎とし、3D画像データの各画素における相対的な差を足し合わせて、高解像なそれぞれの視差画像データを生成することができる。このような画像処理を採用することを前提とすれば、撮像素子100においては、視差画素の数は、視差なし画素の数よりも少なくて良い。換言すれば、視差画素が相対的に少なくても、比較的解像度の高い3D画像を生成することができると言える。
この場合、3D画像をカラー画像として生成するには、互いに異なる少なくとも2種類のカラーフィルタが配列されれば良いが、本実施形態においては、図6を用いて説明したベイヤー配列のように、更なる高画質化のためにRGBの3種類のカラーフィルタを採用する。特に、視差画素の数が相対的に少ない本実施形態においては、視差画素は、それぞれの種類の開口部104に対して、RGBの3種類のカラーフィルタのいずれかが設けられたすべての組み合わせを含む。例えば、開口部104が中心よりも左側に偏心した視差Lt画素と、同じく右側に偏心した視差Rt画素を想定すると、視差Lt画素は、Rフィルタを備えた画素、Gフィルタを備えた画素、Bフィルタを備えた画素を含み、視差Rt画素は、Rフィルタを備えた画素、Gフィルタを備えた画素、Bフィルタを備えた画素を含む。すなわち撮像素子100は、6種類の視差画素を有する。このような撮像素子100から出力される画像データは、いわゆる立体視を実現する鮮やかなカラー視差画像データの基礎となる。なお、2種類の開口部に対して2種類のカラーフィルタを組み合わせる場合には、撮像素子100は、4種類の視差画素を有する。
図7は、第1実施例における繰り返しパターン110の配列を説明する図である。デジタルカメラ10の座標系は、X軸、Y軸、Z軸で定義したが、繰り返しパターン110内においては、左端かつ上端の画素を基準に右方向にx軸を、下方向にy軸を定義する。第1実施例における繰り返しパターン110は、4画素を基本単位とするベイヤー配列を、y軸方向に4つ、x軸方向に4つ含み、64画素から構成される。この繰り返しパターン110は、64画素から成る画素群を一組として、撮像素子100の有効画素領域を上下左右に周期的に配列されている。すなわち、撮像素子100は、図の太線で示す繰り返しパターン110を基本格子とする。なお、繰り返しパターン110内の画素をPxyで表す。例えば、左上画素はP11であり、右上画素はP81である。
第1実施例における視差画素は、開口部104が中心よりも左側に偏心した視差Lt画素と、同じく右側に偏心した視差Rt画素の2種類の開口マスク103のいずれかを有する。図に示すように、視差画素は以下のように配列されている。
11…視差Lt画素+Gフィルタ(=GLt
51…視差Rt画素+Gフィルタ(=GRt
32…視差Lt画素+Bフィルタ(=BLt
63…視差Rt画素+Rフィルタ(=RRt
15…視差Rt画素+Gフィルタ(=GRt
55…視差Lt画素+Gフィルタ(=GLt
76…視差Rt画素+Bフィルタ(=BRt
27…視差Lt画素+Rフィルタ(=RLt
他の画素は視差なし画素であり、視差無し画素+Rフィルタ(=R)、視差なし画素+Gフィルタ(=G)、視差無し画素+Bフィルタ(=B)のいずれかである。
このように、基本格子の中に開口部とカラーフィルタのすべての組み合わせによる視差画素を含み、かつ視差画素よりも多い視差なし画素の中にランダム性を有して配置されている配列が好ましい。特に、各カラーフィルタ別にカウントした場合でも、視差なし画素の方が視差画素よりも多いことが好ましい。第1実施例の場合、G=28個に対して、GLt+GRt=2+2=4個であり、R=14個に対して、RLt+RRt=2個、B=14個に対して、BLt+BRt=2個である。また、上記の通り、人間の視感特性を考慮して、Gフィルタを有する視差画素および視差なし画素は、他のカラーフィルタを有するそれぞれよりも多く配列されている。
いいかえると、視差画素に対してもR、G、B全てのカラー情報を備えることにより、より高度で正確な立体用の色分布構造を捉えようとしている。
そのRGB比率は、右視差画素についても、左視差画素についても視差なし画素についても全てBayer配列と同じR:G:B=1:2:1の構成をとる。更に視差なし画素が通常のBayer配列の空間分解能をできるだけ保つように視差画素を疎な密度でできるだけ相互に離して分布させる。すなわち、ある色成分の同じ右視差画素同士の間や同じ左視差画素同士へ間では等間隔に等方性を保って並べると共に、ある色成分の右視差画素と左視差画素との間の距離も最も離れるように等間隔に並べる。そして色成分を無視した場合の右視差画素同士の間の距離や色成分を無視した場合の左視差画素同士の間の距離ができるだけ離れるように配置して、視差情報を均一に取得するようにする。
なお、実施例1では視差なし画素と左視差画素と右視差画素の画素数比がN:Lt:Rt=14:1:1にあり、視差なし画素の空間解像度はBayer配列に極めて近い状態を保っている。更に、視差画素を互いに最も離れて配置したことにより、視差なし画素が隣接して同時に情報を失う心配がなくなり、ナイキスト周波数を含む高い周波数成分を解像する性能を保持する。
図8は、第1実施例における視差画素の画素間隔の関係を説明する図である。図においては、図7で示した繰り返しパターン110を9個(=3×3)並べて示す。
図示する通り、GLt画素のx軸方向における間隔もy軸方向における間隔も、GLtpで表される等間隔である。また、対となるGRt画素についても、x軸方向における間隔もy軸方向における間隔も、GRtpで表される等間隔であり、かつ、GRtpはGLtpと等しい。更にはGLt画素の位置からX、Yの一方向にだけGLtpの距離だけ進めたところにGRt画素が存在する。
同様に、RLt画素のx軸方向における間隔もy軸方向における間隔も、RLtpで表される等間隔である。また、対となるRRt画素についても、x軸方向における間隔もy軸方向における間隔も、RRtpで表される等間隔であり、かつ、RRtpはRLtpと等しい。更にはRLt画素の位置からX、Y両方向にRLtpの半分の距離だけ進めたところにRRt画素が存在する。
さらに、BLt画素のx軸方向における間隔もy軸方向における間隔も、BLtpで表される等間隔である。また、対となるBRt画素についても、x軸方向における間隔もy軸方向における間隔も、BRtpで表される等間隔であり、かつ、BRtpはBLtpと等しい。更にはBLt画素の位置からX、Y両方向にBLtpの半分の距離だけ進めたところにBRt画素が存在する。
すなわち、カラーフィルタの種類ごとにみた場合、開口マスクの種類ごとに、他の開口マスクが対応付けられた視差画素および視差なし画素に挟まれて、2次元方向のいずれに対しても、等間隔で配置されている。換言すれば、2次元方向に、等方かつ均等に配置されている。このように視差画素が配置されることにより、視差画像の出力時に縦方向と横方向で解像感が異ならず、かつ、2D画像の解像感に対する悪影響も軽減できる。
こうして得られた色・視差画素配列の様子を図22にまとめるとともに、その実空間配列に対応する周波数空間における解像域すなわち分解能もk空間図として示す。波数kは周波数fとk=2πfの関係で結ばれる。実空間の格子間隔をaとすると、その逆格子空間を表わすのがk空間であり、解像域は逆格子空間の第1ブリルアンゾーンによって表わされる。(たとえば、本出願人と同一発明者のUS2010/021853や日本特許第4239483号を参照。)
図22を見ると撮像段階における疎な左視差画素と疎な右視差画素の解像力は密な視差なし画素に比べて低い。その分、密な視差なし画素はBayer配列に匹敵するような解像力を持っている。
したがって、後述するように一旦視差なし画素を補間して、2Dカラー画像R、G、Bを生成し、更に予め、疎な左視差画像RLt、GLt、BLtと疎な右視差画像RRt、GRt、BRtを生成しておく。そうして、これらから視差なし画素を中間的に利用して、最終的に密な左視差画像R'Lt、G'Lt、B'Ltと密な右視差画像R'Rt、G'Rt、B'Rtを以下のように疎な視差画像で視差変調を加えることによって得ることができる。
こうして、視差なし画素の高周波成分が新たに生成する視差あり画像に重畳されて、視差あり画像、すなわち3D画像も2D画像と同じ高解像な画像を得ることができる。いいかえると、合焦域近辺のわずかにピントがはずれて視差が少しだけ発生しているような画像領域では、視差なし画像の高解像な画像をゆるやかに変化する視差画像の状態を参照しながら左方向や右方向に少しだけずらす変位処理が視差変調によって行われる。
また、非合焦域の大きくボケた領域の被写体像は視差なし画像の解像力を最大限に保持しながら、ゆるやかに変化する視差あり画像の横方向の空間分解能を最大限に活用して大規模に横ずらしが行われる。
いいかえると、視差変調効果を最大限に発揮させるには視差あり画像が持つ空間分解能が水平方向に高いことが画素配列の条件として挙げられる。
最初に6視差の例で示したように、左右の視差画素を水平方向に並べて水平解像を落としてしまうような構域はこのような観点からは望ましくなく、水平方向に高い分解能を持った視差画素配列が求められる。このような条件を満たすように配置したのが等方的な視差画素配列であり、図22のk空間図で等方的な解像を示している。
以上のように、撮像素子100を構成する各画素は、開口部104に着目した場合の視差画素と視差なし画素、およびカラーフィルタ102に着目した場合のR画素、G画素、B画素が組み合わされて特徴付けられる。したがって、撮像素子100の出力をその画素配列に一致させてそのまま羅列しても、特定の像を表す画像データにはならない。すなわち、撮像素子100の画素出力を、同一に特徴付けられた画素グループごとに分離して寄せ集めてはじめて、その特徴に即した一つの像を表す画像データが形成される。例えば、既に図5を用いて説明したように、視差画素の出力をその開口部の種類ごとに寄せ集めると、互いに視差を有する複数の視差画像データが得られる。このように、同一に特徴付けられた画素グループごとに分離して寄せ集められたそれぞれの画像データを、プレーンデータと呼ぶ。
画像処理部205は、撮像素子100の画素配列順にその出力値が羅列されたRAW元画像データを受け取り、複数のプレーンデータに分離する。この時点における各プレーンデータは、RAW元画像データにおいて出力値が存在する画素位置にのみ出力値が存在する。そこで、画像処理部205は、各プレーンデータを基に補間処理を行い、空格子が埋められたプレーンデータを生成する。以下に、補間処理によって空格子が埋められたプレーンデータの生成処理について、図7を用いて説明した第1実施例の撮像素子100からの出力を例に説明する。
2.視差なし画像の生成
図9は、2D画像データとしてのGプレーンデータ、Rプレーンデータ、Bプレーンデータの生成処理の例を説明する図である。上段の図のそれぞれは、撮像素子100における一つの繰り返しパターン110およびその周囲の出力の一部を、その画素配列に一致させてそのまま羅列した様子を示す。具体的には、上図は左側から順に、G画素のみを抽出したGプレーンデータを示す図、R画素のみを抽出したRプレーンデータを示す図、B画素のみを抽出したBプレーンデータを示す図である。図においては、図7の例に則して画素の種類が理解されるように記載するが、実際には各画素に対応した出力値が並ぶ。
プレーンデータを生成するにあたり、画像処理部205は、まず、撮像素子100の全出力値から視差なし画素Gの画素値以外を除去して空格子とすることにより、Gプレーンデータを生成する。そして、画像処理部205は、空格子となった画素値を、周辺の視差なし画素Gの画素値を用いて補間処理により算出する。例えば、空格子P11の画素値は、斜め方向に隣接する視差なし画素Gの画素値である、P−1−1、P2−1、P−12、P22の画素値を平均化演算して算出される。ここに64×64画素の基本格子の外側にある画素位置は負のインデックスを用いた。同様に、空格子P55の画素値は、斜め方向に隣接する視差なし画素Gの画素値である、P44、P64、P46、P66の画素値を平均化演算して算出される。一方、例えば空格子P27の画素値は、上下左右に隣接する視差なし画素Gの画素値である、P17、P26、P37、P28の画素値を平均化演算して算出される。また、空格子P52の画素値は、左右および下方向に隣接する視差なし画素Gの画素値である、P42、P62、P53の画素値を平均化演算して算出される。
画像処理部205は、全ての空格子に対して、隣接する視差なし画素Gの画素値を平均化演算し補間処理を行うことによって、図9の下左図に示すように、Gプレーンデータを生成する。なお、画像処理部205は、補間処理により算出された画素値を用いて、さらに補間処理を行ってもよいし、RAW元画像データの段階で存在する出力値のみを用いて補間処理を行ってもよい。
プレーンデータを生成するにあたり、画像処理部205は、まず、撮像素子100の全出力値から視差なし画素Rの画素値以外を除去して空格子とすることにより、Rプレーンデータを生成する。そして、画像処理部205は、空格子となった画素値を、周辺の視差なし画素Rの画素値を用いて補間処理により算出する。例えば空格子P63の画素値は、上下左右に1画素飛ばして隣接する視差なし画素Rの画素値である、P43、P61、P83、P65の画素値を平均化演算して算出される。同様に、空格子P27の画素値は、上下左右に1画素飛ばして隣接する視差なし画素Rの画素値である、P−17、P25、P47、P29の画素値を平均化演算して算出される。一方、例えば、空格子P12の画素値は、斜め方向に隣接する視差なし画素Rの画素値である、P−11、P21、P−13、P23の画素値を平均化演算して算出される。画像処理部205は、全ての空格子に対して、隣接する視差なし画素Rの画素値を平均化演算し補間処理を行うことによって、図9の下中図に示すように、Rプレーンデータを生成する。
プレーンデータを生成するにあたり、画像処理部205は、まず、撮像素子100の全出力値から視差なし画素Bの画素値以外を除去して空格子とすることにより、Bプレーンデータを生成する。そして、画像処理部205は、空格子となった画素値を、周辺の視差なし画素Bの画素値を用いて補間処理により算出する。例えば空格子P32の画素値は、上下左右に1画素飛ばして隣接する視差なし画素Bの画素値である、P12、P3−1、P52、P34の画素値を平均化演算して算出される。同様に、空格子P76の画素値は、上下左右に1画素飛ばして隣接する視差なし画素Bの画素値である、P56、P74、P96、P78の画素値を平均化演算して算出される。一方、例えば、空格子P27の画素値は、斜め方向に隣接する視差なし画素Bの画素値である、P16、P36、P18、P38の画素値を平均化演算して算出される。画像処理部205は、全ての空格子に対して、隣接する視差なし画素Bの画素値を平均化演算し補間処理を行うことによって、図9の下右図に示すように、Bプレーンデータを生成する。
3.仮の視差画像の生成
図10は、左視差画像データとしてのGLtプレーンデータ、RLtプレーンデータ、BLtプレーンデータの生成処理の例を説明する図である。
Ltプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からGLt画素の画素値以外の画素値を除去して空格子とすることにより、GLt0プレーンデータを生成する。すると、繰り返しパターン110には、P11とP55の2つの画素値が残る。そこで、繰り返しパターン110を縦横に4等分し、左上の16画素分をP11の出力値GLt1で代表させ、右下の16画素分をP55の出力値GLt2で代表させる。そして、右上の16画素分の画素値GLt3および左下の16画素分の画素値GLt4は、上下左右に隣接する周辺の代表値を平均化演算して補間する。すなわち、GLt0プレーンデータは、16画素単位で一つの値を有する。これは一般にニアレストネイバと呼ばれる補間とバイリニアと呼ばれる補間を組み合わせた方法である。より望ましくは空格子の画素値を近傍に存在する画素値の距離に応じた平均値で補間するバイリニア補間を単独で使うのがよい。以上のようにして、画像処理部205は、GLtプレーンデータを生成する。
Ltプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からRLt画素の画素値以外の画素値を除去して空格子とすることにより、RLt0プレーンデータを生成する。すると、繰り返しパターン110には、P27の画素値RLt1が残る。画像処理部205は、この画素値RLt1を繰り返しパターン110の64画素分の代表値とすることにより、RLtプレーンデータを生成する。これはニアレストネイバ補間であるが、より望ましくはバイリニア補間をするのがよい。
同様に、BLtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からBLt画素の画素値以外の画素値を除去して空格子とすることにより、BLt0プレーンデータを生成する。すると、繰り返しパターン110には、P32の画素値BLt1が残る。画像処理部205は、この画素値BLt1を繰り返しパターン110の64画素分の代表値とすることにより、BLtプレーンデータを生成する。これはニアレストネイバ補間であるが、より望ましくはバイリニア補間をするのがよい。
このようにして、画像処理部205は、2D画像データとしてのGプレーンデータ、Rプレーンデータ、Bプレーンデータよりは解像度の低いGLtプレーンデータ、RLtプレーンデータ、BLtプレーンデータを生成することができる。
図11は、右視差画像データとしてのGRtプレーンデータ、RRtプレーンデータ、BRtプレーンデータの生成処理の例を説明する図である。
Rtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からGRt画素の画素値以外の画素値を除去して空格子とすることにより、GRt0プレーンデータを生成する。すると、繰り返しパターン110には、P51とP15の2つの画素値が残る。そこで、繰り返しパターン110を縦横に4等分し、右上の16画素分をP51の出力値GRt3で代表させ、左下の16画素分をP15の出力値GRt4で代表させる。そして、左上の16画素分の画素値GRt1および右下の16画素分の画素値GRt2は、上下左右に隣接する周辺の代表値を平均化演算して補間する。すなわち、GRtプレーンデータは、16画素単位で一つの値を有する。これは一般にニアレストネイバと呼ばれる補間とバイリニアと呼ばれる補間を組み合わせた方法である。より望ましくは空格子の画素値を近傍に存在する画素値の距離に応じた平均値で補間するバイリニア補間を単独で使うのがよい。以上のようにして、画像処理部205は、GRtプレーンデータを生成する。
Rtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からRRt画素の画素値以外の画素値を除去して空格子とすることにより、RRt0プレーンデータを生成する。すると、繰り返しパターン110には、P63の画素値RRt1が残る。画像処理部205は、この画素値RRt1を繰り返しパターン110の64画素分の代表値とすることにより、RRtプレーンデータを生成する。これはニアレストネイバ補間であるが、より望ましくはバイリニア補間をするのがよい。
同様に、BRtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からBRt画素の画素値以外の画素値を除去して空格子とすることにより、BRt0プレーンデータを生成する。すると、繰り返しパターン110には、P76の画素値BRt1が残る。画像処理部205は、この画素値BRt1を繰り返しパターン110の64画素分の代表値とすることにより、BRtプレーンデータを生成する。これはニアレストネイバ補間であるが、より望ましくはバイリニア補間をするのがよい。
このようにして、画像処理部205は、2D画像データとしてのGプレーンデータ、Rプレーンデータ、Bプレーンデータよりは解像度の低いGRtプレーンデータ、RRtプレーンデータ、BRtプレーンデータを生成することができる。なお、これまで説明してきたニアレストネイバ補間やバイリニア補間ではなくバイキュービック補間を用いてもよい。
本実施形態においては、画像処理部205は、図9〜11のそれぞれの下図に示した9つのプレーンデータを用いて、左側視点のカラー画像データおよび右側視点のカラー画像データを生成する。具体的な処理に先立って、まず生成原理について説明する。
図12は、デフォーカスの概念を説明する図である。図12(a)で示すように、被写体である物点が焦点位置に存在する場合、レンズ瞳を通って撮像素子受光面に到達する被写体光束は、対応する像点の画素を中心として急峻な光強度分布を示す。すなわち、レンズ瞳を通過する有効光束の全体を受光する視差なし画素が像点近傍に配列されていれば、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値は急激に低下する。
一方、図12(b)に示すように、物点が焦点位置からずれると、被写体光束は、物点が焦点位置に存在する場合に比べて、撮像素子受光面においてなだらかな光強度分布を示す。すなわち、対応する像点の画素における出力値が低下する上に、より周辺画素まで出力値を有する分布を示す。
また、図12(c)に示すように、さらに物点が焦点位置からずれると、被写体光束は、撮像素子受光面においてよりなだらかな光強度分布を示す。すなわち、対応する像点の画素における出力値がさらに低下する上に、より周辺画素まで出力値を有する分布を示す。
次に、視差Lt画素および視差Rt画素が受光する場合のデフォーカスの概念を説明する。図13は、視差画素デフォーカスの概念を説明する図である。視差Lt画素および視差Rt画素は、レンズ瞳の部分領域としてそれぞれ光軸対象に設定された2つの視差仮想瞳のいずれかから到達する被写体光束を受光する。
図13(a)で示すように、被写体である物点が焦点位置に存在する場合、いずれの視差仮想瞳を通った被写体光束であっても、対応する像点の画素を中心として急峻な光強度分布を示す。像点付近に視差Lt画素が配列されていれば、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。また、像点付近に視差Rt画素が配列されていても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。すなわち、被写体光束がいずれの視差仮想瞳を通過しても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する分布を示し、それぞれの分布は互いに一致する。
一方、図13(b)に示すように、物点が焦点位置からずれると、物点が焦点位置に存在した場合に比べて、視差Lt画素が示す光強度分布のピークは、像点に対応する画素から一方向に離れた位置に現れ、かつその出力値は低下する。また、出力値を有する画素の幅も広がる。視差Rt画素が示す光強度分布のピークは、像点に対応する画素から、視差Lt画素における一方向とは逆向きかつ等距離に離れた位置に現れ、同様にその出力値は低下する。また、同様に出力値を有する画素の幅も広がる。すなわち、物点が焦点位置に存在した場合に比べてなだらかとなった同一の光強度分布が、互いに等距離に離間して現れる。また、図13(c)に示すように、さらに物点が焦点位置からずれると、図13(b)の状態に比べて、さらになだらかとなった同一の光強度分布が、より離間して現れる。つまり、物点が焦点位置から大きくずれる程、ぼけ量と視差量が増すと言える。
図12で説明した光強度分布の変化と、図13で説明した光強度分布の変化をそれぞれグラフ化すると、図14のように表される。図において、横軸は画素位置を表し、中心位置が像点に対応する画素位置である。縦軸は各画素の出力値を表し、この出力値は実質的に光強度に比例するので、図においては光強度として示す。
図14(a)は、図12で説明した光強度分布の変化を表すグラフである。分布曲線1801は、図12(a)に対応する光強度分布を表し、最も急峻な様子を示す。分布曲線1802は、図12(b)に対応する光強度分布を表し、また、分布曲線1803は、図12(c)に対応する光強度分布を表す。分布曲線1801に比較して、徐々にピーク値が下がり、広がりを持つ様子がわかる。
図14(b)は、図13で説明した光強度分布の変化を表すグラフである。分布曲線1804と分布曲線1805は、それぞれ図13(b)の視差Lt画素の光強度分布と視差Rt画素の光強度分布を表す。図からわかるように、これらの分布は中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線1806は、図13(b)に対して同等のデフォーカス状態である図12(b)の分布曲線1802と相似形状を示す。
分布曲線1807と分布曲線1808は、それぞれ図13(c)の視差Lt画素の光強度分布と視差Rt画素の光強度分布を表す。図からわかるように、これらの分布も中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線1809は、図13(c)に対して同等のデフォーカス状態である図12(c)の分布曲線1803と相似形状を示す。
4.実際の視差画像の生成
本実施形態においては、このような光強度分布の性質を利用して、図9〜11に示す9つのプレーンデータから、高精細な左側視点のカラー画像データおよび右側視点のカラー画像データを生成する。具体的には、画像処理部205は、図10、11で示した視差画像が持つ視差成分を、図9で示した視差なし画像に重畳することによって、高精細な左右のカラー画像データを生成する。この生成処理を視差変調処理という。
視差変調処理を行うことによって、図10、11で示した左側視点のカラー画像データ(GLtプレーンデータ、RLtプレーンデータ、BLtプレーンデータ)および右側視点のカラー画像データ(GRtプレーンデータ、RRtプレーンデータ、BRtプレーンデータ)から、高精細な左側視点のカラー画像データ(R'Ltプレーンデータ、G'Ltプレーンデータ、B'Ltプレーンデータ)および右側視点のカラー画像データ(R'Rtプレーンデータ、G'Rtプレーンデータ、B'Rtプレーンデータ)を生成することができる。
図15は、高精細な2D画像データから、高精細なカラー視差プレーンデータを生成する生成処理を説明する概念図である。特に、カラー視差プレーンのうち緑色視差プレーンであるG'Ltプレーンデータの生成処理について示す。
G'Ltプレーンデータは、2D画像データであるGプレーンデータに加え、左視差画素データであるRLtプレーンデータ、GLtプレーンデータ、BLtプレーンデータ、右視差画素データであるRRtプレーンデータ、GRtプレーンデータ、BRtプレーンデータを用いて生成される。例えば、G'Ltプレーンデータの対象画素位置(x,y)の画素値G'Lt(x,y)を算出する場合、まず、画像処理部205の画素値抽出部231は、Gプレーンデータの同一画素位置(x,y)から画素値G(x,y)を抽出する。
ここで、RLtプレーンデータにおいても、画素値抽出部231は、RLtプレーンデータの同一画素位置(x,y)の画素値RLt(x,y)を抽出する。同様に、画素値抽出部231は、RRtプレーンデータの同一画素位置(x,y)の画素値RRt(x,y)を抽出する。そして、画像処理部205の算出部233は、画素値RLt(x,y)と画素値RRt(x,y)の差を算出する。
また、GLtプレーンデータにおいても、画素値抽出部231は、GLtプレーンデータの同一画素位置(x,y)に対応する画素値GLt(x,y)を抽出する。同様に、画素値抽出部231は、GRtプレーンデータの同一画素位置(x,y)に対応する画素値GRt(x,y)を抽出する。そして、画像処理部205の算出部233は、画素値GLt(x,y)と画素値GRt(x,y)の差を算出する。
また、BLtプレーンデータにおいても、RLtプレーンデータと同様、画素値抽出部231は、BLtプレーンデータの同一画素位置(x,y)の画素値BLt(x,y)を抽出する。同様に、画素値抽出部231は、BRtプレーンデータの同一画素位置(x,y)の画素値BRt(x,y)を抽出する。そして、画像処理部205の算出部233は、画素値BLt(x,y)と画素値BRt(x,y)の差を算出する。
画像処理部205の算出部233は、画素値RLt(x,y)と画素値RRt(x,y)の差、画素値GLt(x,y)と画素値GRt(x,y)の差、画素値BLt(x,y)と画素値BRt(x,y)の差を用いて、GLt(x,y)からG'Lt(x,y)を算出する。具体的には、画像処理部205の算出部233は、画素値RLt(x,y)と画素値RRt(x,y)の差、画素値GLt(x,y)と画素値GRt(x,y)の差、画素値BLt(x,y)と画素値BRt(x,y)の差のそれぞれに、比例係数を乗じた上でそれらを足し合わせる。そして、得られた値をGLt(x,y)に加える、つまり、視差変調を行うことにより、画素値G'Lt(x,y)を算出する。言い換えると、画像処理部205の算出部233は、算出したい画素値G'Lt(x,y)と抽出した画素値G(x,y)との差が、左右の視差画像間におけるR,G,Bの色成分毎の画素値の差のそれぞれに、比例係数を乗じ、それらを足し合わせた値に対して相関を保つように、画素値G'Lt(x,y)を算出する。具体的には、算出部233は、以下の(数1)により算出する。すなわち、G面とR面の間の関係に着目してみると、
の関係が成り立ち、視差なし画像の間で存在しているG面とR面との変動の様子の違いがそのまま左視差画像の間でも存在しているかのように、求めるG'Lt(x,y)に射影される。同じことが、G成分、B成分についても成り立ち、それらの変動情報、あるいは高周波成分がG'Lt(x,y)に射影される。
これにより、画素値Gに対して、左右間の視差画像の差異を利用して視差変調を加えることができる。画像処理部205は、このような処理を、左端かつ上端の画素である(1、1)から右端かつ下端の座標である(x,y)まで順次実行する。これにより、G'Ltプレーンデータを生成することができる。
なお、図7で示した繰り返しパターンの場合、視差Lt画素は、視差なし画素に対して開口部104が左側に偏心し、視差Rt画素は、視差なし画素に対する視差Lt画素の偏心量と同じ偏心量だけ右側に偏心している。しがたって、算出したい画素値G'Lt(x,y)と抽出した画素値G(x,y)との差は、上記(数1)に示すように、視差画像間におけるR,G,Bの色成分毎の画素値の差の和に対して比例係数1/2をもって相関を保つ。すなわち、算出したい画素値G'Lt(x,y)と抽出した画素値G(x,y)との差に対する、視差画像間におけるR,G,Bの色成分毎の画素値の差を足し合わせた値の相関関係は、主に視差Lt画素と視差Rt画素のそれぞれの開口部の偏心量によって規定される。また、開口部の大きさ、視差なし画素の開口部との相対的な関係等のパラメータを考慮しても良い。いずれにしても、規定された相関関係が保たれるように定式化されて画素値G'Lt(x,y)が算出される。上記(数1)の例では、相関関係として比例係数1/2を規定したが、比例係数を変更する他に、例えば補正項として定数を加算するなど、適宜相関関係を調整しても良い。なお、算出したい画素値が画素値R'Lt(x,y)、B'Lt(x,y)、R'Rt(x,y)、G'Rt(x,y)、B'Rt(x,y)であっても、上記の関係は同様である。
画像処理部205は、B'Ltプレーンデータ、R'Ltプレーンデータについても、G'Ltプレーンデータと同様に、画素値抽出部231および算出部233により生成することができる。具体的には、上記の説明においてGプレーンデータの同一画素位置(x,y)から画素値G(x,y)を抽出する代わりに、Bプレーンデータの同一画素位置(x,y)から画素値B(x,y)を抽出し、同様に処理する。さらに、上記の説明においてGプレーンデータの同一画素位置(x,y)から画素値G(x,y)を抽出する代わりに、Rプレーンデータの同一画素位置(x,y)から画素値R(x,y)を抽出し、同様に処理する。
具体的には、画像処理部205は、以下の(数2)、(数3)により算出する。
画像処理部205は、右側視点のカラー画像データであるG'Rtプレーンデータ、B'Rtプレーンデータ、R'Rtプレーンデータについても、左側視点のカラー画像データと同様に生成することができる。具体的には、以下の(数4)、(数5)、(数6)により算出する。
以上のように、画像処理部205は、左右間の視差画像の差異を利用して視差なしカラー画像に視差変調を加えることによって、視差なしカラー画像から左視差カラー画像と右視差カラー画像を生成することができる。具体的には、以上の処理により、左側視点のカラー画像データ(G'Ltプレーンデータ、B'Ltプレーンデータ、R'Ltプレーンデータ)および右側視点のカラー画像データ(G'Rtプレーンデータ、B'Rtプレーンデータ、R'Rtプレーンデータ)が生成される。
図10、図11で示したように、左視差画像データおよび右視差画像データのそれぞれについて、すでにR,G、B毎のプレーンデータは揃っている。しかしながら、これらのプレーンデータにおいては、16画素または64画素を一単位として画素値が存在するので、解像度は低い。これらのプレーンデータより解像度が高い2D画像データを用いることにより、左視差画像データおよび右視差画像データにおいても、当該2D画像データがもつ空間解像度と同程度の空間解像度を得ることができる。すなわち、(数1)〜(数6)の右辺の第2〜第4項は「疎な」解像であるが、右辺の第1項の「密な」解像が反映されて左辺は「密な」解像の画像データを生成することができる。
また、左視差画像データおよび右視差画像データの生成が、R,G,Bプレーンデータの一つを基になされた場合には、被写体が特定の原色で構成されると、その原色に対応するカラーフィルタ以外のカラーフィルタを有する視差画素からは、視差情報が得られないという色依存の問題が生じる。本実施の形態においては、上述の(数1)〜(数6)に示すように、画像処理部205は、R,G,Bの色成分の全てを用いて視差変調している。したがって、単色で視差変調する場合に比べて、視差画像における色の境界部分の色変化を、より精確に視差情報として反映させることができる。よって、視差が発生するボケ領域の色境界部において偽色の発生を防止することが期待できる。また、視差画像間におけるR,G,Bそれぞれの色成分の画素値は、RAWデータの段階においては互いに異なる位置の視差情報のデータである。したがって、単一の色成分だけでは捉えることのできない左右間の空間的な視差構造の違いに関する情報を、互いに補い合いながら、最終的に生成される視差画像に反映させることができる。このように、本実施形態のデジタルカメラは、高精細な左側視点のカラー画像データおよび高精細な右側視点なカラー画像データを生成することができる。
ここで、視差カラー画像データを生成するまでを、処理フローの観点から説明する。図16は、視差カラー画像データを生成するまでの処理フローである。フローは、撮影動作に連動して開始しても良いし、メモリカード220から対象画像データを読み出すことにより開始しても良い。
画像処理部205は、ステップS101で、RAW元画像データを取得する。そして、ステップS102において、図9〜図11を用いて説明したように、RAW元画像データを、2D画像データとしてのGプレーンデータ、Rプレーンデータ、Bプレーンデータに分離する。同様に、画像処理部205は、RAW元画像データを、左視差画像データとしてのGLt0プレーンデータ、RLt0プレーンデータ、BLt0プレーンデータ、右視差画像データとしてのGRt0プレーンデータ、RRt0プレーンデータ、BRt0プレーンデータに分離する。画像処理部205は、ステップS103で、分離した各プレーンデータに存在する空格子を補間する補間処理を実行する。具体的には、図9〜図11を用いて説明したように、近接する画素の出力値を用いて平均化処理等により空格子の出力値を算出する。
画像処理部205は、ステップS104で、各変数の初期化を行う。具体的には、まず、2Dカラー変数Csetに1を代入する。2Dカラー変数Csetは、1=赤、2=緑、3=青を表す。また、座標変数であるxとyに1を代入する。さらに、視差変数Sに1を代入する。視差変数Sは、1=左、2=右を表す。
画像処理部205の画素値抽出部231は、ステップS105において、Csetプレーンの対象画素位置(x,y)から画素値を抽出する。さらに、画素値抽出部231は、ステップS106において、GLtプレーンデータ、RLtプレーンデータ、BLtプレーンデータの対象画素位置(x,y)から画素値を抽出する。同様に、画素値抽出部231は、GRtプレーンデータ、RRtプレーンデータ、BRtプレーンデータの対象画素位置(x,y)から画素値を抽出する。
画像処理部205の算出部233は、ステップS107において、視差変数Sに対応する対象画素位置(x,y)の画素値を算出する。例えばCset=1、S=1で対象画素位置が(1,1)である場合、R'Lt(1,1)を算出する。具体的には、例えば、上述の(数3)により算出する。
画像処理部205は、ステップS108で、視差変数Sをインクリメントする。そして、ステップS109で、視差変数Sが2を超えたか否かを判断する。超えていなければステップS107へ戻る。超えていればステップS110へ進む。
画像処理部205は、ステップS110で、視差変数Sに1を代入すると共に、座標変数xをインクリメントする。そして、ステップS111で、座標変数xがxを超えたか否かを判断する。超えていなければステップS105へ戻る。超えていればステップS112へ進む。
画像処理部205は、ステップS112で、座標変数xに1を代入すると共に、座標変数yをインクリメントする。そして、ステップS113で、座標変数yがyを超えたか否かを判断する。超えていなければステップS105へ戻る。超えていればステップS114へ進む。
ステップS114まで進むと、Csetに対する左右それぞれの全画素の画素値が揃うので、画像処理部205は、これらの画素値を並べて、プレーン画像データを生成する。例えばCset=1である場合、R'LtプレーンデータとR'Rtプレーンデータを生成する。
ステップS115に進み、画像処理部205は、座標変数yに1を代入すると共に、カラー変数Csetをインクリメントする。そして、ステップS116で、カラー変数Csetが3を超えたか否かを判断する。超えていなければステップS105へ戻る。超えていれば、左側視点のカラー画像データ(R'Ltプレーンデータ、G'Ltプレーンデータ、B'Ltプレーンデータ)および右側視点のカラー画像データ(R'Rtプレーンデータ、G'Rtプレーンデータ、B'Rtプレーンデータ)の全てが揃ったとして、一連の処理を終了する。
次に、開口部104の開口形状について説明する。図17は、開口形状を説明する図である。図17(a)は、視差Lt画素の開口部104lの形状と、視差Rt画素の開口部104rの形状とが、視差なし画素の開口部104nの形状を中心線322で分割したそれぞれの形状と同一である例を示している。つまり、図17(a)では、視差なし画素の開口部104nの面積は、視差Lt画素の開口部104lの面積と視差Rt画素の開口部104rの面積の和になっている。また、視差Lt画素の開口部104lおよび視差Rt画素の開口部104rは、それぞれ対応する光電変換素子108の中心(画素中心)を通る仮想的な中心線322に対して、互いに反対方向に偏位している。ここで、それぞれの開口部104n、開口部104l、開口部104rは、開口絞りの機能を有する。したがって、開口部104l(開口部104r)の倍の面積を持つ開口部104nを有する視差なし画素のボケ量は、視差Lt画素と視差Rt画素のボケ量を足し合わせたボケ量と同程度となる。
図17(b)は、視差Lt画素の開口部104lの形状と、視差Rt画素の開口部104rの形状と、視差C画素の開口部104cの形状とが、全て同形状である例を示している。ここで、視差C画素は、偏心のない画素をいう。視差C画素は、瞳の中心部分を部分領域とする被写体光束のみを光電変換素子108へ導く点で、厳密には、視差画像を出力する視差画素である。しかしながら、ここでは、基準方向に対応する開口部を有する画素を視差なし画素と定義する。したがって、基準方向として、図17(a)の視差なし画素と同様に光電変換素子の中心に開口部を有する図17(b)の視差C画素は、視差なし画素である。また、開口部104l、開口部104r、開口部104cは、図17(a)で示した開口部104nの半分の面積である。図17(a)の場合と同様、開口部104lおよび104rのそれぞれは、光電変換素子108の中心(画素中心)を通る仮想的な中心線322と接している。ここで、それぞれの開口部104c、開口部104l、開口部104rは、上述のように、開口絞りの機能を有する。したがって、開口部104lおよび開口部104rと同形状、同面積である開口部104cを有する視差C画素のボケ量は、視差Lt画素および視差Rt画素のボケ量と同程度なる。
<第2実施形態>
視差変調方式を代えた実施形態について説明する。第2実施形態においては、画素配列として、視差C画素、視差Lt画素、視差Rt画素が配置され、かつ、図17で説明したように、視差C画素の開口部が、視差Lt画素の開口部の形状、視差Rt画素の開口部の形状に等しいものとする。そうすると、視差C画素のボケ量は、視差Lt画素および視差Rt画素のボケ量とほぼ一致することになる。相乗平均を用いて視差変調を行うことによって、視差変調後の左右のカラー画像のボケ量を視差画素のボケ量と一致させることができる。
画像処理部205の画素値抽出部231は、第1実施形態で説明したように、図9〜11で示したプレーンデータのそれぞれから、対象画素位置の画素値を抽出する。そして、例えば、G(x,y)からG'Lt(x,y)を算出する場合には、画像処理部205の算出部233は、画素値RLt(x,y)と画素値RRt(x,y)の相乗平均、画素値GLt(x,y)と画素値GRt(x,y)の相乗平均、画素値BLt(x,y)と画素値BRt(x,y)の相乗平均を用いて、G(x,y)からG'Lt(x,y)を算出する。
具体的には、算出部233は、画素値RLt(x,y)を、画素値RLt(x,y)と画素値RRt(x,y)の相乗平均で除する。同様に、画素値GLt(x,y)を、画素値GLt(x,y)と画素値GRt(x,y)の相乗平均で除する。同様に、画素値BLt(x,y)を、画素値BLt(x,y)と画素値BRt(x,y)の相乗平均で除する。そして、算出部233は、それらを乗じた値を、G(x,y)に乗ずることにより画素値G'Lt(x,y)を算出する。言い換えると、算出部233は、画素値G'Lt(x,y)と抽出した画素値G(x,y)との比が、画素値RLt(x,y)を画素値RLt(x,y)と画素値RRt(x,y)の相乗平均で除した値、画素値GLt(x,y)を画素値GLt(x,y)と画素値GRt(x,y)の相乗平均で除した値、画素値BLt(x,y)を画素値BLt(x,y)と画素値BRt(x,y)の相乗平均で除した値のそれぞれを乗じた値に対して相関を保つように、画素値G'Lt(x,y)を算出する。
具体的には、算出部233は、以下の(数7)により算出する。
(数7)を書き換えると、以下の(数8)となる。
(数8)から、画素値G'Lt(x,y)と抽出した画素値G(x,y)との比が、視差画像間におけるR,G,Bの色成分毎の画素値の比の平方根を乗じた値に対して相関を保っているとも言える。画像処理部205は、B'Lt(x,y)、R'Lt(x,y)についても、G'Lt(x,y)と同様に生成することができる。具体的には、以下の(数9)、(数10)により算出する。
(数9)、(数10)を書き換えると、以下の(数11)、(数12)となる。
画像処理部205は、G'Rt(x,y)、B'Rt(x,y)、R'Rt(x,y)についても、同様に生成することができる。具体的には、以下の(数13)、(数14)、(数15)により算出する。
(数13)、(数14)、(数15)を書き換えると、以下の(数16)、(数17)、(数18)となる。
<第3実施形態>
視差変調方式を代えた実施形態について説明する。第3実施形態においては、図17で説明したように、視差なし画素の開口部が、視差Lt画素の開口部の面積と視差Rt画素の開口部の面積の和に等しいものとする。そうすると、視差なし画素のボケ量は、視差Lt画素および視差Rt画素のボケ量の和と同程度となる。相加平均を用いて視差変調を行うことによって、視差変調後の左右のカラー画像のボケ量を視差画素のボケ量と一致させることができる。
画像処理部205の画素値抽出部231は、第1実施形態で説明したように、図9〜11で示したプレーンデータのそれぞれから、対象画素位置の画素値を抽出する。そして、例えば、G(x,y)からG'Lt(x,y)を算出する場合には、画像処理部205の算出部233は、画素値RLt(x,y)と画素値RRt(x,y)の相加平均、画素値GLt(x,y)と画素値GRt(x,y)の相加平均、画素値BLt(x,y)と画素値BRt(x,y)の相加平均を用いて、G(x,y)からG'Lt(x,y)を算出する。
具体的には、算出部233は、画素値RLt(x,y)を、画素値RLt(x,y)と画素値RRt(x,y)の相加平均で除する。同様に、画素値GLt(x,y)を、画素値GLt(x,y)と画素値GRt(x,y)の相加平均で除する。同様に、画素値BLt(x,y)を、画素値BLt(x,y)と画素値BRt(x,y)の相加平均で除する。そして、算出部233は、それらを乗じた値を、G(x,y)に乗ずることにより画素値G'Lt(x,y)を算出する。言い換えると、算出部233は、画素値G'Lt(x,y)と抽出した画素値G(x,y)との比が、画素値RLt(x,y)を画素値RLt(x,y)と画素値RRt(x,y)の相加平均で除した値、画素値GLt(x,y)を画素値GLt(x,y)と画素値GRt(x,y)の相加平均で除した値、画素値BLt(x,y)を画素値BLt(x,y)と画素値BRt(x,y)の相加平均で除した値のそれぞれを乗じた値に対して相関を保つように、画素値G'Lt(x,y)を算出する。
具体的には、算出部233は、以下の(数19)により算出する。
画像処理部205は、B'Lt(x,y)、R'Lt(x,y)についても、G'Lt(x,y)と同様に生成することができる。具体的には、以下の(数20)、(数21)により算出する。
画像処理部205は、G'Rt(x,y)、B'Rt(x,y)、R'Rt(x,y)についても、同様に生成することができる。具体的には、以下の(数22)、(数23)、(数24)により算出する。
以上の実施形態においては、各プレーンの出力値は、撮像素子100の各光電変換素子が受光する受光量に比例した線形階調の値として説明した。これは上記(数7)〜(数24)の場合に適した方法である。しかし、上記(数1)〜(数6)を適用する場合には、非線形変換であるガンマ変換後の値を用いても良い。任意の階調特性をもつガンマ空間で、上記(数1)〜(数6)に準じて差を一定に保つ演算を行えば、同様に視差変調を加える効果を得ることができる。階調変換によるガンマ空間への移行処理は、例えば次のような処理を採用し得る。
すなわち、RAW元画像データの段階で階調変換を施してガンマ空間に移行する。RAW元画像データをM(x,y)と表し、ガンマ空間への移行後のRAW元画像データをMΓ(x,y)と表す。実際には、入力値xに対して出力値yとなるように非線形変換y=f(x)を施す。非線形変換の特性の例として、以下のような種々の場合が考えられる。ただし、入力値の階調と出力値の階調が共に[0,1]の範囲で定義されるものとする。入出力特性は(x,y)=(0,0)と(1,1)を通るように階調曲線(ガンマ曲線)を定義する。実際の入力階調Xの最大値をXmax、出力階調Yの最大値をYmaxとすると、x=X/Xmax、y=Y/Ymaxであり、階調変換は、以下の(数25)によって行われる。
階調特性の例として以下に示す(a)〜(c)の場合が考えられる。(a)の場合は、人間の視感度特性に合った階調空間で視差変調を加えることになる。(b)の場合は、すべての階調でノイズのゆらぎ幅が均一な均等ノイズ空間を与えるので視差変調によるノイズ増幅の最も少ない立体画像を得ることができる。(c)の場合は、第1実施形態の処理が実質的に第2実施形態の処理と等価となる。なぜならば(数7)〜(数18)の対数をとると、(数1)〜(数6)の演算をしていることと同等になるからである。したがって、対数変換によって積と商の演算を和と差によって実現することが可能になる。このように階調特性の設定の仕方を、y=xの線形階調からy=logxの対数特性の間で変えることによって、線形階調で行った場合の第1実施形態と第2実施形態あるいは第3実施形態との間の中間的な画像処理効果を得ることが可能になる。
(a)立方根階調特性
(b)オフセット付き平方根階調特性
ただし、εは正の定数である。
(c)対数特性
上述のようなガンマ変換後に図15等を用いて説明した各処理を施し、逆ガンマ変換(逆階調変換)を施すことにより元の色空間へ戻す。逆階調変換は、以下の(数30)によって行われる。
以上の実施形態においては、繰り返しパターン110は、4画素から成るベイヤー配列を、y軸方向に4つ、x軸方向に4つ含み、64画素から構成された。そして、視差なし画素の方が視差画素よりも多く配列されていた。しかしながら、視差なし画素と視差画素の数は、同程度であってもよいし、視差画素の方が視差なし画素より多く配列されていてもよい。ここでは、視差画素の方が視差なし画素より多く配列された繰り返しパターンのバリエーションについて説明する。
図18は、繰り返しパターンのバリエーションの一例を示す図である。図の例においては、ベイヤー配列の4画素が左右に2組続く8画素を繰り返しパターン110とする。8画素のうち、左側のGb画素に視差Lt画素を、右側のGb画素に視差Rt画素を割り当てる。さらに、左側のR画素に視差Lt画素を、右側のR画素に視差Rt画素を割り当てる。さらに、左側のB画素に視差Lt画素を、右側のB画素に視差Rt画素を割り当てる。2つのGr画素には視差なし画素を割り当てる。
2つのGb画素に割り当てられた視差Lt画素と視差Rt画素は、被写体が合焦位置に存在するときに、一つの微小領域から放射される光束を受光する。また、2つのR画素に割り当てられた視差Lt画素と視差Rt画素は、Gb画素のそれとは異なる一つの微小領域から放射される光束を受光し、2つのB画素に割り当てられた視差Lt画素と視差Rt画素は、Gb画素およびR画素のそれとは異なる一つの微小領域から放射される光束を受光する。したがって、3D画像としての縦方向の解像度を上げつつ、RGBの3色の出力が得られるので、カラー画像としての3D画像として高品質な画像が得られる。
なお、上述のように視差画素の種類を2つにすれば2視点の視差画像が得られるが、もちろん視差画素の種類は、出力したい視差画像数に合わせて様々な数を採用し得る。視点数が増えていっても、さまざまな繰り返しパターン110を形成することができる。したがって、仕様、目的等に応じた繰り返しパターン110を選択することができる。
図18に示す繰り返しパターンが採用された画素配列において、Gプレーンデータ、Rプレーンデータ、Bプレーンデータを生成する場合には、各画素位置におけるG、R、Bの画素値を算出して補間処理を行う。図7で示した繰り返しパターン110が採用された場合には、図9に示したように、隣接または1画素飛ばして隣接する画素の画素値を用いて補間処理を行った。ここでは、補間対象となる画素を中心として、補間に用いられる周辺の画素を含んでなる画素群をカーネルとして定義する。そして、カーネル内の同種のカラーフィルタを有する画素の画素値に対して、注目画素からの距離に応じた重み付けを行い、それらを足し合わせることによって補間処理を行う。以下、図18で示した繰り返しパターンが採用された場合の視差なし画素の補間処理について詳細に説明する。
図19は、補間処理を説明する図である。図19(a)は、5×3画素のカーネルを示す。5×3画素のカーネルの中心を注目画素P8とし、P8を中心とする5×3のカーネル内の画素値から、注目画素の位置に対応するR画素、G画素、B画素の画素値をそれぞれ算出する。
図19(b)は、Gb画素が注目画素となる場合を示す。図中の矢印は、Rを算出する場合に利用される画素およびその際の重み値の大小を示す。具体的には、矢印の幅が太いほうが、重み値が大きいことを意味する。Gb画素位置におけるRは、5×3画素のカーネル内のR画素の画素値に対して、距離に応じた重み付けを行った上で算出される。具体的には以下の(数31)用いて算出することができる。
また、同様に、Gb画素位置におけるG、Bは、以下の(数32)、(数33)を用いて算出することができる。
図19(c)は、R画素が注目画素となる場合を示す。このとき、R画素位置における、R、G、Bは、以下の(数34)、(数35)、(数36)を用いて算出することができる。
図19(d)は、B画素が注目画素となる場合を示す。このとき、B画素位置における、R、G、Bは、以下の(数37)、(数38)、(数39)を用いて算出することができる。
図19(e)は、Gr画素が注目画素となる場合を示す。このとき、Gr画素位置における、R、G、Bは、以下の(数40)、(数41)、(数42)を用いて算出することができる。
なお、ここでは、視差Lt画素が注目画素となる場合について説明したが、視差Rt画素が注目画素となる場合も同様の演算式を用いることができる。ベイヤー配列のそれぞれの画素位置におけるG、R、Bの画素値を、画素配列の全体について算出することによって、Gプレーンデータ、Rプレーンデータ、Bプレーンデータを生成することができる。このように生成されたG、R、Bを第1〜第3の実施形態と同様にして視差変調を加えることができる。
上述の例では、カラーフィルタ配列としてベイヤー配列を採用した場合について説明したが、もちろん他のカラーフィルタ配列であっても差し支えない。このとき、一組の光電変換素子群を構成する視差画素のそれぞれは、互いに異なる部分領域を向く開口部104を有する開口マスク103を備えると良い。
以上の説明においては、被写体像のカラーを構成する原色として、赤色、緑色および青色の3つを用いた。しかし、翠色などを加えた4つ以上を原色としても良い。また、赤色、緑色および青色に代えて、イエロー、マゼンタ、シアンの組み合わせによる補色の3原色を採用することもできる。
上述においては、例えば画像処理部205が含む画素値抽出部231および算出部233などは、デジタルカメラ10を構成する各構成要素の機能としてそれぞれの処理を説明した。また、制御部201および画像処理部205を動作させる制御プログラムは、デジタルカメラ10を構成する各ハードウェアを、上述の処理を実行させる構成要素として機能させ得る。また、カラー画像データを生成するこれらの処理は、デジタルカメラ10で行わなくても、外部のパーソナルコンピュータなどの機器で行っても良い。この場合、外部のパーソナルコンピュータなどの機器は画像処理装置として機能する。画像処理装置は、例えばRAW元画像データを取得してカラー画像データを生成する。画像処理装置は、RAW元画像データを取得した場合は、上述のプレーン分離処理、プレーンデータの補間処理も実行する。また、画像処理装置は、撮像装置側で補間処理が施されたプレーンデータを取得しても良い。
視差なし画素に対して疎な視差画素から生成された低解像な視差画像を用いて視差変調を加えることによって、高解像な左視差画像R'Lt、G'Lt、B'Ltと高解像な右視差画像R'Rt、G'Rt、B'Rtを生成する場合の変形例について説明する。例えば高解像な左視差画像R'Ltを生成するにあたって、各画素の画素値を、RGBの各色成分の視差変調量を単純に加算すると、算出される値は実際の視差量のレベルに対して誇張された値となる。ここで、色成分はRGBの3種類存在しているので、加重係数和が1となるように各色成分の視差変調量に対する加重係数をそれぞれ1/3倍に設定する。そして、RGBの各色成分の視差変調量を加算するに当たって、各色成分の視差変調量を対応する加重係数倍した後にそれぞれを加算することにより、実際の視差量のレベルに応じた値を得ることができる。さらに、図22に示される視差画素の色分配比を視差変調項の加重係数として反映させることが望ましい。ここでは、左右の視差画像間におけるRの画素値の差に比例係数が乗じられた項、Gの画素値の差に比例係数が乗じられた項、Bの画素値の差に比例係数が乗じられた項のそれぞれを視差変調項という。左視差画素と右視差画素は共にR:G:B=1:2:1であるので、Rによる視差変調項には1/4倍を、Gによる視差変調項には1/2倍を、Bによる視差変調項には1/4倍を掛ける。具体的には、以下の式を用いて高解像な左視差画像R'Lt、G'Lt、B'Ltと高解像な右視差画像R'Rt、G'Rt、B'Rtを算出する。
上述の(数1)〜(数3)に、図22に示される視差画素の色分配比を視差変調項の加重係数として反映させると、以下に示す(数43)〜(数45)となる。
同様に、上述の(数4)〜(数6)に、図22に示される視差画素の色分配比を視差変調項の加重係数として反映させると、以下に示す(数46)〜(数48)となる。
上述の(数7)、(数9)、(数10)に、図22に示される視差画素の色分配比を視差変調項の加重係数として反映させると、以下に示す(数49)〜(数51)となる。ここでは、左右の視差画像間におけるRの画素値の比の4乗根を示す項、Gの画素値の比の平方根を示す項、Bの画素値の比の4乗根を示す項のそれぞれを視差変調項という。
(数49)〜(数51)を書き換えると、以下の(数52)〜(数54)となる。
同様に、上述の(数13)〜(数15)に、図22に示される視差画素の色分配比を視差変調項の加重係数として反映させると、以下に示す(数55)〜(数57)となる。
(数55)〜(数57)を書き換えると、以下の(数58)〜(数60)となる。
同様に、上述の(数19)〜(数24)に、図22に示される視差画素の色分配比を視差変調項の加重係数として反映させると、以下に示す(数61)〜(数66)となる。ここでは、左視差画素または右視差画素におけるRの画素値を左視差画素のRの画素値と右視差画素のRの画素値の相加平均で除した項、左視差画素または右視差画素におけるGの画素値を左視差画素のGの画素値と右視差画素のGの画素値の相加平均で除した項、左視差画素または右視差画素におけるBの画素値を左視差画素のBの画素値と右視差画素のBの画素値の相加平均で除した項のそれぞれを視差変調項という。
第1実施形態から第3実施形態ではRGB色空間のままで多色の視差変調を加える例を示した。しかし、多色の視差変調を加えるという概念は、それが別の表色系に移行した場合でも成り立つ。ここに、その例を示しておく。例えば、YCbCr空間で視差変調を加える。この場合には、画像処理部205は、2Dカラー画像RN、GN、BNと、疎な視差Lt画素から生成された低解像な左視差画像RLt、GLt、BLtと、疎な視差Rt画素から生成された低解像な右視差画像RRt、GRt、BRtをYCbCr空間に変換する変換部を有する。そして、変換部は、例えば、2Dカラー画像YN、CbN、CrNと、低解像な左視差画像YLt、CbLt、CrLtと、低解像な右視差画像YRt、CbRt、CrRtのそれぞれを生成する。以下、第1実施形態で示した差を一定に保つ場合の視差変調を例に挙げて詳細に説明する。なお、第2、第3実施形態についても同様にYCbCr空間での視差変調を適用できる。
算出部233は、輝度値YLt(x,y)と輝度値YRt(x,y)の差、色差CbLt(x,y)と色差CbRt(x,y)の差、色差CrLt(x,y)と色差CrRt(x,y)の差のそれぞれに、比例係数を乗じた上でそれらを足し合わせる。そして、得られた値をY(x,y)に加える、つまり、視差変調を行うことにより、輝度値Y'Lt(x,y)を算出する。言い換えると、算出部233は、輝度値Y'Lt(x,y)と輝度値Y(x,y)との差が、左右の視差画像間におけるY,Cb,Crの成分毎の差のそれぞれに、比例係数を乗じ、それらを足し合わせた値に対して相関を保つように、輝度値Y'Lt(x,y)を算出する。算出部233は、色差Cb'Lt(x,y)、色差Cr'Lt(x,y)についても同様に算出する。算出部233は、右側視点の輝度値Y'Rt(x,y)、右側視点の色差Cb'Rt(x,y)、右側視点の色差Cr'Rt(x,y)についても同様に算出する。具体的には、以下の各数式により算出する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 デジタルカメラ、20 撮影レンズ、21 光軸、30、31 被写体、100 撮像素子、101 マイクロレンズ、102 カラーフィルタ、103 開口マスク、104 開口部、105 配線層、106 配線、107 開口、108 光電変換素子、109 基板、110 繰り返しパターン、201 制御部、202 A/D変換回路、203 メモリ、204 駆動部、205 画像処理部、207 メモリカードIF、208 操作部、209 表示部、210 LCD駆動回路、211 AFセンサ、220 メモリカード、231 画素値抽出部、233 算出部、322 中心線、1801 分布曲線、1802 分布曲線、1803 分布曲線、1804 分布曲線、1805 分布曲線、1806 合成分布曲線、1807 分布曲線、1808 分布曲線、1809 合成分布曲線

Claims (26)

  1. 被写体像のカラーを構成するn個(n≧2)の色成分の一つである特定色において、前記被写体像を捉える複数の視点の一つである第1視点に対応する第1視点カラー画像データから、対象画素位置における前記第1視点カラー画像データの前記特定色の画素値を抽出する第1視点画素値抽出部と、
    前記第1視点とは異なる第2視点および第3視点に対応する第2視点カラー画像データおよび第3視点カラー画像データから、前記対象画素位置における前記第2視点カラー画像データの少なくとも第1色成分と第2色成分の画素値および前記第3視点カラー画像データの少なくとも第1色成分と第2色成分の画素値を抽出する第2と第3視点画素値抽出部と、
    前記第2視点カラー画像データの新たに求める特定色の画素値を、該第2視点の新たに求める特定色の画素値と前記第1視点画素値抽出部が抽出した前記第1視点カラー画像データの特定色の画素値との間の差が、少なくとも
    1)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第1色成分の画素値と前記第3視点カラー画像データの第1色成分の画素値との間の差、及び
    2)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第2色成分の画素値と前記第3視点カラー画像データの第2色成分の画素値との間の差
    との和に対して相関を保つように算出する第2視点画素値算出部と
    を備える画像処理装置。
  2. 前記第2視点画素値算出部は、前記第2視点カラー画像データの新たに求める特定色の画素値を、該第2視点の新たに求める特定色の画素値と前記第1視点画素値抽出部が抽出した前記第1視点カラー画像データの特定色の画素値との間の差が、少なくとも
    1)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第1色成分の画素値と前記第3視点カラー画像データの第1色成分の画素値との間の差、及び
    2)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第2色成分の画素値と前記第3視点カラー画像データの第2色成分の画素値との間の差
    との和に比例するように算出することを特徴とする請求項1に記載の画像処理装置。
  3. 被写体像のカラーを構成するn個(n≧2)の色成分の一つである特定色において、前記被写体像を捉える複数の視点の一つである第1視点に対応する第1視点カラー画像データから、対象画素位置における前記第1視点カラー画像データの前記特定色の画素値を抽出する第1視点画素値抽出部と、
    前記第1視点とは異なる第2視点および第3視点に対応する第2視点カラー画像データおよび第3視点カラー画像データから、前記対象画素位置における前記第2視点カラー画像データの少なくとも第1色成分と第2色成分の画素値および前記第3視点カラー画像データの少なくとも第1色成分と第2色成分の画素値を抽出する第2と第3視点画素値抽出部と、
    前記第2視点カラー画像データの新たに求める特定色の画素値を、該第2視点の新たに求める特定色の画素値と前記第1視点画素値抽出部が抽出した前記第1視点カラー画像データの特定色の画素値との間の比が、少なくとも2つの比
    1)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第1色成分の画素値と、前記第3視点カラー画像データの第1色成分の画素値によって定義される比、及び
    2)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第2色成分の画素値と、前記第3視点カラー画像データの第2色成分の画素値によって定義される比
    の積に対して相関を保つように算出する第2視点画素値算出部と
    を備える画像処理装置。
  4. 前記第2視点画素値算出部は、前記第2視点カラー画像データの新たに求める特定色の画素値を、該第2視点の新たに求める特定色の画素値と前記第1視点画素値抽出部が抽出した前記第1視点カラー画像データの特定色の画素値との間の比が、少なくとも
    1)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第1色成分の画素値と前記第3視点カラー画像データの第1色成分の画素値との間の比の平方根、及び
    2)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第2色成分の画素値と前記第3視点カラー画像データの第2色成分の画素値との間の比の平方根
    の積に比例するように算出することを特徴とする請求項3に記載の画像処理装置。
  5. 前記第2視点画素値算出部は、前記第2視点カラー画像データの新たに求める特定色の画素値を、該第2視点の新たに求める特定色の画素値と前記第1視点画素値抽出部が抽出した前記第1視点カラー画像データの特定色の画素値との間の比が、少なくとも
    1)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第1色成分の画素値と、前記第3視点カラー画像データの第1色成分の画素値と前記第2視点カラー画像データの第1色成分の画素値との和との間の比、及び
    2)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第2色成分の画素値と、前記第3視点カラー画像データの第2色成分の画素値と前記第2視点カラー画像データの第2色成分の画素値との和との間の比
    の積に比例するように算出することを特徴とする請求項3に記載の画像処理装置。
  6. 前記第1視点は、前記第2視点と前記第3視点の間の視点であることを特徴とする請求項1、請求項3のいずれかに記載の画像処理装置。
  7. 前記カラー画像データの画素値のそれぞれは、ガンマ変換後の値である請求項1に記載の画像処理装置。
  8. 前記カラー画像データの画素値のそれぞれは、受光量に比例した線形階調の値である請求項3に記載の画像処理装置。
  9. 前記第2視点画素値算出部は、前記n個の色成分の全てに対応する前記第2視点の新たなカラー画像データが揃うように、前記特定色を順次変更して前記新たなカラー画像データを生成する請求項1、請求項3のいずれかに記載の画像処理装置。
  10. 前記被写体像を撮像する撮像素子と、
    請求項1から9のいずれか1項に記載の画像処理装置と
    を備える撮像装置であって、
    前記第1視点画素値抽出部は、前記撮像素子が出力する前記第1視点に対応する特定色の画素値を有するカラー画像データから前記特定色の画素値を抽出し、
    第2と第3視点画素値抽出部は、前記撮像素子が出力する第2視点および第3視点に対応する第1色成分の画素値および第2色成分の画素値を有するカラー画像データから前記第1色成分の画素値および前記第2色成分の画素値を抽出する撮像装置。
  11. 被写体像のカラーを構成するn個(n≧2)の色成分の一つである特定色において、前記被写体像を捉える複数の視点の一つである第1視点に対応する第1視点カラー画像データから、対象画素位置における前記第1視点カラー画像データの前記特定色の画素値を抽出する第1視点画素値抽出ステップと、
    前記第1視点とは異なる第2視点および第3視点に対応する第2視点カラー画像データおよび第3視点カラー画像データから、前記対象画素位置における前記第2視点カラー画像データの少なくとも第1色成分と第2色成分の画素値および前記第3視点カラー画像データの少なくとも第1色成分と第2色成分の画素値を抽出する第2と第3視点画素値抽出ステップと、
    前記第2視点カラー画像データの新たに求める特定色の画素値を、該第2視点の新たに求める特定色の画素値と前記第1視点画素値抽出部が抽出した前記第1視点カラー画像データの特定色の画素値との間の差が、少なくとも
    1)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第1色成分の画素値と前記第3視点カラー画像データの第1色成分の画素値との間の差、及び
    2)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第2色成分の画素値と前記第3視点カラー画像データの第2色成分の画素値との間の差
    との和に対して相関を保つように算出する第2視点画素値算出ステップと
    をコンピュータに実行させる画像処理プログラム。
  12. 被写体像のカラーを構成するn個(n≧2)の色成分の一つである特定色において、前記被写体像を捉える複数の視点の一つである第1視点に対応する第1視点カラー画像データから、対象画素位置における前記第1視点カラー画像データの前記特定色の画素値を抽出する第1視点画素値抽出ステップと、
    前記第1視点とは異なる第2視点および第3視点に対応する第2視点カラー画像データおよび第3視点カラー画像データから、前記対象画素位置における前記第2視点カラー画像データの少なくとも第1色成分と第2色成分の画素値および前記第3視点カラー画像データの少なくとも第1色成分と第2色成分の画素値を抽出する第2と第3視点画素値抽出ステップと、
    前記第2視点カラー画像データの新たに求める特定色の画素値を、該第2視点の新たに求める特定色の画素値と前記第1視点画素値抽出部が抽出した前記第1視点カラー画像データの特定色の画素値との間の比が、少なくとも2つの比
    1)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第1色成分の画素値と、前記第3視点カラー画像データの第1色成分の画素値によって定義される比、及び
    2)前記第2と第3画素値抽出部が抽出した前記第2の視点カラー画像データの第2色成分の画素値と、前記第3視点カラー画像データの第2色成分の画素値によって定義される比
    の積に対して相関を保つように算出する第2視点画素値算出ステップと
    をコンピュータに実行させる画像処理プログラム。
  13. 被写体像のカラーを構成する複数の色成分の一つであるX成分色において、前記被写体像を捉える複数の視点の一つである第1視点に対応する1X画素値を有するカラー画像データから、対象画素位置における前記1X画素値を抽出し、
    前記複数の色成分の一つであるA成分色において、前記第1視点とは異なる第2視点および第3視点に対応する2A画素値および3A画素値を有するカラー画像データから、前記対象画素位置における前記2A画素値および前記3A画素値を抽出し、
    前記複数の色成分の一つであって前記A成分色とは異なるB成分色において、前記第2視点および前記第3視点に対応する2B画素値および3B画素値を有するカラー画像データから、前記対象画素位置における前記2B画素値および前記3B画素値を抽出する画素値抽出部と、
    前記X成分色に対する前記第2視点の2X画素値または前記第3視点の3X画素値と、前記1X画素値との差が、前記2A画素値と前記3A画素値との差に、前記2B画素値と前記3B画素値との差を加えた値に対して相関を保つように前記2X画素値および前記3X画素値の少なくともいずれかを算出する算出部と
    を備える画像処理装置。
  14. 前記算出部は、前記2X画素値または前記3X画素値と、前記1X画素値との差が、前記2A画素値と前記3A画素値との差に、前記2B画素値と前記3B画素値との差を加えた値に対して比例するように前記2X画素値および前記3X画素値の少なくともいずれかを算出する請求項13に記載の画像処理装置。
  15. 被写体像のカラーを構成する複数の色成分の一つであるX成分色において、前記被写体像を捉える複数の視点の一つである第1視点に対応する1X画素値を有するカラー画像データから、対象画素位置における前記1X画素値を抽出し、
    前記複数の色成分の一つであるA成分色において、前記第1視点とは異なる第2視点および第3視点に対応する2A画素値および3A画素値を有するカラー画像データから、前記対象画素位置における前記2A画素値および前記3A画素値を抽出し、
    前記複数の色成分の一つであって前記A成分色とは異なるB成分色において、前記第2視点および前記第3視点に対応する2B画素値および3B画素値を有するカラー画像データから、前記対象画素位置における前記2B画素値および前記3B画素値を抽出する画素値抽出部と、
    前記X成分色に対する前記第2視点の2X画素値または前記第3視点の3X画素値と前記1X画素値との比が、前記2A画素値と前記3A画素値によって定義される比に、前記2B画素値と前記3B画素値によって定義される比を乗じた値に対して相関を保つように前記2X画素値および前記3X画素値の少なくともいずれかを算出する算出部と
    を備える画像処理装置。
  16. 前記算出部は、前記2X画素値または前記3X画素値と、前記1X画素値との比が、前記2A画素値と前記3A画素値の相乗平均に、前記2B画素値と前記3B画素値の相乗平均を乗じた値に対して比例するように前記2X画素値および前記3X画素値の少なくともいずれかを算出する請求項15に記載の画像処理装置。
  17. 前記算出部は、前記2X画素値または前記3X画素値と、前記1X画素値との比が、前記2A画素値と前記3A画素値の相加平均に、前記2B画素値と前記3B画素値の相加平均を乗じた値に対して比例するように前記2X画素値および前記3X画素値の少なくともいずれかを算出する請求項15に記載の画像処理装置。
  18. 前記第1視点は、前記第2視点と前記第3視点の間の視点である請求項13から17のいずれか1項に記載の画像処理装置。
  19. 前記カラー画像データの画素値のそれぞれは、ガンマ変換後の値である請求項13または14に記載の画像処理装置。
  20. 前記対象画素位置を前記カラー画像データにおける画像領域に対して順次移動して、前記画素値抽出部および前記算出部に算出させた複数の画素値を用いて、前記第2視点および前記第3視点の少なくともいずれかに対応する前記X成分色の前記カラー画像データを生成する画像データ生成部を備える請求項13から19のいずれか1項に記載の画像処理装置。
  21. 前記画像データ生成部は、前記複数の色成分の全てに対応する前記第2視点および前記第3視点の前記カラー画像データが揃うように、前記複数の色成分における前記X成分色を変更して前記カラー画像データを生成する請求項20に記載の画像処理装置。
  22. 前記X成分色は、前記A成分色と同一である請求項13から21のいずれか1項に記載の画像処理装置。
  23. 前記被写体像を撮像する撮像素子と、
    請求項13から22のいずれか1項に記載の画像処理装置と
    を備える撮像装置であって、
    前記画素値抽出部は、前記撮像素子が出力する前記第1視点に対応する1X画素値を有するカラー画像データから前記1X画素値を抽出し、前記撮像素子が出力する第2視点および第3視点に対応する2A画素値および3A画素値を有するカラー画像データから前記2A画素値および前記3A画素値を抽出する撮像装置。
  24. 被写体像のカラーを構成する複数の色成分の一つであるX成分色において、前記被写体像を捉える複数の視点の一つである第1視点に対応する1X画素値を有するカラー画像データから、対象画素位置における前記1X画素値を抽出する第1抽出ステップと、
    前記複数の色成分の一つであるA成分色において、前記第1視点とは異なる第2視点および第3視点に対応する2A画素値および3A画素値を有するカラー画像データから、前記対象画素位置における前記2A画素値および前記3A画素値を抽出し、前記複数の色成分の一つであって前記A成分色とは異なるB成分色において、前記第2視点および前記第3視点に対応する2B画素値および3B画素値を有するカラー画像データから、前記対象画素位置における前記2B画素値および前記3B画素値を抽出する第2抽出ステップと、
    前記X成分色に対する前記第2視点の2X画素値または前記第3視点の3X画素値と、前記1X画素値との差が、前記2A画素値と前記3A画素値との差に、前記2B画素値と前記3B画素値との差を加えた値に対して相関を保つように前記2X画素値および前記3X画素値の少なくともいずれかを算出する算出ステップと
    をコンピュータに実行させる画像処理プログラム。
  25. 被写体像のカラーを構成する複数の色成分の一つであるX成分色において、前記被写体像を捉える複数の視点の一つである第1視点に対応する1X画素値を有するカラー画像データから、対象画素位置における前記1X画素値を抽出する第1抽出ステップと、
    前記複数の色成分の一つであるA成分色において、前記第1視点とは異なる第2視点および第3視点に対応する2A画素値および3A画素値を有するカラー画像データから、前記対象画素位置における前記2A画素値および前記3A画素値を抽出し、前記複数の色成分の一つであって前記A成分色とは異なるB成分色において、前記第2視点および前記第3視点に対応する2B画素値および3B画素値を有するカラー画像データから、前記対象画素位置における前記2B画素値および前記3B画素値を抽出する第2抽出ステップと、
    前記X成分色に対する前記第2視点の2X画素値または前記第3視点の3X画素値と前記1X画素値との比が、前記2A画素値と前記3A画素値によって定義される比に、前記2B画素値と前記3B画素値によって定義される比を乗じた値に対して相関を保つように前記2X画素値および前記3X画素値の少なくともいずれかを算出する算出ステップと
    をコンピュータに実行させる画像処理プログラム。
  26. 被写体像のカラーを構成する複数の色成分の一つであるX成分色において、前記被写体像を捉える複数の視点の一つである第1視点に対応する1X画素値を有するカラー画像データから、対象画素位置における前記1X画素値を抽出し、
    前記複数の色成分の一つであるA成分色において、前記第1視点とは異なる第2視点および第3視点に対応する2A画素値および3A画素値を有するカラー画像データから、前記対象画素位置における前記2A画素値および前記3A画素値を抽出し、
    前記複数の色成分の一つであって前記A成分色とは異なるB成分色において、前記第2視点および前記第3視点に対応する2B画素値および3B画素値を有するカラー画像データから、前記対象画素位置における前記2B画素値および前記3B画素値を抽出する画素値抽出部と、
    前記X成分色、前記A成分色および前記B成分色の組み合わせで表現される色空間からYCbCr空間に変換する変換部と、
    前記第2視点の輝度値Yまたは前記第3視点の輝度値Yと、前記第1視点の輝度値Yとの差が、前記第2視点の色差Cbと前記第3視点の色差Cbとの差に、前記第2視点の色差Crと前記第3視点の色差Crとの差を加えた値に対して相関を保つように前記第2視点の輝度値Yまたは前記第3視点の輝度値Yの少なくともいずれかを算出する算出部と
    を備える画像処理装置。
JP2012180648A 2012-03-16 2012-08-16 画像処理装置、撮像装置および画像処理プログラム Active JP6131545B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012180648A JP6131545B2 (ja) 2012-03-16 2012-08-16 画像処理装置、撮像装置および画像処理プログラム
CN201380014451.4A CN104185984B (zh) 2012-03-16 2013-03-14 图像处理装置、摄像装置及图像处理程序
PCT/JP2013/001745 WO2013136808A1 (ja) 2012-03-16 2013-03-14 画像処理装置、撮像装置および画像処理プログラム
US14/485,253 US9727985B2 (en) 2012-03-16 2014-09-12 Image processing apparatus, image-capturing apparatus, and storage medium having image processing program stored thereon

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012060732 2012-03-16
JP2012060732 2012-03-16
JP2012180648A JP6131545B2 (ja) 2012-03-16 2012-08-16 画像処理装置、撮像装置および画像処理プログラム

Publications (3)

Publication Number Publication Date
JP2013219736A true JP2013219736A (ja) 2013-10-24
JP2013219736A5 JP2013219736A5 (ja) 2015-09-03
JP6131545B2 JP6131545B2 (ja) 2017-05-24

Family

ID=49160731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012180648A Active JP6131545B2 (ja) 2012-03-16 2012-08-16 画像処理装置、撮像装置および画像処理プログラム

Country Status (4)

Country Link
US (1) US9727985B2 (ja)
JP (1) JP6131545B2 (ja)
CN (1) CN104185984B (ja)
WO (1) WO2013136808A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017038254A (ja) * 2015-08-11 2017-02-16 キヤノン株式会社 撮像装置、画像処理装置、画像処理方法およびプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014024500A1 (ja) 2012-08-10 2014-02-13 株式会社ニコン 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
CN105122793B (zh) 2013-03-29 2017-05-10 株式会社尼康 图像处理装置、摄像装置及图像处理程序
JPWO2014192300A1 (ja) 2013-05-31 2017-02-23 株式会社ニコン 撮像素子、撮像装置、および画像処理装置
JP6354838B2 (ja) 2014-04-04 2018-07-11 株式会社ニコン 撮像素子、撮像装置および画像処理装置
US9743015B2 (en) * 2015-05-22 2017-08-22 Samsung Electronics Co., Ltd. Image capturing apparatus and method of controlling the same
US11327018B2 (en) * 2018-04-13 2022-05-10 The Regents Of The University Of Michigan Sub-diffraction imaging, coding and decoding of non-bleaching scatters
CN109829852B (zh) * 2019-01-17 2023-04-25 浙江大华技术股份有限公司 颜色滤波阵列图像处理的方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004471A (ja) * 2005-06-23 2007-01-11 Nikon Corp 画像合成方法及び撮像装置
JP2009165115A (ja) * 2007-12-12 2009-07-23 Sony Corp 撮像装置
JP2011211381A (ja) * 2010-03-29 2011-10-20 Fujifilm Corp 立体撮像装置
WO2012002297A1 (ja) * 2010-06-30 2012-01-05 富士フイルム株式会社 撮像装置および撮像方法
WO2012039180A1 (ja) * 2010-09-24 2012-03-29 富士フイルム株式会社 撮像デバイス及び撮像装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4642678A (en) 1984-09-10 1987-02-10 Eastman Kodak Company Signal processing method and apparatus for producing interpolated chrominance values in a sampled color image signal
US5541653A (en) 1993-07-27 1996-07-30 Sri International Method and appartus for increasing resolution of digital color images using correlated decoding
JP3186448B2 (ja) 1994-08-01 2001-07-11 ミノルタ株式会社 立体テレビカメラ
JP4599672B2 (ja) 1999-12-21 2010-12-15 株式会社ニコン 補間処理装置および補間処理プログラムを記録した記録媒体
JP2003007994A (ja) 2001-06-27 2003-01-10 Konica Corp 固体撮像素子、立体カメラ装置及び測距装置
JP4239483B2 (ja) 2002-05-31 2009-03-18 株式会社ニコン 画像処理方法、画像処理プログラム、画像処理装置
JP4910699B2 (ja) 2004-07-07 2012-04-04 株式会社ニコン 画像処理装置
WO2009066770A1 (ja) 2007-11-22 2009-05-28 Nikon Corporation デジタルカメラおよびデジタルカメラシステム
WO2010004677A1 (ja) * 2008-07-08 2010-01-14 パナソニック株式会社 画像処理方法、画像処理装置、画像処理プログラム、画像合成方法、および画像合成装置
JP5254762B2 (ja) * 2008-11-28 2013-08-07 キヤノン株式会社 撮像装置、撮像システム、及び撮像装置における信号の補正方法
KR101629479B1 (ko) * 2009-11-04 2016-06-10 삼성전자주식회사 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
US20120105584A1 (en) * 2010-10-28 2012-05-03 Gallagher Andrew C Camera with sensors having different color patterns
US9532033B2 (en) 2010-11-29 2016-12-27 Nikon Corporation Image sensor and imaging device
US8742309B2 (en) 2011-01-28 2014-06-03 Aptina Imaging Corporation Imagers with depth sensing capabilities

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004471A (ja) * 2005-06-23 2007-01-11 Nikon Corp 画像合成方法及び撮像装置
JP2009165115A (ja) * 2007-12-12 2009-07-23 Sony Corp 撮像装置
JP2011211381A (ja) * 2010-03-29 2011-10-20 Fujifilm Corp 立体撮像装置
WO2012002297A1 (ja) * 2010-06-30 2012-01-05 富士フイルム株式会社 撮像装置および撮像方法
WO2012039180A1 (ja) * 2010-09-24 2012-03-29 富士フイルム株式会社 撮像デバイス及び撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017038254A (ja) * 2015-08-11 2017-02-16 キヤノン株式会社 撮像装置、画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
CN104185984B (zh) 2016-12-14
US20140375673A1 (en) 2014-12-25
JP6131545B2 (ja) 2017-05-24
US9727985B2 (en) 2017-08-08
CN104185984A (zh) 2014-12-03
WO2013136808A1 (ja) 2013-09-19

Similar Documents

Publication Publication Date Title
JP6131545B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP5804055B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2013038503A (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2013136819A1 (ja) 撮像素子、撮像装置および撮像システム
JP6131546B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP6354838B2 (ja) 撮像素子、撮像装置および画像処理装置
JP6003983B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
WO2013161313A1 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP5979134B2 (ja) 画像処理装置および画像処理プログラム
JP6288088B2 (ja) 撮像装置
JP6197316B2 (ja) 撮像素子および撮像装置
JP5874729B2 (ja) 撮像装置
JP5978736B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JPWO2013136820A1 (ja) 撮像素子および撮像装置
JP5979137B2 (ja) 撮像装置および撮像装置の制御プログラム
JP5887845B2 (ja) 画像処理方法および画像処理プログラム
JP5978737B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP5978738B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP6205770B2 (ja) 撮像素子および撮像システム
JP2014107594A (ja) 撮像素子および撮像装置
JP5978735B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2012212975A (ja) 撮像装置および撮像装置の制御プログラム
JP6051568B2 (ja) 撮像素子および撮像装置
JP2013090265A (ja) 画像処理装置および画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150714

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170403

R150 Certificate of patent or registration of utility model

Ref document number: 6131545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250