JP2012248001A - 画像処理装置および画像処理方法、プログラム - Google Patents

画像処理装置および画像処理方法、プログラム Download PDF

Info

Publication number
JP2012248001A
JP2012248001A JP2011119255A JP2011119255A JP2012248001A JP 2012248001 A JP2012248001 A JP 2012248001A JP 2011119255 A JP2011119255 A JP 2011119255A JP 2011119255 A JP2011119255 A JP 2011119255A JP 2012248001 A JP2012248001 A JP 2012248001A
Authority
JP
Japan
Prior art keywords
image data
region
focus
area
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011119255A
Other languages
English (en)
Other versions
JP5818514B2 (ja
JP2012248001A5 (ja
Inventor
Yuichi Nakada
有一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011119255A priority Critical patent/JP5818514B2/ja
Priority to US13/479,062 priority patent/US8942506B2/en
Publication of JP2012248001A publication Critical patent/JP2012248001A/ja
Publication of JP2012248001A5 publication Critical patent/JP2012248001A5/ja
Application granted granted Critical
Publication of JP5818514B2 publication Critical patent/JP5818514B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 複数の視点から撮像した撮像画像データに基づいて合成画像を生成する際に、合焦する領域がぼけてしまうのを抑制し、該合焦する領域外のぼけた領域の画質を向上させることを目的とする。
【解決手段】 領域ごとの合焦の状態を示す合焦状態情報に基づいて、撮像画像データと補間画像データとに対する重み係数を領域ごとに設定し、その重み係数に基づいて、撮像画像データと補間画像データとを合成する。合焦する領域における補間画像データに対する重み係数は、合焦する領域以外の領域の中の少なくとも一部の領域における補間画像データに対する重み係数よりも小さい。
【選択図】 図3

Description

本発明は、複数の視点から撮像した撮像画像に基づいて合成画像を生成する技術に関する。
従来、撮像画像データに対して画像処理を施すことにより被写界視度の浅い画像を生成する手法が提案されている。特許文献1では、シーンの背景領域をフィルタ処理でぼかすことにより、被写界深度の浅い画像を生成している。特許文献2および非特許文献1では、視点(撮像位置)の異なる複数枚の画像を視点とピントを合わせたい被写体距離に応じて変形し、それらを合成することにより被写界深度の浅い合成画像を生成している。
特開2011―10194号 特願2008−541051号
Uncalibrated Synthetic Aperture for Defocus Control, Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on Date:20−25 June 2009
しかしながら、特許文献1では背景を大きくぼかした場合に、被写体と背景の境界にアーティファクトが発生するなどの課題があった。特許文献2では背景を大きくぼかし被写界深度の浅い画像を生成できるものの、被写界深度外のぼけた領域(合焦する領域外のぼけた領域)の画質に課題があった。非特許文献1では、撮像画像間の中間視点画像を推定処理によって生成することで被写界深度外のぼけた領域の画質を向上させているが、一方で被写界深度内の領域(合焦する領域)までぼけてしまうという課題があった。これは、中間視点画像の生成の際に生じる誤差や中間視点画像の合成前の位置合わせの際の誤差等が原因である。
そこで本発明では、複数の視点から撮像した撮像画像データに基づいて合成画像を生成する際に、合焦する領域がぼけてしまうのを抑制し、該合焦する領域外のぼけた領域の画質を向上させることを目的とする。
上記の目的を達成するために、本発明の画像処理装置は、複数の視点から撮像した撮像画像データを入力する画像入力手段と、前記複数の視点から撮像した撮像画像データに基づいて、前記複数の視点以外の視点から撮像した場合に得られる補間画像データを生成する補間画像生成手段と、領域ごとの合焦の状態を示す合焦状態情報に基づいて、前記撮像画像データと前記補間画像データとに対する重み係数を該領域ごとに設定する設定手段と、
前記重み係数に基づいて、前記撮像画像データと前記補間画像データとを合成して合成画像データを生成する合成手段とを有し、合焦する領域における補間画像データに対する重み係数は、該合焦する領域以外の領域の中の少なくとも一部の領域における補間画像データに対する重み係数よりも小さいことを特徴とする。
本発明によれば、複数の視点から撮像した撮像画像データに基づいて合成画像を生成する際に、合焦する領域がぼけてしまうのを抑制し、該合焦する領域外のぼけた領域の画質を向上させる。
実施形態1における画像処理装置のシステム構成を示すブロック図。 実施形態1における撮像装置を表す図。 実施形態1おける機能構成を表す図。 実施形態1における処理の流れを示すフローチャート。 実施形態1における画像補間処理の流れを示すフローチャート。 実施形態1における撮像位置と仮想視点位置の関係を示す図。 実施形態1における奥行き推定処理の流れを示すフローチャート。 実施形態1における撮像位置の間隔と被写体までの距離との関係を示す図。 実施形態1における領域分割処理の流れを示すフローチャート。 実施形態1における領域分割画像の例を示す図。 実施形態1における画像合成処理の流れを示すフローチャート。 実施形態1における仮想絞りパラメータと重み係数の例を示す図。 実施形態1における重み付け加算処理の流れを示すフローチャート。 実施形態1における重み係数の例を示す図。 実施形態2における領域分割処理の流れを示すフローチャート。 実施形態2における領域分割画像の例を示す図。 実施形態2における重み付け加算処理の流れを示すフローチャート。
[実施形態1]
本実施形態では、図2に示すような複数のカメラユニット201〜209からなる撮像装置107で撮像した複数のパンフォーカス画像を基に、撮像位置を内挿するように補間画像を生成し、それらを合成することにより被写界深度の浅い合成画像を生成する。この際、画像中のピントを合わせたい領域(合焦する領域)においては、ぼかしたい領域(合焦していない領域)と比べ補間画像の寄与が小さくなるように合成処理を行う。なお、本実施形態においてカメラユニット201〜209は格子状に等間隔になるよう配置されており、各カメラユニットの上下軸、左右軸、光軸は全て同じ方向(又は略同じ方向)であるとする。また、本実施形態で生成する合成画像は、カメラユニット205により撮像された画像の被写界深度を浅くした画像である。
まず、本実施形態における画像処理装置のシステム構成例について、図1を用いて説明する。同図において、CPU101は、RAM102をワークメモリとして、ROM103及びハードディスクドライブ(HDD)105に格納されたプログラムを実行し、システムバス112を介して後述する各構成を制御する。これにより、後述する様々な処理が実行される。HDDインタフェイス(I/F)104は、HDD105や光ディスクドライブ、などの二次記憶装置を接続する。例えばシリアルATA(SATA)等のインタフェイスである。CPU101は、HDDI/F104を介して、HDD105からのデータ読み出し、およびHDD105へのデータ書き込みが可能である。さらにCPU101は、HDD105に格納されたデータをRAM102に展開し、同様に、RAM102に展開されたデータをHDD105に保存することが可能である。そしてCPU101は、RAM102に展開したデータをプログラムとみなし、実行することができる。撮像インタフェイス(I/F)106は、図2に示すような複数の同一なカメラユニット201〜209からなる撮像装置107などを接続する、例えばUSBやIEEE1394などのシリアルバスインタフェイスである。CPU101は、撮像I/F106を介して撮像装置107を制御し、撮像を行うことが可能である。さらに、CPU101は、撮像I/Fを介して撮像装置107から撮像したデータを読み込むことが可能である。入力インタフェイス(I/F)108は、キーボードやマウスなどの入力デバイス109を接続する、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU101は、入力I/F108を介して入力デバイス109からデータを読み込むことが可能である。出力インタフェイス(I/F)110は、画像表示装置等の出力デバイス111を接続する。例えばDVIやHDMI等の映像出力インタフェイスである。CPU101は、出力I/F110を介して出力デバイス111にデータを送り、表示を実行させることができる。
次に、本実施形態に係る一連の処理を行う際の機能構成について、図3を用いて説明する。CPU101の機能部としての撮像データ入力部301は、撮像画像データ308および撮像装置情報309を撮像装置107あるいはROM103、HDD105等の記憶装置から取得する。撮像画像データ308は、撮像装置107によって撮像された異なる視点位置(撮像位置)から撮像された複数の画像データを含む。また、撮像装置情報309は、撮像画像データを撮像する際の撮像装置107の画角や撮像位置を含む。また、CPU101の機能部としてのパラメータ入力部302は、仮想的なピント面までの距離(焦点距離)の情報を含む仮想ピントパラメータ(仮想焦点距離情報)310を、入力デバイス109あるいはROM103、HDD105等の記憶装置から取得する。また、パラメータ入力部302は、仮想的な絞り量の情報を含む仮想絞りパラメータ(仮想絞り量情報)311を、入力デバイス109等から取得する。このように、パラメータ入力部は、仮想的な焦点距離を示す焦点距離情報を入力する焦点距離入力という機能と、仮想的な絞り量を示す絞り量情報を入力する絞り量入力という機能を有している。そして、CPU101の機能部としての画像補間処理部303は、まず撮像画像データ308および撮像装置情報309に基づき、撮像画像データ308の撮像位置を内挿するように仮想視点位置情報313を設定する。そして、画像補間処理部303は、撮像画像データ308を基に各仮想視点位置情報313が示す仮想視点位置から撮像した場合に得られる補間画像データ312を生成する。CPU101の機能部としての距離推定処理部304は、撮像画像データ308および撮像装置情報309に基づき、ステレオマッチングにより撮像シーンのデプス値を領域ごとの推定し、デプス画像データ314を生成する。デプス画像データ314は、各領域ごと(又は各画素ごと)の被写体までの距離情報を有する画像データである。CPU101の機能部としての領域分割処理部305は、仮想ピントパラメータ310及びデプス画像データ314に基づき、撮像シーンにおけるピントを合わせたい領域、ぼかしたい領域に分割し、領域分割画像データ315を生成する。CPU101の機能部としての画像合成部306は、撮像装置情報309、仮想視点位置情報313、仮想ピントパラメータ310、仮想絞りパラメータ311、領域分割画像データ315を取得する。そして、画像合成部306はこれらの情報に基づいて、撮像画像データ308と補間画像データ312を合成し、合成画像データ316を生成する。最後に、CPU101の機能部としての画像出力部307は、合成画像データ316を出力デバイス111へ出力したり、HDD105へ保存したりする。
図4は、本実施形態の画像処理装置における一連の処理の動作手順を示すフローチャートである。詳細には、図4のフローチャートに示す手順を記述したコンピュータ実行可能なプログラムをROM103あるいはHDD105からRAM102上に読み込んだ後に、CPU101によって該プログラムを実行することによって当該処理が実行される。以下、図4に示す各処理について説明する。
まずステップS401において、撮像データ入力部301は、撮像装置107を用いて撮像画像データ308を撮像し、撮像画像データ308および撮像装置107の各カメラユニットの画角や撮像位置を含む撮像装置情報309を取得する。あるいは、予めROM103やHDD105などの記録装置に撮像画像データ308および撮像装置107の各カメラユニットの画角や撮像位置などの撮像装置情報309を保持しておき、これを撮像データ入力部301が取得するようにしてもよい。
次にステップS402において、パラメータ入力部302は入力デバイス109から仮想ピント距離(焦点距離)を含む仮想ピントパラメータ310および画像合成時に使用する各画像の重み係数を含む仮想絞りパラメータ311を取得する。あるいは、予めROM103やHDD105などの記録装置に仮想ピントパラメータ310および仮想絞りパラメータ311を保持しておき、これをパラメータ入力部302が取得するようにしてもよい。
次にステップS403において、画像補間処理部303はS401で取得した撮像画像データ308および撮像装置情報309を基に、撮像画像データ308の撮像位置を内挿するように撮像位置(視点位置)以外の位置を示す仮想視点位置情報313を設定する。そして、撮像画像データ308を基に各仮想視点位置情報313が示す視点位置以外の視点から得られる補間画像データ312を補間処理によって生成する。S403で行う画像補間処理については後に詳述する。
次にステップS404において、距離推定処理部304はS401で取得した撮像画像データ308および撮像装置情報309を基に、距離推定処理を用いて撮像したシーンの奥行きを推定しシーンのデプス画像データ314を生成する。S404で行う距離推定処理については後に詳述する。
次にステップS405において、S402で取得した仮想ピントパラメータ310およびS403で取得したデプス画像データ314を基に、2領域にシーンを分割し領域分割画像データ315を生成する。ここで、2領域とはピントを合わせたい領域(ピント内領域、合焦する領域)とぼかしたい領域(ピント外領域)である。S405で行う領域分割処理については後に詳述する。
次にステップS406において、撮像装置情報309、仮想絞りパラメータ311、仮想視点位置情報313、領域分割画像データ315を基に、撮像画像データ308および補間画像データ312を合成し、合成画像データ316を生成する。S406で行う画像合成処理については後に詳述する。
次にステップS407において、画像出力部307は合成画像データ316を出力デバイス111に表示したり、HDD105などの記録装置に記録したりする。
<画像補間処理>
ここでは、ステップS403で行う画像補間処理について説明する。画像補間処理では、撮像画像データ308の撮像位置を内挿するように撮像位置(視点位置)以外の位置を示す仮想視点位置情報313を設定する。そして、視差補間処理を用いて撮像画像データ308を基に各仮想視点位置情報313が示す位置(視点以外の位置)に対応する補間画像データ312を生成する。以下、図5に示すフローチャートを用い画像補間処理の詳細を説明する。
まずステップS501において、補間画像データを生成する際の仮想視点位置を示す仮想視点位置情報313の設定を行う。撮像位置と仮想視点位置との関係を図6(a)に示す。x軸601、y軸602、z軸603はそれぞれ各カメラユニットの水平方向、垂直方向、光軸方向に対応し、カメラユニット205の撮像位置を原点として直交しているものとする。仮想視点位置は各撮像位置を内挿するように設定する。本実施形態では、図6に示すように撮像位置を等間隔に内挿するよう格子状に仮想視点位置を配置する。
次にステップS502において、撮像画像データ308の中から撮像位置が横方向に隣接する2画像を順に選択し、視差補間処理を用いて2画像間の仮想視点位置情報313が示す仮想視点位置に対応する補間画像データ312を生成する。図6(b)にS502で補間画像データを生成する仮想視点位置を示す。視差補間処理には既存の方法を利用する。例えば、2画像を用いてブロックマッチングを行いて算出した各画素の視差量を基に、仮想視点位置情報313が示す仮想視点位置に対応する補間画像データ312を生成してもよい。あるいは2画像から抽出した特徴点を対応付け、各特徴点の対応関係を基にモーフィング処理を行うことで仮想視点位置に対応する補間画像データ312を生成することもできる。
次にステップS503において、撮像画像データ308およびS502で生成した補間画像データ312の中から撮像位置が縦方向に隣接する画像のペアを順に選択し、視差補間処理を用いて二画像間の仮想視点位置情報313に対応する補間画像データを生成する。図6(c)にS503で補間画像データを生成する仮想視点位置情報313を示す。視差補間処理はS502と同様の手法を適用可能である。
最後にステップS504においてS502およびS503で生成した補間画像データ312を出力する。
<距離推定処理>
ここでは、ステップS404で行う距離推定処理について説明する。距離推定処理では、位置の異なる複数の撮像画像データ308を基に、撮像したシーンの距離を推定することでデプス画像データ314を生成する。例えば、ステレオ法、マルチベースラインステレオ法などの距離推定法が適用可能である。本実施形態では、ステレオ法によって距離推定を行う。以下、図7に示すフローチャートを用い、距離推定処理の詳細を説明する。
まずステップS701において、撮像画像データ308から処理に使用する2画像を選択する。本実施形態では撮像装置107の中央のカメラユニット205で撮像された画像と、それと横方向に隣接するカメラユニット206で撮像された画像を選択するものとする。以下、前者を基準画像、後者を対象画像とする。
次にステップS702において、以降の処理を行う注目画像を初期化する。
次にステップS703において、全画素で距離値が求められているかを判定する。全画素で距離値が求められている場合はステップS707へ進み、距離値の求められていない画素がある場合はステップS704へ進む。
次にステップS704では、まず基準画像の注目画素(i,j)とその周囲の画素からなる領域を選択する。そして選択したブロックを用いて対象画像とパターンマッチングを行い、対象画像中から注目画素に対応する画素(対応画素)を求める。
次にステップS705において、撮像装置情報309と注目画素(i,j)とS704で求めた対応画素を基に注目画素に対応する被写体までの距離値D(i,j)を求める。距離値Dは、図8に示すα、β、sを基に以下の式(1)で表される。
Figure 2012248001
ここで、αはカメラユニット205の水平画角、基準画像の撮像位置、注目画素の座標から算出される。βはカメラユニット206の水平画角、対象画像の撮像位置、対象画素の座標から算出される。sはカメラユニット間の距離であり、基準画像および対象画像の撮像位置より算出される。
次にステップS706において、注目画素を更新しS703へ戻る。
最後にステップS707において、各画素値を基準画像の距離値とするデプス画像データ314を出力する。
なお、本実施形態ではステップS701において、カメラユニット205、206を選択し距離推定を行ったが、距離推定可能なカメラの組み合わせはこれに限るものではない。例えば、対象画像として他のカメラユニットを選択しても構わない。より正確な距離推定処理のためにはカメラ間の距離sが大きければ大きいほどよい。また、本実施形態のデプス画像データ314は、各画素ごとの被写体までの距離情報を有する画像データであるとしたが、複数の画素から構成される領域ごとの距離情報を有する画像データであっても良い。
<領域分割処理>
ここでは、ステップS405で行う領域分割処理について説明する。領域分割処理では、S402で取得した仮想ピントパラメータ310およびS405で取得したデプス画像データ314を基に、ピントを合わせたい領域とそれ以外の領域にシーンを分割し領域分割画像データ315を生成する。以下、図9に示すフローチャートを用い、領域分割処理の詳細を説明する。
まずステップS901において、ピント内領域の設定を行う。仮想ピントパラメータ310より得られる仮想ピント距離をd、デプス画像データ314の画素値をD(i,j)とする。このとき、D(i,j)=dとなる画素(i,j)の集合をピント内領域とする。
次にステップS902において、ピント外領域の設定を行う。デプス画像データ314においてピント内領域を以外の画素の集合をピント外領域とする。すなわち、ピント内領域は、被写体に合焦する領域に対応している。ピント外領域は、被写体に合焦する領域以外の領域に対応している。
最後にステップS904において、ピント内領域、ピント外領域にそれぞれ異なるラベル値を割り当てた画像を領域分割画像データ315として出力する。この領域分割画像データ315は、画素ごとのピント(合焦)の状態を示す合焦状態情報を有する。
以上の処理によって得られる領域分割画像データ315の例を図10に示す。デプス画像データ314を距離値d、d、dからなる画像、仮想ピントパラメータ310から得られる仮想ピント距離がdとする。この場合では、デプス画像データ314において距離値がdとなる画素の集合をピント内領域、それ以外の距離値がd、dとなる画素の集合をピント外領域となる。本実施形態の領域分割画像データ315は、各画素ごとのピント(合焦)の状態を示す合焦状態情報を有するとしたが、複数の画素から構成される領域ごとのピント(合焦)の状態を示す合焦状態情報を有するとしても良い。
なお、本実施形態ではステップS901において、デプス画像データ314における画素値D(i,j)が仮想ピント距離dと等しい領域をピント内領域としたが、ピント内領域の設定方法はこれに限るものではない。例えば、d−α≦D(i,j) ≦d+αを満たす画素D(i,j)をピント内領域としてもよい。α、αの値は合成画像データ316における仮想的な被写界深度情報を基に決めてもよい。例えば、合成画像データ316の被写界深度が深い場合はα、αの値を大きくし、深度が浅い場合はα、αの値を小さくするなどしてもかまわない。α、αは入力デバイス109を介してユーザーが入力しても良いし、ROM103やHDD105が保持しておき領域分割処理の際にCPU101に入力されても良い。この場合、不図示の被写界深度入力部が、これらの入力を制御する。なお、合成画像データ316の仮想的な被写界深度は仮想絞りパラメータ311から判断できる。仮想絞りパラメータ311の係数をガウス関数に従って決めている場合、ガウス関数を決定する標準偏差の値によって深度が判断できる。このとき、標準偏差が小さいほど深度は深くなり、標準偏差が大きいほど深度は浅くなる。
<画像合成処理>
ここでは、ステップS406で行う画像合成処理について説明する。画像合成処理では、まず仮想絞りパラメータ311を基に、各画像に対する重み係数をピント内領域とピント外領域でそれぞれ設定する。そして、撮像装置情報309および仮想視点位置情報313を基に、各画像をシフトし領域毎に異なる重み係数を用いて重み付け加算を行い、合成画像データ316を生成する。以下、図11に示すフローチャートを用い、画像合成処理の詳細を説明する。
まずステップS1101において、ステップS402で取得した仮想絞りパラメータ311を基に、画像を合成する際に用いる2つの重み係数を設定する。まず図12を用いて仮想絞りパラメータとピント内領域およびピント外領域に対応する重み係数について説明する。仮想絞りパラメータ311は撮像画像データ308および補間画像データ312に対する係数のセットである。各撮像位置および仮想視点位置情報313をそれぞれPと表し、Pに対応する撮像画像データ308あるいは補間画像データ312を画像Iとする。このとき、Iに対応する仮想絞りパラメータ311の値をA(m)、ピント内領域、ピント外領域における重み係数の値をそれぞれWin(m),Wout(m)とする。本実施形態におけるPmとA(m)、Win(m),Wout(m)の関係を図12に示す。ここでA(m)はP12を中心としたガウス関数に従い、総和が1になるよう正規化された値を設定している。A(m)をガウス関数に従うように設定することにより、合成時にピント外領域を滑らかにぼかすことができる。また、Win(m),Wout(m)はA(m)を基に以下の式(2)(3)を用いて設定される。
Figure 2012248001
なお、kはA(m)における撮像画像に対応する係数の和であり、これによりWinの和が1になるよう正規化を行っている。本実施形態ではピント内領域において補間画像データ312が寄与しないよう、対応する重み係数を0としている。また、ピント外領域では、仮想絞りパラメータ311の値をそのまま利用する。
次にステップS1102において、撮像装置情報309および仮想視点位置情報313を基に各画像のシフト量を算出する。ピント距離をdとした際の画像Iの水平方向のシフト量△i(m、d)および垂直方向のシフト量△j(m、d)は以下の式(4)(5)で表される。
Figure 2012248001
ここで、W、Hはそれぞれ画像の水平方向、垂直方向の画像サイズ、θwはカメラユニットの水平視野角、θhはカメラユニットの垂直視野角である。また、(sm,tm)はxy平面上におけるPmの座標、(s‘,t’)はxy平面上におけるカメラユニット205の撮像位置P12の座標である。
次にステップS1103において、ステップS1102で求めたシフト量、ステップS1101で求めた重み係数および領域分割画像データ315を用いて、撮像画像データ308および補間画像データ312に対して重み付け加算処理を行う。これにより、合成画像データ316を生成する。重み付け加算処理のフローチャートを図13に示す。まずステップS1301において、注目画素(i,j)の初期化を行う。次にステップS1302において、全ての画素について合成処理が行われたかを判定する。未処理の画素がある場合はステップS1303へ進み、全画素が処理済みなら重み付け加算処理を終了する。ステップS1303では、領域分割画像データ315を参照し注目画素がピント内領域に含まれるか否かを判定する。注目画素がピント内領域に含まれる場合はステップS1304、ピント外領域に含まれる場合はステップS1305に進む。ステップS1304では重み係数Winを用いて重み付け加算を行う。合成画像データ316をHとしたとき、合成処理は以下の式(6)で表される。
Figure 2012248001
式(6)は、撮像画像データまたは補間画像データIのそれぞれについて設定されている重み係数WinをIに乗じ、かつシフト量△i及び△jに基づいて画像データIをシフトさせ、それらを足し合わせることで合成画像データを取得することを意味している。
ステップS1305では重み係数Woutを用いて重み付け加算を行う。合成画像データ316をHとしたとき、合成処理は以下の式(7)で表される。
Figure 2012248001
式(7)は撮像画像データまたは補間画像データIのそれぞれについて設定されている重み係数WoutをIに乗じ、かつシフト量△i及び△jに基づいて画像データIをシフトさせ、それらを足し合わせることで合成画像データを取得することを意味している。
ステップS1306では注目画素を更新しステップ1302に戻る。
最後にステップS1104において、生成いた合成画像データ316を出力する。
なお、本実施形態ではステップS1101において、ピント内領域においては補間画像データ312が寄与しないように重み係数Winの値をゼロと設定したが、ピント内領域における重み係数Winの設定方法はこれに限るものではない。例えば、補間画像データ312の寄与が十分小さくなるよう重み係数をゼロに近い値としてもよい。あるいは、ピント外領域における補間画像データの重み係数の和が、ピント内領域における補間画像データの重み係数の和よりも小さくなるようにピント外領域における重み係数を決定してもよい。具体的な重み係数の例を図14(a)に示す。このように本実施形態では、ピント内領域において補間画像データの寄与を少なくすることにより、ピント内領域(被写界深度内の領域)における合成に起因するぼけを抑制することができる。
以上の通り、本実施例によれば、複数の視点から撮像した撮像画像データに基づいて合成画像を生成する際に、ピント内領域(被写界深度内の領域)がぼけてしまうことを抑制し、かつ、被写界深度外のぼけた領域の画質を向上させることができる。
また、本実施形態では領域分割画像データ315はピント内領域とピント外領域を示すラベル値を割り当てた画像データであるとしたが、本実施形態の目的を逸脱しない範囲内でこれに限らない。即ち、ピント内領域における補間画像データに対する重み係数が、ピント外領域の少なくとも一部の領域における重み係数よりも小さければよい。これにより、ピント内領域が合成によりぼけてしまうことを抑制すると同時に、ピント外領域の少なくとも一部の領域においては画質の高いぼけを生成することができる。
<変形例>
・本実施形態ではステップS404の距離推定処理によりデプス画像データ314を生成していたが、デプス画像データの生成方法はこれに限るものではない。例えば、シーンの奥行きを外部のセンサを利用して測定し、それを基にデプス画像データを生成してもかまわない。あるいは、新たに撮像装置107に測距センサを設け、それを基にデプス画像データを生成してもかまわない。
・本実施形態では、ピント内領域においては、例えば図12、図14(a)の重み係数Winに基づいて複数の画像データの合成処理を行うとした。しかし、ピント内領域においては合成処理を行わず、例えばI15の画像データのみを利用しても良い。この場合の重み係数Winは図14(b)のようになる。この場合であっても、ピント外領域においては、例えば、図12の重み係数Woutに基づいて合成処理を行うことになる。(重み係数Woutは図12にのみ図示されているので図14は削除しました。また、図14(b)の例1は、図14(a)の例1と同様のため、添付ファイルC411012_図面_追加分.pptxでは削除しました。)
・本実施形態では撮像装置107で撮像する画像はパンフォーカス画像としたが、それに限らない。例えば、被写界深度の浅い画像に対して合成処理を行っても良い。
・本実施形態では、ピント内領域において撮像位置P12に近い撮像位置の撮像画像ほど重みが大きくなるように重み係数Winを設定した。しかし、撮像位置によらず各撮像画像に対する重みが等しくなるよう重み係数Winを設定してもよい。この場合の重み係数は図14(c)のようになる。この場合であっても、ピント外領域においては、例えば図12の重み係数Woutに基づいて合成処理を行うことになる。こうすることで、他の重み係数よりもピント内領域のS/Nが向上する。
[実施形態2]
実施形態1ではシーンをピント内領域とピント外領域の2領域に分割した。実施形態2では、これらの境界に中間領域を設定することでシーンを3領域に分割し、ピント内領域とピント外領域の境界を滑らかに接続にする。
実施形態2では実施形態1と比較し、ステップS405で行う領域分割処理とステップS406で行う画像合成処理が異なる。以下、領域分割処理および画像合成処理の詳細を説明する。その他、実施形態1と共通する説明は省略する。
<領域分割処理>
図15に示すフローチャートを用い、領域分割処理の詳細を説明する。
まず、ステップS1501において、ピント内領域の設定を行う。処理はステップS901と同様の処理を行えばよい。
次にステップS1502において、中間領域設定を実行する。ステップS1501で得られたピント内領域を基に、その周辺を中間領域とする。本実施形態では、ピント内領域からの距離がr以内となる画素の集合を中間領域とする。
次にステップS1503において、ピント外領域の設定を行う。デプス画像データ314から、ピント内領域および中間領域を除いた画素の集合をピント外領域とする。
最後にステップS1504において、ピント内領域、ピント外領域、中間領域にそれぞれ異なるラベルを割り当てた画像を分割画像315として出力する。
以上の処理によって得られる領域分割画像データ315の例を図16に示す。デプス画像データ314を距離値d0、d1、d2からなる画像、仮想ピントパラメータ310から得られる仮想ピント距離がd2とする。この場合では、デプス画像データ314において距離値がd2となる画素の集合をピント内領域、ピント内領域からの距離がr以内である画素の集合を中間領域、それ以外の画素の集合がピント外領域となる。
また、本実施形態ではステップS1502において、中間領域をピント内領域からの距離がr以内の画素と集合としたが、中間領域の設定方法はこれに限るものではない。例えば、rの値常に固定するのではなく、ピント内領域周辺の距離値を基にデプス画像データ314に応じて動的に決めてもよい。例えば、ピント内領域周辺の距離値の変化が小さい場合はrを大きくし、変化が大きい場合はrを小さくするなどしてもかまわない。あるいは、合成画像データ316における仮想的な被写界深度を基にrの値を決めてもよい。例えば、合成画像データ316の深度が深い場合はrを大きくし、深度が浅い場合はrを小さくするなどしてもかまわない。なお、合成画像データ316の深度は仮想絞りパラメータ311から判断できる。仮想絞りパラメータ311の係数をガウス関数に従って決めている場合、ガウス関数を決定する標準偏差の値によって深度が判断できる。このとき、標準偏差が小さいほど深度は深くなり、標準偏差が大きいほど深度は浅くなる。
<画像合成処理>
ここでは、ステップS406で行う画像合成処理について説明する。実施形態1とは、ステップS1103で行う重み付け加算処理のみが異なる。以下、本実施形態における重み付け加算処理について説明する。
図17に示すフローチャートを用い、重み付け加算処理の詳細を説明する。
まずステップS1701において、注目画素(i,j)の初期化を行う。次にステップS1702において、全ての画素について合成処理が行われたかを判定する。未処理の画素がある場合はステップS1703へ進み、全画素が処理済みなら重み付け加算処理を終了する。ステップS1703では、領域分割画像データ315を参照し注目画素がピント内領域、ピント外領域、中間領域の内どの領域に含まれるか判定する。注目画素がピント内領域に含まれる場合はステップS1704、ピント外領域に含まれる場合はステップS1705、中間領域に含まれる場合はステップS1706に進む。ステップS1704では重み係数Winを用いて重み付け加算を行う。合成画像データ316をHとしたとき、合成処理は以下の式(8)で表される。
Figure 2012248001
式(8)は、撮像画像データまたは補間画像データIのそれぞれについて設定されている重み係数WinをIに乗じ、かつシフト量△i及び△jに基づいて画像データIをシフトさせ、それらを足し合わせることで合成画像データを取得することを意味している。
ステップS1705では重み係数Woutを用いて重み付け加算を行う。合成画像データ316をHとしたとき、合成処理は以下の式(9)で表される。
Figure 2012248001
式(9)は撮像画像データまたは補間画像データIのそれぞれについて設定されている重み係数WoutをIに乗じ、かつシフト量△i及び△jに基づいて画像データIをシフトさせ、それらを足し合わせることで合成画像データを取得することを意味している。
ステップS1706では重み係数WinおよびWoutを基に重み係数Wmidを生成し、Wmidを用いて重み付け加算を行う。Wmidは以下(10)の式のように補間処理によって算出する。
Figure 2012248001
ここで、αは中間領域の範囲を決める距離rと、ピント内領域から注目画素までの距離によって定まる0以上1以下の係数である。αの値は注目画素がピント内画素に近いほど1に近づき、ピント外領域に近づくほど0に近い値となる。合成画像データ316をHとしたとき、合成処理はwmidを用いて以下の式(11)で表される。
Figure 2012248001
式(11)は撮像画像データまたは補間画像データIのそれぞれについて設定されている重み係数WmidをIに乗じ、かつシフト量△i及び△jに基づいて画像データIをシフトさせそれらを足し合わせることで合成画像データを取得することを意味している。
ステップS1707では注目画素を更新しステップ1702に戻る。
以上説明した処理を行うことで、複数の画像からより被写界深度の浅い画像を生成する際に、被写界深度内の領域と被写界深度外の領域との境界を滑らかに接続しつつ、被写界深度内の領域をぼかさずに被写界深度外の領域をきれいにぼかすことができる。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (9)

  1. 複数の視点から撮像した撮像画像データを入力する入力手段と、
    前記複数の視点から撮像した撮像画像データに基づいて、前記複数の視点以外の視点から撮像した場合に得られる補間画像データを生成する画像補間手段と、
    領域ごとの合焦の状態を示す合焦状態情報に基づいて、前記撮像画像データと前記補間画像データとに対する重み係数を該領域ごとに設定する設定手段と、
    前記重み係数に基づいて、前記撮像画像データと前記補間画像データとを合成して合成画像データを生成する合成手段とを有し、
    合焦する領域における補間画像データに対する重み係数は、該合焦する領域以外の領域の中の少なくとも一部の領域における補間画像データに対する重み係数よりも小さいことを特徴とする画像処理装置。
  2. 前記領域は画素であることを特徴とする請求項1に記載の画像処理装置。
  3. 焦点距離を示す焦点距離情報を入力する焦点距離入力手段と、
    前記領域ごとの被写体までの距離を取得する取得手段とを更に有し、
    前記領域ごとの合焦の状態を示す合焦状態情報は、前記焦点距離情報と前記被写体までの距離とに基づいて決定されることを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記取得手段は、前記撮像画像データに基づいて被写体までの距離を取得することを特徴とする請求項3に記載の画像処理装置。
  5. 被写界深度を示す被写界深度情報を入力する被写界深度入力手段を更に有し、
    前記領域ごとの合焦の状態を示す合焦状態情報は、前記焦点距離情報と前記被写界深度情報と前記被写体までの距離とに基づいて決定されることを特徴とする請求項3又は4に記載の画像処理装置。
  6. 前記合焦する領域の補間画像データに対する重み係数は、ゼロであることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  7. 前記合焦する領域と、該合焦する領域以外の領域との間に中間領域を設定する中間領域設定手段を更に有し、
    前記合成手段は、前記中間領域に対して、合焦する領域の補間画像データに対する重み係数と合焦する領域以外の領域の補間画像データに対する重み係数との間の重み係数を用いて合成することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 複数の視点から撮像した撮像画像データを入力する入力工程と、
    前記複数の視点から撮像した撮像画像データに基づいて、前記複数の視点以外の視点から撮像した場合に得られる補間画像データを生成する画像補間工程と、
    領域ごとの合焦の状態を示す合焦状態情報に基づいて、前記撮像画像データと前記補間画像データとに対する重み係数を該領域ごとに設定する設定工程と、
    前記重み係数に基づいて、前記撮像画像データと前記補間画像データとを合成して合成画像データを生成する合成工程とを有し、
    合焦する領域における補間画像データに対する重み係数は、該合焦する領域以外の領域の中の少なくとも一部の領域における補間画像データに対する重み係数よりも小さいことを特徴とする画像処理方法。
  9. コンピュータを請求項1乃至7のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2011119255A 2011-05-27 2011-05-27 画像処理装置および画像処理方法、プログラム Active JP5818514B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011119255A JP5818514B2 (ja) 2011-05-27 2011-05-27 画像処理装置および画像処理方法、プログラム
US13/479,062 US8942506B2 (en) 2011-05-27 2012-05-23 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011119255A JP5818514B2 (ja) 2011-05-27 2011-05-27 画像処理装置および画像処理方法、プログラム

Publications (3)

Publication Number Publication Date
JP2012248001A true JP2012248001A (ja) 2012-12-13
JP2012248001A5 JP2012248001A5 (ja) 2014-06-05
JP5818514B2 JP5818514B2 (ja) 2015-11-18

Family

ID=47219263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011119255A Active JP5818514B2 (ja) 2011-05-27 2011-05-27 画像処理装置および画像処理方法、プログラム

Country Status (2)

Country Link
US (1) US8942506B2 (ja)
JP (1) JP5818514B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014158070A (ja) * 2013-02-14 2014-08-28 Canon Inc 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2015111822A (ja) * 2013-10-30 2015-06-18 株式会社モルフォ 画像処理装置、画像処理方法及びプログラム
JP2019092215A (ja) * 2019-02-21 2019-06-13 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6000520B2 (ja) * 2011-07-25 2016-09-28 キヤノン株式会社 撮像装置およびその制御方法およびプログラム
KR102049080B1 (ko) * 2013-03-28 2020-01-08 삼성전자주식회사 영상 처리 장치 및 방법
JP2014230251A (ja) * 2013-05-27 2014-12-08 ソニー株式会社 画像処理装置、および画像処理方法
JP2015129846A (ja) * 2014-01-07 2015-07-16 キヤノン株式会社 撮像装置およびその制御方法
JP6381266B2 (ja) * 2014-04-15 2018-08-29 キヤノン株式会社 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US10726593B2 (en) 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US9940541B2 (en) 2015-07-15 2018-04-10 Fyusion, Inc. Artificially rendering images using interpolation of tracked control points
US10176592B2 (en) 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
CN106507069B (zh) * 2016-11-29 2018-06-05 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106507019B (zh) 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
TWI701637B (zh) * 2018-07-02 2020-08-11 緯創資通股份有限公司 影像合成方法與系統
WO2020188929A1 (ja) * 2019-03-18 2020-09-24 ソニー株式会社 撮像装置、情報処理方法、およびプログラム
KR20200117562A (ko) * 2019-04-04 2020-10-14 삼성전자주식회사 비디오 내에서 보케 효과를 제공하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
US11823355B2 (en) * 2021-02-02 2023-11-21 Nvidia Corporation Depth based image sharpening

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229198A (ja) * 2004-02-10 2005-08-25 Sony Corp 画像処理装置および方法、並びに、プログラム
JP2006067521A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 画像処理装置と方法、および画像撮像装置と方法
JP2007514248A (ja) * 2003-12-16 2007-05-31 シーレーテ エルエルシー レンズ欠陥の補正
JP2008515110A (ja) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 撮像の装置と方法
JP2008271240A (ja) * 2007-04-20 2008-11-06 Fujifilm Corp 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2009532993A (ja) * 2006-04-04 2009-09-10 アドビ システムズ インコーポレーテッド 改良型プレノプティック・カメラ
US20100103175A1 (en) * 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image
JP2010161744A (ja) * 2009-01-09 2010-07-22 Canon Inc 画像処理装置および画像処理方法
JP2011010194A (ja) * 2009-06-29 2011-01-13 Nikon Corp ボカシ画像形成装置及びそれを備えたカメラ
JP2011019245A (ja) * 2007-12-28 2011-01-27 Sanyo Electric Co Ltd 画像処理装置および撮影装置
JP2011022796A (ja) * 2009-07-15 2011-02-03 Canon Inc 画像処理方法および画像処理装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002300373A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd 画像処理方法、画像処理装置、記録媒体及びプログラム
US7826139B2 (en) * 2003-12-16 2010-11-02 The Invention Science Fund I, Llc Image correction using individual manipulation of microlenses in a microlens array
WO2006119262A2 (en) 2005-05-02 2006-11-09 The Curators Of The University Of Missouri Detection of carbohydrate biomarkers
CN101297545B (zh) * 2005-10-28 2012-05-02 株式会社尼康 摄影装置、图像处理装置
US7623726B1 (en) * 2005-11-30 2009-11-24 Adobe Systems, Incorporated Method and apparatus for using a virtual camera to dynamically refocus a digital image
KR101412752B1 (ko) * 2007-11-26 2014-07-01 삼성전기주식회사 디지털 자동 초점 영상 생성 장치 및 방법
US8325268B2 (en) * 2007-12-28 2012-12-04 Sanyo Electric Co., Ltd. Image processing apparatus and photographing apparatus
JP4497211B2 (ja) * 2008-02-19 2010-07-07 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
JP4492724B2 (ja) * 2008-03-25 2010-06-30 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP5183297B2 (ja) * 2008-05-19 2013-04-17 三洋電機株式会社 画像処理装置、撮像装置及び画像処理方法
JP2010141653A (ja) * 2008-12-12 2010-06-24 Sanyo Electric Co Ltd 画像処理装置及び撮像装置
JP2010166558A (ja) * 2008-12-19 2010-07-29 Sanyo Electric Co Ltd 撮像装置
JP5317891B2 (ja) * 2009-08-19 2013-10-16 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
KR101663227B1 (ko) * 2010-09-13 2016-10-06 삼성전자주식회사 영상 처리 방법 및 장치
JP5766034B2 (ja) * 2011-06-08 2015-08-19 キヤノン株式会社 画像処理方法、画像処理装置及びプログラム。

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007514248A (ja) * 2003-12-16 2007-05-31 シーレーテ エルエルシー レンズ欠陥の補正
JP2005229198A (ja) * 2004-02-10 2005-08-25 Sony Corp 画像処理装置および方法、並びに、プログラム
JP2006067521A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 画像処理装置と方法、および画像撮像装置と方法
JP2008515110A (ja) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 撮像の装置と方法
JP2009532993A (ja) * 2006-04-04 2009-09-10 アドビ システムズ インコーポレーテッド 改良型プレノプティック・カメラ
US20100103175A1 (en) * 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image
JP2008271240A (ja) * 2007-04-20 2008-11-06 Fujifilm Corp 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2011019245A (ja) * 2007-12-28 2011-01-27 Sanyo Electric Co Ltd 画像処理装置および撮影装置
JP2010161744A (ja) * 2009-01-09 2010-07-22 Canon Inc 画像処理装置および画像処理方法
JP2011010194A (ja) * 2009-06-29 2011-01-13 Nikon Corp ボカシ画像形成装置及びそれを備えたカメラ
JP2011022796A (ja) * 2009-07-15 2011-02-03 Canon Inc 画像処理方法および画像処理装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CSNG200800535012; 楠本夏未外2名: '合成開口撮影法によるデフォーカスコントロール' 情報処理学会研究報告 2008-CVIM-163 Vol.2008,No.36, 20080501, pp.85-92, 社団法人情報処理学会 *
JPN6015005435; 楠本夏未外2名: '合成開口撮影法によるデフォーカスコントロール' 情報処理学会研究報告 2008-CVIM-163 Vol.2008,No.36, 20080501, pp.85-92, 社団法人情報処理学会 *
JPN7015000382; LIU, S. et al.: 'Attention region selection with information from professional digital camera' MULTIMEDIA '05 Proceedings of the 13th annual ACM international conference on Multimedia [online] , 2005, Pages 391-394, ACM *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014158070A (ja) * 2013-02-14 2014-08-28 Canon Inc 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2015111822A (ja) * 2013-10-30 2015-06-18 株式会社モルフォ 画像処理装置、画像処理方法及びプログラム
CN108107571A (zh) * 2013-10-30 2018-06-01 株式会社摩如富 图像处理装置及方法及非暂时性计算机可读记录介质
CN108107571B (zh) * 2013-10-30 2021-06-01 株式会社摩如富 图像处理装置及方法及非暂时性计算机可读记录介质
JP2019092215A (ja) * 2019-02-21 2019-06-13 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Also Published As

Publication number Publication date
US8942506B2 (en) 2015-01-27
JP5818514B2 (ja) 2015-11-18
US20120301044A1 (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP5818514B2 (ja) 画像処理装置および画像処理方法、プログラム
JP5822613B2 (ja) 画像処理装置および画像処理方法
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
CN105791801B (zh) 图像处理装置、图像拾取装置和图像处理方法
TWI387935B (zh) 影像生成方法、及其程式與記錄有程式的記錄媒體
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2011166264A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
CN104980651A (zh) 图像处理设备及控制方法
JP5725953B2 (ja) 撮像装置及びその制御方法、並びに情報処理装置
JP6319972B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2013031154A (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
JPWO2012056685A1 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
JP5832211B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6552256B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP2013247543A (ja) 撮像装置、表示装置、および画像処理方法、並びにプログラム
JP2016213578A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP5906033B2 (ja) 画像処理装置および画像処理方法、プログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP5995614B2 (ja) 距離情報推定装置
US10084950B2 (en) Image capturing apparatus
JP5086120B2 (ja) 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140418

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150929

R151 Written notification of patent or utility model registration

Ref document number: 5818514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151