JP5473173B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP5473173B2
JP5473173B2 JP2012546719A JP2012546719A JP5473173B2 JP 5473173 B2 JP5473173 B2 JP 5473173B2 JP 2012546719 A JP2012546719 A JP 2012546719A JP 2012546719 A JP2012546719 A JP 2012546719A JP 5473173 B2 JP5473173 B2 JP 5473173B2
Authority
JP
Japan
Prior art keywords
image
value
parallax
unit
blurred
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012546719A
Other languages
English (en)
Other versions
JPWO2012073575A1 (ja
Inventor
智哉 紫村
誠一 田中
真一 有田
卓也 岡本
隆 安本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012546719A priority Critical patent/JP5473173B2/ja
Application granted granted Critical
Publication of JP5473173B2 publication Critical patent/JP5473173B2/ja
Publication of JPWO2012073575A1 publication Critical patent/JPWO2012073575A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
本願は、2010年12月3日に、日本に出願された特願2010−270735号に基づき優先権を主張し、その内容をここに援用する。
画像生成装置は、奥行きのある画像を生成する際に、画像の奥行き方向に関して、カメラの焦点領域にあるオブジェクトについては、輪郭が明確な画像であって、カメラの焦点領域から外れたオブジェクトについては輪郭がぼやけた画像を生成する。これにより、画像生成装置は、遠近感を現実世界に近い形で表現した画像を生成する。
特許文献1には、物体輪郭線において不連続に変化する視差を推定する視差推定方法が記載されている。この視差推定方法は、2つの画像の初期視差と、初期視差の信頼性評価値とを計算し、初期視差の信頼性の低い領域における視差を周囲の視差に対して滑らかに接続するように設定し、かつ物体輪郭線においては変化するように決定する。
特許文献2には、現実世界の視界画像のようにフォーカシングされた画像を生成する画像生成システムが記載されている。この画像生成システムは、元画像の各画素の奥行き値に応じたα値を設定し、元画像と、その元画像に対応するぼかし画像とを、各画素に設定されるα値に基づいて合成することにより、フォーカシングされた画像を生成する。
また、特許文献3には、視点からの距離に応じてフォーカシングされた画像を生成する画像処理プログラムが記載されている。この画像処理プログラムは、基準画像の各画素の奥行き値に応じて各画素のα値を設定する設定ステップと、隣接する2つの画素のうちでα値が小さいほうの画素に設定されたα値を増加させる増加ステップとを有する。そして、この画像処理プログラムは、基準画像と、その基準画像に対応するぼかし画像とを、増加ステップによる処理後の各画素に設定されるα値に基づいて合成することにより、フォーカシングされた画像を生成する。
特開2004−7707号公報 特開2001−175884号公報 特開2008−225767号公報
特許文献1のように視差を推定する場合、画像の各画素における視差値を画像として表示した視差マップでは、被写体の大きさより大きい膨張した視差マップが生成される。ここで、視差値とは、2地点での観測地点の位置で撮像された画像において、画像に撮像された対象点が2つの画像において水平方向に離れている画素数である。
被写体の大きさより大きい膨張した視差マップが生成されることにより、従来の画像生成装置が基準画像とぼかし画像とを合成した合成画像を生成した場合、その合成画像では、被写体と背景との境界付近の背景画像がくっきりしてしまう。すなわち、従来の画像生成装置には、被写体と背景との境界領域で、不自然なぼけ方をするという問題があった。この問題は、特許文献2および特許文献3に記載の画像生成システムまたは画像処理プログラムにおいても解決されていなかった。
そこで本発明は、上記問題に鑑みてなされたものであり、被写体と、背景または前景との境界領域で、自然なぼけとなる画像を生成することを可能とする画像処理装置、画像処理方法及び画像処理プログラムを提供することを課題とする。
(1) 上記の課題を解決するために、本発明の一態様である画像処理装置は、画像の各画素についての視差値に基づく視差マップにフィルタをかけるマップ用フィルタ処理部と、前記画像から前記画像のぼかし画像を生成するぼかし画像生成部と、前記マップ用フィルタ処理部によるフィルタ後の視差マップに基づいて、前記画像と前記ぼかし画像とを合成した合成画像を生成する画像合成部と、を備える。
(2) 上記画像処理装置は、前記マップ用フィルタ処理部によりフィルタがかけられた視差マップに応じて画像用フィルタのサイズを選択するフィルタサイズ選択部を備えてもよく、前記ぼかし画像生成部は、前記画像に前記画像用フィルタをかけることにより、前記ぼかし画像を生成してもよい。
(3) 上記画像処理装置は、前記画像を前記視差値に応じて所定の領域に分割し、前記領域毎に視差値を変換する領域分割部を備えてもよく、前記マップ用フィルタ処理部は、前記領域分割部により視差値が変換された視差マップにフィルタをかけてもよい。
(4) 上記画像処理装置は、前記画像のサイズを縮小する画像縮小部を備えてもよく、前記ぼかし画像生成部は、前記画像縮小部により縮小された画像のぼかし画像を生成してもよく、前記縮小された画像のぼかし画像を所定のサイズに拡大する画像拡大部を備えてもよい。
(5) 上記画像処理装置において、前記ぼかし画像生成部は、視差マップから複数の値を選択し、前記選択した複数の値のそれぞれに応じたぼかし量を持つ基準ぼかし画像を生成する基準ぼかし画像生成部と、前記画像の注目画素毎に、前記注目画素の前記フィルタ後の視差マップの値と前記選択した値との比較に基づいて、前記基準ぼかし画像から基準ぼかし画像を選択する基準ぼかし画像選択部と、前記選択された基準ぼかし画像のうち前記注目画素の位置に相当する画素の画素値と前記注目画素のフィルタ後の視差マップの値と前記選択した値とに基づいて、前記注目画素の画素値を算出する画素値補間部と、を備えてもよい。
(6) 上記画像処理装置において、前記画素値補間部は、前記注目画素のフィルタ後の視差マップの値と前記選択した値とに基づく値と、前記選択された基準ぼかし画像のうち前記注目画素の位置に相当する画素の画素値とを用いた補間によって、前記注目画素の画素値を算出してもよい。
(7) また、本発明の一態様である画像処理方法は、画像の各画素についての視差値に基づく視差マップにフィルタをかけ、前記画像から前記画像のぼかし画像を生成し、フィルタをかけた後の視差マップに基づいて、前記画像と前記ぼかし画像とを合成した合成画像を生成する。
(8) また、本発明の一態様である画像処理プログラムは、画像処理装置のコンピュータに、画像の各画素についての視差値に基づく視差マップにフィルタをかけさせ、前記画像から前記画像のぼかし画像を生成させ、フィルタをかけた後の視差マップに基づいて、前記画像と前記ぼかし画像とを合成した合成画像を生成させる。
本発明によれば、被写体と、背景または前景との境界領域において、自然なぼけとなる画像を生成することができる。
本発明の各実施形態における画像処理装置による処理の概要を示した図である。 本発明の第1の実施形態における画像処理装置のブロック構成図である。 ぼかし係数算出処理部の処理の詳細を説明するための図である。 LPFのカーネルサイズの横幅が、視差マップ生成時のウインドウサイズの横幅より大きい場合の、LPF適用後の視差値を示した図である。 LPFのカーネルサイズの横幅が、視差マップ生成時のウインドウサイズの横幅の半分である場合の、LPF適用後の視差値を示した図である。 LPFのカーネルサイズの横幅が、視差マップ生成時のウインドウサイズの横幅である場合の、LPF適用後の視差値を示した図である。 元の視差値の一例を示した図である。 領域分割による変換後の視差値の一例を示した図である。 LPF適用後の平滑化された視差値の一例を示した図である。 弱いぼかし量の画像を生成する際に用いられるカーネルの一例を示した図である。 中くらいのぼかし量の画像を生成する際に用いられるカーネルの一例を示した図である。 強いぼかし量の画像を生成する際に用いられるカーネルの一例を示した図である。 ぼかし画像生成処理部のブロック構成図である。 ぼかし画像の各画素の画素値を線形補間により算出する方法を説明するための図である。 本発明の第1の実施形態における画像処理装置の処理の流れを示したフローチャートである。 本発明の第1の実施形態におけるぼかし画像生成処理部30の処理の流れを示したフローチャートである。 本発明の第2の実施形態における画像処理装置のブロック構成図である。 本発明の第2の実施形態における画像処理装置の処理の流れを示したフローチャートである。
図1は、本発明の各実施形態における画像処理装置による処理の概要を示した図である。
入力画像1は、一例として、全面の背景領域の中央に、合焦した(撮像機の焦点の合った)平屋の民家100(被写体)が存在する画像である。視差マップ2は、入力画像1の合焦した民家100のエッジ101から背景領域へと遠ざかるに従って背景領域の視差の変化をなだらかにした画像である。具体的には、視差マップ2は、被写体である民家100の画像に、LPF(Low Pass Filter)をかけ、被写体100のエッジ101と背景領域の視差の変化をなだらかにすることにより得られる。
背景ぼかし画像3は、入力画像1と視差マップ2とを用いて背景についてぼかし処理をした背景ぼかし画像を抜き出した画像である。被写体4は、入力画像1と視差マップ2とを用いて合焦領域にある被写体(民家100)を抜き出した画像である。
出力画像5は、背景ぼかし画像3と、合焦領域にある被写体4の画像とを合成した画像である。この出力画像5は、被写体エッジ101と、背景領域の境界領域とが、なだらかに(自然に)ぼけるようにされている。
<第1の実施形態>
図2は、本発明の第1の実施形態における画像処理装置10の構成を示す概略ブロック図である。
画像処理装置10は、記憶部11と、視差マップ生成部12と、ぼかし係数算出処理部20と、ぼかし画像生成処理部30と、画像合成部40とを備える。ぼかし係数算出処理部20は、さらに、領域毎の視差値変換部(領域分割部)21と、LPF処理部(「フィルタ処理部」と言うことがある。)22と、ぼかし量選択部(フィルタサイズ選択部)23とを備える。
記憶部11には、外部から入力された前景境界の合焦視差値FFを示す情報と、背景境界の合焦視差値FRを示す情報と、視差値を区画に分割するときの分割幅であるステップ幅DWを示す情報と、LPFのカーネルサイズWWを示す情報と、複数の基準ぼかし画像を生成する際に用いるカーネルのサイズである複数のカーネルサイズKSを示す情報と、前記複数のカーネルサイズKSそれぞれに対応するぼかし係数GCを示す情報とが記憶されている。
ここで、LPFのカーネルサイズWWは、視差マップ生成時のウインドウサイズである。複数のカーネルサイズKSのうちの1つは、LPFのカーネルサイズWWと同じ値であっても良い。また、記憶部11に記憶されているカーネルサイズKSの数は、生成するぼかし画像の数と同数である。
視差マップ生成部12は、外部から入力された基準画像のデータIMGDATAと、参照画像のデータREFDATAとから、所定のウインドウサイズ(例えば、LPFのカーネルサイズWWと同じサイズ)を用いた公知のブロックマッチング法により、各画像の画素の位置に対応した視差値を有する視差マップを生成する。視差マップ生成部12は、生成した視差マップを形成する視差値データDisparityDataを、ぼかし係数算出処理部20の後述する領域毎の視差値変換部21に出力する。
ぼかし係数算出処理部20は、視差マップ生成部12から入力された視差マップを形成する視差値データDisparityDataに基づいて、ぼかし量GA(ぼかす度合い)を算出する。そして、ぼかし係数算出処理部20は、算出したぼかし量GAを示す情報と、視差値d’’とを、ぼかし画像生成処理部30に出力する。
ぼかし画像生成処理部30は、入力されたぼかし量GAを示す情報と、基準画像のデータIMGDATAとに基づいて、前景領域および背景領域のぼかし画像GPを生成する。
図3は、ぼかし係数算出処理部20の処理の詳細を説明するための図である。
領域毎の視差値変換部21は、前景境界の合焦視差値FFを示す情報と、背景境界の合焦視差値FRを示す情報とを記憶部11から読み出す。
領域毎の視差値変換部21は、外部から入力された視差値データDisparityDataの値dが、背景境界の合焦視差値FRより小さい場合、すなわち背景領域である場合、変換後の視差値データd’をFR−dとする。
一方、視差値データDisparityDataの値dが、前景境界の合焦視差値FFより大きい場合、すなわち前景領域である場合、領域毎の視差値変換部21は、変換後の視差値データd’をd−FFとする。
また、視差値データDisparityDataの値dが、背景境界の合焦視差値FR以上であって、前景境界の合焦視差値FF以下の場合、すなわち合焦領域である場合、領域毎の視差値変換部21は、変換後の視差値データd’を0とする。
すなわち、領域毎の視差値変換部21は、画像の各画素の視差値を保持する視差マップを、その視差値に応じて所定の領域に分割し、その領域に応じて視差値を変換する。
そして、領域毎の視差値変換部21は、変換後の視差値データd’をLPF処理部(マップ用フィルタ処理部)22に出力する。
LPF処理部(マップ用フィルタ処理部)22は、カーネルサイズWWを示す情報と、そのぼかし係数GCを示す情報とを、記憶部11から読み出す。LPF処理部(マップ用フィルタ処理部)22は、変換後の視差値データd’から成る視差マップに、読み出したカーネルサイズWWと、そのぼかし係数GCとでLPFをかける。これにより、LPF処理部(マップ用フィルタ処理部)22は、前景領域と背景領域と合焦領域との間を、視差値が急激に変化しないように平滑化する。
続いて、図2のLPF処理部(マップ用フィルタ処理部)22で用いるカーネルサイズWWについて説明する。
図4A〜図4Cは、LPF処理部(マップ用フィルタ処理部)22で用いるカーネルサイズWWについて説明するための図である。
図4Aは、LPFのカーネルサイズの横幅411及び412が、視差マップ生成時のウインドウサイズの横幅より大きい場合の、LPF適用後の視差値を示した図である。なお、図4Aにおいて、符号413は、被写体のエッジを示している。また、符号414は、LPF適用後の視差値を示している。また、符号415は、背景を示している。また、符号416は、ウィンドウサイズの半値幅分の膨張領域を示している。
図4Aには、画像の横方向の座標(以下、画像横座標と称する)に対して、LPF適用前の視差値と、LPF適用後の視差値とが示されている。
図4Aにおいて、丸417で囲って示したLPF適用後の視差値は、合焦領域であるにも関わらず背景領域としてLPFがかけられてしまう。そのため、丸417で示されたLPF適用後の視差値に対応する合成画像の合焦領域の一部が、ぼけるという問題がある。
図4Bは、LPFのカーネルサイズの横幅421及び422が、視差マップ生成時のウインドウサイズの横幅の半分である場合の、LPF適用後の視差値を示した図である。なお、図4Bにおいて、符号423は、被写体のエッジを示している。また、符号424は、LPF適用後の視差値を示している。また、符号425は、背景を示している。また、符号426は、ウィンドウサイズの半値幅分の膨張領域を示している。
図4Bには、画像横座標に対して、LPF適用前の視差値とLPF適用後の視差値が示されている。
図4Bにおいて、丸427で囲って示したLPF適用後の視差値は、背景領域であるにも関わらず合焦領域としてLPFがかけられていない。そのため、丸427で示されたLPF適用後の視差値に対応する合成画像の背景領域の一部がぼけないという問題がある。
図4Cは、LPFのカーネルサイズの横幅431及び432が、視差マップ生成時のウインドウサイズの横幅である場合の、LPF適用後の視差値を示した図である。なお、図4Cにおいて、符号433は、被写体のエッジを示している。また、符号434は、LPF適用後の視差値を示している。また、符号435は、背景を示している。また、符号436は、ウィンドウサイズの半値幅分の膨張領域を示している。
図4Cには、画像の横方向の座標(以下、画像横座標と称する)に対して、LPF適用前の視差値と、LPF適用後の視差値とが示されている。
図4Cにおいて、合焦領域に対してLPFがかけられてしまうことがなく、最終的な合成画像の合焦領域の一部がぼけるという問題が生じない。また、変換後の視差値に対して被写体のエッジから背景にかけてLPFを掛けることができる。そのため、最終的な合成画像の被写体のエッジから背景にかけてぼけさせることができる。
また、LPF適用後の視差値が被写体エッジから背景に向かってなだらかに変化するので、合成画像の背景領域におけるぼけ方がなだらかに変化する。
従って、LPF処理部(マップ用フィルタ処理部)22は、視差マップ生成時のウインドウサイズと同じカーネルサイズWWで視差マップに対しLPFをかけ、LPF適用後の視差値d’’を算出する。LPF処理部(マップ用フィルタ処理部)22は、LPF適用後の視差値d’’を示す情報を、ぼかし量選択部23に出力する。
図5A〜図5Cは、元の視差値d(図5A)と、領域毎の視差値変換による変換後の視差値d’(図5B)と、LPF適用後の視差値d’’(図5C)の一例を示した図である。
図5Aには、画像横座標に対する元の視差値の関係の一例が示されている。
図5Aにおいて、横軸は画像横座標であり、縦軸は視差値dである。この例では、画像横座標において、向かって左側(原点に近い方)が前景領域であり、真ん中が合焦領域であり、右側(原点から遠い方)が背景領域である。上記3つの領域の中で、前景領域の視差値が高く、合焦領域の視差値が中くらいであり、背景領域の視差値が低くなっている。
図5Bには、画像横座標に対する領域毎の視差値変換部21による領域毎の視差値変換による変換後の視差値の一例が示されている。図5Bは、図5Aに対して、領域毎の視差値変換を行った場合を示している。図5Bにおいて、横軸は画像横座標であり、縦軸は変換後の視差値d’である。この例では、画像横座標において、向かって左側が前景領域であり、真ん中が合焦領域であり、右側が背景領域である。前景領域および背景領域の変換後の視差値d’は正の値を取るのに対し、合焦領域では0を取ることが示されている。ここで、前景領域と合焦領域の境界または合焦領域と背景領域との境界において、変換後の視差値d’が画像横座標に対して急激に変化している。
図5Cには、本実施形態に従って、画像横座標に対するLPF処理部22によるLPF適用後の視差値の一例が示されている。図5Cにおいて、横軸は画像横座標であり、縦軸はLPF適用後の視差値d’’である。この例では、画像横座標において、向かって左側が前景領域であり、真ん中が合焦領域であり、右側が背景領域である。ここで、前景領域と合焦領域の境界または合焦領域と背景領域との境界において、LPF適用後の視差値d’’が画像横座標に対してなだらかに変化している。図5Cは、図5Bに対して、LPF処理を行った場合を示している。
以上のように、LPF処理部(マップ用フィルタ処理部)22は、視差マップに対しLPFをかける。これにより、前景領域と合焦領域の境界、または、合焦領域と背景領域との境界において、画像横座標に対してLPF適用後の視差値d’’の変化をなだらかにすることができる。
また、画像処理装置10では、領域毎の視差値変換部21が、基準画像を前景領域と背景領域と合焦領域とに領域分割し、視差値を変換した後に、LPF処理部(マップ用フィルタ処理部)22がLPFの処理を行う。これにより、合成画像中の合焦領域と背景領域の接する近傍において、背景領域側に合焦領域のエッジ近傍画像による輪郭の発生を防ぐことができる。
図5Aのように前景、合焦、背景と順に変化する場合には、合成画像中で前景と背景との間に、合焦領域の画像が現われる。そのため、もし、画像処理装置10が領域毎の視差値変換をせずに(入力視差マップのままで)LPF処理をしても視差値が0になることはない。
しかし、合成画像中で前景領域と背景領域とが重なっている場合、すなわち前景領域の次に背景領域となり、合焦領域がない場合には、同様に画像処理装置が領域毎の視差値変換をせずに入力視差マップのままでLPF処理をすると、視差値が0となる。そのため、本来、合成画像中に合焦領域が存在しないところに、合焦した画像が現われるという問題がある。
領域毎の視差値変換部21が、領域毎の視差値変換を行うことによって、変換後の前景および背景の視差値は、合焦領域の視差値を含まないため、その変換後の視差値が0となることはない。従って、合成画像中で、前景領域と背景領域とが重なっている場合において、画像処理装置10が、領域毎の視差値変換を行った後にLPF処理をすると、視差値が0となる領域は生成されない。
本実施形態では、領域毎の視差値変換部21が、領域毎の視差値変換を行った後に、LPF処理部22がLPF処理をする。これにより、合成画像中の前景領域から背景領域に変化する領域において、合焦した画像が現われるのを防ぐことができる。
なお、LPF処理部(マップ用フィルタ処理部)22は、視差マップにフィルタを掛ける際に、図6から図8に示すようなテーブルT1〜T3の中心から端に行くに従って要素の値が小さくなるカーネルを用いても良い。なお、これに限らず、カーネルの要素すべてが同じカーネルを用いてもよい。例えば、カーネルが3×3の場合、全ての要素が1/9であってもよい。
また、LPF処理部(マップ用フィルタ処理部)22は、LPF適用後の視差値が図4Cに示すように、被写体のエッジに相当する位置から視差値がなだらかに変化するようにフィルタしたが、これに限られるものではない。例えば、LPF適用後の視差値が、図4Aに示すように被写体のエッジよりも被写体内部に入り込んだ画素に相当する位置から視差値がなだらかに変化するようにフィルタしてもよい。この場合、被写体内部に入り込んだ画素から、画像がぼけ始めることとなる。
図3の説明に戻り、ぼかし量選択部23は、記憶部11からステップ幅DWを示す情報と、複数のカーネルサイズKSを示す情報とを読み出す。ぼかし量選択部23は、カーネルサイズKSの種類の数と同じ数だけ、ステップ幅DW毎に閾値を設定する。例えば、ぼかし量選択部23は、カーネルサイズKSの種類の数が3なので、DWと、DW×2と、DW×3とを閾値として設定する。
ぼかし量選択部23は、LPF適用後の視差値d’’が0の場合、すなわち合焦領域の場合、画像に対しLPFをかける際のカーネルの情報を保持するテーブルを識別するぼかし量テーブルを0とし、合焦フラグFAを立てる。
一方、ぼかし量選択部23は、LPF適用後の視差値d’’がステップ幅DWより小さい場合、すなわち弱いぼかし量の場合、ぼかし量テーブルを1とし、合焦フラグを立てない。
上記以外の場合において、ぼかし量選択23は、LPF適用後の視差値d’’がステップ幅DWの2倍より小さい場合、すなわち中くらいのぼかし量の場合、ぼかし量テーブルを2とし、合焦フラグを立てない。
上記以外の場合において、ぼかし量選択23は、LPF適用後の視差値d’’がステップ幅DWの3倍より小さい場合、すなわち強いぼかし量の場合、ぼかし量テーブルを3とし、合焦フラグを立てない。
上記以外の場合、すなわちLPF適用後の視差値d’’がステップ幅DWの3倍を超える場合、ぼかし量選択23は、ぼかし量テーブルを4とし、合焦フラグを立てない。
ぼかし量選択部23は、合焦フラグを示す情報を画像合成部40に出力し、ぼかし量テーブルGTを示す情報とLPF適用後の視差値d’’を示す情報とをぼかし画像生成処理部30に出力する。
なお、図3で示されたステップ幅DW1からDW3の各間隔は、固定長(ステップ幅DWの間隔が常に一定)である必要はなく、可変にしてもよい。
図2の説明に戻り、ぼかし画像生成処理部30は、ぼかし量選択部23から入力されたぼかし量を示す情報と、外部から入力された基準画像のデータIMGDATAとに基づいて、ぼかし画像を生成する。そして、ぼかし画像生成処理部30は、ぼかし画像GPを示す情報を、画像合成部40に出力する。
図9は、ぼかし画像生成処理部30(図2参照)のブロック構成図である。ぼかし画像生成処理部30は、基準ぼかし画像生成部31と、基準ぼかし画像選択部32と、画素値補間部33とを備える。
基準ぼかし画像生成部31が生成する基準ぼかし画像の数は、カーネルサイズKSの種類の数である。ここでは、例としてカーネルサイズKSの種類の数が3の場合について説明する。なお、カーネルサイズKSの種類の数は、1つ以上あればよい。基準ぼかし画像生成部31が生成する基準ぼかし画像の数が、多ければ多いほど、ぼけ画像の各画素値を基準ぼかし画像から正確に補間できる。そのため、画像処理装置10は、被写体との距離に応じた滑らかなぼけ画像が生成できる。
基準ぼかし画像生成部31は、3つの異なるカーネルサイズをもつカーネルのぼかし係数GCそれぞれと、外部から供給された基準画像のデータIMGDATAとを畳み込むことにより、3種類の基準ぼかし画像を生成する。
具体的には、基準ぼかし画像生成部31は、図6に示されたテーブルT1(3×3)のカーネルと、基準画像のデータIMGDATAとを畳み込むことにより、第1の基準ぼかし画像(弱ぼけ画像)を生成する。基準ぼかし画像生成部31は、図7に示されたテーブルT2(7×7)のカーネルと、基準画像のデータIMGDATAとを畳み込むことにより、第2の基準ぼかし画像(中ぼけ画像)を生成する。基準ぼかし画像生成部31は、図8に示されたテーブルT3(15×15)のカーネルと、基準画像のデータIMGDATAとを畳み込むことにより、第3の基準ぼかし画像(強ぼけ画像)を生成する。
ここで、それぞれのぼかし画像に対応したカーネルのぼかし係数について説明する。図6は、弱いぼかし量の画像を生成する際に用いられるカーネルのぼかし係数の一例を示した図である。図6において、図3のステップ幅DW1に対応するぼかし画像(弱ぼけ)の生成に用いるカーネルのぼかし係数の例として、3×3のテーブルT1が示されている。テーブルT1では、全要素の中で中心の要素が0.3446で一番大きく、4隅の要素が0.0386で一番小さくなっている。
図7は、中位のぼかし量の画像を生成する際に用いられるカーネルのぼかし係数の一例を示した図である。
図7において、図3のステップ幅DW2に対応するぼかし画像(中ぼけ)生成に用いるカーネルのぼかし係数の例として、7×7のテーブルT2が示されている。テーブルT2では、全要素の中で中心の要素が0.0324で一番大きく、端にいくほど要素が小さくなり、4隅の要素が0.0103で一番小さくなっている。
図8は、強いぼかし量の画像を生成する際に用いられるカーネルのぼかし係数の一例を示した図である。
図8において、図3のステップ幅DW3に対応するぼかし画像(強ぼけ)生成に用いるカーネルのぼかし係数の例として、15×15のテーブルT3が示されている。テーブルT3では、テーブルT2と同様に、全要素の中で中心の要素が0.006741で一番大きく、端にいくほど要素が小さくなり、4隅の要素が0.002038で一番小さくなっている。
一般的に、カーネルの大きさ(ここでいうテーブルのサイズ)が大きくなるほど、そのカーネルを用いてフィルタを掛けた後の画像のぼけが大きくなる。
例えば、ここでは、テーブルT2のサイズが、テーブルT1より大きい。そのため、テーブルT2で示されたカーネルと画像とを畳み込むことにより生成される画像のぼかし量は、テーブルT1で示されたカーネルと画像とを畳み込むことにより生成される画像のぼかし量より大きい。
また、ここでは、テーブルT3のサイズが、テーブルT2より大きい。そのため、テーブルT3で示されたカーネルと画像とを畳み込むことにより生成される画像のぼかし量は、テーブルT2で示されたカーネルと画像とを畳み込むことにより生成される画像のぼかし量より大きい。
図9の説明に戻り、基準ぼかし画像生成部31は、生成した3種類の基準ぼかし画像SGを示す情報を、基準ぼかし画像選択部32へ出力する。
基準ぼかし画像選択部32は、ぼかし量選択部23から入力されたぼかし量を示す情報を用いて、ぼかし画像の画素毎に、注目画素の視差値近傍のぼかし画像を2つ選択する。
例えば、ぼかし量が1の場合、基準ぼかし画像選択部32は、基準画像と弱ぼけ画像とを選択する。ぼかし量が2の場合、基準ぼかし画像選択部32は、弱ぼけ画像と、中ぼけ画像とを選択する。ぼかし量が3の場合、基準ぼかし画像選択部32は、中ぼけ画像と、強ぼけ画像とを選択する。ぼかし量が4の場合は、基準ぼかし画像選択部32は、強ぼけ画像のみを選択し、画素値補間部33で補間せずに、強ぼけ画像を示す情報をそのまま画像合成部40に出力する。
そして、選択後に基準ぼかし画像選択部32は、どのぼかし画像を選択したかを示す選択情報を、画素値補間部33に出力する。
画素値補間部33は、基準ぼかし画像選択部32から入力されたぼかし画像のうち、どのぼかし画像を選択したかを示す選択情報から、その選択された2つのぼかし画像の視差値d’’と、ステップ幅DWを示す情報とを読み出す。そして、画素値補間部33は、読み出した視差値d’’に基づいて、注目画素の視差値の対応するぼけ画像の画素値を線形補間により算出する。
更に、図10を用いて、画素値補間部33の処理の詳細を説明する。図10は、ぼかし画像の各画素の画素値を、線形補間により算出する方法を説明するための図である。
図10において、上段の横軸に、これから生成するぼかし画像の画素値(ぼかし画像データ)が示され、下段の横軸にLPF適用後の視差値d’’が示されている。
LPF適用後の視差値d’’の1つである入力視差値d’’INが、ステップ幅DW1とステップ幅DW2との間にあるときには、その入力視差値d’’INとステップ幅DW1との差であるa(=d’’IN−DW1)と、その入力視差値d’’INとステップ幅DW2との差であるb(=DW2−d’’IN)とを算出する。
弱ぼけの輝度値をYとし、中ぼけの輝度値をYとすると、ぼかし画像の輝度値(補間データ)Yは、以下の式(1)で算出される。
Y=(Y×b+Y×a)/(a+b) (1)
画素値補間部33は、式(1)を用いて、RGB(Red、Green、Blue)のそれぞれの輝度値について、ぼかし画像の輝度値(補間データ)を算出する。また、画素値補間部33は、合焦領域に対し、基準画像から合焦画像を生成する。
画素値補間部33は、上記の処理を全ての画素について行うことにより、ぼかし画像を生成する。
これによれば、画素値補間部33は、注目画素のフィルタ後の視差マップの値と視差マップから選択した値とに基づく値と、選択された基準ぼかし画像のうち注目画素の位置に相当する画素の画素値とを用いた補間によって、注目画素の画素値を算出することができる。これにより、画素値補間部33は、視差値に応じた適切なぼけ画像を生成することができる。
なお、前述したように、図10のステップ幅DW1からステップ幅DW3の各間隔は、固定長(すなわち、DWの間隔が常に一定)である必要はなく、各間隔は可変にすることができる。また、各間隔を可変にした場合、式(1)の分母(a+b)の値が、ステップ幅DW1からステップ幅DW3の各間隔によって変わることとなる。
さらに、基準ぼかし画像生成部31の説明で述べたように、ステップ幅DWの個数(カーネルサイズKSの種類の数)も1つ以上あればよい。ステップ幅DWの個数が多ければ多いほど、ぼけ画像の各画素値を基準ぼかし画像から正確に補間できるので、画像処理装置10は、被写体との距離に応じた滑らかなぼけ画像が生成できる。
ぼかし画像生成処理部30は、上述した一連のぼかし画像生成処理を、前景領域と背景領域のそれぞれに対して行い、前景領域のぼかし画像と背景領域のぼかし画像を生成する。
ぼかし画像生成処理部30は、生成した前景領域のぼかし画像GP1のデータと、背景領域のぼかし画像GP2のデータとを、画像合成部40に出力する。
図2の説明に戻り、画像合成部40は、ぼかし量選択部23から入力された合焦フラグが1の画素に対しては、基準画像のデータの合焦領域における輝度値を合成画像の輝度値とする。
一方、画像合成部40は、ぼかし量選択部23から入力された合焦フラグが0の画素に対しては、ぼかし画像の輝度値を合成画像の輝度値とする。これにより、画像合成部40は、合焦領域の画素はそのままで、非合焦領域のみぼかすことができる。
画像合成部40は、背景領域、合焦領域、前景領域の順に各領域の輝度値を合成画像の輝度値に代入することにより、合成画像を生成する。画像合成部40は、生成した合成画像データIMGDATAOUTを外部に出力する。
図11は、本発明の第1の実施形態における画像処理装置10(図2参照)の処理の流れを示したフローチャートである。
まず、視差マップ生成部12は、基準画像および参照画像からブロックマッチングにより視差マップを生成する(ステップS101)。
次に、領域毎の視差値変換部21は、基準画像および視差マップを前景領域・合焦領域・背景領域に分割し、前述の方法で視差値を変換する(ステップS102)。
次に、LPF処理部(マップ用フィルタ処理部)22は、変換した視差マップにLPFをかける(ステップS103)。
次に、ぼかし量選択部23は、前景領域に対し、変換した視差値に対応するぼかし量(テーブル)を算出する(ステップS104)。
次に、ぼかし画像生成処理部30は、前景領域に対し、ぼかし量(テーブル)から対応するカーネルサイズのぼかし画像を選択し、変換した視差値に応じたぼかし画像生成処理を行う(ステップS105)。
次に、ぼかし量選択部23は、背景領域に対し、変換した視差値に対応するぼかし量(テーブル)を算出する(ステップS106)。
次に、ぼかし画像生成処理部30は、背景領域に対し、ぼかし量(テーブル)から対応するカーネルサイズのぼかし画像を選択し、変換した視差値に応じたぼかし画像生成処理を行う(ステップS107)。
次に、ぼかし画像生成処理部30は、合焦領域に対し、基準画像から合焦画像を生成する(ステップS108)。
次に、画像合成部40は、背景領域、合焦領域、前景領域の各領域を重ね合わせて合成する(ステップS109)。
以上で、図11のフローチャートの処理を終了する。
続いて、図11のステップS105とステップS107のぼかし画像生成処理部30によるぼかし画像生成処理の詳細について、図12を用いて説明する。
図12は、本発明の第1の実施形態におけるぼかし画像生成処理部30の処理の流れを示したフローチャートである。
まず、基準ぼかし画像生成部31は、3種類のカーネルサイズでぼかし画像を生成する(ステップS201)。
次に、基準ぼかし画像選択部32は、画素毎に、注目画素の視差値近傍のぼかし画像を2つ選択する(ステップS202)。
次に、画素値補間部33は、2つのぼかし画像の視差値から注目画素の視差値に対応するぼけ画像を線形補間により生成する(ステップS203)。
以上で、図12のフローチャートの処理を終了する。
以上により、画像処理装置10は、視差マップに被写体のエッジに相当する位置からLPFをかけ、膨張領域の視差値をなだらかに変化するよう変換することができる。これにより、画像処理装置10は、LPF適用後の視差値に応じて、ぼかしに使用するフィルタサイズを変更することができる。
視差マップに被写体のエッジに相当する位置からLPFをかけた作用により、膨張した視差マップであっても、前景領域から合焦領域までのぼけがなだらかに変化し、前景と合焦領域の切り替わり部分の境界を目立たなくすることできる。
また、合焦領域周辺の背景領域画像が合焦領域に含まれないこととすることができるので、合焦と背景領域の切り替わり部分で背景領域画像に発生する合焦成分の画素値が目立たなくすることできる。
また、画像処理装置10は、LPF適用後の視差値から選択した複数の値に応じたぼかし量を持つ複数のぼけ画像を生成し、LPF適用後の視差値に応じて、ぼけ画像の画素値を用いた線形補間により合成画像を生成することができる。これにより、前景領域および背景領域において、奥行に応じて画像のぼけを自然なぼけ方とすることができる。
<第2の実施形態>
続いて、本発明の第2の実施形態について説明する。図13は、本発明の第2の実施形態における画像処理装置10bのブロック構成図である。なお、図2と共通する要素には同一の符号を付し、その説明を省略する。
図13の画像処理装置10bの構成は、図2の画像処理装置10の構成に対して、画像縮小部24と、フラグ拡大部25と、画像拡大部34とが追加されたものになっている。
また、図13の画像処理装置10bの構成は、図2の画像処理装置10の構成に対して、視差マップ生成部12が、視差マップ生成部12bに変更されている。また、ぼかし係数算出処理部20が、ぼかし係数算出処理部20bに変更されている。また、ぼかし量選択部23が、ぼかし量選択部23bに変更されている。また、ぼかし画像生成処理部30が、ぼかし画像生成処理部30bに変更されている。また、画像合成部40が、画像合成部40bに変更されている。
画像縮小部24は、外部から入力された基準画像と、参照画像とを、所定の倍率(例えば、4分の1)で縮小する。そして、画像縮小部24は、縮小した基準画像のデータと、縮小した参照画像のデータとを、視差マップ生成部12bに出力する。また、画像縮小部24は、縮小した基準画像のデータを、ぼかし画像生成処理部30bに出力する。
視差マップ生成部12bは、第1の実施形態の視差マップ生成部12と同様に、画像縮小部24から入力された縮小した基準画像のデータと、縮小した参照画像のデータとから、所定のウインドウサイズWWを用いた公知のブロックマッチング法により、視差マップを生成する。視差マップ生成部12bは、生成した視差マップを形成する視差値データDisparityDataを、ぼかし係数算出処理部20の領域毎の視差値変換部21に出力する。
ぼかし量選択部23bは、第1の実施形態のぼかし量選択部23と同様に、ぼかし量と合焦フラグとを算出し、合焦フラグを示す情報をフラグ拡大部25に出力する。また、ぼかし量選択部23bは、算出したぼかし量を示す情報をぼかし画像生成処理部30bに出力する。
フラグ拡大部25は、フィルタサイズ選択部23bから入力された合焦フラグを示す情報から、合焦フラグが1である領域である合焦領域を、後述する画像拡大部34がぼかし画像を拡大する倍率(例えば、4倍)と同じ倍率で拡大する。フラグ拡大部25は、拡大した合焦領域の情報を、画像合成部40bに出力する。
ぼかし画像生成処理部30bは、第1の実施形態のぼかし画像生成処理部30と同様に、入力されたぼかし量を示す情報と、縮小した基準画像のデータとに基づいて、前景領域および背景領域のぼかし画像を生成する。ぼかし画像生成処理部30bは、生成した前景領域のぼかし画像のデータと、背景領域のぼかし画像のデータとを、画像拡大部34に出力する。
画像拡大部34は、入力された前景領域のぼかし画像を、画像縮小部24における縮小倍率の逆数の倍率(例えば、4倍)で、公知のバイリニア補間で拡大する。同様に、画像拡大部34は、入力された背景領域のぼかし画像を、画像縮小部24における縮小倍率の逆数の倍率(例えば、4倍)で、バイリニア補間で拡大する。なお、上記補間はバイリニア補間に限定されない。
画像拡大部34は、拡大した前景領域のぼかし画像のデータと、拡大した背景領域のぼかし画像のデータとを、画像合成部40bに出力する。
なお、画像拡大部34は、画像縮小部24における縮小倍率の逆数の倍率でぼかし画像を拡大したが、これに限らず、最終的に取得したい合成画像の画像サイズにあわせた倍率でぼかし画像を拡大してもよい。
画像合成部40bは、フラグ拡大部25から入力された拡大した合焦領域の情報を用いて、拡大した合焦領域に対し、外部から入力された縮小前の基準画像から合焦画像を生成する。画像合成部40bは、画像合成部40と同様に、背景領域、合焦領域、前景領域の順に各領域を合成し、合成画像を生成する。画像合成部40bは、生成した合成画像のデータIMGDATAOUTを外部に出力する。
図14は、本発明の第2の実施形態における画像処理装置10bの処理の流れを示したフローチャートである。まず、画像縮小部24は、基準画像および参照画像を所定の倍率(例えば、4分の1)に縮小する(ステップS301)。
次に、視差マップ生成部12bは、縮小した基準画像および縮小した参照画像からブロックマッチングにより視差マップを求める(ステップS302)。
次に、領域毎の視差値変換部21は、縮小した基準画像および視差マップを前景領域、合焦領域、背景領域に分割する(ステップS303)。
次に、LPF処理部(マップ用フィルタ処理部)22は、視差マップにLPFをかける(ステップS304)。
次に、ぼかし画像生成処理部30bは、縮小した基準画像の前景領域に対し、変換した視差値に対応するぼかし量(テーブル)を算出する(ステップS305)。
次に、ぼかし画像生成処理部30bは、縮小した基準画像の前景領域に対し、図12に示された処理の流れで、ぼかし量(テーブル)から対応するカーネルサイズのぼかし画像を選択し、変換した視差値に応じたぼかし画像生成処理を行う(ステップS306)。
次に、ぼかし画像生成処理部30bは、縮小した基準画像の背景領域に対し、変換した視差値に対応するぼかし量(テーブル)を算出する(ステップS307)。
次に、ぼかし画像生成処理部30bは、縮小した基準画像の背景領域に対し、図12に示された処理の流れで、ぼかし量(テーブル)から対応するカーネルサイズのぼかし画像を選択し、変換した視差値に応じたぼかし画像生成処理を行う(ステップS308)。
次に、画像拡大部34は、前景領域のぼかし画像および背景領域のぼかし画像に対し、バイリニア補間を用いて所定の倍率(例えば、4倍)で拡大する。次に、フラグ拡大部25は、合焦フラグをニアレストネイバー法にて拡大する(ステップS310)。
次に、画像合成部40bは、拡大した合焦フラグを用いて、縮小前の基準画像から合焦画像を生成する(ステップS311)。
次に、画像合成部40bは、背景領域、合焦領域、前景領域の順に各領域を合成する(ステップS312)。
以上で、図14のフローチャートの処理を終了する。
これにより、画像処理装置10bは、入力画像である基準画像と参照画像の縮小により、奥行分解能が減り、1つの被写体内の奥行値の変化が小さくなる。そのため、奥行き方向に変化する被写体の途中からぼけが発生する頻度を削減することができる。
また、本発明の第1の実施形態による画像処理装置10(図2参照)および本発明の第2の実施形態による画像処理装置10b(図13参照)の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録してもよい。そして、その記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、画像処理装置10、画像処理装置10bに係る上述した種々の処理を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWW(World Wide Web)システムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含む。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM(Compact Disc-Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含む。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、被写体と背景または前景の境界領域においてなだらかなぼけとなる画像を生成する画像処理装置、画像処理方法及び画像処理プログラムなどに適用することができる。
10、10b・・・画像処理装置、
11・・・記憶部、
12、12b・・・視差マップ生成部、
20、20b・・・ぼかし係数算出処理部、
21・・・領域毎の視差値変換部(領域分割部)、
22・・・LPF処理部(マップ用フィルタ処理部)、
23・・・ぼかし領域選択部(フィルタサイズ選択部)、
24・・・画像縮小部、
25・・・フラグ拡大部、
30・・・ぼかし画像生成処理部、
31・・・基準ぼかし画像生成部、
32・・・基準ぼかし画像選択部、
33・・・画素値補間部、
34・・・画像拡大部、
40、40b・・・画像合成部

Claims (6)

  1. 画像を、前記画像の各画素についての視差値に応じて所定の領域に分割し、前記領域毎に視差値を変換する領域分割部と、
    前記領域分割部により視差値が変換された視差マップにローパスフィルタをかけるマップ用フィルタ処理部と、
    前記マップ用フィルタ処理部によりローパスフィルタがかけられた視差マップに応じて画像用フィルタのサイズを選択するフィルタサイズ選択部と、
    前記画像に前記画像用フィルタをかけることにより、前記画像のぼかし画像を生成するぼかし画像生成部と、
    前記マップ用フィルタ処理部によるフィルタ後の視差マップに基づいて、前記画像と前記ぼかし画像とを合成した合成画像を生成する画像合成部と、
    を備える画像処理装置。
  2. 画像の各画素についての視差値に基づく視差マップにフィルタをかけるマップ用フィルタ処理部と、
    前記画像のサイズを縮小する画像縮小部と、
    前記画像縮小部により縮小された画像のぼかし画像を生成するぼかし画像生成部と、
    前記縮小された画像のぼかし画像を所定のサイズに拡大する画像拡大部と、
    前記マップ用フィルタ処理部によるフィルタ後の視差マップに基づいて、前記画像と前記ぼかし画像とを合成した合成画像を生成する画像合成部と、
    を備える画像処理装置。
  3. 画像の各画素についての視差値に基づく視差マップにフィルタをかけるマップ用フィルタ処理部と、
    前記画像から前記画像のぼかし画像を生成するぼかし画像生成部と、
    前記マップ用フィルタ処理部によるフィルタ後の視差マップに基づいて、前記画像と前記ぼかし画像とを合成した合成画像を生成する画像合成部と、
    を備え、
    前記ぼかし画像生成部は、
    視差マップから複数の値を選択し、前記選択した複数の値のそれぞれに応じたぼかし量を持つ基準ぼかし画像を生成する基準ぼかし画像生成部と、
    前記画像の注目画素毎に、前記注目画素の前記フィルタ後の視差マップの値と前記選択した値との比較に基づいて、前記基準ぼかし画像から基準ぼかし画像を選択する基準ぼかし画像選択部と、
    前記選択された基準ぼかし画像のうち前記注目画素の位置に相当する画素の画素値と前記注目画素のフィルタ後の視差マップの値と前記選択した値とに基づいて、前記注目画素の画素値を算出する画素値補間部と、
    を備える画像処理装置。
  4. 前記画素値補間部は、前記注目画素のフィルタ後の視差マップの値と前記選択した値とに基づく値と、前記選択された基準ぼかし画像のうち前記注目画素の位置に相当する画素の画素値とを用いた補間によって、前記注目画素の画素値を算出する請求項に記載の画像処理装置。
  5. 画像を、前記画像の各画素についての視差値に応じて所定の領域に分割し、前記領域毎に視差値を変換し、
    前記視差値が変換された視差値に基づく視差マップにローパスフィルタをかけ、
    前記ローパスフィルタがかけられた視差マップに応じて画像用フィルタのサイズを選択し、
    前記画像に前記画像用フィルタをかけることにより、前記画像のぼかし画像を生成し、
    前記ローパスフィルタをかけた後の視差マップに基づいて、前記画像と前記ぼかし画像とを合成した合成画像を生成する画像処理方法。
  6. 画像処理装置のコンピュータに、
    画像を、前記画像の各画素についての視差値に応じて所定の領域に分割し、前記領域毎に視差値を変換し、
    前記視差値が変換された視差値に基づく視差マップにローパスフィルタをかけ、
    前記ローパスフィルタがかけられた視差マップに応じて画像用フィルタのサイズを選択し、
    前記画像に前記画像用フィルタをかけることにより、前記画像のぼかし画像を生成し、
    前記ローパスフィルタをかけた後の視差マップに基づいて、前記画像と前記ぼかし画像とを合成した合成画像を生成させるための画像処理プログラム。
JP2012546719A 2010-12-03 2011-09-13 画像処理装置、画像処理方法及び画像処理プログラム Expired - Fee Related JP5473173B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012546719A JP5473173B2 (ja) 2010-12-03 2011-09-13 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010270735 2010-12-03
JP2010270735 2010-12-03
PCT/JP2011/070832 WO2012073575A1 (ja) 2010-12-03 2011-09-13 画像処理装置、画像処理方法及び画像処理プログラム
JP2012546719A JP5473173B2 (ja) 2010-12-03 2011-09-13 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP5473173B2 true JP5473173B2 (ja) 2014-04-16
JPWO2012073575A1 JPWO2012073575A1 (ja) 2014-05-19

Family

ID=46171531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012546719A Expired - Fee Related JP5473173B2 (ja) 2010-12-03 2011-09-13 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (5)

Country Link
US (1) US9070223B2 (ja)
JP (1) JP5473173B2 (ja)
CN (1) CN103238168A (ja)
BR (1) BR112013013356A2 (ja)
WO (1) WO2012073575A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9007402B2 (en) 2012-09-18 2015-04-14 Facebook, Inc. Image processing for introducing blurring effects to an image
JP6230239B2 (ja) * 2013-02-14 2017-11-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US9886766B2 (en) * 2013-08-16 2018-02-06 Samsung Electronics Co., Ltd Electronic device and method for adding data to image and extracting added data from image
JP5788551B1 (ja) * 2014-03-27 2015-09-30 オリンパス株式会社 画像処理装置および画像処理方法
CN105872408A (zh) * 2015-12-04 2016-08-17 乐视致新电子科技(天津)有限公司 图像处理方法及设备
JP7020485B2 (ja) * 2017-06-22 2022-02-16 日本電気株式会社 演算装置、演算方法及びプログラム
CN108076291A (zh) * 2017-12-28 2018-05-25 北京安云世纪科技有限公司 一种图像数据的虚化处理方法、装置和移动终端
CN113256785B (zh) * 2021-05-31 2023-04-04 北京字跳网络技术有限公司 图像处理方法、装置、设备及介质
TWI813181B (zh) * 2021-09-09 2023-08-21 大陸商星宸科技股份有限公司 影像處理電路與影像處理方法
CN114626978A (zh) * 2022-03-17 2022-06-14 北京字跳网络技术有限公司 一种图像处理方法、装置、计算机设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09181966A (ja) * 1995-12-22 1997-07-11 Olympus Optical Co Ltd 画像処理方法及び装置
JP2006067521A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 画像処理装置と方法、および画像撮像装置と方法
JP2009110137A (ja) * 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2012063987A (ja) * 2010-09-16 2012-03-29 Toshiba Corp 画像処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163337A (en) 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP3733359B2 (ja) 1996-04-05 2006-01-11 松下電器産業株式会社 視差推定方法、画像伝送方法、画像表示方法、多視点画像伝送方法、多視点画像復元方法および視差推定装置
JP3262772B2 (ja) 1999-12-17 2002-03-04 株式会社ナムコ 画像生成システム及び情報記憶媒体
US7113634B2 (en) * 2001-07-31 2006-09-26 Canon Kabushiki Kaisha Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
US8073196B2 (en) * 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
JP4793933B2 (ja) 2007-03-12 2011-10-12 任天堂株式会社 画像処理プログラムおよび画像処理装置
JP2009194896A (ja) * 2008-01-18 2009-08-27 Sanyo Electric Co Ltd 画像処理装置及び方法並びに撮像装置
WO2009149413A1 (en) * 2008-06-06 2009-12-10 Real D Blur enhancement of stereoscopic images
JP2011130169A (ja) * 2009-12-17 2011-06-30 Sanyo Electric Co Ltd 画像処理装置及び撮影装置
KR101690297B1 (ko) * 2010-04-12 2016-12-28 삼성디스플레이 주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
RU2010123652A (ru) * 2010-06-10 2011-12-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." (KR) Система и способ визуализации стереоизображений и многовидовых изображений для управления восприятием глубины стереоскопического изображения, создаваемого телевизионным приемником
US8878950B2 (en) * 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09181966A (ja) * 1995-12-22 1997-07-11 Olympus Optical Co Ltd 画像処理方法及び装置
JP2006067521A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 画像処理装置と方法、および画像撮像装置と方法
JP2009110137A (ja) * 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2012063987A (ja) * 2010-09-16 2012-03-29 Toshiba Corp 画像処理装置

Also Published As

Publication number Publication date
CN103238168A (zh) 2013-08-07
US9070223B2 (en) 2015-06-30
BR112013013356A2 (pt) 2016-09-13
JPWO2012073575A1 (ja) 2014-05-19
WO2012073575A1 (ja) 2012-06-07
US20130279799A1 (en) 2013-10-24

Similar Documents

Publication Publication Date Title
JP5473173B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6094863B2 (ja) 画像処理装置、画像処理方法、プログラム、集積回路
US9412151B2 (en) Image processing apparatus and image processing method
JP6021541B2 (ja) 画像処理装置及び方法
JP5818514B2 (ja) 画像処理装置および画像処理方法、プログラム
JP4658223B2 (ja) 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
JP2013513318A (ja) オプティカル効果を生成させるためのデジタル画像合成
JP5942195B2 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
JP2009251839A (ja) 画像信号処理回路、画像表示装置、および画像信号処理方法
JP6270413B2 (ja) 画像処理装置、撮像装置、および画像処理方法
JP5911166B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、撮像装置、及び画像表示装置
JP2013223008A (ja) 画像処理装置及び方法
JP2013066058A (ja) 画像処理装置、画像処理方法及びプログラム
JP5820716B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置
WO2010051719A1 (zh) 一种视频图像 4/3 倍放大方法
WO2012169174A1 (ja) 画像処理装置および画像処理方法
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
WO2012081332A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2010171624A (ja) 輪郭補正回路及び補間画素生成回路
JP2020057242A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2008217547A (ja) 自由視点画像の生成方法
JP2019517688A (ja) 二枚の表示画像間の移行を割り出すための方法及び装置、並びに、車両
US9531943B2 (en) Block-based digital refocusing system and method thereof
TW202334902A (zh) 用於圖像重投影的系統和方法
JP5701816B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R150 Certificate of patent or registration of utility model

Ref document number: 5473173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees