JP2013059016A - 画像処理装置および方法、並びにプログラム - Google Patents
画像処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2013059016A JP2013059016A JP2011267506A JP2011267506A JP2013059016A JP 2013059016 A JP2013059016 A JP 2013059016A JP 2011267506 A JP2011267506 A JP 2011267506A JP 2011267506 A JP2011267506 A JP 2011267506A JP 2013059016 A JP2013059016 A JP 2013059016A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- motion compensation
- unit
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012545 processing Methods 0.000 title claims description 88
- 230000033001 locomotion Effects 0.000 claims abstract description 107
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 230000008569 process Effects 0.000 claims description 38
- 238000002156 mixing Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 10
- 230000002123 temporal effect Effects 0.000 claims description 7
- 238000003672 processing method Methods 0.000 claims description 2
- 239000000203 mixture Substances 0.000 abstract description 12
- 230000006870 function Effects 0.000 description 23
- 230000009467 reduction Effects 0.000 description 17
- 238000011156 evaluation Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 7
- 125000004122 cyclic group Chemical group 0.000 description 6
- 238000001914 filtration Methods 0.000 description 5
- 238000009499 grossing Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011946 reduction process Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/20—Circuitry for controlling amplitude response
- H04N5/202—Gamma control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/82—Camera processing pipelines; Components thereof for controlling camera response irrespective of the scene brightness, e.g. gamma correction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】よりノイズの少ない画像を得ることができるようにする。
【解決手段】動き検出部は、現フレームと1つ前のフレームの参照画像の差分を求めることで参照画像の動きを検出し、その検出結果に基づいてフィードバック調整量を算出する。動き補償部は、現フレームと1つ前のフレームの参照画像から求まる参照画像のテクスチャ情報に基づいて、1つ前のフレームのフィルタ出力画像の動き補償を行なう。ブレンド部は、動き補償されたフィルタ出力画像と、現フレームの入力画像とを、フィードバック調整量に基づいて混合し、現フレームのフィルタ出力画像とする。本技術は、画像処理装置に適用することができる。
【選択図】図1
【解決手段】動き検出部は、現フレームと1つ前のフレームの参照画像の差分を求めることで参照画像の動きを検出し、その検出結果に基づいてフィードバック調整量を算出する。動き補償部は、現フレームと1つ前のフレームの参照画像から求まる参照画像のテクスチャ情報に基づいて、1つ前のフレームのフィルタ出力画像の動き補償を行なう。ブレンド部は、動き補償されたフィルタ出力画像と、現フレームの入力画像とを、フィードバック調整量に基づいて混合し、現フレームのフィルタ出力画像とする。本技術は、画像処理装置に適用することができる。
【選択図】図1
Description
本技術は画像処理装置および方法、並びにプログラムに関し、特に、フィルタ処理によって、よりノイズの少ない画像を得ることができるようにした画像処理装置および方法、並びにプログラムに関する。
従来、画像のノイズを低減させるためのフィルタとして、巡回型フィルタ(IIR(Infinite Impulse Response)フィルタ)が知られている。
また、画像のノイズ低減のためのフィルタ処理として、時間フィルタと空間フィルタを組み合わせた処理を行なう技術も提案されている(例えば、特許文献1参照)。この技術では、画像の動き検出の結果に基づいて、画像の時間方向、つまりフレーム間の相関を利用したノイズ低減の結果と、画像の空間方向、つまりライン間の相関を利用したノイズ低減の結果とのうちの何れか一方が、フィルタ処理の結果として出力される。
したがって、時間フィルタと空間フィルタの何れか一方のみを用いる場合と比べて、より大きいノイズ低減効果を得ることができる。
しかしながら、上述した技術では充分なノイズ低減効果を得ることができなかった。
例えば、従来の巡回型フィルタでは、画像のフレーム間で被写体の動きがある場合、画像上の変化のあった領域、つまり動きのある領域において、原画像との時間的な相関が低下し、動きぼけが発生してしまう。また、時間フィルタと空間フィルタを組み合わせる方法では、処理対象の画像にノイズ成分が多く含まれている場合には、充分なノイズ低減効果を得ることが困難であった。
本技術は、このような状況に鑑みてなされたものであり、フィルタ処理によって、よりノイズの少ない画像を得ることができるようにするものである。
本技術の一側面の画像処理装置は、入力画像と空間的な相関を有する参照画像の時間方向の変化に基づいて、フィードバック調整量を算出する算出部と、処理対象の現フレームよりも1つ前のフレームの前記入力画像から得られた出力画像に対して、前記参照画像の空間情報に基づいて動き補償を行なう動き補償部と、前記動き補償により得られた補間出力画像と、前記現フレームの前記入力画像とを前記フィードバック調整量に基づいて混合することにより、前記現フレームの前記出力画像を生成するブレンド部とを備える。
前記動き補償部には、前記現フレームの前記参照画像上の注目画素と、前記1つ前のフレームの前記参照画像上の前記注目画素近傍の画素との輝度差により定まる重みを用いて、前記1つ前のフレームの前記出力画像における前記注目画素近傍の画素を重み付き加算することで、前記補間出力画像を生成させることができる。
画像処理装置には、立体画像を表示させるための右画像と左画像との視差を示す視差画像を前記入力画像として生成する視差検出部と、前記右画像または前記左画像に基づいて前記参照画像を生成する生成部とをさらに設けることができる。
本技術の一側面の画像処理方法またはプログラムは、入力画像と空間的な相関を有する参照画像の時間方向の変化に基づいて、フィードバック調整量を算出し、処理対象の現フレームよりも1つ前のフレームの前記入力画像から得られた出力画像に対して、前記参照画像の空間情報に基づいて動き補償を行ない、前記動き補償により得られた補間出力画像と、前記現フレームの前記入力画像とを前記フィードバック調整量に基づいて混合することにより、前記現フレームの前記出力画像を生成するステップを含む。
本技術の一側面においては、入力画像と空間的な相関を有する参照画像の時間方向の変化に基づいて、フィードバック調整量が算出され、処理対象の現フレームよりも1つ前のフレームの前記入力画像から得られた出力画像に対して、前記参照画像の空間情報に基づいて動き補償が行なわれ、前記動き補償により得られた補間出力画像と、前記現フレームの前記入力画像とを前記フィードバック調整量に基づいて混合することにより、前記現フレームの前記出力画像が生成される。
本技術の一側面によれば、フィルタ処理によって、よりノイズの少ない画像を得ることができる。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[画像処理装置の構成例]
図1は、本技術を適用した画像処理装置の一実施の形態の構成例を示す図である。
[画像処理装置の構成例]
図1は、本技術を適用した画像処理装置の一実施の形態の構成例を示す図である。
この画像処理装置11は、処理対象の入力画像Iinの画像信号と空間的に相関がある参照画像Ginの画像信号を用いて、入力画像Iinに対する時空間フィルタ処理を行なうことで、入力画像Iinのノイズ成分が低減されたフィルタ出力画像Ioutの画像信号を得るものである。
例えば参照画像Ginは、入力画像Iinと同じ被写体に関する情報が含まれる画像であり、かつ入力画像Iinよりも情報量の多い画像、つまり確率的に入力画像Iinよりもノイズ成分の少ない画像とされる。具体的には、例えば入力画像Iinと参照画像Ginは同じ画像から生成された画像などとされ、入力画像Iin上の画素と、その画素と同じ位置にある参照画像Ginの画素とは、同被写体の同じ位置に関する情報を有している。つまり、これらの入力画像Iinと参照画像Ginは空間的に相関を有している。
画像処理装置11は、フレームメモリ21、動き検出部22、フレームメモリ23、動き補償部24、およびブレンド部25から構成される。
フレームメモリ21は、供給された処理対象のフレーム(以下、現フレームとも称する)の参照画像を一時的に保持して1フレーム分の時間だけ遅延させ、動き検出部22および動き補償部24に供給する。動き検出部22は、供給された現フレームの参照画像と、フレームメモリ21から供給された現フレームの1フレーム前(以下、前フレームとも称する)の参照画像とから動き検出を行い、その検出結果に基づいてフィードバック調整量を算出して、ブレンド部25に供給する。
なお、フィードバック調整量とは、動き補償された前フレームのフィルタ出力画像の、現フレームのフィルタ出力画像の生成への寄与率を示すIIRフィードバック量である。
フレームメモリ23は、ブレンド部25から供給されたフィルタ出力画像を1フレーム分の時間だけ遅延させ、動き補償部24に供給する。動き補償部24は、供給された参照画像と、フレームメモリ21からの前フレームの参照画像とから、フレームメモリ23からの前フレームのフィルタ出力画像の動き補償を行い、動き補償されたフィルタ出力画像をブレンド部25に供給する。
ブレンド部25は、動き検出部22からのフィードバック調整量に基づいて、供給された入力画像と、動き補償部24からのフィルタ出力画像とをブレンド(混合)し、現フレームのフィルタ出力画像を出力する。
ブレンド部25は、乗算部31、乗算部32、および加算部33を備えている。乗算部31は、供給された入力画像に、動き検出部22から供給されたフィードバック調整量を乗算して加算部33に供給する。
乗算部32は、動き補償部24から供給された前フレームのフィルタ出力画像に、動き検出部22から供給されたフィードバック調整量を乗算し、加算部33に供給する。加算部33は、乗算部31からの入力画像と、乗算部32からのフィルタ出力画像とを加算して現フレームのフィルタ出力画像とし、出力する。
[フィルタ更新処理の説明]
ところで、図1の画像処理装置11は、入力画像と参照画像が供給され、入力画像に対する時空間フィルタ処理が指示されると、フィルタ更新処理を行なってフィルタ出力画像を生成し、出力する。以下、図2のフローチャートを参照して、画像処理装置11によるフィルタ更新処理について説明する。
ところで、図1の画像処理装置11は、入力画像と参照画像が供給され、入力画像に対する時空間フィルタ処理が指示されると、フィルタ更新処理を行なってフィルタ出力画像を生成し、出力する。以下、図2のフローチャートを参照して、画像処理装置11によるフィルタ更新処理について説明する。
ステップS11において、動き検出部22は、参照画像のフレーム間差分に基づいて、フィードバック調整量を算出する。
すなわち、現フレームの参照画像が画像処理装置11に供給されると、フレームメモリ21は、既に供給されて保持している前フレームの参照画像を動き検出部22と動き補償部24に供給する。
動き検出部22は、供給された現フレームの参照画像と、フレームメモリ21からの前フレームの参照画像との差分を示す差分評価値を算出する。
具体的には、例えば動き検出部22は次式(1)を計算し、現フレームの参照画像の座標(x,y)の画素の画素値(輝度値)G(x,y)と、前フレームの参照画像の座標(x,y)の画素の画素値Gold(x,y)との差分絶対値を座標(x,y)における差分評価値d(x,y)として算出する。
なお、座標(x,y)は、参照画像上の互いに直交する方向をx方向およびy方向としたときの各方向を軸とする座標系におけるx座標とy座標である。また、差分評価値d(x,y)は、現フレームの参照画像と前フレームの参照画像の差分量を示すものであれば、どのようなものであってもよい。
このようにして差分評価値d(x,y)が算出されると、次に動き検出部22は、次式(2)を計算し、座標(x,y)におけるフィードバック係数α(x,y)を算出する。
すなわち、動き検出部22は上述した式(1)の計算で求めた差分評価値d(x,y)を、予め定められた所定の関数g(k)に代入することでフィードバック係数α(x,y)を算出する。
例えば、関数g(k)は、差分評価値d(x,y)に応じてIIRフィードバック量を決定する関数であり、参照画像において、動きがあった部分のIIRフィードバック量を減少させ、現フレームの入力画像を反映させるようなフィードバック係数α(x,y)を出力するものである。具体的には、関数g(k)は例えば次式(3)に示される関数とされる。
なお、式(3)において、αは参照画像のフレーム間の動きがない場合のフィードバック係数α(x,y)であり、例えばα=0.9375などとされる。また、k0およびk1は、参照画像のフレーム間の動きを検出し、フィードバック係数を連続的に減少させる差分評価値の範囲を表す閾値であり、例えばk0=5,k1=15とされる。
したがって、例えば図3に示すように、差分評価値d(x,y)が小さいほど、関数g(k)、つまりフィードバック係数α(x,y)の値は大きくなる。なお、図3において、横軸は差分評価値d(x,y)を示しており、縦軸は関数g(k)の値を示している。
例えば、図3の例では、差分評価値d(x,y)が0からk0までの間は、関数g(k)=αとされる。また、差分評価値d(x,y)がk0からk1までの間、つまりk0<d(x,y)≦k1の区間では、関数g(k)=α(1-((k-k0)/(k1-k0)))とされ、差分評価値が大きくなるほど関数g(k)の値が直線的に減少する。さらに、差分評価値d(x,y)がk1より大きい区間では、関数g(k)=0とされる。
動き検出部22は、このようにして得られたフィードバック係数α(x,y)を、そのまま前フレームのフィルタ出力画像のフィードバック調整量として乗算部32に供給する。また、動き検出部22は、1からフィードバック係数α(x,y)を減算して得られる値(1-α(x,y))を、入力画像のフィードバック調整量として乗算部31に供給する。
参照画像のフレーム間の差分、つまり参照画像における被写体の動きが大きいほど、前フレームのフィルタ出力画像に乗算されるフィードバック調整量α(x,y)は小さくなる。つまり、参照画像の動きが大きい領域では、前フレームのフィルタ出力画像の現フレームのフィルタ出力画像の生成に対する寄与率が小さくなり、フィルタ出力画像における動きぼけの発生が抑制される。
図2のフローチャートの説明に戻り、ステップS12において、動き補償部24は、参照画像に基づいて前フレームのフィルタ出力画像を動き補償し、乗算部32に供給する。すなわち、動き補償部24は、現フレームの参照画像のテクスチャ情報を用いて、前フレームのフィルタ出力画像の動き補償を行なう。
例えば、現フレームの参照画像が動き補償部24に供給されると、フレームメモリ23は、既に加算部33から供給されて保持している前フレームのフィルタ出力画像を動き補償部24に供給する。また、フレームメモリ21も前フレームの参照画像を動き補償部24に供給する。
動き補償部24は、供給された現フレームの参照画像、フレームメモリ21からの前フレームの参照画像、およびフレームメモリ23からの前フレームのフィルタ出力画像に基づいて次式(4)を計算し、動き補償された前フレームのフィルタ出力画像を求める。すなわち、動き補償された、前フレームのフィルタ出力画像の座標(x,y)の画素の画素値Iold’(x,y)が算出される。
なお、式(4)において、Gold(x+i,y+j)は、前フレームの参照画像の座標(x+i,y+j)の画素の画素値(輝度値)を示しており、G(x,y)は、現フレームの参照画像の座標(x,y)の画素の画素値(輝度値)を示している。また、Iold(x+i,y+j)は、前フレームのフィルタ出力画像の座標(x+i,y+j)の画素の画素値を示しており、関数w(k)は、予め定められた所定の関数である。
ここで、座標(x,y)にある現フレームの参照画像の画素を注目画素とし、前フレームの参照画像上の注目画素と同じ位置にある画素を中心とする(2M+1)×(2M+1)画素からなるブロックを注目ブロックとする。この場合、画素値Iold’(x,y)は、前フレームの参照画像の注目ブロック内の画素と注目画素との輝度差の絶対値に基づく重みにより、前フレームのフィルタ出力画像の注目ブロックと同じ領域内の画素を重み付き加算することにより求められる。つまり、参照画像の注目画素近傍の輝度差の絶対値に基づいて、重み付けにより補間が行なわれ、画素値Iold’(x,y)とされる。
なお、注目ブロックの大きさを定める定数Mは、注目画素の座標(x,y)を中心として、x軸,y軸のそれぞれの方向で何画素探索するかを表している。例えば、3画素×3画素のブロックが注目ブロックとされる場合には、M=(3−1)/2=1とされる。
また、式(4)における関数w(k)は、参照画像の画素の輝度差、つまりk=|Gold(x+i,y+j)-G(x,y)|が小さいほど重みが大きくなる関数であり、例えば次式(5)に示す関数などとされる。
なお、式(5)において、Nは参照画像の画素の画素値の取り得る値の最大値を示しており、例えば画素値が8ビット精度で0乃至255の何れかの値とされるのであれば、N=255とされる。また、式(5)において、σ2は分散を表しており、例えばσ2=0.01である。
したがって、例えば図4に示すように、参照画像の画素の輝度差|Gold(x+i,y+j)-G(x,y)|が小さいほど、フィルタ出力画像の画素に乗算される重みを示す関数w(k)の値は大きくなる。つまり、参照画像における画素の輝度変化が小さく、被写体の動きのない領域ほど、動き補償で生成されるフィルタ出力画像への寄与率が高くなり、フィルタ出力画像における動きぼけの発生が抑制される。
現フレームの参照画像の注目画素との輝度差が小さい前フレームの参照画像の画素(以下、参照画素とも称する)は、注目画素との相関が高い画素(類似する画素)であり、注目画素と同じ被写体の情報を有する画素である可能性が高い。換言すれば、そのような参照画素は、注目画素の移動先の画素である可能性が高い。
また、フィルタ出力画像と参照画像とは互いに空間的な相関のある画像である。そのため、これから生成しようとする現フレームのフィルタ出力画像における注目画素と同じ位置の画素と、参照画素と同じ位置にある前フレームのフィルタ出力画像上の画素とは、注目画素と参照画素の相関と同じ高さの相関を有しているということができる。
したがって、注目画素と同じ位置にある前フレームのフィルタ出力画像上の画素の近傍にある各画素を、参照画像の画素の輝度差から求めた重みを付けて加算すれば、現フレームのフィルタ出力画像における注目画素と同じ位置の画素の推定値を得ることができるはずである。上述した式(4)の演算で得られるフィルタ出力画像は、前フレームのフィルタ出力画像を動き補償することで推定された、現フレームのフィルタ出力画像である。
なお、重みとなる関数w(k)の値の算出は、必ずしも上述した式(5)の演算に限らず、テーブル引きなどの処理により求められてもよいし、折れ線近似などの演算により求められてもよい。また、式(4)における画素値Gold(x+i,y+j)については、若干の補間性能を犠牲として、処理コスト(メモリ参照)の低減のために、画素値Gold(x+i,y+j)を現フレームの参照画像の画素の画素値G(x+i,y+j)に置き換えて、現フレームの参照画像のみの情報を用いた補間などが行なわれるようにするなど、簡素化が図られてもよい。
図2のフローチャートの説明に戻り、ステップS13において、ブレンド部25は、動き補償部24からの前フレームのフィルタ出力画像と、供給された現フレームの入力画像とを、動き検出部22からのフィードバック調整量に基づいてブレンドする。
すなわち、乗算部31は、供給された入力画像の座標(x,y)の画素の画素値Iin(x,y)に、動き検出部22から供給されたフィードバック調整量(1-α(x,y))を乗算して加算部33に供給する。また乗算部32は、動き補償部24から供給された前フレームの動き補償後のフィルタ出力画像の座標(x,y)の画素の画素値Iold’(x,y)に、動き検出部22から供給されたフィードバック調整量α(x,y)を乗算し、加算部33に供給する。
そして、加算部33は乗算部31からの入力画像の画素の画素値と、乗算部32からのフィルタ出力画像の画素の画素値とを加算して、現フレームのフィルタ出力画像の座標(x,y)の画素の画素値Iout(x,y)とし、これにより得られたフィルタ出力画像を出力する。
これらの処理により、次式(6)の演算が行なわれることになる。つまり、フィードバック係数α(x,y)に基づいて、入力画像の画像信号に対する巡回型フィルタ処理が行なわれ、フィルタ出力画像の画像信号が生成されることになる。
ステップS14において、画像処理装置11は、処理を終了するか否かを判定する。例えば、入力画像の全てのフレームについて処理された場合、処理は終了すると判定される。
ステップS14において、処理を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。
これに対して、ステップS14において、処理を終了すると判定された場合、画像処理装置11の各部は行なっている処理を停止して、フィルタ更新処理は終了する。
以上のようにして画像処理装置11は、参照画像の動きを検出し、その検出結果に基づいてフィードバック調整量を定め、前フレームのフィルタ出力画像の現フレームのフィルタ出力画像の生成に対する寄与率を制御する。また、画像処理装置11は、参照画像の空間的な相関に基づいて、前フレームのフィルタ出力画像の動き補償を行い、得られたフィルタ出力画像と、入力画像とをブレンド(混合)することにより、現フレームのフィルタ出力画像を生成する。
このようなフィードバック調整量の適切な制御やフィルタ出力画像の動き補償により、簡単な処理で、よりノイズ成分の少ないフィルタ出力画像を得ることができる。
従来の単純な巡回型フィルタのみでは、入力画像に動きのある被写体がある場合には、動きのある領域でフィルタ出力画像に動きぼけが生じていた。これに対して、入力画像と空間的に相関性があり、かつ入力画像と比較して統計的にノイズ成分が少ない画像があるときは、その画像を参照画像とし、本技術のように時空間の動き補償を行なうことで、動きのある領域で生じる動きぼけを改善することが可能となる。
また、フィルタ出力画像に対する動き補償と、入力画像に対する巡回型フィルタ処理とを組み合わせることで、より広い範囲を対象として動き補償を行なうことができる。
例えば、図5の右側に示すように、フレーム(n−1)のフィルタ出力画像Iout(n−1)上の注目する画素を注目画素Gn−1とし、上述した式(4)による動き補償の演算時における注目ブロックの大きさが3画素×3画素であったとする。なお、図5において、各画像上の1つの四角形は1つの画素を表している。
この場合、フィルタ出力画像Iout(n−1)における注目画素Gn−1を中心とする3×3画素の領域AR11が参照範囲とされ、動き補償後のフレーム(n−1)のフィルタ出力画像における注目画素Gn−1と同じ位置にある画素が求められる。すなわち、式(4)で示される、領域AR11内の画素を用いたフィルタ処理により、注目画素Gn−1と同じ位置にある動き補償後のフレーム(n−1)のフィルタ出力画像の画素の画素値Iold’(x,y)が算出される。
また、式(6)から、フレームnのフィルタ出力画像の各画素は、フレームnの入力画像と、フレーム(n−1)の動き補償後のフィルタ出力画像の同じ位置にある画素をブレンドすることで生成される。
したがって、フレームnのフィルタ出力画像の画素は、フレームnの入力画像の画素と、フレーム(n−1)のフィルタ出力画像の3×3画素の領域を参照範囲とするフィルタ出力とをブレンドすることにより生成されるということができる。
さらに1フレーム遡ると、例えば領域AR11内の画素G11は、フレーム(n−2)のフィルタ出力画像Iout(n−2)の領域AR12を参照範囲とするフィルタ出力と、フレーム(n−1)の入力画像の画素とをブレンドすることで生成される。ここで、領域AR12は、画素G11と同じ位置にあるフィルタ出力画像Iout(n−2)上の画素を中心とする3×3画素の領域である。
このことから、フィルタ出力画像Iout(n−1)の領域AR11は、フレーム(n−1)の入力画像と、フィルタ出力画像Iout(n−2)上の領域AR13を参照範囲とするフィルタ出力とをブレンドすることで生成されることが分かる。ここで、領域AR13は、注目画素Gn−1と同じ位置にあるフィルタ出力画像Iout(n−2)上の画素を中心とする5×5画素の領域である。
同様に、さらに1フレーム遡り、領域AR13はフレーム(n−2)の入力画像と、フレーム(n−3)のフィルタ出力画像Iout(n−3)上の領域AR14を参照範囲とするフィルタ出力とをブレンドすることで生成される。領域AR14は、注目画素Gn−1と同じ位置にあるフィルタ出力画像Iout(n−3)上の画素を中心とする7×7画素の領域である。
このように、動き補償と巡回型フィルタ処理とを組み合わせた処理が行われる画像処理装置11では、動き補償後のフィルタ出力画像の画素を生成するために、過去の各フレームのフィルタ出力画像上の領域が参照されることになる。また、動き補償後のフィルタ出力画像の画素を生成するために参照されるフィルタ出力画像上の参照範囲は、過去のフレームに遡るにしたがって広くなっていくことが分かる。
そのため、式(4)の演算時における注目ブロックの大きさを、例えば3×3画素程度の比較的小さい領域として動き補償を行なっても、巡回型の構成として再帰的にフィルタ処理を繰り返すことによって、広範囲な画素情報を参照することができる。すなわち、実質的にフィルタ出力画像上の広い範囲を参照して動き補償を行なうことができる。また、広い範囲が参照範囲とされるため、空間的な平滑化によるノイズ低減効果も得ることができる。
以上のことから、動き補償と巡回型フィルタ処理とを組み合わせた処理により、参照範囲を狭くして、動き補償における1フレームあたりの演算量を大幅に削減しつつ、動き補償において、広い範囲を参照範囲とした場合と同等の効果を実現することができる。
〈第2の実施の形態〉
[画像処理装置の構成例]
なお、以上において説明した時空間フィルタ処理は、例えばステレオカメラ等による立体画像の視差検出などに応用することが可能である。そのような場合、視差検出を行なう画像処理装置は、例えば図6に示すように構成される。なお、図6において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
[画像処理装置の構成例]
なお、以上において説明した時空間フィルタ処理は、例えばステレオカメラ等による立体画像の視差検出などに応用することが可能である。そのような場合、視差検出を行なう画像処理装置は、例えば図6に示すように構成される。なお、図6において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図6の画像処理装置101は、ブロックステレオマッチング部111、画像縮小部112、逆ガンマ部113、および時空間フィルタ部114から構成される。
画像処理装置101には、立体画像を構成する左画像の画像信号と右画像の画像信号とが供給される。これらの左画像と右画像とは、同じ被写体を異なる視点で撮像して得られた、互いに視差を有する画像である。
ブロックステレオマッチング部111は、供給された左画像と右画像とに基づいて、所定の大きさのブロックを単位としてステレオマッチング処理を行い、左画像と右画像の各領域の視差を示す入力視差画像を生成する。ブロックステレオマッチング部111は、生成した入力視差画像を時空間フィルタ部114に供給する。
なお、以下においては、右画像が基準とされてステレオマッチング処理が行なわれるものとして説明を続ける。
画像縮小部112は、供給された右画像を縮小して縮小画像を生成し、逆ガンマ部113に供給する。逆ガンマ部113は、画像縮小部112から供給された縮小画像に対して逆ガンマ処理を施し、時空間フィルタ部114に供給する。
時空間フィルタ部114は、逆ガンマ部113からの縮小画像を用いて、ブロックステレオマッチング部111からの入力視差画像に対する時空間フィルタ処理を行なうことで、入力視差画像のノイズ成分が低減された出力視差画像を生成し、出力する。
なお、時空間フィルタ部114は、フレームメモリ21乃至ブレンド部25から構成されており、その構成は図1の画像処理装置11の構成と同じ構成となっている。時空間フィルタ部114では、入力視差画像、逆ガンマ処理された縮小画像、および出力視差画像のそれぞれが、図1の入力画像Iin、参照画像Gin、およびフィルタ出力画像Ioutに対応している。
[処理対象となる画像について]
ところで、画像処理装置101には、例えば図7に示すように、ステレオカメラ等で撮像された左画像PLと右画像PRとが入力される。これらの左画像PLと右画像PRは、例えば320画素×240画素からなるモノクロの画像などとされる。
ところで、画像処理装置101には、例えば図7に示すように、ステレオカメラ等で撮像された左画像PLと右画像PRとが入力される。これらの左画像PLと右画像PRは、例えば320画素×240画素からなるモノクロの画像などとされる。
ブロックステレオマッチング部111では、例えばブロックサイズBlockSizeが4画素×4画素であるブロックを単位としてステレオマッチング処理が行なわれ、80画素×60画素からなる入力視差画像Dinが生成される。
ステレオマッチング処理は、異なる視点の左画像と右画像のうち、一方の画像を基準として、基準となる画像の各点に対応する対応点を、他方の画像上の探索範囲の領域から探索することで、基準となる画像の各点の視差を求める処理である。
図7の例では、基準とされる右画像PRのブロックごとに1つの視差が求められるので、得られる入力視差画像Dinの大きさは、右画像PRの図中、縦横ともに1/4の大きさとなる。したがって、xy座標系における入力視差画像Dinの座標(x,y)にある画素の画素値は、右画像PR上の座標(4x,4y)と座標(4x+3,4y+3)にある画素を互いに対向する頂点とするブロックと、そのブロックに対応する左画像PLのブロックとの視差を示す値となる。
このようにして得られた入力視差画像Dinが、時空間フィルタ処理の対象となる画像、つまり図1の入力画像Iinに対応する画像とされる。一般的に、ステレオマッチング処理で得られる入力視差画像には、エラーが多く含まれている。すなわち、入力視差画像の画素のなかには、実際の視差(真値)を示す画素値を有していない画素もあるため、入力視差画像はノイズが多く含まれている画像ということができる。
また、画像縮小部112では、ステレオマッチング処理で基準とされた右画像PRが図中、縦横ともに1/4の大きさとなるように縮小され、縮小画像SRが生成される。したがって、この縮小画像SRの大きさも入力視差画像Dinと同じ大きさ、つまり80画素×60画素とされる。
このようにして得られた縮小画像SRは、縮小処理によりカメラノイズが低減された画像であり、もとの右画像PRや入力視差画像Dinと空間方向に高い相関性を有する画像である。特に、縮小画像SRは、入力視差画像Dinと比べてノイズ成分が少ない画像である。
そこで、画像処理装置101では、縮小画像SRが、時空間フィルタ処理において処理対象、つまりノイズ低減の対象となる入力視差画像Dinに対して参照される画像となる。すなわち、縮小画像SRが図1の参照画像Ginに対応する画像とされる。
さらに、時空間フィルタ部114では、縮小画像SRが参照されながら入力視差画像Dinに対する時空間フィルタ処理が行なわれ、出力視差画像Doutが生成される。このようにして生成された出力視差画像Doutは、入力視差画像Dinからノイズが除去された画像であり、入力視差画像Dinと同じ大きさの画像、つまり80画素×60画素の大きさの画像である。この出力視差画像Doutは、図1のフィルタ出力画像Ioutに対応する。
[視差検出処理の説明]
次に、画像処理装置101の動作について説明する。
次に、画像処理装置101の動作について説明する。
画像処理装置101に左画像と右画像からなる立体画像が供給され、立体画像の視差検出が指示されると、画像処理装置101は視差検出処理を行って、出力視差画像を生成する。以下、図8のフローチャートを参照して、画像処理装置101による視差検出処理について説明する。
ステップS61において、ブロックステレオマッチング部111は、供給された左画像および右画像に基づいてステレオマッチング処理を行なう。
例えば、ブロックステレオマッチング部111は、これから求めようとする入力視差画像Dinの座標(x,y)にある画素を注目画素として、次式(7)を計算することにより、注目画素に対する視差dについての差分絶対値和SADRightBase(x,y,d)を算出する。
なお、式(7)において、L(4x+i+d,4y+j)は、左画像PLの座標(4x+i+d,4y+j)にある画素の画素値を示しており、R(4x+i,4y+j)は、右画像PRの座標(4x+i+,4y+j)にある画素の画素値を示している。また、BlockSizeは、処理単位とされるブロックの大きさ(ブロックサイズ)を示しており、ここでは、BlockSize=4とされる。
したがって、差分絶対値和SADRightBase(x,y,d)は、右画像PR上の処理対象のブロック内の各画素の画素値と、そのブロックと同じ位置からx方向に視差dだけずれた位置にある左画像PL上の領域の各画素の画素値との差分の絶対値の総和を求めることにより算出される。なお、右画像PR上の処理対象のブロックは、入力視差画像Dinの注目画素に対応する画素を含む4画素×4画素のブロックである。
ブロックステレオマッチング部111は、所定の範囲内の各視差dについて差分絶対値和SADRightBase(x,y,d)を求めると、それらの差分絶対値和のうちの最小となる差分絶対値和を選択し、選択した差分絶対値和の視差dを、注目画素の視差とする。つまり、選択された差分絶対値和の視差dの値が、注目画素の画素値とされる。例えば、視差dの範囲は、0以上63以下の範囲などとされ、それらの値ごとに差分絶対値和が算出される。
ブロックステレオマッチング部111は、入力視差画像Dinの各画素を順番に注目画素として、注目画素の画素値を求めることで、入力視差画像Dinを生成する。そして、ブロックステレオマッチング部111は、得られた入力視差画像Dinを時空間フィルタ部114の乗算部31に供給する。
なお、ステレオマッチング処理では、処理対象となる左画像と右画像を撮像するステレオカメラの左右の光軸は、それらの光軸が平行となるように予めキャリブレーションされており、左画像と右画像の視差dは、無限遠方において0となっているものとして計算が行なわれる。
また、左画像と右画像の視差検出は、基準となる画像上の小領域と、他方の画像の探索領域内の小領域とを比較して、それらの小領域のテクスチャパターンの類似度を示す評価値を算出する方法であれば、式(7)の輝度の差分絶対値和を用いる方法に限らず、どのような方法であってもよい。例えば、そのような評価値として、差分二乗和や正規化相互相関などが用いられてもよい。
また、視差dが水平方向(x方向)に連続的に変化するような制約条件を加えたものをコスト関数として定義し、このコスト関数を動的計画法などを用いて最小化することで視差dを求めるようにしてもよい。
さらに、次式(8)の計算により左画像を基準とした差分絶対値和SADLeftBase(x,y,d)を求め、確率的に視差検出のエラーが減少するように、差分絶対値和SADRightBase(x,y,d)と差分絶対値和SADLeftBase(x,y,d)を統合し、視差dを求めてもよい。
図8のフローチャートの説明に戻り、入力視差画像が生成されると、ステップS62において、画像縮小部112は、供給された右画像に対して縮小処理を行い、入力視差画像と同じ大きさの縮小画像SRを生成する。
例えば、画像縮小部112は、次式(9)に示す計算を行なって、右画像上の所定の大きさのブロック内の画素の画素値を平滑化することで縮小画像SRにおける座標(x,y)の画素の画素値Rsmall(x,y)を算出する。
なお、式(9)において、R(4x+j,4y+i)は、右画像PRの座標(4x+j,4y+i)にある画素の画素値を示している。また、BlockSizeは、ステップS61のステレオマッチング処理において、処理単位とされたブロックの大きさ(ブロックサイズ)を示しており、ここでは、BlockSize=4とされる。
したがって、右画像上のブロック内の画素の画素値の平均値が、そのブロックに対応する縮小画像の画素の画素値とされる。このように右画像に対する空間的な平滑化を行なうことにより、ノイズ成分が大幅に低減された縮小画像を得ることができる。
なお、右画像に対する縮小処理は、上述した式(9)の計算に限らず、3次補間法(バイキュービック法)など、他のどのような縮小アルゴリズムにより行なわれてもよい。
画像縮小部112は、縮小画像を生成すると、得られた縮小画像を逆ガンマ部113に供給し、その後、処理はステップS63へと進む。
ステップS63において、逆ガンマ部113は、画像縮小部112から供給された縮小画像に対して逆ガンマ処理を行い、逆ガンマ処理が施された縮小画像を、時空間フィルタ部114のフレームメモリ21、動き検出部22、および動き補償部24に供給する。
例えば、逆ガンマ部113は、次式(10)を計算することにより、縮小画像SRにおける座標(x,y)の画素の画素値Rsmall(x,y)に対する逆ガンマ処理を行い、逆ガンマ処理後の画素の画素値Rsmall’(x,y)を算出する。
なお、式(10)において、関数Gammainv(k)は、例えば次式(11)により表される関数である。
式(11)では、Nは画素値Rsmall(x,y)、すなわちkの取り得る値の最大値を示している。例えば、画素値kが8ビットで0乃至255のうちの何れかの値とされる場合、N=255とされる。また、rはガンマ値を示しており、ガンマ値rとしてノイズのばらつきが入力信号量(画素の画素値)に対して一定となるような値が用いられ、例えばガンマ値r=1.5とされる。
左画像や右画像を撮像するカメラ等では、一般的にビット数あたりのダイナミックレンジをかせぐために画像に対するガンマ補正などが行なわれており、例えば図9の左側に示すように、ノイズによる値のばらつきが入力信号量(画素値)の小さい部分において大きくなる傾向にある。これを軽減するために、必要に応じて画像に対する逆ガンマ処理(逆ガンマ変換)が行なわれ、図9の右側に示すように値のばらつきが補正される。
なお、図中、縦軸は入力信号量(画素値)を示しており、横軸は画像を撮像する画素(センサ)に入射する光の光量を示している。
逆ガンマ部113は、縮小画像に対して逆ガンマ処理を行なうと、逆ガンマ処理が施された縮小画像を、参照画像として時空間フィルタ部114に供給する。なお、逆ガンマ処理は、上述した式(10)の演算に限らず、折れ線近似やテーブル引きにより実現されるようにしてもよい。
縮小画像に逆ガンマ処理が施されると、その後、ステップS64乃至ステップS67の処理が行なわれて視差検出処理は終了するが、これらの処理は図2のステップS11乃至ステップS14の処理と同様であるので、その説明は省略する。
但し、ステップS64乃至ステップS67では、縮小画像のフレーム間差分に基づいてフィードバック調整量が算出されるとともに、縮小画像に基づいて前フレームの出力視差画像の動き補償が行なわれる。そして、動き補償された出力視差画像と、現フレームの入力視差画像とがブレンドされて、現フレームの出力視差画像が生成される。
以上のようにして画像処理装置101は、ステレオマッチング処理により入力視差画像を生成するとともに、右画像を縮小して縮小画像とし、縮小画像を参照画像として入力視差画像に対する時空間フィルタ処理を行い、ノイズが低減された出力視差画像を生成する。
時空間フィルタ処理時において、縮小画像の動きに基づいて適切なフィードバック調整量を定めたり、前フレームの出力視差画像の動き補償を行なったりすることで、簡単な処理で、よりノイズ成分の少ない出力視差画像を得ることができる。
一般的に、ステレオマッチング処理により得られる入力視差画像には、マッチングエラーを要因とするノイズ成分が多く含まれているが、入力視差画像のもととなる左右の画像は、入力視差画像と空間方向に高い相関性があり、入力視差画像よりもノイズ成分が少ない。そこで、画像処理装置101のような、ブロックステレオマッチングにより縮小視差を取得するシステムにおいて、入力視差画像、縮小画像、および出力視差画像を、入力画像、参照画像、およびフィルタ出力画像として時空間フィルタ処理を行なえば、大きなノイズ低減効果を得ることができる。
特に、ブロックステレオマッチングにより縮小視差を得るようなシステムでは、ブロックステレオマッチングで基準とされる、もとの右画像を入力視差画像に合わせて縮小させて得られる縮小画像を参照画像として用いるが、このような縮小処理は画像の空間的な平滑化である。したがって、縮小処理により参照画像としてノイズ成分が大幅に低減された画像を得ることができ、時空間フィルタ処理時に非常に効果的にノイズ成分を低減させることができる。
また、一般的に空間的な動き補償処理は、処理コストが大きい。しかし、視差画像のような空間方向に連続的な変化を有しているものを前提とした場合には、単に現フレームの参照画像の注目画素と、前フレームの参照画像における注目画素近傍の画素との差分量を用い、前フレームの出力視差画像の注目画素近傍の画素に対して空間的な重み付き加算を行なって平滑化するだけでよい。これにより、簡単な処理で容易に動き補償を実現することができる。
さらに、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図10は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207、ハードディスクや不揮発性のメモリなどよりなる記録部208、ネットワークインターフェースなどよりなる通信部209、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211を駆動するドライブ210が接続されている。
以上のように構成されるコンピュータでは、CPU201が、例えば、記録部208に記録されているプログラムを、入出力インターフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記録部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記録部208にインストールすることができる。その他、プログラムは、ROM202や記録部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
さらに、本技術は、以下の構成とすることも可能である。
[1]
入力画像と空間的な相関を有する参照画像の時間方向の変化に基づいて、フィードバック調整量を算出する算出部と、
処理対象の現フレームよりも1つ前のフレームの前記入力画像から得られた出力画像に対して、前記参照画像の空間情報に基づいて動き補償を行なう動き補償部と、
前記動き補償により得られた補間出力画像と、前記現フレームの前記入力画像とを前記フィードバック調整量に基づいて混合することにより、前記現フレームの前記出力画像を生成するブレンド部と
を備える画像処理装置。
[2]
前記動き補償部は、前記現フレームの前記参照画像上の注目画素と、前記1つ前のフレームの前記参照画像上の前記注目画素近傍の画素との輝度差により定まる重みを用いて、前記1つ前のフレームの前記出力画像における前記注目画素近傍の画素を重み付き加算することで、前記補間出力画像を生成する
[1]に記載の画像処理装置。
[3]
立体画像を表示させるための右画像と左画像との視差を示す視差画像を前記入力画像として生成する視差検出部と、
前記右画像または前記左画像に基づいて前記参照画像を生成する生成部と
をさらに備える[2]に記載の画像処理装置。
入力画像と空間的な相関を有する参照画像の時間方向の変化に基づいて、フィードバック調整量を算出する算出部と、
処理対象の現フレームよりも1つ前のフレームの前記入力画像から得られた出力画像に対して、前記参照画像の空間情報に基づいて動き補償を行なう動き補償部と、
前記動き補償により得られた補間出力画像と、前記現フレームの前記入力画像とを前記フィードバック調整量に基づいて混合することにより、前記現フレームの前記出力画像を生成するブレンド部と
を備える画像処理装置。
[2]
前記動き補償部は、前記現フレームの前記参照画像上の注目画素と、前記1つ前のフレームの前記参照画像上の前記注目画素近傍の画素との輝度差により定まる重みを用いて、前記1つ前のフレームの前記出力画像における前記注目画素近傍の画素を重み付き加算することで、前記補間出力画像を生成する
[1]に記載の画像処理装置。
[3]
立体画像を表示させるための右画像と左画像との視差を示す視差画像を前記入力画像として生成する視差検出部と、
前記右画像または前記左画像に基づいて前記参照画像を生成する生成部と
をさらに備える[2]に記載の画像処理装置。
11 画像処理装置, 22 動き検出部, 24 動き補償部, 25 ブレンド部, 101 画像処理装置, 111 ブロックステレオマッチング部, 112 画像縮小部, 114 時空間フィルタ部
Claims (5)
- 入力画像と空間的な相関を有する参照画像の時間方向の変化に基づいて、フィードバック調整量を算出する算出部と、
処理対象の現フレームよりも1つ前のフレームの前記入力画像から得られた出力画像に対して、前記参照画像の空間情報に基づいて動き補償を行なう動き補償部と、
前記動き補償により得られた補間出力画像と、前記現フレームの前記入力画像とを前記フィードバック調整量に基づいて混合することにより、前記現フレームの前記出力画像を生成するブレンド部と
を備える画像処理装置。 - 前記動き補償部は、前記現フレームの前記参照画像上の注目画素と、前記1つ前のフレームの前記参照画像上の前記注目画素近傍の画素との輝度差により定まる重みを用いて、前記1つ前のフレームの前記出力画像における前記注目画素近傍の画素を重み付き加算することで、前記補間出力画像を生成する
請求項1に記載の画像処理装置。 - 立体画像を表示させるための右画像と左画像との視差を示す視差画像を前記入力画像として生成する視差検出部と、
前記右画像または前記左画像に基づいて前記参照画像を生成する生成部と
をさらに備える請求項2に記載の画像処理装置。 - 入力画像と空間的な相関を有する参照画像の時間方向の変化に基づいて、フィードバック調整量を算出し、
処理対象の現フレームよりも1つ前のフレームの前記入力画像から得られた出力画像に対して、前記参照画像の空間情報に基づいて動き補償を行ない、
前記動き補償により得られた補間出力画像と、前記現フレームの前記入力画像とを前記フィードバック調整量に基づいて混合することにより、前記現フレームの前記出力画像を生成する
ステップを含む画像処理方法。 - 入力画像と空間的な相関を有する参照画像の時間方向の変化に基づいて、フィードバック調整量を算出し、
処理対象の現フレームよりも1つ前のフレームの前記入力画像から得られた出力画像に対して、前記参照画像の空間情報に基づいて動き補償を行ない、
前記動き補償により得られた補間出力画像と、前記現フレームの前記入力画像とを前記フィードバック調整量に基づいて混合することにより、前記現フレームの前記出力画像を生成する
ステップを含む処理をコンピュータに実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011267506A JP2013059016A (ja) | 2011-08-12 | 2011-12-07 | 画像処理装置および方法、並びにプログラム |
CN201210274226.1A CN102957844B (zh) | 2011-08-12 | 2012-08-03 | 图像处理设备和图像处理方法 |
US13/565,957 US8860829B2 (en) | 2011-08-12 | 2012-08-03 | Image processing device, image processing method, and image processing program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011176722 | 2011-08-12 | ||
JP2011176722 | 2011-08-12 | ||
JP2011267506A JP2013059016A (ja) | 2011-08-12 | 2011-12-07 | 画像処理装置および方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013059016A true JP2013059016A (ja) | 2013-03-28 |
Family
ID=47677306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011267506A Pending JP2013059016A (ja) | 2011-08-12 | 2011-12-07 | 画像処理装置および方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8860829B2 (ja) |
JP (1) | JP2013059016A (ja) |
CN (1) | CN102957844B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015188666A1 (zh) * | 2014-06-13 | 2015-12-17 | 华为技术有限公司 | 三维视频滤波方法和装置 |
DE112017001926T5 (de) | 2016-04-06 | 2019-01-10 | Sony Corporation | Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren |
JP2022051378A (ja) * | 2020-09-18 | 2022-03-31 | カシオ計算機株式会社 | ノイズ波形除去装置、モデル訓練装置、ノイズ波形除去方法、モデル訓練方法、生成モデル及びウェアラブル機器 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201136298A (en) * | 2010-04-12 | 2011-10-16 | Novatek Microelectronics Corp | Filter and filtering method for reducing image noise |
KR101814798B1 (ko) * | 2011-01-26 | 2018-01-04 | 삼성전자주식회사 | 입체영상 처리 장치 및 방법 |
CN104253929B (zh) * | 2013-06-28 | 2019-03-12 | 广州华多网络科技有限公司 | 视频降噪方法及其*** |
US9195860B1 (en) * | 2014-01-10 | 2015-11-24 | Seagate Technology Llc | Adaptively combining waveforms |
JP2015159955A (ja) * | 2014-02-27 | 2015-09-07 | オリンパス株式会社 | 手術システムおよび医療器具の干渉回避方法 |
EP3120256B1 (en) * | 2014-03-17 | 2020-02-12 | Core Sports Technology Group | Method and system for delivering biomechanical feedback to human and object motion |
JP6214457B2 (ja) * | 2014-04-18 | 2017-10-18 | キヤノン株式会社 | 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体 |
US10257450B2 (en) * | 2014-05-15 | 2019-04-09 | Huawei Technologies Co., Ltd. | Multi-frame noise reduction method, and terminal |
TWI536319B (zh) * | 2014-06-24 | 2016-06-01 | 瑞昱半導體股份有限公司 | 去雜訊方法以及影像系統 |
US9479695B2 (en) * | 2014-07-31 | 2016-10-25 | Apple Inc. | Generating a high dynamic range image using a temporal filter |
US9374526B2 (en) | 2014-07-31 | 2016-06-21 | Apple Inc. | Providing frame delay using a temporal filter |
US9514525B2 (en) | 2014-07-31 | 2016-12-06 | Apple Inc. | Temporal filtering for image data using spatial filtering and noise history |
US9413951B2 (en) | 2014-07-31 | 2016-08-09 | Apple Inc. | Dynamic motion estimation and compensation for temporal filtering |
FR3026591B1 (fr) * | 2014-09-25 | 2016-10-21 | Continental Automotive France | Procede de calibration extrinseque de cameras d'un systeme de formation d'images stereos embarque |
FR3047103B1 (fr) * | 2016-01-26 | 2019-05-24 | Thales | Procede de detection de cibles au sol et en mouvement dans un flux video acquis par une camera aeroportee |
CN107968927A (zh) * | 2016-10-20 | 2018-04-27 | 中兴通讯股份有限公司 | 图像处理方法及装置 |
CN107203986A (zh) * | 2017-05-26 | 2017-09-26 | 努比亚技术有限公司 | 一种图像融合方法、装置及计算机可读存储介质 |
JP2018207259A (ja) * | 2017-06-01 | 2018-12-27 | マクセル株式会社 | ステレオ撮像装置 |
WO2019054179A1 (ja) * | 2017-09-12 | 2019-03-21 | ソニー株式会社 | 画像処理装置および方法 |
CN110072034B (zh) * | 2018-01-23 | 2021-10-08 | 瑞昱半导体股份有限公司 | 影像处理方法及影像处理装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62299181A (ja) | 1986-06-18 | 1987-12-26 | Sanyo Electric Co Ltd | テレビジヨン信号のノイズ低減方式 |
JP3266416B2 (ja) * | 1994-04-18 | 2002-03-18 | ケイディーディーアイ株式会社 | 動き補償フレーム間符号化復号装置 |
JP3294739B2 (ja) * | 1995-03-30 | 2002-06-24 | 三洋電機株式会社 | Fm多重放送のスクランブルまたはデスクランブル方法 |
US6163337A (en) * | 1996-04-05 | 2000-12-19 | Matsushita Electric Industrial Co., Ltd. | Multi-view point image transmission method and multi-view point image display method |
JP2000013643A (ja) * | 1998-06-18 | 2000-01-14 | Sony Corp | ノイズ低減装置および方法、映像信号処理装置、並びに動き検出方法 |
US7110455B2 (en) * | 2001-08-14 | 2006-09-19 | General Instrument Corporation | Noise reduction pre-processor for digital video using previously generated motion vectors and adaptive spatial filtering |
EP1779653A4 (en) * | 2004-07-30 | 2011-09-14 | Algolith Inc | DEVICE AND METHOD FOR ADAPTIVE 3D NOISE REDUCTION |
JP4857916B2 (ja) * | 2006-06-06 | 2012-01-18 | ソニー株式会社 | ノイズ抑圧方法、ノイズ抑圧方法のプログラム、ノイズ抑圧方法のプログラムを記録した記録媒体及びノイズ抑圧装置 |
CN101742290B (zh) * | 2008-11-12 | 2013-03-27 | 北京中星微电子有限公司 | 视频编、解码降噪方法和视频编、解码降噪装置 |
JP2010122934A (ja) * | 2008-11-20 | 2010-06-03 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
-
2011
- 2011-12-07 JP JP2011267506A patent/JP2013059016A/ja active Pending
-
2012
- 2012-08-03 CN CN201210274226.1A patent/CN102957844B/zh not_active Expired - Fee Related
- 2012-08-03 US US13/565,957 patent/US8860829B2/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015188666A1 (zh) * | 2014-06-13 | 2015-12-17 | 华为技术有限公司 | 三维视频滤波方法和装置 |
DE112017001926T5 (de) | 2016-04-06 | 2019-01-10 | Sony Corporation | Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren |
US10846826B2 (en) | 2016-04-06 | 2020-11-24 | Sony Corporation | Image processing device and image processing method |
JP2022051378A (ja) * | 2020-09-18 | 2022-03-31 | カシオ計算機株式会社 | ノイズ波形除去装置、モデル訓練装置、ノイズ波形除去方法、モデル訓練方法、生成モデル及びウェアラブル機器 |
JP7342827B2 (ja) | 2020-09-18 | 2023-09-12 | カシオ計算機株式会社 | ノイズ波形除去装置、モデル訓練装置、ノイズ波形除去方法、モデル訓練方法、及びウェアラブル機器 |
Also Published As
Publication number | Publication date |
---|---|
US20130038745A1 (en) | 2013-02-14 |
CN102957844A (zh) | 2013-03-06 |
CN102957844B (zh) | 2017-03-01 |
US8860829B2 (en) | 2014-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013059016A (ja) | 画像処理装置および方法、並びにプログラム | |
JP4997281B2 (ja) | イメージ中の推定動きベクトルの決定方法、コンピュータプログラムおよびディスプレイ装置 | |
TWI455588B (zh) | 以雙向、局部及全域移動評估為基礎之框率轉換 | |
US20120093231A1 (en) | Image processing apparatus and image processing method | |
US9055217B2 (en) | Image compositing apparatus, image compositing method and program recording device | |
US8610826B2 (en) | Method and apparatus for integrated motion compensated noise reduction and frame rate conversion | |
US8204124B2 (en) | Image processing apparatus, method thereof, and program | |
JP5081898B2 (ja) | 補間画像生成方法及びシステム | |
US7865030B2 (en) | Method and system for motion compensated temporal filtering using both FIR and IIR filtering | |
KR20100139030A (ko) | 이미지들의 수퍼 해상도를 위한 방법 및 장치 | |
JP2003163894A (ja) | 適応動き補償型フレーム及び/又はフィールドレート変換装置及びその方法 | |
CA2729106A1 (en) | System and method for depth extraction of images with motion compensation | |
US9245316B2 (en) | Image processing device, image processing method and non-transitory computer readable medium | |
KR20070063304A (ko) | 움직임 추정장치 및 움직임 추정방법 | |
JP2010093779A (ja) | 動き補償において周期的構造に対処する方法および装置 | |
US9135676B2 (en) | Image interpolation processing apparatus and method thereof | |
TW201322769A (zh) | 運動向量改善裝置及其影像改善方法 | |
JP2013074571A (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
JP6402088B2 (ja) | 映像品質推定装置、映像品質推定方法、及びプログラム | |
US8805101B2 (en) | Converting the frame rate of video streams | |
JPWO2006117844A1 (ja) | 画像処理装置、画像処理方法、及び情報端末装置 | |
JP2015148965A (ja) | 画像処理装置、撮像装置及び画像処理方法 | |
JP2013258445A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP3948616B2 (ja) | 画像のマッチング装置 | |
JP4250807B2 (ja) | フィールド周波数変換装置および変換方法 |