JP6800806B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6800806B2
JP6800806B2 JP2017093248A JP2017093248A JP6800806B2 JP 6800806 B2 JP6800806 B2 JP 6800806B2 JP 2017093248 A JP2017093248 A JP 2017093248A JP 2017093248 A JP2017093248 A JP 2017093248A JP 6800806 B2 JP6800806 B2 JP 6800806B2
Authority
JP
Japan
Prior art keywords
component
frame
signal
mode
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017093248A
Other languages
English (en)
Other versions
JP2018191178A (ja
Inventor
広崇 大森
広崇 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017093248A priority Critical patent/JP6800806B2/ja
Priority to US15/970,763 priority patent/US10572980B2/en
Publication of JP2018191178A publication Critical patent/JP2018191178A/ja
Priority to US16/459,119 priority patent/US10621703B2/en
Application granted granted Critical
Publication of JP6800806B2 publication Critical patent/JP6800806B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、動画像を処理する画像処理装置、画像処理方法およびプログラムに関する。
従来、動画像信号に対しノイズ低減処理を実行する技術として、巡回型ノイズ低減処理技術が知られている。巡回型ノイズ低減処理技術では、動画の時間方向に対し連続する2フレーム(現在のフレームの入力信号と一つ前のフレームの出力信号)をブレンドすることによって、時間方向に発生するランダムノイズを低減する。時間方向に連続する2フレームの信号をブレンドする比率(以降、巡回係数と呼ぶ。)の設定方法としては、例えば特許文献1に記載のような方法が知られている。特許文献1に記載の方法では、2フレーム間の変化量を算出し、その変化量に応じて巡回係数を設定している。このように、フレーム間の変化量に応じて巡回係数を設定することにより、動画に写っている被写体が静止被写体か動体の何れであるかに適応したノイズ低減処理が可能になる。
特開2000−224444号公報
ところで、巡回型ノイズ低減処理が施される動画は、例えば暗い場所や夜間等の暗い環境下で撮影された動画のように十分なSN比(信号対雑音比)が得られない動画であることも多い。SN比が十分でない動画の場合、画像に含まれるノイズの影響によって、フレーム間で算出される変化量の精度が低くなってしまう。そして、特許文献1に記載の巡回型ノイズ低減処理において、算出されたフレーム間変化量の精度が低いと、巡回係数も適切な値が得られず、この場合、動体周辺に残像(尾引き)が生じたり、静止被写体にノイズ(特に色ノイズ)が残留したりすることがある。
そこで、本発明は、精度のよいフレーム間変化量を検出でき、ノイズの残留や残像の発生が抑えられた画像処理を可能にすることを目的とする。
本発明の画像処理装置は、動画の着目フレームの信号に含まれる第1の成分と、前記第1の成分以外の第2の成分との、少なくとも2つの成分ごとにノイズレベルを検出する検出手段と、記着目フレームの信号と、前記着目フレームに対して時間軸上で前フレームのノイズ低減処理後の信号とを用いて、前記着目フレームと前記前フレームとの間の変化量を前記成分ごとに検出する変化量検出手段と、前記検出手段により検出された前記成分ごとのノイズレベルに基づき、フレーム間の変化量を算出する方法が異なる複数のモードから、何れかのモードを選択する選択手段と、前記変化量検出手段により前記成分ごとに検出された前記変化量に基づき、前記選択されたモードに応じたモード別変化量を算出する算出手段と、前記モード別変化量に応じて、ノイズ低減処理で用いる係数を設定する設定手段と、前記着目フレームの信号と、前記前フレームの前記ノイズ低減処理後の信号と、前記係数とを用いて、前記着目フレームの信号にノイズ低減処理を前記成分ごとに行う処理手段と、を有することを特徴とする。
本発明によれば、精度のよいフレーム間変化量を検出でき、ノイズの残留や残像の発生が抑えられた画像処理が可能となる。
本実施形態の撮像システムの概略構成例を示す図である。 本実施形態の撮像装置の内部構成例を示すブロック図である。 画像処理部の内部構成例を示すブロック図である。 巡回型NR処理部の内部構成例を示すブロック図である。 巡回型NR処理のフローチャートである。 ノイズの分散を算出する一例の説明図である。 フレーム間変化量算出部の内部構成例を示すブロック図である。 フレーム間変化量算出処理のフローチャートである。 成分別のフレーム間変化量の説明図である。 モード選択例の説明図である。 モード別のフレーム間変化量の説明図である。 フレーム間変化量と巡回係数の関係を表した図である。 巡回係数を滑らかに変化させる場合の例を示す図である。
以下、図面を参照しながら、本発明の実施形態を詳細に説明する。
図1は、本実施形態の画像処理装置が適用される撮像システムの概略構成例を示す図である。図1に示す撮像システムは、動画像を撮影可能な監視カメラ101と、例えばIP(Internet Protocol)ネットワーク等を介して監視カメラ101と相互に通信可能な状態で接続されたクライアント装置102とを有して構成されている。ここでは、監視カメラ101が本実施形態の画像処理装置の機能を備えている例を挙げて説明する。なお、クライアント装置102が本実施形態の画像処理装置の機能を備えていてもよい。監視カメラ101により撮影された動画は、クライアント装置102に送られて表示され、また必要に応じて記録等される。本実施形態では監視カメラ101を例に挙げたが、これには限定されず、例えばデジタルカメラやデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末などの各種携帯端末、工業用カメラ、車載カメラ、医療用カメラなどでもよい。
図2は、図1に示した本実施形態の監視カメラ101の概略的な内部構成例を示すブロック図である。
撮像光学系201は、ズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、シャッタ等を有して構成され、被写体等の光像を撮像素子部202の撮像面上に形成(結像)させる。撮像素子部202は、撮像面に入射した光を電気信号へと変換する撮像素子と、撮像素子の各画素に対応したカラーフィルタとを有して構成されたカラー撮像センサである。撮像素子部202は、カラーフィルタを透過した撮像面に入射した光を撮像素子により受光し、電気信号へ変換して出力する。なお、撮像素子部202は、全ての画素に対して、任意の露光時間を設定可能な撮像センサであるとする。本実施形態の監視カメラ101の場合、撮像素子部202では動画の撮像が行われ、撮像素子部202からは、動画の時間軸上で連続した各フレームの撮像画像信号が出力される。
CPU203は、本実施形態の監視カメラ101の各構成の全てに関わる処理を実行する。CPU203は、ROM(Read Only Memory)204やRAM(Random Access Memory)205に格納されたプログラムの命令を順次、読み込み、解釈した結果に従って処理を実行する。撮像系制御部206は、CPU203から供給されるフォーカス制御指示、シャッタ制御指示、絞り制御指示などの各指示を基に、撮像光学系201のフォーカス合わせ、シャッタ開閉、絞り調整などの各制御を行う。制御部207は、クライアント装置102からの指示を基に、CPU203を介して各部の制御を行う。ROM204は、CPU203が実行するプログラムや各種設定値を格納している。RAM205は、ROM204に格納されたプログラムが展開され、また、各構成における処理途中のデータの一時的な記憶等を行う。
A/D変換部208は、撮像素子部202による光電変換で得られたアナログ電気信号(アナログ撮像信号)をデジタル信号値に変換する。A/D変換部208によるアナログデジタル変換により得られたデジタル信号値は、動画の各フレームの撮像画像データとして画像処理部209に送られる。画像処理部209は、撮像画像データに対して画像処理を行う部分であり、その画像処理の詳細については後述する。エンコーダ部210は、画像処理部209による画像処理後の画像データを用いて、例えばJPEGやH.264などの所定のファイルフォーマットへの変換処理、つまりエンコード処理を行う。このエンコーダ部210によるエンコード処理後の画像データは、クライアント装置102に送られる。
図3は、本実施形態の監視カメラ101が備えている画像処理部209の概略的な内部構成例を示すブロック図である。
画像入力部301には、前述のように撮像素子部202にて撮像され、A/D変換部208にてアナログデジタル変換された、動画の各フレームの撮像画像データが入力される。現像処理部302は、画像入力部301に入力された撮像画像データに対して、デモザイク、ホワイトバランス、ガンマ、シャープネスなどの処理を行う。空間NR(ノイズリダクション)処理部303は、現像処理部302による処理後の画像に、空間フィルタ処理を施すことで、空間方向において発生するランダムノイズを低減する処理を行う。巡回型NR処理部304は、空間NR処理後の画像に時間フィルタ処理を施すことで、時間方向において発生するランダムノイズを低減する巡回型ノイズ低減処理を行う。時間方向のランダムノイズを低減する巡回型NR処理部304の詳細な構成および動作については後述する。画像出力部305は、それら処理後の画像データを、図1のエンコーダ部210に出力する。
以下、巡回型NR処理部304の構成および動作について説明する。
先ず、巡回型NR処理の原理と課題について説明する。巡回型NR処理では、時間方向に連続する二つのフレームの信号(現在のフレームの入力信号と一つ前のフレームの出力信号)をブレンドすることで時間方向に発生するランダムノイズを低減する処理である。本実施形態では、二つのフレームの信号をブレンドする比率を、巡回係数と呼んでいる。
ここでは、動画の時間方向に連続する二つのフレームとして、時間t(t≧2)のフレームと時間t−1のフレームを例に挙げて説明する。また、例えば時間tのフレームにおいて、巡回型NR処理への入力信号をIN(v,h,t)とし、巡回型NR処理後の出力信号をOUT(v,h,t)として表す。なお、(v,h,t)のv,hは、時間tのフレームの画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置(v,h)を表している。つまり、IN(v,h,t)は、時間tのフレーム内の2次元座標位置(v,h)の画素に対応した入力信号を、OUT(v,h,t)は、時間tのフレーム内の2次元座標位置(v,h)の画素に対応した巡回型NR処理後の出力信号を表している。時間t−1のフレームの入力信号や出力信号についても、時間tのフレームの場合と同様に表すと、例えば出力信号はOUT(v,h,t-1)と表される。そして、巡回型NR処理において、巡回係数をα(0≦α≦1)と表すと、巡回型NR処理後の出力信号OUT(v,h,t)は、式(1)に示すようなαを重みとした重み付け加算演算により算出される。
OUT(v,h,t)=(1−α)×IN(v,h,t)+α×OUT(v,h,t-1) 式(1)
ここで、例えば動画に写っている被写体が静止又は殆ど動いていない静止被写体である場合、時間tと時間t−1の二つのフレーム間で画像の変化量は小さくなる。この場合、巡回係数αの値つまり重みを大きく設定すれば、画像に対して強いノイズ低減処理を施すことが可能となる。すなわち、二つのフレーム間の変化量が小さい場合、巡回係数αを大きな値に設定すれば、画像の時間方向に発生するランダムノイズを良好に低減することができる。一方、被写体が動いている動体である場合、時間tと時間t−1の二つのフレーム間で画像の変化量は大きくなる。この場合、巡回係数α(重み)を小さい値に設定すれば、画像に対するノイズ低減処理を弱くして、動体の画像領域の信号成分を多く残すことが可能となる。このように、巡回型NR処理において、フレーム間の変化量に応じて巡回係数αを設定することで、動画のフレームに写っている被写体が静止被写体である場合と動体である場合の何れであっても、それぞれの画像に適したノイズ低減処理を施すことが可能となる。
また、動画に写っている被写体が静止被写体か動体であるかを判定可能とする手法の一例として、特開昭63−131794号公報に記載された動き検出の方法がある。この公報記載の方法では、輝度信号を基に動き検出を行った信号と、色信号を基に動き検出を行った信号とを合成することで、輝度差が小さく色のみが変化している画像であっても精度のよい動き検出を可能としている。この方法によれば、輝度差が小さく色のみが変化している場合でも、動画に写っている被写体が静止被写体か動体の何れであるかを判定可能となる。このため、この方法を用いて検出した動きに応じて巡回係数を設定することも考えられる。
ところで、暗い場所や夜間等の暗い環境下で撮影された画像のような、SN比が小さくノイズの多い画像に対して巡回型NR処理を行った場合、動体周辺に残像(尾引き)が生じたり、静止被写体にノイズ(特に色ノイズ)が残留したりすることがある。すなわち、SN比が小さくノイズの多い画像の場合、フレーム間の変化量の検出精度が低下するため、その変化量を基に設定される巡回係数の精度も低下してしまう。このような精度の低い巡回係数を用いた巡回型NR処理が行われた場合、動体周辺の残像や、静止被写体のノイズ残留が生ずることがある。なお、特開昭63−131794号公報に記載された動き検出方法の場合も、SN比が十分でなくノイズが多い動画の場合には動き検出の精度が低下する。このため、この方法を用いて検出した動きに応じて巡回係数を設定するようにした場合も、やはり適切な巡回係数を得ることが難しくなる。
そこで、本実施形態では、後述するように、入力信号から得られる輝度成分と色成分のノイズレベルを考慮してフレーム間の変化量を検出し、その変化量を基に巡回係数を設定して巡回型NR処理を行うようにする。これにより、本実施形態では、静止被写体のノイズ(色ノイズ)の残留を低減でき、また、動体周辺の残像(尾引き)を抑えることを可能にしている。
以下、本実施形態における巡回型NR処理部304の構成および動作について詳細に説明する。
図4は、動画の入力信号に巡回型NR処理を施して出力する、本実施形態の巡回型NR処理部304の構成例を示すブロック図である。本実施形態の巡回型NR処理部304は、入力信号取得部401、ノイズレベル算出部402、フレーム間変化量算出部403、巡回係数算出部404、合成処理部405、信号保持部406、出力信号処理部407を有して構成されている。
入力信号取得部401は、動画を構成している、時間軸上で連続した各フレームの中で、例えば或る時間tのフレームを着目フレームとし、その着目フレームの赤(R),緑(G),青(B)の三原色の入力信号(以下、RGB入力信号とする。)を取得する。以下の説明では、或る時間tを現在の時間とし、この現在の時間の着目フレームを現フレームと呼ぶことにする。そして、入力信号取得部401は、現フレームのRGB入力信号を、輝度(Y)、色差(U)、色差(V)の信号(以下、YUV入力信号とする。)に変換する。現フレームのRGB入力信号をYUV入力信号に変換する処理の詳細は後述する。入力信号取得部401での変換処理により生成されたYUV入力信号は、ノイズレベル算出部402、フレーム間変化量算出部403、合成処理部405に送られる。
ノイズレベル算出部402は、現フレームのYUV入力信号から、YUVの成分ごとのノイズレベルを算出するようなノイズレベル検出処理を行う。以下、Yの輝度成分をY成分、Uの色差成分をU成分、Vの色差成分をV成分と呼び、また、U,V成分を纏めてUV成分と呼ぶことにする。YUVの成分ごとのノイズレベル算出処理の詳細は後述する。そして、ノイズレベル算出部402は、現フレームのYUVの成分ごとに算出したノイズレベルを表す信号を、フレーム間変化量算出部403に出力する。
フレーム間変化量算出部403には、現フレームのYUV入力信号と、現フレームより時間軸上で一つ前のフレーム(以下、前フレームとする。)について後述の合成処理部405で合成処理されて信号保持部406に保持されたYUV出力信号とが入力される。フレーム間変化量算出部403は、現フレームのYUV入力信号のノイズレベルと、現フレームのYUV入力信号と、前フレームのYUV出力信号とを基に、現フレームと前フレームとの間のYUV成分ごとの差分を算出するようなフレーム間変化量検出処理を行う。フレーム間変化量の算出処理の詳細は後述する。そして、フレーム間変化量算出部403は、YUVの各成分のフレーム間変化量を表す信号を、巡回係数算出部404に出力する。
巡回係数算出部404は、フレーム間変化量算出部403から供給されたフレーム間の変化量に応じてYUVの成分ごとの巡回係数を算出する。フレーム間変化量に応じた巡回係数の算出処理の詳細は後述する。そして、巡回係数算出部404は、YUVの成分ごとに算出した巡回係数を表す信号を、合成処理部405に出力する。
合成処理部405には、現フレームのYUV入力信号と、前フレームについて合成処理部405で合成処理されて信号保持部406に保持されたYUV出力信号と、が入力される。そして、合成処理部405は、現フレームのYUV入力信号と、前フレームのYUV出力信号とを、巡回係数の値を基にブレンドすることで、現フレームのYUV出力信号を生成する。この合成処理部405による合成処理後のYUV出力信号が、巡回型ノイズ低減処理後の出力信号である。合成処理部405における合成処理の詳細については後述する。合成処理部405での合成処理により生成された現フレームのYUV出力信号は、出力信号処理部407と信号保持部406に送られる。
信号保持部406は、合成処理部405にて合成処理された現フレームのYUV出力信号を保持する。信号保持部406に保持されたYUV出力信号は、フレーム間変化量算出部403においてフレーム間変化量の算出がされる際、および、合成処理部405において合成処理が行われる際に、前述した前フレームのYUV出力信号として用いられる。
出力信号処理部407は、合成処理部405から入力される現フレームのYUV出力信号を、RGB信号(RGB出力信号)に変換する。このRGB出力信号は、巡回型NR処理部304によるノイズ低減処理後の現フレームの画像データとして、図3の画像出力部305に送られる。
図5は、図4に示した巡回型NR処理部304にて行われる処理の流れを示すフローチャートである。図5のフローチャートでは、ステップS501〜S508をそれぞれS501〜S508と略記する。なお、図4の構成と図5のフローチャートの処理は、ハードウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により実行される場合、図5のフローチャートの処理は、例えばROM等に記憶されているプログラムをCPUが実行することにより実現される。これらのことは後述する他のフローチャートにおいても同様とする。
図5のS501において、入力信号取得部401は、前述した時間tの現フレームのRGB入力信号RIN(v,h,t),GIN(v,h,t),BIN(v,h,t)を取得する。そして、入力信号取得部401は、式(2)の変換式により、RGB入力信号RIN(v,h,t),GIN(v,h,t),BIN(v,h,t)を、YUV入力信号YIN(v,h,t),UIN(v,h,t),VIN(v,h,t)に変換する。
IN(v,h,t)=0.299×RIN(v,h,t)+0.587×GIN(v,h,t)+0.114×BIN(v,h,t)
IN(v,h,t)=-0.169×RIN(v,h,t)−0.331×GIN(v,h,t)+0.500×BIN(v,h,t)
IN(v,h,t)=0.500×RIN(v,h,t)−0.419×GIN(v,h,t)−0.081×BIN(v,h,t) 式(2)
次にS502において、ノイズレベル算出部402は、現フレームのYUV入力信号YIN(v,h,t),UIN(v,h,t),VIN(v,h,t)から、YUVの各成分のノイズレベルを算出する。例えば、ノイズレベル算出部402は、現フレームの画像に含まれているノイズレベルを表す評価値として、式(3)、式(4)を用い、現フレームの画像のノイズの分散を算出する。式(3)、式(4)は、輝度のY成分についてノイズ分散σ2 Y(v,h,t)を求める式である。また式の記載は省略するが、ノイズレベル算出部402は、式(3)、式(4)のYをそれぞれU又はVに替えた式により、色差のU成分とV成分のノイズ分散σ2 U(v,h,t),σ2 V(v,h,t)についても算出する。
Figure 0006800806
ここで、式(3)と式(4)のs1、s2の値を大きく設定することで、該当信号に含まれるノイズ分散を正確に算出することができる。図6は、s1=2,s2=2と設定した場合において、時間tのフレームの画像600の中で注目画素x(h,v,t)を中心とした5×5画素の領域601におけるノイズ分散の算出例を示した図である。図6のようにs1=2,s2=2と設定した場合、着目画素x(h,v,t)におけるノイズ分散の算出式は、式(5)と式(6)のように表される。
Figure 0006800806
なお、ノイズレベルの評価値としては、式(3)、式(4)の演算式による分散に限定されず、例えば、ノイズの標準偏差、撮像センサのノイズ特性等のような様々な評価値を用いてもよい。また、ノイズレベルの評価値は、分散と標準偏差、撮像センサのノイズ特性等の、少なくとも二つを組み合わせたものが用いられてもよい。
次のS503において、フレーム間変化量算出部403は、S502で算出されたYUV入力信号のノイズレベルに応じて、複数のモードの中から何れかのモードを選択し、その選択したモードに応じて、YUVの各成分のフレーム間変化量を算出する。本実施形態では、フレーム間の変化量を算出するモードとして、第1のモードM1、第2のモードM2、第3のモードM3を用いる。詳細は後述するが、第1のモードM1は、Y成分とU成分とV成分とでそれぞれ独立に変化量を検出するモードである。第2のモードM2は、Y成分とU成分とV成分でそれぞれ算出された変化量をブレンドして、そのブレンド後の値を変化量とするモードである。また、第3のモードM3は、フレーム間の変化量の検出を行わず、予め設定された値を変化量として用いるモードである。
図7は、フレーム間変化量算出部403の構成の一例を示すブロック図である。図7に示すように、フレーム間変化量算出部403は、成分別変化量算出部701、モード選択部702、モード別変化量算出部703を有して構成される。
成分別変化量算出部701は、現フレームのYUV入力信号と前フレームのYUV出力信号との間の変化量をYUVの信号成分別に検出する成分別検出処理を行い、それらYUVの成分別に検出された変化量を、成分別変化量として出力する。成分別変化量算出部701における成分別変化量の算出処理の詳細は後述する。
モード選択部702は、ノイズレベル算出部402にて算出されたYUVの各成分のノイズ分散を基に、第1のモードM1、第2のモードM2、第3のモードM3の何れかのモードを選択する。モード選択部702におけるモード選択処理の詳細は後述する。モード選択部702により選択されたモードを表すモード信号は、モード別変化量算出部703に送られる。
モード別変化量算出部703には、成分別変化量算出部701にて算出された成分別変化量と、ノイズレベル算出部402により前述のように算出されたYUVの各成分のノイズ分散と、モード選択部702にて選択されたモード信号とが入力される。モード別変化量算出部703は、YUVの成分別変化量と、YUVの成分別のノイズ分散と、モード信号とを基に、モード別変化量を算出する。モード別変化量算出部703におけるモード別変化量の算出処理の詳細は後述する。そして、モード別変化量算出部703にて算出されたモード別変化量の信号は、図4の巡回係数算出部404に送られる。
図8は、図7に示したフレーム間変化量算出部403において行われる処理のフローチャートであり、図5のS503の処理を細分化したフローチャートある。
図8のS801において、成分別変化量算出部701は、現フレームのYUV入力信号と前フレームのYUV出力信号との間の変化量を、YUVの成分ごとに算出し、それを成分別変化量とする。ここで、成分別変化量算出部701は、式(7)〜式(9)のように、YUVの成分別にそれぞれ差分絶対値を求め、それらを成分別変化量ΔY(v,h,t),ΔU(v,h,t),ΔV(v,h,t)として算出する。なお、成分別変化量は、差分絶対値に限定されず、例えば差分二乗値や、低周波成分の差分絶対値等が成分別変化量として算出されてもよい。
ΔY(v,h,t)=|Y(v,h,t)−Y(v,h,t-1)| 式(7)
ΔU(v,h,t)=|U(v,h,t)−U(v,h,t-1)| 式(8)
ΔV(v,h,t)=|V(v,h,t)−V(v,h,t-1)| 式(9)
図9は、時間tのフレーム900と時間t−1のフレーム910を基に成分別に算出された変化量の例を示したイメージ図である。図9に示すように、フレーム900のY成分Y(v,h,t)とフレーム910のY成分Y(v,h,t-1)とから、式(7)によりフレーム間変化量ΔY(v,h,t)が算出される。また、フレーム900のUV成分U(v,h,t),V(v,h,t)と、フレーム910のUV成分U(v,h,t-1),V(v,h,t-1)とから、式(8),式(9)によりフレーム間変化量ΔU(v,h,t),ΔV(v,h,t)が算出される。なお、図9と後述する図11(a)、図11(b)では、式(7)、式(8)、式(9)にて算出されるΔY(v,h,t)、ΔU(v,h,t)、ΔV(v,h,t)を、それぞれΔY,ΔU,ΔVとして表している。
次に、S802において、モード選択部702は、ノイズレベル算出部402から取得されるYUVの各成分のノイズレベルに応じて、第1のモードM1、第2のモードM2、第3のモードM3の何れのモードを用いるかを判定する。S802の処理は、S803とS804の処理からなる。
図10は、夜間等のような低照度環境下で撮像された動画のフレームにおいて、例えば、UV成分のノイズレベルがY成分のノイズレベルと比較して大きくなっている画像を想定した場合のモード選択例の説明図である。
S803において、モード選択部702は、Y成分のノイズレベルと、UV成分のノイズレベルとの差と、所定の範囲を表す閾値(図10に示した閾値Tha)とを比較する。具体的には、S803において、モード選択部702は、YUVの各成分の何れもノイズレベルが小さく、Y成分のノイズレベルと、U成分およびV成分のノイズレベルとの差が閾値以下(図10の閾値Tha以下)であるか否かを判定する。そして、モード選択部702は、S803において、Y成分のノイズレベルと、U成分およびV成分のノイズレベルとの差が、閾値Tha以下であると判定(Yes)した場合、S805に処理を進める。
S805の処理に進むと、モード選択部702は、第1のモードM1を選択し、その選択した第1のモードM1を表すモード信号をモード別変化量算出部703に送る。そして、S805において、モード別変化量算出部703は、S801で算出されたYUVの各成分の変化量ΔY(v,h,t),ΔU(v,h,t),ΔV(v,h,t)を、そのままモード別変化量として出力する。S805の後は、次の着目フレームに対する図8のフローチャートの処理が行われることになる。
図11(a)は、YUVの各成分の何れもノイズレベルが小さく、Y成分とUV成分のノイズレベル差が閾値Tha以下であり、第1のモードM1が選択された場合の、モード別変化量算出部703の入力1100と出力1101の一例を示すイメージ図である。この図11(a)に示すように、第1のモードM1が選択された場合、モード別変化量算出部703は、YUVの成分ごとに算出されて入力された変化量ΔY,ΔU,ΔVを、そのままモード別変化量ΔYMODE1,ΔUMODE1,ΔVMODE1として出力する。
一方、S803において、Y成分のノイズレベルと、UV成分のノイズレベルとの差が閾値Thaより大きいと判定(No)した場合、モード選択部702は、S804に処理を進める。S804において、モード選択部702は、Y成分のノイズレベルとUV成分のノイズレベルと、図10に示す所定の閾値Thbとを比較する。具体的には、S804において、モード選択部702は、Y成分のノイズレベルとUV成分のノイズレベルが両方とも、図10に示す所定の閾値Thb以上であるか否かを判定する。そして、モード選択部702は、Y成分とUV成分のノイズレベルが、両方とも閾値Thb以上であると判定(Yes)した場合にはS807に処理を進め、何れか一方でも閾値Thb未満であると判定(No)した場合にはS806に処理を進める。
S806の処理に進むと、モード選択部702は、第2のモードM2を選択し、その選択した第2のモードM2を表すモード信号をモード別変化量算出部703に送る。そして、S806において、モード別変化量算出部703は、式(10)、式(11)により、UV成分のモード別変化量ΔUMODE2,ΔVMODE2を算出する。なおこのときのモード別変化量算出部703は、Y成分の変化量ΔYについてはそのままモード別変化量ΔYMODE2として出力する。S806の後は、次の着目フレームに対する図8のフローチャートの処理が行われることになる。
Figure 0006800806
図11(b)は、Y成分とUV成分のノイズレベルが何れか一方でも閾値Thb未満であり、第2のモードが選択された場合の、モード別変化量算出部703の入力1110と出力1111の一例を示すイメージ図である。この図11(b)に示すように、第2のモードM2が選択された場合、モード別変化量算出部703は、Y成分については式(7)で算出された変化量ΔYをそのままモード別変化量ΔYMODE2として出力する。一方、モード別変化量算出部703は、UV成分については式(10)、式(11)によりそれぞれモード別変化量ΔUMODE2,ΔVMODE2を算出して出力する。
すなわち、第2のモードM2の場合、UV成分については、Y成分について算出された変化量ΔYと、UV成分について算出された変化量ΔU,ΔVとをブレンドして得られた変化量を、モード別変化量ΔUMODE2,ΔVMODE2とするモードである。また変化量をブレンドする比率は、式(10)、式(11)に表されているように、Y成分のノイズレベル(分散σ2 Y(v,h,t))とUV成分のノイズレベル(分散σ2 U(v,h,t),σ2 V(v,h,t))とに応じて決定されている。すなわち、変化量をブレンドする比率は、Y成分のノイズレベルとUV成分のノイズレベルの割合に応じて決定され、Y成分のノイズレベルがUV成分のノイズレベルと比較して小さくなるほど、Y成分の変化量のブレンドの比率が大きくなるように決定される。
また、S804において、Y成分とUV成分のノイズレベルが両方とも閾値Thb以上であると判定(Yes)されてS807に進んだ場合、モード選択部702は、第3のモードM3を選択し、そのモード信号をモード別変化量算出部703に送る。ここで、第3のモードM3が選択された場合のように、YUVの各成分のノイズレベルが何れも大きい場合、信号成分とノイズ成分との比であるSN比が小さくなっているため、ノイズの影響によりフレーム間変化量を正確に算出できない可能性がある。そこで、第3のモードM3が選択された場合、モード別変化量算出部703は、変化量算出処理を行わずに、YUVの成分別に予め設定した値を、モード別変化量ΔYMODE3,ΔUMODE3,ΔVMODE3として出力する。S807の後は、次の着目フレームに対する図8のフローチャートの処理が行われることになる。
なお、第3のモードM3が選択された場合、モード別変化量算出部703は、ユーザの選択を基に変化量の値を調整することも可能である。例えばクライアント装置102を介してユーザからノイズ低減効果を優先した画質を要求する旨の指示が制御部207に入力された場合、モード別変化量算出部703は、変化量を小さな値に設定する。これにより、ノイズ低減効果の大きい画像が得られることになる。一方、クライアント装置102を介してユーザから動体の視認性を優先した画質を要求する指示が制御部207に入力された場合、モード別変化量算出部703は、変化量を大きな値に設定する。これにより、残像や動きボケの少ない画像が得られることになる。
前述したように、本実施形態では、YUVの各成分のノイズレベルが何れも小さいシーン(第1のモードM1が選択される場合)では、それらYUVの各成分別に算出された変化量をモード別変化量として用いる。すなわち、YUVの各成分のノイズレベルが何れも小さい場合、YUVの成分ごとの高い精度の変化量に基づき、後述する巡回係数の設定が可能になる。
一方、本実施形態では、YUVの各成分のノイズレベルが何れも大きいシーン(第3のモードM3が選択される場合)では、それらYUVの各成分別に予め設定された変化量がモード別変化量として用いられる。すなわち、YUVの各成分のノイズレベルが何れも大きい場合には、精度の低い変化量が算出される可能性が高いため、予め設定された変化量を用いることで、精度の低い変化量に基づく巡回係数の設定がなされることを防いでいる。
また、本実施形態では、Y成分のノイズレベルと、UV成分のノイズレベルとの差が大きくなるシーン(第2のモードM2が選択される場合)では、UV成分についてはY成分とUV成分をブレンドしたものをモード別変化量として用いる。すなわち、Y成分のノイズレベルよりもUV成分のノイズレベルが大きくなる場合、S503と後述のS504ではYUVの各成分のそれぞれのノイズレベルを考慮した変化量が求められるため、このシーンに応じた適切な巡回係数を設定することが可能になる。
このように、本実施形態では、何れのシーンであっても精度の良いフレーム間変化量の算出が実現可能となり、この精度の良いフレーム間変化量を基にした適切な巡回係数の設定が可能となる。したがって、本実施形態によれば、静止被写体のノイズの残留を低減でき、動体周辺の残像を抑えることが可能となる。なお、前述した特開2000−224444号公報に記載の従来の巡回型NR処理では、本実施形態のようなYUVの各成分のノイズレベルに応じたモード選択と、そのモードに応じた変化量の算出および巡回係数の設定は行われていない。また、特開昭63−131794号公報に記載の動き検出方法を用いた場合、SN比が十分でなくノイズが多い動画の場合に動き検出の精度が低下するため適切な巡回係数の設定ができなくなる。これに対し、本実施形態の場合は、YUVの各成分のノイズレベルに応じた適切な巡回係数の設定が可能となる。
なお、本実施形態のS503で示したモードは第1〜第3の三つのモードから構成されているが、これに限るものではなく、四つ以上のモードを設定してより細かな制御を実行してもよい。
図5のフローチャートに説明を戻す。
S504において、巡回係数算出部404は、S503で算出された変化量に基づいて巡回係数を算出する。図12は、Y成分の変化量と巡回係数との関係を表したグラフである。図12に示すように、巡回係数算出部404は、変化量の値と所定の閾値(閾値Th1とTh2)とを比較する。そして、巡回係数算出部404は、変化量の値が閾値未満(閾値Th1より小さい)である場合、Y成分が静止被写体のフレームから得られていると解釈して、巡回係数の値を大きく設定する。一方、変化量の値が所定の閾値以上(閾値Th2以上)の場合、巡回係数算出部404は、Y成分が動体のフレームから得られていると解釈して、巡回係数の値を小さく設定する。変化量の値が閾値Th1以上で閾値Th2未満の場合、巡回係数算出部404は、変化量の値が大きくなるほど巡回係数の値を小さく変化させるように設定する。閾値Th1,Th2は、Y成分の入力信号に含まれているノイズ量を考慮して適宜決定されるパラメータである。一例として、閾値Th1,Th2は、式(12)のように、Y成分のノイズレベル(分散)に応じた値として設定される。
Th1=2σY
Th2=3σY 式(12)
図12に示したように、例えば、静止被写体用の巡回係数の値を0.8、動体用の巡回係数の値を0.2と設定すると、巡回係数算出部404は、Y成分の巡回係数αを、閾値Th1,Th2と変化量の値とを用いて、式(13)により算出する。なお、式の記載は省略するが、巡回係数算出部404は、式(13)のYをそれぞれU又はVに替えた式を用いて、UV成分についても静止被写体用の巡回係数の値と動体用の巡回係数の値とを算出する。
ΔY(v,h,t)<Th1→α=0.8
ΔY(v,h,t)≧Th2→α=0.2
Th1≦ΔY(v,h,t)<Th2→α=((0.2-0.8)/(Th2-Th1))×(ΔY(v,h,t)-Th1)+0.8
式(13)
また、前述の例では、閾値をTh1とTh2の二つとしたが、例えば三つ以上の閾値を設定することで、変化量に応じて巡回係数の値を滑らかに変化させるように設定することも可能である。図13は、閾値をTh11,Th12,Th13,Th14,・・・のように複数設定することで、変化量に応じて巡回係数の値を滑らかに変化させることを可能にした例を示した図である。なお、図13の例の場合、閾値Th11が静止被写体用の巡回係数の値0.8を設定する際の閾値となっており、以下、閾値Th12,Th13,Th14,・・・の順に大きな値が設定されている。変化量の値が、閾値Th11以上で閾値Th12未満の場合、閾値Th12以上で閾値Th13未満の場合、閾値Th13以上で閾値Th14未満の場合で、それぞれ変化量の値が大きくなるほど巡回係数の値を小さく変化させるように設定する。
次のS505において、合成処理部405は、S504で算出された巡回係数αに応じてYUV入力信号とYUV出力信号とを合成し、現フレームのYUV出力信号を生成する。次のS506において、信号保持部406は、S505で得られたYUV出力信号を保持する。
次のS507において、出力信号処理部407は、合成処理部405にて合成処理された現フレームのYUV出力信号YOUT(v,h,t),UOUT(v,h,t),VOUT(v,h,t)を取得する。さらに、出力信号処理部407は、式(14)の式を用い、YUV出力信号YOUT(v,h,t),UOUT(v,h,t),VOUT(v,h,t)を、RGB出力信号ROUT(v,h,t),GOUT(v,h,t),BOUT(v,h,t)に変換する。そして、このRGB出力信号ROUT(v,h,t),GOUT(v,h,t),BOUT(v,h,t)は、図3の画像出力部305に送られる。
OUT(v,h,t)=1.00×YOUT(v,h,t)+1.402×VOUT(v,h,t)
OUT(v,h,t)=1.00×YOUT(v,h,t)−0.334×UOUT(v,h,t)−0.714×VOUT(v,h,t)
OUT(v,h,t)=1.00×YOUT(v,h,t)−1.772×UOUT(v,h,t) 式(14)
次のS508において、巡回型NR処理部304は、現フレームの全ての画素についてS501〜S507の処理を行ったか否か判断し、未処理の画素がある場合にはS501に処理を戻して、その未処理の画素についてS501〜S507の処理を行う。一方、巡回型NR処理部304は、現フレームの全ての画素についてS501〜S507の処理を行ったと判断した場合には、現フレームについての図5のフローチャートの処理を終了し、次のフレームの処理に移る。
前述した実施形態では、YUVの成分ごとにノイズレベルを算出し、フレーム間変化量の検出の精度向上を実現したが、巡回型NR処理部304で処理を行う入力信号のデータ形式に特に制限はない。例えば、RGB成分や、Lab成分、可視・非可視成分に対して、同様の処理を実行することも可能である。
ここで、一例としてRGB成分を用いた場合について説明する。
以下、Rの色成分をR成分、Gの色成分をG成分、Bの色成分をB成分、R成分およびB成分を纏めてRB成分と呼ぶことにする。また、RGB成分を用いた例でも、前述の各図を流用して説明を行うこととする。
RGB成分を用いた例の場合、図5のS501において、入力信号取得部401は、BGB入力信号をYUVに変換せずに、そのままノイズレベル算出部402、フレーム間変化量算出部403、合成処理部405へ送る。なお、巡回型NR処理部304に入力された信号がYUV入力信号である場合、入力信号取得部401は、そのYUV入力信号をRGB入力信号に変換して、ノイズレベル算出部402、フレーム間変化量算出部403、合成処理部405へ送ってもよい。
次のS502において、ノイズレベル算出部402は、現フレームのRGB入力信号RIN(v,h,t),GIN(v,h,t),BIN(v,h,t)から、RGBの各成分のノイズレベルを算出する。この例の場合、ノイズレベル算出部402は、前述の式(3)、式(4)のYをそれぞれR又はG又はBに替えた式により、R成分、G成分、B成分のそれぞれノイズ分散σ2 R(v,h,t),σ2 G(v,h,t) ,σ2 B(v,h,t)を算出する。なお、RGB成分を用いた場合も前述同様に、ノイズレベルの評価値としては、ノイズの標準偏差、撮像センサのノイズ特性等を用いることもできる。
次のS503において、フレーム間変化量算出部403は、S502で算出されたRGB入力信号のノイズレベルに応じて、前述した第1〜第3のモードの何れかのモードを選択し、その選択したモードに応じて、モード別フレーム間変化量を算出する。RGB成分を用いた場合、第1のモードM1は、R成分とG成分とB成分とでそれぞれ算出した変化量をそれぞれモード別変化量とするモードである。また、第2のモードM2は、RGBの各成分について算出された変化量をブレンドして、モード別変化量とするモードである。第3のモードM3は、前述同様、フレーム間の変化量を算出せずに、予め設定された値をモード別変化量として用いるモードである。
RGB成分を用いた場合、図8のフローチャートのS801において、フレーム間変化量算出部403は、現フレームのRGB入力信号と前フレームのRGB出力信号との間の変化量を、RGB成分ごとに算出し、それを成分別変化量とする。なお、RGB成分を用いる場合、フレーム間変化量算出部403の構成は、前述した図7においてYをG、UをR、VをBに替えた構成を用いることができる。このため、S801において、成分別変化量算出部701は、例えば、前述の式(7)のYをG、式(8)のUをR、式(9)のVをBにそれぞれ替えた式を用い、RGB成分別にそれぞれ差分絶対値を求め、それをRGBの成分別変化量として算出する。なお、この例の場合も前述同様、成分別変化量は、差分絶対値に限定されず、例えば差分二乗値や、低周波成分の差分絶対値等が成分別変化量として算出されてもよい。
次に、S802において、モード選択部702は、ノイズレベル算出部402から取得されるRGBの各成分のノイズレベルに応じて、第1のモードM1、第2のモードM2、第3のモードM3の何れかのモードを用いるか判定する。前述のYUV成分を用いた例の場合、YUB成分のうちY成分とUV成分とを分けるようにしたが、RGB成分を用いる場合には、人の視覚特性を考慮し、G成分と、G成分以外のRB成分とに分けてモード選択を行うようにする。
ここで、前述の図10のYをG、UをR、VをBに替えた図を用いた場合、モード選択部702は、S803においてG成分のノイズレベルと、RB成分のノイズレベルとの差が閾値Tha未満と判定すると、S805では第1のモードM1を選択する。そして、第1のモードM1が選択された場合、モード別変化量算出部703は、前述同様に算出したRGBの成分別の変化量をそのままモード別変化量として出力する。なお、RGB成分を用いる場合の閾値ThaやThbは、前述したYUV成分を用いる場合の閾値ThaやThbとは異なる値であってもよい。
また、S803においてG成分とRB成分のノイズレベル差が閾値Tha以上と判定され、さらにS804でG成分とRB成分のノイズレベルが閾値Thb未満と判定された場合、モード選択部702は、S806で第2のモードM2を選択する。そして、第2のモードM2が選択された場合、モード別変化量算出部703は、G成分についてはS801で算出した変化量をモード別変化量として用いる。一方、モード別変化量算出部703は、RG成分については前述の式(10)、式(11)においてYをG、UをR、VをBに替えた式を用い、G成分とRB成分の変化量をブレンドしてモード別変化量を算出する。なお、RGB成分を用いる場合には、式(10)、式(11)とは異なる式が用いられてもよい。
また、S804でG成分とRB成分のノイズレベルが共に閾値Thb以上と判定された場合、モード選択部702は、第3のモードM3を選択する。第3のモードM3が選択される場合、つまりRGBの各成分のノイズレベルが何れも大きい場合、信号成分とノイズ成分との比であるSN比が小さくなっているため、ノイズの影響によりフレーム間変化量を正確に算出できない可能性がある。このため、RGB成分を用いる場合も前述同様に、第3のモードM3が選択されたときには、モード別変化量算出部703は、変化量算出処理を行わずに、RGBの成分別に予め設定した値をそれぞれモード別変化量として出力する。また、前述同様に、モード別変化量算出部703は、ユーザからのノイズ低減効果を優先した画質の指示、動体の視認性を優先した画質の指示等を基に、変化量の値を調整することも可能である。
またこの例の場合も、S504において、巡回係数算出部404は、S503で算出された変化量に基づいて巡回係数を算出する。前述の図12を例に挙げて説明すると、巡回係数算出部404は、変化量の値が閾値Th1未満の場合、G成分が静止被写体のフレームから得られていると解釈して、巡回係数の値を大きく設定する。一方、変化量の値がTh2以上の場合、巡回係数算出部404は、G成分が動体のフレームから得られていると解釈して、巡回係数の値を小さく設定する。変化量の値が閾値Th1以上で閾値Th2未満の場合、巡回係数算出部404は、変化量の値が大きくなるほど巡回係数の値を小さく変化させるように設定する。閾値Th1,Th2は、G成分の入力信号に含まれているノイズ量を考慮して適宜決定されるパラメータである。一例として、前述した式(12)のYをGに替えた式により閾値Th1,Th2を決定できる。なお、RGB成分を用いた場合、図12に示した静止被写体用の巡回係数の値は0.8とは異なる値でもよく、動体用の巡回係数の値は0.2とは異なる値でもよい。また、G成分の巡回係数αは、前述した式(13)のYをGに替えた式により、閾値Th1,Th2と変化量の値とを用いて算出してもよい。R成分とB成分の巡回係数についても同様にして算出できる。また、この例の場合も閾値は、例えば前述した図13のように三つ以上の閾値に設定することも可能である。
次のS505において、合成処理部405は、S503で算出された巡回係数αに応じてRGB入力信号とRGB出力信号とを合成し、現フレームのRGB出力信号を生成する。そして、S506において、信号保持部406は、S505で得られたRGB出力信号を保持する。なお、RGB成分を用いた例の場合、図5のS507の処理は行われない。S508の処理については前述同様である。
RGB成分を用いた例においても、S503で示したモードは第1〜第3の三つのモードに限定されず。四つ以上のモードを設定してより細かな制御が実行されてもよい。
なお、RGB成分の例以外に、例えばLab色空間の成分を用いる場合には、巡回型NR処理部304において、Y成分に替えて明度成分Lを、UV成分に替えて補色成分a,bを用いるようにする。また、可視・非可視成分、例えば可視光成分と赤外光などの非可視成分を用いる場合には、Y成分に替えて可視光成分を、UV成分に替えて非可視成分を用いるようにする。
以上説明したように、本実施形態においては、信号成分ごとにノイズレベルを考慮してフレーム間の変化量を算出し、それら信号成分別のフレーム間変化量を基に巡回係数を設定して、巡回型NR処理を行うようにしている。これにより、本実施形態によれば、静止被写体のノイズを低減しつつ、動体周辺に発生する色の尾引きを抑えることが可能になる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101:監視カメラ、102:クライアント装置、203:CPU、209:画像処理部、304:巡回型NR処理部、401:入力信号取得部、402:ノイズレベル算出部、403:フレーム間変化量算出部、404:巡回係数算出部、405:合成処理部、406:信号保持部、407:出力信号処理部、701:成分別変化量算出部、702:モード選択部、703:モード別変化量算出部

Claims (18)

  1. 動画の着目フレームの信号に含まれる第1の成分と、前記第1の成分以外の第2の成分との、少なくとも2つの成分ごとにノイズレベルを検出する検出手段と、
    記着目フレームの信号と、前記着目フレームに対して時間軸上で前フレームのノイズ低減処理後の信号とを用いて、前記着目フレームと前記前フレームとの間の変化量を前記成分ごとに検出する変化量検出手段と、
    前記検出手段により検出された前記成分ごとのノイズレベルに基づき、フレーム間の変化量を算出する方法が異なる複数のモードから、何れかのモードを選択する選択手段と、
    前記変化量検出手段により前記成分ごとに検出された前記変化量に基づき、前記選択されたモードに応じたモード別変化量を算出する算出手段と、
    前記モード別変化量に応じて、ノイズ低減処理で用いる係数を設定する設定手段と、
    前記着目フレームの信号と、前記前フレームの前記ノイズ低減処理後の信号と、前記係数とを用いて、前記着目フレームの信号にノイズ低減処理を前記成分ごとに行う処理手段と、
    を有することを特徴とする画像処理装置。
  2. 前記前フレームの前記ノイズ低減処理後の信号を保持する保持手段を有し、
    前記変化量検出手段は、前記前フレームの前記ノイズ低減処理後の信号として、前記保持手段に保持された信号を用いて、前記変化量の検出を行い、
    前記処理手段は、前記前フレームの前記ノイズ低減処理後の信号として、前記保持手段に保持された信号を用いて、前記ノイズ低減処理を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記処理手段は、前記着目フレームの信号の前記ノイズ低減処理として、前記着目フレームの信号と、前記前フレームの前記ノイズ低減処理後の信号とを、前記係数に応じて合成する処理を前記成分ごとに行うことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記設定手段は、前記係数として巡回型ノイズ低減処理で用いる巡回係数を設定し、
    前記処理手段は、前記ノイズ低減処理として前記巡回係数を用いた巡回型ノイズ低減処理を行うことを特徴とする請求項1から3の何れか1項に記載の画像処理装置。
  5. 前記検出手段は、前記着目フレームの信号に含まれる前記ノイズレベルを表す評価値として、ノイズの標準偏差と分散の少なくとも一つを検出することを特徴とする請求項1から4の何れか1項に記載の画像処理装置。
  6. 前記選択手段は、前記第1の成分のノイズレベルと前記第2の成分のノイズレベルとの差が1の閾値未満の場合、前記変化量検出手段が前記第1の成分および第2の成分について算出した変化量を前記モード別変化量として用いるモードを選択することを特徴とする請求項1から5の何れか1項に記載の画像処理装置。
  7. 前記選択手段は、前記第1の成分のノイズレベルと前記第2の成分のノイズレベルとの差が前記第1の閾値以上である場合、記第1の成分について前記変化量検出手段により検出された変化量と前記第2の成分について前記変化量検出手段により検出された変化量とをブレンドした変化量を前記モード別変化量として用いるモードを選択することを特徴とする請求項に記載の画像処理装置。
  8. 前記算出手段は、前記検出手段にて検出された前記第1の成分のノイズレベルと前記第2の成分のノイズレベルとを用いて、前記変化量をブレンドする際のブレンドの比率を決定することを特徴とする請求項に記載の画像処理装置。
  9. 前記ブレンドの比率は、前記第1の成分のノイズレベルと前記第2の成分のノイズレベルの割合に応じて決定される比率であり、
    前記算出手段は、前記第1の成分のノイズレベルが前記第2の成分のノイズレベルと比較して小さいほど、前記第1の成分の変化量の前記ブレンドの比率を大きく設定することを特徴とする請求項に記載の画像処理装置。
  10. 前記選択手段は、前記第1の成分のノイズレベルと前記第2の成分のノイズレベルとが共に、2の閾値以上である場合、予め設定された値を前記モード別変化量として用いるモードを選択することを特徴とする請求項からの何れか1項に記載の画像処理装置。
  11. 前記第1の成分は輝度成分、前記第2の成分は色差成分であることを特徴とする請求項から10の何れか1項に記載の画像処理装置。
  12. 赤と緑と青の三原色の成分からなるフレームの信号を、度成分と差成分からなる信号に変換し、前記変換した前記輝度成分を前記第1の成分として取得し、前記色差成分を前記第2の成分として取得する取得手段を有することを特徴とする請求項1から11の何れか1項に記載の画像処理装置。
  13. 前記着目フレームの前記ノイズ低減処理後の輝度成分と色差成分を、前記三原色の成分に変換する出力信号処理手段を有することを特徴とする請求項1に記載の画像処理装置。
  14. 前記成分は、赤と緑と青の三原色の成分からなり、前記第1の成分は緑の成分、前記第2の成分は赤と青の成分であることを特徴とする請求項1から13の何れか1項に記載の画像処理装置。
  15. 輝度成分と色差成分からなるフレームの信号を、赤と緑と青の三原色の成分からなる信号に変換し、前記変換した三原色の成分を前記着目フレームの信号の成分として取得する取得手段を有することを特徴とする請求項1に記載の画像処理装置。
  16. 前記着目フレームの前記ノイズ低減処理後の前記三原色の成分を、前記輝度成分と色差成分に変換する出力信号処理手段を有することを特徴とする請求項1に記載の画像処理装置。
  17. 動画の着目フレームの信号に含まれる第1の成分と、前記第1の成分以外の第2の成分との、少なくとも2つの成分ごとにノイズレベルを検出する検出工程と、
    記着目フレームの信号と、前記着目フレームに対して時間軸上で前フレームのノイズ低減処理後の信号とを用いて、前記着目フレームと前記前フレームとの間の変化量を前記成分ごとに検出する変化量検出工程と、
    前記検出工程において検出された前記成分ごとのノイズレベルに基づき、フレーム間の変化量を算出する方法が異なる複数のモードから、何れかのモードを選択する選択工程と、
    前記変化量検出工程において前記成分ごとに検出された前記変化量に基づき、前記選択されたモードに応じたモード別変化量を算出する算出工程と、
    前記モード別変化量に応じて、ノイズ低減処理で用いる係数を設定する設定工程と、
    前記着目フレームの信号と、前記前フレームの前記ノイズ低減処理後の信号と、前記係数とを用いて、前記着目フレームの信号にノイズ低減処理を前記成分ごとに行う処理工程と、
    を有することを特徴とする画像処理装置の画像処理方法。
  18. コンピュータを、請求項1から1の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2017093248A 2017-05-09 2017-05-09 画像処理装置、画像処理方法およびプログラム Active JP6800806B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017093248A JP6800806B2 (ja) 2017-05-09 2017-05-09 画像処理装置、画像処理方法およびプログラム
US15/970,763 US10572980B2 (en) 2017-05-09 2018-05-03 Image processing apparatus, image processing method, and program
US16/459,119 US10621703B2 (en) 2017-05-09 2019-07-01 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017093248A JP6800806B2 (ja) 2017-05-09 2017-05-09 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018191178A JP2018191178A (ja) 2018-11-29
JP6800806B2 true JP6800806B2 (ja) 2020-12-16

Family

ID=64096130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017093248A Active JP6800806B2 (ja) 2017-05-09 2017-05-09 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (2) US10572980B2 (ja)
JP (1) JP6800806B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3424403B1 (en) * 2016-03-03 2024-04-24 Sony Group Corporation Medical image processing device, system, method, and program
WO2020203164A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 医療システム、情報処理装置及び情報処理方法
EP3832591B1 (en) * 2019-12-03 2022-06-08 Axis AB Encoding of a video sequence

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2020508B (en) * 1978-03-08 1983-03-09 Nippon Electric Co Noise reduction system for colour television signal
JPS63131794A (ja) 1986-11-21 1988-06-03 Hitachi Ltd 動き検出回路
JP2000224444A (ja) 1999-02-04 2000-08-11 Toshiba Corp 巡回型ノイズ低減装置
EP2808841A1 (en) * 2013-05-31 2014-12-03 Thomson Licensing Method and apparatus for generating a noise profile of noise in an image sequence

Also Published As

Publication number Publication date
US20190325565A1 (en) 2019-10-24
US10572980B2 (en) 2020-02-25
US10621703B2 (en) 2020-04-14
US20180330476A1 (en) 2018-11-15
JP2018191178A (ja) 2018-11-29

Similar Documents

Publication Publication Date Title
KR101391432B1 (ko) 영상 획득 장치 및 그 방법과 영상 처리 장치 및 그 방법
JP2016208307A (ja) 画像処理装置、その制御方法及びプログラム
US10621703B2 (en) Image processing apparatus, image processing method, and program
JP7297406B2 (ja) 制御装置、撮像装置、制御方法およびプログラム
JP2014021928A (ja) 画像処理装置、画像処理方法およびプログラム
JP2015144475A (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
JP7057079B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2018185586A (ja) 画像処理装置および画像処理方法、撮像装置
JP2016201733A (ja) 撮像装置、撮像方法、並びにプログラム
JP7442989B2 (ja) 撮像装置、該撮像装置の制御方法、及びプログラム
JP2019016893A (ja) 画像処理装置およびその制御方法及びプログラム
US20160269628A1 (en) Image processing apparatus, image processing method, and recording medium
JP6245847B2 (ja) 画像処理装置および画像処理方法
JP2021136671A (ja) 情報処理装置、撮像装置、方法、プログラム及び記憶媒体
JP7263018B2 (ja) 画像処理装置、画像処理方法およびプログラム
EP3528202B1 (en) Image processing apparatus, image processing method, and program
US11270421B2 (en) Image processing apparatus and image processing method that reduce image noise, and storage medium
US20230196517A1 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer readable medium
JP7214407B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9013606B2 (en) Image processing apparatus and control method thereof
JP5704069B2 (ja) 画像入力装置
JP6858073B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP6929185B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP6849351B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017224905A (ja) 撮像装置、撮像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201125

R151 Written notification of patent or utility model registration

Ref document number: 6800806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151