JP5421727B2 - 画像処理装置およびその制御方法 - Google Patents

画像処理装置およびその制御方法 Download PDF

Info

Publication number
JP5421727B2
JP5421727B2 JP2009241883A JP2009241883A JP5421727B2 JP 5421727 B2 JP5421727 B2 JP 5421727B2 JP 2009241883 A JP2009241883 A JP 2009241883A JP 2009241883 A JP2009241883 A JP 2009241883A JP 5421727 B2 JP5421727 B2 JP 5421727B2
Authority
JP
Japan
Prior art keywords
area
important
region
image data
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009241883A
Other languages
English (en)
Other versions
JP2011091510A5 (ja
JP2011091510A (ja
Inventor
健司 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009241883A priority Critical patent/JP5421727B2/ja
Priority to US12/902,541 priority patent/US8873869B2/en
Priority to CN2010105234727A priority patent/CN102045566B/zh
Publication of JP2011091510A publication Critical patent/JP2011091510A/ja
Publication of JP2011091510A5 publication Critical patent/JP2011091510A5/ja
Application granted granted Critical
Publication of JP5421727B2 publication Critical patent/JP5421727B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本発明は画像中から被写体を自動的に検出し検出した領域の相対的な重要度に従い適応的に符号量を割り当てる画像処理装置に関する。
従来、画像のデータサイズを圧縮するための画像符号化が使われており、静止画の符号化方式としてISO(国際標準化機構)により標準化されたJPEG方式が広く用いられている。また、動画の符号化方式としてISOにより標準化されたMPEGやH.264等の方式が広く用いられている。
これまでの事実として、こうした符号化方式で非可逆の圧縮を用いた場合には、周波数成分が高い領域ほど情報量が落とされることによって画質の劣化が生じる。そして、特許文献1に示されるように、撮影された画像内の重要な領域(人物の顔や人体等)において、できる限りこのような画像劣化を低減させることが開示されている。つまりここでは、画像から特定の被写体パターンを自動的に検出する認識処理と呼ばれる画像処理方法を用いることが提案されている。このような画像から顔を検出する技術については、例えば、非特許文献1にテンプレートを用いたパターンマッチングの検出方式が挙げられている。
特開2000−197050号公報
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.24 , NO.1, JANUARY 2002に"Detecting Faces in Images: A Survey"Yang, et al. IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998に"Neural network-based face detection"Rowley, et al.
しかしながら、特許文献1で示される方式は、単純に画像内の顔検出を行い、その検出領域のそれぞれに多くの符号量を割り当てていた。そのため符号化データサイズは大幅に増加していた。近年増加傾向にあるネットワークカメラを用いたモニタリング等の利用を想定すると、通信負荷を考慮する必要性が増加している。つまり、画像データの非可逆圧縮処理において、できる限り符号化データサイズを抑えることが求められている。
本発明は、以上述べた課題を解決するため、画像データの認識対象に対して、符号量を割り当てる領域を選択することで、符号化データサイズの抑制可能な画像処理装置を提供することを目的とする。
本発明の画像処理装置は、画像データの圧縮処理を行なう画像処理装置であって、
入力された画像データから認識対象物領域を抽出する領域抽出手段と、
前記画像データから抽出された認識対象物領域のうち画質劣化を低減すべき認識対象物領域を、該認識対象物領域または該認識対象物領域の周囲領域の輝度情報、色情報、またはエッジ情報を用いて判断し、該判断された認識対象物領域を、重要領域として選択する重要領域選択手段と、
前記入力された画像データのうち、前記重要領域として選択された前記認識対象物領域以外の画像データを第1量子化ステップにより圧縮符号化し、
前記重要領域として選択された前記認識対象物領域の画像データを、前記第1量子化ステップより小さい第2量子化ステップにより圧縮符号化する符号化手段と
を備えることを特徴とする。
以上の構成をとることで、画像データの認識対象に対して、符号量を割り当てる領域を選択することで、符号化データサイズの抑制可能な画像処理装置を提供することが可能となる。
画像処理装置の構成を示すブロック図である。 通常の撮影環境における顔検出処理例示す図である。 撮影された画像の中で顔領域が検出された例を示す図である。 検出された顔領域を表す矩形の4点の位置座標を示す図である。 画像から顔パターンの探索及びその顔領域の領域サイズの抽出を行う方法を示す図。 符号量制御処理及び符号化処理のフローチャートである。 重要領域判定部の出力結果を例示する図である。 検出された重要領域に対する符号化対象ブロック位置を示す図である。 顔領域における輝度情報を抽出するための解析領域を示す図である。 Sobelによるエッジ検出方法を示す図である。 複数の領域判定条件から重要度が決定された例を示す図である。
<実施形態1>
図1は、実施形態1における画像処理装置の構成を示すブロック図である。図1において、撮像部101は、レンズや撮像素子を含み映像を撮影する。画像信号処理部102は、ガンマ変換、色空間変換、ラスターブロック変換など一連の画像信号処理を実行する。そして、認識処理部103は、一連の画像処理が施された入力画像から被写体の認識処理を行う。さらに、領域解析部104は、検出された顔領域及び顔領域周辺の解析領域について特徴量を解析する。
重要領域選択部105は、特徴量を解析しその特徴量から画像内における重要領域を重要領域として選択する。また、符号化処理制御部106は、重要領域選択部105で選択された重要領域の特徴量から符号化処理部107によって符号化処理を行う際に設定される各種パラメータ値の設定を行う。符号化処理部107は、符号化処理制御部106によって設定されたパラメータ値に従い圧縮符号化処理を実行する。符号化データ記憶部108は、磁気テープやメモリカードなどの記録媒体へ圧縮符号化データ(以下「符号化データという)を記録する。
本実施形態において認識処理部103は、撮影対象として重要度が一般的に高いと判断される人物の顔領域の領域抽出を行い、顔の認識処理を行う。また領域解析部104は、認識処理部103において抽出された顔領域の領域サイズに注目し、画質劣化を低減するために比較的小さい顔領域を選択して、その領域に対して符号量を割り当てる。符号化処理制御部106及び符号化処理部107については、JPEG圧縮方式による圧縮処理を例に用いて説明する。
まず始めに、認識処理部103が行う顔検出処理方法について説明する。顔領域の検出処理は、例えば非特許文献2で提案されている方式、つまりニューラル・ネットワークを用いた画像中の顔パターン検出によって実行できる。以下、この顔検出の方法について簡単に説明する。
まず、顔検出を対象とする画像データがメモリに読み込まれる。そして読み込まれた画像中から、顔と照合する所定の領域が切り出される。切り出された領域の画素値の分布を入力とし、ニューラル・ネットワークによる演算がおこなわれることで、一つの出力が得られる。このとき、膨大な顔画像パターンと非顔画像パターンにより、ニューラル・ネットワークの重みと閾値があらかじめ学習されている。例えば、閾値を設定することで、ニューラル・ネットワークの出力は、0以上なら顔、それ以外は非顔であると判別される。
また、ニューラル・ネットワークの入力である顔と照合するための画像パターン502の切り出し位置を、例えば、図5に示すように画像全域501から縦横に順次走査していく。この走査により、画像中から顔を検出することができる。走査中に、顔判別手段503が、走査領域に顔が存在するか、どうかを判別する。さらに、様々な大きさの顔の検出に対応するため、図5に示すように読み込んだ画像を所定の割合で順次画像自体を縮小し、その縮小された画像に対して前述の顔検出の走査を行う。これによって、様々な大きさの顔に対して顔検出処理が実行できる。
次に、図1の構成を有する画像処理装置において、画像が撮影された場合に、撮影された画像データが認識処理された後、符号化データとして記録されるまでの流れについて、図1、図2、図3および図4を参照して説明する。
図2は、通常環境下で撮影した、人物201と人物202を示す。人物202は遠方に位置し、人物201は近くに位置する。従って、人物202の顔領域のサイズは、人物201の顔領域サイズに比べて小さい。図3は、図2の入力画像データに対して、図5に示した顔検出方法を用い、認識処理部103が行った処理結果を示す。ここでは、検出された顔領域、すなわち認識対象物領域がそれぞれ四角の点線枠で囲われている。
認識対象物領域である領域301は、画像内において顔の領域が相対的に大きいものの領域を示しており、顔領域302は画像内において相対的に顔の領域が小さいものの領域を示している。図4は、図3の画像データに対して認識処理部103で顔領域の位置情報を抽出した結果を示している。
本実施形態では、撮像部101より入力された画像データには、画像信号処理部102においてガンマ変換、色空間変換、ラスターブロック変換など一連の画像信号処理が施される。そして一連の画像処理が施された画像に対して、認識処理部103は、図5の認識処理方法を用いて顔領域を検出する。顔検出処理における出力結果として、例えば図4に示す認識対象物領域である顔領域を含む四角形の4点の位置を表す位置座標を出力する。
次に、本実施形態において利用される複数の領域の意味について定義する。この実施形態において、領域と呼ばれるものには、顔の検出領域(認識対象物領域)と、解析領域と、符号量を割り当てる領域とが存在する。顔の検出領域は、認識処理部103において人物の顔を検出した矩形の領域を指している。また解析領域は、認識対象物領域周辺の特徴量を抽出する周辺の領域を指し、顔の検出領域に応じて決定することが可能な領域である。なお、特徴量によっては、顔の検出領域と解析領域とは同じ領域となる場合がある。符号量を割り当てる領域は、符号化処理部107において実際に符号量を割り当てる、例えば顔の検出領域、に対して符号化処理を行うとき、顔領域を含む符号化処理のブロック単位の領域である。これら3つの領域の定義を基に、以下に本実施形態を説明する。
領域解析部104は、認識処理部103で出力された顔領域サイズの解析を行う。この際の顔領域サイズの解析方法について図4を用いて説明する。図4に示すように、認識処理部103は、顔領域を検出すると共に、顔領域を含む四角形の4点の位置座標を出力する。領域解析部104は、認識処理部103で出力された位置情報から、領域サイズを算出する。以下に例として、図4の301における領域サイズを示す式(1)を示す。
=|X1−X2|×|Y1−Y3| (1)
は301の領域サイズを表す変数である。式(1)では、位置座標から水平方向の距離と垂直方向の距離を算出し、その値を用いて領域サイズを算出する。なお、今回は水平垂直な矩形の場合として水平距離と垂直距離を求めて面積を算出した。しかし対象となる領域が矩形でない場合には、面積は、領域サイズを示す情報から領域内の画素数により求めても良い。
次に、重要領域選択部105は、領域解析部104で解析された複数の顔領域についての領域サイズを用いて、画像内における重要領域の選択を行う。本実施形態では、領域サイズ(面積)を重要領域として選択するために、領域サイズの閾値と比較する。この閾値は、任意の値を予め定めておけばよい。そして、解析された領域サイズは、この領域サイズ閾値と比較され、領域サイズが、所定の領域サイズ以下であれば重要領域として選択され、そうでなければ通常の領域として選択される。したがって図1の重要領域選択部105は、領域解析部104で解析された301及び302の領域サイズを予め設定された領域サイズ閾値(TH)と比較する。本実施形態では、領域302の領域サイズが(TH)より小さいことから重要領域として選択されたと仮定する。この処理の結果、重要領域選択部105は、重要領域として選択された顔領域の位置座標を出力する。
次に、符号化処理制御部106は、重要領域選択部105における重要領域の選択結果から、符号化処理部107を制御して符号量制御を行う。この場合の、符号化処理制御部106と符号化処理部107とで実施される符号化処理及び符号量制御方法については、図6のフローチャートを用いて説明する。
ステップS101:始めに符号化処理部107は、RGBで構成された入力画像データに対してYUV変換処理を行う。YUV変換のための変換式を以下に示す。
Y = 0.2990R + 0.5870G+0.1140B
U = −0.1684R −0.3316G + 0.5000B
V = 0.5000R− 0.4187G −0.0813B
ステップS102:次に、符号化処理部107は、変換されたYUVデータの内、色成分であるUVに対して、符号化処理制御部106により設定されたサンプリング方法によりサンプリング処理を行う。実施形態1では、UVデータを水平方向に1/2に間引く方式でサンプリング処理が実施されたとする。
ステップS103:符号化処理部107は、離散コサイン変換による直交変換処理を行う。例えばJPEG方式では、通常図4の領域403で示すMCU(Minimum Coded Unit)と呼ばれる、8×8画素のブロック単位で直交変換処理を行う。
ステップS104:次に符号化処理制御部106は、始めに重要領域選択部105の出力結果から、重要領域を含んだ符号量を割り当てる符号化対象ブロックを決定する。本実施形態においては、MCU単位で符号化処理が行われるため、重要領域である顔領域302を含んだ図8の符号化対象ブロック801が、符号量を割り当てる符号化対象ブロックと仮定する。そして、符号化処理制御部106は、各処理対象符号化対象ブロック(MCU)に対して、符号量を割り当てる符号化対象ブロックに含まれるブロックか否かを判定する。
ステップS105:符号量を割り当てる符号化対象ブロック内に含まれる符号化対象ブロック801であると判定された場合、符号化処理制御部106は、その符号化対象ブロックに対して相対的に符号量を増加させた、つまり相対的にステップ小さい第2量子化ステップを用いる。相対的に符号量を増加させるために、予め設定された量子化ステップ値を小さく設定するための重要領域用量子化テーブルを選択する。
ステップS106:S104で符号量を割り当てる符号化対象ブロック内に含まれるブロックでないと判定された場合、つまり顔の認識対象物領域以外の領域は、予め設定されている通常領域用の第1量子化ステップのための量子化テーブルを選択する。
ステップS107:次に、ステップS105またはステップS106で設定された量子化テーブルを用いた量子化行列で除算し、情報量を削減する量子化処理を行う。本実施形態において、符号化処理制御部106は解析された重要領域に該当する符号化対象ブロックであるかどうかの情報と、その符号化対象ブロックを量子化する際の量子化テーブル情報を符号化処理部107に対して設定する。符号化処理部107は、符号化処理制御部106により設定された情報に従い、符号化対象ブロックに対して量子化処理を行う。
ステップS108:そして、ステップS107から出力される量子化処理が施された画像データに対して、ハフマン符号による可変長符号化処理を行い更に情報量を削減するエントロピー符号化処理を行う。
ステップS109:最後に、全ての符号化対象ブロックに対して符号化処理が実施されたかどうかを判定する。全ての符号化対象ブロックに対して符号化処理が終了していればそのまま処理を終了し、そうでなければステップ104に戻り再度処理を行う。
次に、図6のフローチャートに従って、符号化処理部107により一連の符号化処理が施された後、符号化データは符号化データ記憶部108により一時的にバッファリングされた後に、磁気テープやメモリカードなどの記録媒体へ記録される。
なおここで、符号化処理制御部106および符号化処理部107により符号化されたデータに関して説明すると、データが符号化データ記憶部108に一時的に蓄えられる際に符号化処理部107から出力される符号化データのレートは、一定ではない。従って、符号化処理制御部106は、ステップS105における量子化処理を制御することで、符号化データ記憶部108からあふれたり、また逆に空にならないようにしている。
なお、本実施形態で説明した前記重要領域選択部105は、領域サイズ閾値を1つ設定して重要領域か否かを判定している。しかし、より精細に重要領域を選択するために領域サイズ閾値を予め複数個設定すると、対象となる領域サイズが入る領域サイズ閾値の範囲を決定することで、重要領域でも、更に精細に分類された重要領域を選択することが可能となる。このように重要領域が複数存在し、さらに選択方法において詳細に分類された重要領域が選択される場合には、前記重要領域選択部105は、位置座標と共にその重要度についても出力する。このときの出力結果の例を図7に示す。図7に示す領域の重要度は、数が小さいものほど重要度が高いことを示す。また、図7の例では重要領域Aの方が重要度が高いことを示している。このような重要領域の重要度が複数存在する場合には、ステップS105において、予めその重要度に応じた複数の量子化テーブルを用意することで、同様の処理を行うことが可能である。
さらに、重要領域の重要度を閾値で切るのではなく重要領域に対して順序付けを行い、その順位の上位いくつかの重要領域に対して符号量を割り当てるようにしてもよい。
また、本実施形態では重要領域の符号量制御のみを行っていたが、重要領域に符号量を割り当てる一方で、その他の領域の符号量を下げるようにしても良い。また、入力解像度が複数種ある場合も考えられる。その場合には、係数を設けて入力解像度を表す画素数に前記係数をかけて閾値を求め、求めた閾値を用いるように構成する。
このように本実施形態によれば、撮影対象としての重要度が相対的に高い人物、特に顔領域を検出するだけでなく、顔領域の領域サイズも含めて検出する。これによって、符号化処理制御部106は、顔領域の中でも相対的に重要度が高い顔領域の画像ブロックの量子化ステップ値を適応的に小さくすることで、情報量を増加させることが可能となる。従って、本実施形態における画像処理は、視覚心理モデルにおいて良好な結果が得られる符号化処理を行うことが可能となり、更に、記録される符号量の増加を低く抑えることが可能となる。これにより、記録媒体の容量を節約すると共に、ネットワーク上で伝送する場合の通信負荷についても軽減することが可能となる。
なお、本実施形態では、符号化量の制御のために符号化処理部107で用いる量子化ステップ値を変更する例を説明した。しかし、本実施形態は、この量子化ステップ値の変更に限るものではなく、部分領域に対して符号量を変更可能な符号化条件であれば、どのような符号化条件を用いて制御するものであっても構わない。
また、JPEG圧縮方式の例を用いて本実施形態の説明を行ったが、JPEG方式に限るものではないことは言うまでもない。例えば、認識処理により抽出された顔領域に合わせてタイル単位を決定し、符号量を割り当てる符号化対象ブロックに対応するタイル領域に対して符号量を割り当てれば、JPEG−XR圧縮方式でも可能である。あるいは、JPEG2000圧縮方式で規定されるROI(Region of Interests)を、符号量を割り当てる符号化対象ブロックとして用いることも可能である。
<実施形態2>
本実施形態では、実施形態1と異なる部分を中心に説明する。
実施形態1では、顔領域の領域サイズから重要領域を選択してその領域に対して符号量を割り当てた。実施形態2では、顔領域の周辺領域における輝度情報を用いて、重要領域を選択する。
この輝度情報により選択された重要領域に対して符号量を割り当てる例について図1を参照して説明する。ここで重要領域として選択される領域は、顔領域周辺の領域の輝度が暗いものが重要領域として選択される。なお、図1について、実施形態1と同じ部分については説明を省略する。
領域解析部104は、認識処理部103で出力された顔領域302の位置座標から、輝度情報を解析するための解析領域を決定し、その解析領域における輝度情報(Y成分)を解析する。本実施形態では、図9に示すように、解析領域901(斜線部)は、所定周囲領域内にあり、顔領域302から水平方向及び垂直方向にそれぞれ8画素の領域であると仮定する。領域902は、顔領域302から水平方向に8画素の領域を示しており、領域903は、顔領域302から垂直方向に8画素の領域を示している。なお、本実施形態では、解析領域が水平方向及び垂直方向に8画素の範囲の領域であるとして解析を行っているが、解析領域は水平方向及び垂直方向に8画素の領域に限定されないことは言うまでも無い。
次に、領域解析部104は、解析領域901のそれぞれの画素から輝度情報を抽出する。解析領域901から抽出された輝度情報を用いて、以下の計算式により、平均輝度情報を求める。
平均輝度情報:S =(y+y+・・・+y)/画素数:N
本実施形態では、求められた解析領域901の平均輝度情報をSとし、この平均輝度情報は、領域解析部104から出力される。
次に、重要領域選択部105では前記領域解析部104から出力された、Saと予め設定された平均輝度の閾値STHとの比較を行い、SがSTH、つまり所定の平均輝度情報の閾値以下であれば、重要領域として選択する。本実施形態では、SがSTHよりも小さいとし、顔領域302が重要領域として選択されたとする。
次に、符号化処理制御部106は、図6に示すステップS105又はステップS106において、本実施形態における量子化テーブルの選択を行う。実施形態2では、予め通常領域用に用意された、輝度情報(DC係数)に用いる量子化テーブルとは別に、重要領域のための符号化処理におけるDC係数に用いる量子化テーブルを用意する。そして、この量子化テーブルを利用することで、量子化ステップ値を小さくすることが可能となる。
なお、重要領域選択部105において重要領域と通常の領域とを選択するために1つのパターン閾値を予め設定して実施した。しかし、より精細に重要領域を選択するために、複数のパターン閾値を設けることでその閾値に対応した重要度を設定することが可能である。重要領域の重要度が複数個存在する場合には、予め各重要度に応じた複数のパターンのDC係数用量子化テーブルを用意することで、同様の処理を行うことができる。なお、色成分情報(AC係数)については通常領域及び重要領域について、同一の量子化テーブルを利用することができる。
また、実施形態2では輝度が予め設定された閾値よりも暗い領域について重要領域として判定を行っている。しかし、同様に輝度が予め設定された閾値よりも明るい領域を重要領域として処理することも可能である。また、同様に明るいほうと暗いほうの両方を判定するための閾値をそれぞれ用意して、その両方を重要領域として処理することも可能である。
このように実施形態2では、撮影対象としての重要度が相対的に高い人物、特に顔の領域を検出するだけでなく、顔領域の周辺領域における輝度情報を検出することで、実施形態1と同様の効果を得ることが可能となる。
<実施形態3>
本実施例では、実施形態1及び実施形態2と異なる部分を中心に説明する。
実施形態1においては、顔領域の領域サイズから重要領域を判定し、実施形態2においては顔領域周辺の輝度情報から重要領域を判定した。本実施形態では、顔領域の周辺領域における色情報を用いて重要領域を選択し、この選択した重要領域に対して符号量を割り当てる。
図1を参照して、実施形態3を説明する。ここで重要領域として選択される領域は、顔領域周辺の領域の色成分が顔領域の色情報と近いものについて重要領域として選択される。なお、すでに説明した実施形態1および実施形態2ですでに説明した図1の同じ部分については説明を省略する。
領域解析部104は、認識処理部103で出力された顔領域302の位置座標から、色情報を解析するための解析領域を決定し、その解析領域における色情報(UV成分)を解析する。実施形態3では、実施形態2と同様に、図9の解析領域901に対して解析を行う。なお、実施形態2では、色空間をYUVを用いて表現したが、それ以外の色空間を用いて解析を行っても良いことは言うまでも無い。
次に、領域解析部104は、解析領域901及び顔領域302のそれぞれの画素から色情報を抽出する。解析領域901及び顔領域302から抽出された色情報を用いて、以下の計算式によりUV成分それぞれに対して平均色情報を求める。
平均色情報(U):S =(u+u+・・・+u)/画素数:N
平均色情報(V):S =(v+v+・・・+v)/画素数:N
本実施形態では、求められた解析領域901の平均色情報をSua、Sva顔領域302の平均色情報をSuf、Svfとし、この平均色情報は、領域解析部104から出力される。
次に、重要領域選択部105は、前記領域解析部104から出力された解析領域901と顔領域302の平均色情報との差分を求める。この差分結果をSUVua−uf、SUVva−vfとし、予め設定された閾値SUVTHu、SUVTHvとの比較を行う。そして、SUVua−uf、SUVva−vfがいずれも設定された平均色情報の閾値以下であれば、重要領域選択部105は、重要領域として選択する。本実施形態では、SUVua−uf、SUVva−vfが、いずれもSUVTHu、SUVTHvよりも小さいとし、顔領域302が重要領域として選択されたとする。
次に、符号化処理制御部106は、図6に示すステップS105又はステップS106において、本実施例における量子化テーブルの選択を行う。本実施形態では、予め通常領域用に用意された、色情報(AC係数)に用いる量子化テーブルとは別に、重要領域用の符号化処理におけるAC係数に用いる量子化テーブルを用意する。そして、重要領域の量子化処理時に前記重要領域におけるAC係数用の量子化テーブルを利用することで、量子化ステップ値を小さくすることが可能となる。
なお、本実施形態では重要領域選択部105において重要領域と通常の領域とを選択するために1つのパターン閾値のみを予め設定して実施した。しかし、より精細に重要領域を選択するために、複数のパターン閾値を設けることでその閾値に応じた重要度を設定することも可能である。こうした重要領域の重要度が複数存在する場合には、予め重要度に応じた複数パターンのAC係数用量子化テーブルを用意することで、同様の処理を行うことができる。なお、輝度成分情報(DC係数)については、通常領域及び重要領域に対して、同一の量子化テーブルを利用することができる。
このように実施形態3によれば、撮影対象としての重要度が相対的に高い人物特に顔の領域を検出するだけでなく、顔領域の周辺領域における色情報を検出することで、実施形態1および実施形態2と同様の効果を得ることが可能となる。
<実施形態4>
本実施形態は、実施形態1、実施形態2および実施形態3と異なる部分を中心に説明する。
本実施形態では、顔領域におけるエッジ情報を用いて重要領域を選択する例について図1を参照して説明する。ここで重要領域として選択される領域は、顔領域におけるエッジ数の割合が高いものについて重要領域として選択される。なお図1において、実施形態1、実施形態2および実施形態と同じ部分については、説明を省略する。
領域解析部104は、実施形態1と同様に認識処理部103で出力された顔領域302を解析領域とし、その解析領域におけるエッジ情報を解析する。なお、エッジ情報の解析では、一般的に一次微分方式を用いるか、あるいは二次微分方式を用いる場合がある。一次微分方式の代表的なものとして、PrewittやSobel等が挙げられる。また、二次微分方式の代表的なものとしては、Lapiacianが挙げられる。本実施形態では、Sobel法によるエッジ解析を用い、図10によりエッジ検出方法について簡単に説明する。なお、エッジ検出を行う前に、2値化処理が既に実施済みとして説明を行う。
図10は、顔領域302を画素単位で示した図である。領域110は、顔領域302の1画素を示している。テーブル111とテーブル112は、Sobelにおけるフィルタ処理を行うためのΔx方向及びΔy方向のそれぞれのSobelオペレータを示す。このSobelオペレータを用いて、顔領域302の全ての画素に対してフィルタ処理を行い、各画素における変化量を抽出することでエッジ部分を抽出する。
次に、領域解析部104は、入力された顔領域302を2値化処理後、以上説明したSobel法を用いて、各画素からエッジ情報を抽出する。顔領域302から抽出されたエッジ情報を用いて以下の計算式により、領域内に存在するエッジ数の割合を求める。
エッジ割合:Re=(顔領域の総エッジ数:Num)/総画素数:N
本実施形態では、求められた顔領域302のエッジ割合をReとし、そのエッジ割合は領域解析部104から出力される。
次に重要領域選択部105は、前記領域解析部104から出力された、Reと予め設定された閾値ReTHとの比較を行い、ReがReTHよりも大きければ重要領域として選択する。本実施形態では、ReがReTH、つまり閾値としての所定のエッジ割合以上であれば、顔領域302が重要領域として選択されたとする。また、顔領域302におけるエッジ数の割合を求めているが、単純にエッジ数だけで重要領域を判断するといった方法を用いることも可能である。
なお、本第実施形態では、前記重要領域選択部105において重要領域と通常の領域とを選択するために1つのエッジ割合閾値を予め設定して実施した。しかし、より精細に重要領域を選択するために、複数のエッジ割合閾値を設けることでその閾値に応じた重要度を設定することも可能である。重要領域の重要度が複数存在する場合には、予め重要度に応じた複数のエッジ割合量子化テーブルを用意することで、同様の処理を行うことができる。
このように本実施形態によれば、撮影対象としての重要度が相対的に高い人物、特に顔の領域を検出するだけでなく、顔領域におけるエッジ情報を検出することで、他の実施形態と同様の効果を得ることが可能となる。
<実施形態5>
本実施形態では、これまで述べた実施形態と異なる部分を中心に説明する。
本実施形態においては複数の特徴量から重要領域を判定する場合の例について図1を参照して説明する。なお図1において、これまで述べた実施形態と同じ部分については説明を省略する。
本実施形態において、領域解析部104は、認識処理部103で出力された顔領域302の位置座標から、輝度情報及び色情報を解析するための解析領域901を決定する。そして、これまでの実施形態1〜4と同様に顔領域302から顔の領域サイズ及びエッジ情報を求め、解析領域901から輝度情報及び色情報を求める。領域解析部104は解析結果である顔の領域サイズ及び平均輝度及び色情報及びエッジ情報を出力する。
次に、重要領域選択部105は、領域解析部104から出力された解析結果を用いて重要領域を選択する。本実施形態においては、図11に示すように、複数の条件(特徴量)から重要度の判定を行う。なお、この重要度を判定するアルゴリズムは任意に設定することが可能である。
本実施形態では、図11の表122に示す各特徴量の重み付けから、表121に示す重要度を決定している。このとき表121で示す合計数とは、各特徴量において重要領域であるか否かで、1(重要領域である)か2(重要領域でない)の特徴量別重要度が与えられ、この特徴量別重要度に重み付けされた表122の点の数値をかけて、総和をとった数である。そして表121に示す重要度は、前記合計数を8で割った値を重要度としている。更に、この重要度に対して予め設定された閾値との比較を行い、その閾値よりも小さい重要度を有するものを、符号量を割り当てる対象、つまり重要領域として選択する。例えば閾値が1.5であり、閾値未満のものを選択する場合には、表121において、領域Aが重要領域として選択される。そして、閾値が1.6であり閾値未満のものを選択する場合には、表121において、領域A、Bが重要領域として選択される。なお、この重要度を決定するアルゴリズムについては、本方式に限定されるものではなく、任意のもので構わない。
次に、符号化処理制御部106は、図6に示すステップS105又はステップS106において、本実施形態における量子化テーブルの選択を行う。この例では、予め通常領域用に用意された量子化テーブルとは別に、重要領域の重要度に応じた複数のパターン量子化テーブルを用意する。このとき用意する量子化テーブルの数は重要度の数と同数であり、図11に示す例では15パターンの量子化テーブルが用意される。よって重要領域の量子化処理時に前記それぞれの重要度に応じた量子化テーブルを用いて量子化することで、量子化ステップ値を小さくすることが可能となる。
このように本実施形態によれば、一般的に撮影対象としての重要度が相対的に高い人物、特に顔の領域を検出するだけでなく、顔領域における、領域サイズとエッジ情報、及び解析領域における輝度情報と色情報を検出する。そして、これらの特徴量を複合して符号量制御に用いることで、実施形態1から4で示す符号量制御よりもより精細な制御を行うことが可能となる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 画像データの圧縮処理を行なう画像処理装置であって、
    入力された画像データから認識対象物領域を抽出する領域抽出手段と、
    前記画像データから抽出された認識対象物領域のうち画質劣化を低減すべき認識対象物領域を、該認識対象物領域または該認識対象物領域の周囲領域の輝度情報、色情報、またはエッジ情報を用いて判断し、該判断された認識対象物領域を、重要領域として選択する重要領域選択手段と、
    前記入力された画像データのうち、前記重要領域として選択された前記認識対象物領域以外の画像データを第1量子化ステップにより圧縮符号化し、
    前記重要領域として選択された前記認識対象物領域の画像データを、前記第1量子化ステップより小さい第2量子化ステップにより圧縮符号化する符号化手段と
    を備えることを特徴とする画像処理装置。
  2. 前記重要領域選択手段は、前記認識対象物領域の周囲領域の画像データに含まれる画素の平均輝度が閾値以下の場合に、該認識対象物領域を重要領域として選択することを特徴とする請求項1に記載の画像処理装置。
  3. 前記重要領域選択手段は、前記認識対象物領域の周囲領域の画像データに含まれる画素の平均色情報と前記認識対象物領域の平均色情報との差分が閾値以下の場合に、該認識対象物領域を重要領域として選択することを特徴とする請求項1に記載の画像処理装置。
  4. 前記重要領域選択手段は、前記認識対象物領域の総エッジ数を該認識対象物領域の総画素数で割ることで得られるエッジ割合が規定のエッジ割合以上である場合に、該認識対象物領域を重要領域として選択することを特徴とする請求項1に記載の画像処理装置。
  5. 前記重要領域選択手段は、前記認識対象物領域の面積が閾値以下の場合と、該認識対象物領域の周囲領域の画像データに含まれる画素の平均輝度が閾値以下の場合と、該周囲領域の画像データに含まれる画素の平均輝度が閾値以下の場合と、該認識対象物領域の総エッジ数を該認識対象物領域の総画素数で割ることで得られるエッジ割合が規定のエッジ割合以上である場合の、いずれか少なくとも2つの場合に、該認識対象物領域を重要領域として選択することを特徴とする請求項1に記載の画像処理装置。
  6. 前記符号化手段は、前記重要領域を符号化するために、JPEG圧縮方式とJPEG2000圧縮方式とJPEG−XR圧縮方式のいずれか1つの圧縮方式を用い、前記第2量子化ステップを有する量子化テーブルを用いることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  7. 画像データの圧縮処理を行なう画像処理装置に制御方法であって、
    前記画像処理装置の領域抽出手段が、入力された画像データから認識対象物領域を抽出する領域抽出工程と、
    前記画像処理装置の重要領域選択手段が、前記画像データから抽出された認識対象物領域のうち画質劣化を低減すべき認識対象物領域を、該認識対象物領域または該認識対象物領域の周囲領域の輝度情報、色情報、またはエッジ情報を用いて判断し、該判断された認識対象物領域を、重要領域として選択する重要領域選択工程と、
    前記画像処理装置の符号化手段が、前記重要領域として選択された前記認識対象物領域以外の画像データを第1量子化ステップにより圧縮符号化し、
    前記重要領域として選択された前記認識対象物領域の画像データを、前記第1量子化ステップより小さい第2量子化ステップにより圧縮符号化する符号化工程と
    を備えることを特徴とする方法。
  8. コンピュータを、請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2009241883A 2009-10-20 2009-10-20 画像処理装置およびその制御方法 Active JP5421727B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009241883A JP5421727B2 (ja) 2009-10-20 2009-10-20 画像処理装置およびその制御方法
US12/902,541 US8873869B2 (en) 2009-10-20 2010-10-12 Image processing apparatus and control method for the same
CN2010105234727A CN102045566B (zh) 2009-10-20 2010-10-20 图像处理装置及图像处理装置的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009241883A JP5421727B2 (ja) 2009-10-20 2009-10-20 画像処理装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2011091510A JP2011091510A (ja) 2011-05-06
JP2011091510A5 JP2011091510A5 (ja) 2012-12-06
JP5421727B2 true JP5421727B2 (ja) 2014-02-19

Family

ID=43879328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009241883A Active JP5421727B2 (ja) 2009-10-20 2009-10-20 画像処理装置およびその制御方法

Country Status (3)

Country Link
US (1) US8873869B2 (ja)
JP (1) JP5421727B2 (ja)
CN (1) CN102045566B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011090569A (ja) * 2009-10-23 2011-05-06 Sony Corp 画像処理装置および画像処理方法
JP2011244031A (ja) * 2010-05-14 2011-12-01 Fujifilm Corp 画像データ伸張装置および画像データ圧縮装置,ならびにそれらの動作制御方法
US8687888B2 (en) * 2010-11-18 2014-04-01 Casio Computer Co., Ltd. Region specification method, region specification apparatus, recording medium, server, and system
JP5801614B2 (ja) * 2011-06-09 2015-10-28 キヤノン株式会社 画像処理装置、画像処理方法
KR101896386B1 (ko) * 2011-11-22 2018-09-11 삼성전자주식회사 화이트 밸런스 조절장치 및 방법
JP2014186392A (ja) * 2013-03-21 2014-10-02 Fuji Xerox Co Ltd 画像処理装置及びプログラム
US10432953B2 (en) 2016-02-05 2019-10-01 Deepmind Technologies Limited Compressing images using neural networks
JP6609505B2 (ja) * 2016-04-06 2019-11-20 Kddi株式会社 画像合成装置及びプログラム
KR102592594B1 (ko) * 2016-05-24 2023-10-24 소니그룹주식회사 재생 장치와 재생 방법 및 정보 생성 장치와 정보 생성 방법
US10748062B2 (en) * 2016-12-15 2020-08-18 WaveOne Inc. Deep learning based adaptive arithmetic coding and codelength regularization

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000197050A (ja) 1998-12-25 2000-07-14 Canon Inc 画像処理装置及び方法
JP2003528501A (ja) 2000-03-21 2003-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 可変ビットレートビデオ符号化方法及び装置
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
JP4800712B2 (ja) 2004-09-10 2011-10-26 パナソニック株式会社 動画符号化装置、動画符号化方法及び動画撮像装置
CN100477794C (zh) 2004-09-10 2009-04-08 松下电器产业株式会社 运动图像编码装置及其编码方法以及运动图像的成像装置
WO2008028334A1 (en) * 2006-09-01 2008-03-13 Thomson Licensing Method and device for adaptive video presentation
JP2009223524A (ja) * 2008-03-14 2009-10-01 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム
JP2009290661A (ja) * 2008-05-30 2009-12-10 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラムおよび印刷装置
US8363720B2 (en) 2009-01-26 2013-01-29 Panasonic Corporation Moving image processing device, moving image processing method and imaging apparatus
JP2011087090A (ja) * 2009-10-14 2011-04-28 Panasonic Corp 画像処理方法、画像処理装置、及び撮像システム

Also Published As

Publication number Publication date
US8873869B2 (en) 2014-10-28
CN102045566B (zh) 2013-11-06
CN102045566A (zh) 2011-05-04
JP2011091510A (ja) 2011-05-06
US20110091107A1 (en) 2011-04-21

Similar Documents

Publication Publication Date Title
JP5421727B2 (ja) 画像処理装置およびその制御方法
CN110267041B (zh) 图像编码方法、装置、电子设备和计算机可读存储介质
US8358877B2 (en) Apparatus, process, and program for image encoding
RU2461977C2 (ru) Сжатие и снятие сжатия изображения
KR101437195B1 (ko) 코딩된 화상 및 영상에서 블록 아티팩트 검출
US7561736B2 (en) Image processing apparatus and method of the same
US9478017B2 (en) Guided image filtering for image content
US10181088B2 (en) Method for video object detection
US8315475B2 (en) Method and apparatus for detecting image blocking artifacts
US11095899B2 (en) Image processing apparatus, image processing method, and storage medium
US10013772B2 (en) Method of controlling a quality measure and system thereof
JPWO2009037828A1 (ja) 画像符号化装置および画像復号化装置
CN110366048B (zh) 视频传输方法、装置、电子设备和计算机可读存储介质
WO2008118887A2 (en) Real-time face detection
WO2016142931A1 (en) Method and system of controlling a quality measure
US11928843B2 (en) Signal processing apparatus and signal processing method
US9838643B1 (en) Method and system for detection of inherent noise present within a video source prior to digital video compression
US20230127009A1 (en) Joint objects image signal processing in temporal domain
JP2006148878A (ja) 画像中の画素を分類する方法
US10630991B2 (en) Image difference detection device, method for detecting image difference, and computer program
CN113542864B (zh) 视频的花屏区域检测方法、装置、设备及可读存储介质
JP2005318614A (ja) 入力画像中のアーチファクトを低減する方法
Yalman et al. Contemporary approaches on no-reference image quality assessment methods: a comparative study
CN112153317A (zh) 一种图像质量控制方法及其***和设备
CN117729336A (zh) 一种图像编码方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130729

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131122

R151 Written notification of patent or utility model registration

Ref document number: 5421727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151