JP4730105B2 - 画像処理装置および方法、学習装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、学習装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4730105B2
JP4730105B2 JP2006012386A JP2006012386A JP4730105B2 JP 4730105 B2 JP4730105 B2 JP 4730105B2 JP 2006012386 A JP2006012386 A JP 2006012386A JP 2006012386 A JP2006012386 A JP 2006012386A JP 4730105 B2 JP4730105 B2 JP 4730105B2
Authority
JP
Japan
Prior art keywords
component
pixel
value
pixels
tap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006012386A
Other languages
English (en)
Other versions
JP2007195023A (ja
Inventor
幸司 矢野
健治 高橋
勉 市川
貴志 沢尾
克尚 神明
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006012386A priority Critical patent/JP4730105B2/ja
Publication of JP2007195023A publication Critical patent/JP2007195023A/ja
Application granted granted Critical
Publication of JP4730105B2 publication Critical patent/JP4730105B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Description

本発明は画像処理装置および方法、学習装置および方法、並びにプログラムに関し、特に、より高精細な画像を得ることができるようにした画像処理装置および方法、学習装置および方法、並びにプログラムに関する。
CCD(Charge Coupled Devices)などの撮像素子を利用して画像を撮像する撮像装置においては、撮像装置の小型化を図るために、撮像素子として単板CCDが用いられることが多い。この単板CCDにおいては、各画素はR(赤)、G(緑)、およびB(青)の3原色のうちのいずれかの色のデータのみを出力し、各画素がどの色のデータを出力するかは単板CCDの前面に配置された色フィルタアレイによって定まる。
例えば、Gの色フィルタが配置された画素は、Gの成分のデータを出力するが、Rの成分およびBの成分は出力しない。また、Rの色フィルタが配置された画素は、Rの成分のデータは出力するが、Gの成分およびBの成分は出力しない。同様に、Bの色フィルタが配置された画素は、Bの成分は出力するが、Gの成分およびRの成分は出力しない。
ところで、撮像により得られた画像データに対して各種の処理を行う場合、画素毎にRGBの各色成分が必要となる。そこで、従来の撮像装置には、クラス分類適応処理により単板CCDが出力する画像データから、3板CCD出力相当の画像データを求めるものもある(例えば、特許文献1参照)。
特開2002−64836号公報
しかしながら、上述した技術においては、3板CCD出力相当の画像の注目している画素の所定の色(の画素値)を予測するために用いる予測タップとして、単板CCDの画像の予測する色とは異なる色の画素を用いた場合、予測する色の画素のダイナミックレンジに対して、異なる色の画素のダイナミックレンジが大きすぎると画像に破綻が生じてしまう。
例えば、図1に示すように、所定の位置AにおけるR(赤)の画素値を予測するために、予測タップとしてG(緑)の画素を用いると、求められたRの画素値は、周囲の位置のRの画素値と比べて突出した値となってしまう。なお、図中、横軸は撮像された画像における位置を示し、縦軸は各位置における各色の画素値(レベル)を示している。
曲線11は、現実世界の各位置におけるGの値(波形)を示しており、Gの値は位置Aの前後において急峻に増加している。また、曲線12は、現実世界の各位置におけるRの値(波形)を示しており、Rの値は曲線11に示されるGの値と比べると、位置Aの前後においてなだらかに増加している。
さらに、図中、丸および四角形は、それぞれ撮像により得られたGの画素(の画素値)およびRの画素(の画素値)を示している。ここで、図1の左側の図の丸により示される3つのGの画素、および四角形により示される2つのRの画素を予測タップとして用いて、クラス分類適応処理により位置AにおけるRの画素値を予測する場合を考える。
この場合、予測タップとして用いられるGの画素のダイナミックレンジは、予測タップとして用いられるRの画素のダイナミックレンジと比較して非常に大きく、位置Aの付近においてGの画素値は急激に変化している。ここで、画素のダイナミックレンジとは、予測タップを構成する画素の画素値の最大値と最小値との差をいう。
位置Aの付近におけるGの画素値の急激な変化は、位置AのRの画素値の予測にも影響を与え、位置AにおけるRの波形の傾きの大きさが、位置AにおけるGの波形の傾きの大きさと同じ大きさとなるように、位置AにおけるRの画素値が予測される。
そのため、図1の右側の図の三角形に示すように、予測により得られた位置AのRの画素値は、周囲のGの画素に影響されて過度(過剰)に強調され、周囲のRの画素値と比べて図中、上方向に突出してしまう。したがって、曲線13に示すように、クラス分類適応処理によって得られた画像のRの画素値は、位置Aにおける画素値だけが周囲の画素値に比べて大きくなってしまう。
逆に、3板CCD出力相当の画像の注目している画素の所定の色(の画素値)を予測するために用いる予測タップとして、単板CCDの画像の予測する画素の色とは異なる色の画素を用いた場合、予測する色の画素のダイナミックレンジに対して、異なる色の画素のダイナミックレンジが小さすぎると、その異なる色の画素は、予測する色の画素値に殆ど影響を与えないために、予測する色の画素が充分に強調されず、クラス分類適応処理により得られた3板CCD出力相当の画像は、精細感のないものとなってしまう。
本発明は、このような状況に鑑みてなされたものであり、より精度よく高精細な画像を得ることができるようにするものである。
本発明の第1の側面の画像処理装置は、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理装置であって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出する予測タップ抽出手段と、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出するクラスタップ抽出手段と、前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段と、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段と、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する予測演算手段とを備える。
前記正規化手段には、前記注目画素の前記第1の成分の値を予測演算する場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算させることにより前記予測タップを正規化させることができる。
前記第1の成分または前記第2の成分は、赤、青、または緑のいずれかの色を表す成分とすることができる。
前記第1の成分または前記第2の成分は、輝度または色差を表す成分とすることができる。
本発明の第1の側面の画像処理方法は、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理方法であって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し、前記クラスタップを用いて、前記注目画素のクラス分類を行い、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算するステップを含む。
本発明の第1の側面のプログラムは、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理をコンピュータに実行させるプログラムであって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し、前記クラスタップを用いて、前記注目画素のクラス分類を行い、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算するステップを含む。
本発明の第1の側面においては、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データが、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換される場合、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素が、前記第1の画像データから予測タップとして抽出され、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素が、前記第1の画像データからクラスタップとして抽出され、前記クラスタップが用いられて、前記注目画素のクラス分類が行われ、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップが正規化され、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとが用いられて、前記注目画素の前記第1の成分の値、または前記第2の成分の値が予測演算される。
本発明の第2の側面の学習装置は、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出する注目画素抽出手段と、前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出する予測タップ抽出手段と、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出するクラスタップ抽出手段と、前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段と、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段と、前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める演算手段とを備える。
前記正規化手段には、前記注目画素の前記第1の成分の値を予測するために用いられる前記タップ係数を求める場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算させることにより前記予測タップを正規化させることができる。
前記第1の成分または前記第2の成分は、赤、青、または緑のいずれかの色を表す成分とすることができる。
前記第1の成分または前記第2の成分は、輝度または色差を表す成分とすることができる。
本発明の第2の側面の学習方法またはプログラムは、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出し、前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出し、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出し、前記クラスタップを用いて、前記注目画素のクラス分類を行い、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求めるステップを含む。
本発明の第2の側面においては、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値が抽出され、前記注目画素を予測するために用いる複数の画素が、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出され、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素が、前記第2の画像データからクラスタップとして抽出され、前記クラスタップが用いられて、前記注目画素のクラス分類が行われ、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップが正規化され、前記注目画素の前記第1の成分の値、および正規化された前記予測タップが用いられて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数が求められる。
本発明の第1の側面によれば、高精細な画像を得ることができる。特に、本発明の第1の側面によれば、より精度よく高精細な画像を得ることができる。
また、本発明の第2の側面によれば、高精細な画像を得ることができる。特に、本発明の第2の側面によれば、より精度よく高精細な画像を得ることができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の第1の側面の画像処理装置は、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理装置(例えば、図3の撮像装置41)であって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出する予測タップ抽出手段(例えば、図5の予測タップブロック化回路114)と、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出するクラスタップ抽出手段(例えば、図5のADRCブロック化回路111)と、前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段(例えば、図5のクラス分類回路113)と、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段(例えば、図5の予測タップ正規化部115)と、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する予測演算手段(例えば、図5の適応処理回路116)とを備える。
前記正規化手段には、前記注目画素の前記第1の成分の値を予測演算する場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算させることにより前記予測タップを正規化させる(例えば、図6のステップS49の処理)ことができる。
本発明の第1の側面の画像処理方法は、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理方法であって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し(例えば、図6のステップS48)、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し(例えば、図6のステップS45)、前記クラスタップを用いて、前記注目画素のクラス分類を行い(例えば、図6のステップS47)、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し(例えば、図6のステップS49)、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する(例えば、図6のステップS50)ステップを含む。
なお、本発明の第1の側面のプログラムも、上述した本発明の第1の側面の画像処理方法と基本的に同様の処理であるため、繰り返しになるのでその説明は省略する。
本発明の第2の側面の学習装置(例えば、図11の学習装置201)は、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出する注目画素抽出手段(例えば、図11の教師画像ブロック化回路217)と、前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出する予測タップ抽出手段(例えば、図11の予測タップブロック化回路215)と、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出するクラスタップ抽出手段(例えば、図11のADRCブロック化回路212)と、前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段(例えば、図11のクラス分類回路214)と、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段(例えば、図11の予測タップ正規化部216)と、前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める演算手段(例えば、図11の演算回路220)とを備える。
前記正規化手段には、前記注目画素の前記第1の成分の値を予測するために用いられる前記タップ係数を求める場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算させることにより前記予測タップを正規化させる(例えば、図12のステップS86の処理)ことができる。
本発明の第2の側面の学習方法またはプログラムは、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出し(例えば、図12のステップS87)、前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出し(例えば、図12のステップS85)、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出し(例えば、図12のステップS82)、前記クラスタップを用いて、前記注目画素のクラス分類を行い(例えば、図12のステップS84)、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し(例えば、図12のステップS86)、前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める(例えば、図12のステップS90)ステップを含む。
本発明は、動画像を撮影するデジタルビデオカメラ、静止画像を撮像するデジタルスチルカメラ、カメラ一体型VTR(Video Tape Recorder)等の映像機器、放送業務に用いられる画像処理装置、プリンタ、スキャナなどに適用することができる。
以下、図面を参照して本発明を適用した実施の形態について説明する。
図2は、本発明を適用した撮像装置が、単板CCDの出力からより高精細な画像データを生成する処理の原理を表している。
図2に示すように、撮像装置においては、n×m(図2では縦6×横8)の単板CCDが出力する画像データから、n×mのR(赤)の画像データ、n×mのG(緑)の画像データ、およびn×mのB(青)の画像データが、それぞれ直接演算により生成される。換言すれば、撮像装置は、単板CCDが出力する画像データを、Rの画像データ、Gの画像データ、およびBの画像データからなる3板CCD出力相当の画像データに変換する。
撮像装置の単板CCDの前面には色フィルタアレイが配置されており、色フィルタアレイの色配列は、例えば図2の左側に示すように、ベイヤー配列と称される色配列とされる。図2では、Gの色のフィルタが市松状に配置され、残りの部分にRの色のフィルタおよびBの色のフィルタが一行ごとに交互に配置されている。
このようにして撮像装置は、単板CCDから出力されたRの画素値を有する画素、Gの画素値を有する画素、およびBの画素値を有する画素から構成される画像データを、Rの画素値、Gの画素値、およびBの画素値を有する画素から構成される3板CCD出力相当の画像データに変換する。
図3は、以上のような原理に従って、被写体を撮像して高精細な画像データを生成する撮像装置の構成例を示すブロック図である。
撮像装置41のレンズ51は被写体からの光を集光し、集光した光を、アイリス52および色フィルタアレイ53を介して単板のCCD54に入射させる。すなわち、レンズ51は入射した光をCCD54上に結像させる。また、色フィルタアレイ53は、1画素ごとに割り当てられた色フィルタから構成され、CCD54の前面(図中、左側)に配置されている。
CCD54は、入射された光を光電変換して、光電変換により得られた電荷を蓄積し、蓄積した電荷をアナログ信号である画像信号としてAGC(Automatic Gain Control)/CDS(Correlated Double Sampling)回路55に供給する。
AGS/CDS回路55は、供給された画像信号の大きさ(レベル)が一定になるようにゲインを調整して出力するとともに、CCD54において発生する1/fノイズを除去する。さらに、AGC/CDS回路55は、メインCPU(Central Processing Unit)59の制御に基づいて、CCD54における電荷の蓄積時間を電気的に変化させる電子シャッタ処理も行う。AGC/CDS回路55から出力された画像信号は、A/D(Analog/Digital)変換部56に入力され、アナログ信号からデジタル信号である画像データに変換された後、画像信号処理回路57に入力される。画像信号処理回路57は、入力された画像データに対して、欠陥補正処理、デジタルクランプ処理、ホワイトバランス調整処理、ガンマ補正処理、クラス分類適応処理を用いた補間処理などの所定の処理を行う。
タイミングジェネレータ58は、メインCPU59の制御に基づいて、各種のタイミング信号を発生し、CCD54、AGC/CDS回路55、A/D変換部56、メインCPU59などに供給する。
モータ60は、メインCPU59の制御に基づいて、アイリス52を駆動し、レンズ51からCCD54に入射される光の量を制御する。モータ61は、メインCPU59により制御され、レンズ51を制御して、レンズ51のCCD54に対するフォーカス状態を制御する。発光部62は、メインCPU59により制御され、撮像時に被写体に対して所定の閃光を照射する。
記録媒体インターフェース63は、画像信号処理回路57から出力された画像データを、必要に応じてメモリ64に記憶させ、所定のインターフェース処理を実行した後、記録媒体65に供給して記録させる。記録媒体65は、例えば、不揮発性のフラッシュメモリ、磁気ディスク、光ディスク、光磁気ディスクなどから構成され、撮像装置41に着脱可能とされている。
コントローラ66は、メインCPU59の制御のもと、画像信号処理回路57および記録媒体インターフェース63を制御する。また、メインCPU59には、シャッタボタンやスイッチなどから構成される操作部70から、撮像者の操作に応じて各種の指令が入力される。電源部67は、バッテリ68およびDC/DCコンバータ69を内蔵しており、DC/DCコンバータ69は、バッテリ68からの電力を所定の値の直流電圧に変換し、撮像装置41の各部に供給する。充電可能なバッテリ68は、撮像装置41に着脱可能とされている。
次に、図4のフローチャートを参照して、撮像装置41が所定の被写体を撮像し、撮像により得られた画像データを記録媒体65に記録させる処理について説明する。
ステップS11において、レンズ51は被写体からの光を集光し、集光した光をアイリス52および色フィルタアレイ53を介してCCD54に入射させる。また、メインCPU59は、モータ60を制御してアイリス52を駆動し、CCD54に入射するレンズ51からの光量を所定の値に調整させるとともに、モータ61を制御してレンズ51の位置を調整させ、フォーカス制御を実行する。
ステップS12において、メインCPU59は、撮像者によりシャッタボタンが操作されたか否かを判定する。例えば、撮像者が撮像装置41に設けられた、図示せぬモニタやファインダに表示された画像を見ることで画角を確認し、シャッタボタンとしての操作部70を操作すると、操作部70からメインCPU59には、シャッタボタンが操作された旨の信号が供給される。メインCPU59は、シャッタボタンが操作された旨の信号が供給された場合、シャッタボタンが操作されたと判定する。
ステップS12において、シャッタボタンが操作されていないと判定された場合、処理はステップS11に戻り、それ以降の処理が繰り返される。
これに対して、ステップS12において、シャッタボタンが操作されたと判定された場合、処理はステップS13に進む。また、このとき、メインCPU59は発光部62を駆動して閃光を発生させ、被写体に照射させるとともに、タイミングジェネレータ58を制御して各種のタイミング信号を発生させる。タイミングジェネレータ58は、発生させたタイミング信号をCCD54、AGC/CDS回路55、A/D変換部56、およびメインCPU59に供給する。
ステップS13において、CCD54は、タイミングジェネレータ58からのタイミング信号に同期して、レンズ51から入射した光を光電変換し(電荷に変換し)、これにより得られたアナログ信号を画像信号としてAGC/CDS回路55に供給する。
ステップS14において、AGC/CDS回路55は、CCD54から供給された画像信号の1/fノイズ成分を除去する処理を行った後、画像信号の大きさが一定になるようにゲインを調整して画像信号をA/D変換部56に供給する。
ステップS15において、A/D変換部56は、AGC/CDS回路55から供給された画像信号をアナログ信号からデジタル信号である画像データに変換し、変換により得られた画像データを画像信号処理回路57に供給する。
ステップS16において、画像信号処理回路57はA/D変換部56から供給された画像データに対して、画像信号処理を施す。その詳細は図6のフローチャートを参照して後述するが、欠陥補正処理、デジタルクランプ処理、ホワイトバランス調整処理、ガンマ補正処理、クラス分類適応処理などの画像信号処理が施される。画像信号処理回路57は、画像信号処理を施した画像データを必要に応じてメモリ64に一時的に記憶させ、記録媒体インターフェース63を介して記録媒体65に供給する。
ステップS17において、記録媒体65は、記録媒体インターフェース63から供給された画像データを記録して、撮像処理は終了する。なお、撮像により得られた画像データを記録媒体65に記録せずに、撮像装置41に接続された他の装置に所定の信号フォーマットで出力するようにしてもよい。
このようにして、撮像装置41は被写体を撮像し、撮像により得られた画像データを記録媒体65に記録する。
ところで、画像データに対して画像信号処理を施す画像信号処理回路57は、例えば、図5に示すように構成される。
画像信号処理回路57は、欠陥補正回路101、クランプ回路102、ホワイトバランス回路103、ガンマ補正回路104、補間処理部105、補正回路106、およびRGBマトリクス回路107から構成される。
単板のCCD54(図3)から出力された画像信号(画像データ)は、A/D変換部56(図3)を介して欠陥補正回路101に供給される。ここで、欠陥補正回路101に供給される画像データは、例えば、R(赤)、G(緑)、およびB(青)のそれぞれの色を成分とするコンポーネント映像信号とされる。欠陥補正回路101は、CCD54のうち光に反応しない画素に対応する成分、あるいは、常に電荷を保持している画素に対応する成分などの欠陥成分を検出し、検出の結果に基づいてA/D変換部56から供給された画像データを補正する欠陥補正処理を行う。
また、画像信号が読み出される場合、画像の各画素の画素値を示す信号が有する値よりも小さい値が検出されると、画像の1ライン分の画像信号の読み出しが終了したと判定される。画素値を示す信号が有する値の最小値は0であるので、負の値が検出されると画像の1ライン分の画像信号の読み出しが終了したと判定されることになる。そこで、A/D変換部56は、画像信号の負の値がカットされるのを防ぐため、信号値を若干正の方向へシフトさせた状態で、アナログ信号である画像信号をデジタル信号である画像データに変換する。クランプ回路102は、欠陥補正回路101から供給された画像データの正の方向へのシフト量を元に戻すクランプ処理を行う。
ホワイトバランス回路103は、クランプ回路102から供給された画像データとしてのR、G、およびBの各色信号のそれぞれのゲインの補正を行う。ガンマ補正回路104は、ホワイトバランス回路103から供給された各色信号の値をガンマ曲線に従って補正する。
補間処理部105は、クラス分類適応処理を行うことによって、ガンマ補正回路104から供給された画像データを3板CCD出力相当の画像データに変換する。また、補間処理部105は、変換により得られた画像データを補正回路106に供給する。
補間処理部105は、ADRC(Adaptive Dynamic Range Control)ブロック化回路111、ADRC処理回路112、クラス分類回路113、予測タップブロック化回路114、予測タップ正規化部115、適応処理回路116、および係数メモリ117から構成される。
ADRCブロック化回路111は、単板のCCD54から出力された画像データを変換して得ようとする3板CCD出力相当の画像データ(この3板CCD出力相当の画像データはこれから求めようとする画像データであり、現段階では存在しないため仮想的に想定される)を構成する画素を、順次、注目画素とし、ガンマ補正回路104から供給された画像データを構成する画素のいくつかを、注目画素を複数のクラスのうちのいずれかにクラス分けするためのクラスタップとして抽出する。
また、ADRCブロック化回路111は、抽出したクラスタップをADRC処理回路112に供給する。
ADRC処理回路112は、ADRCブロック化回路111から供給されたクラスタップにADRC処理を施し、ADRC処理が施されたクラスタップをクラス分類回路113に供給する。クラス分類回路113は、ADRC処理回路112からのクラスタップに基づいて(クラスタップを用いて)注目画素をクラス分類し、分類されたクラスを示すクラスコード(クラス番号)を適応処理回路116に供給する。
予測タップブロック化回路114は、ガンマ補正回路104から供給された画像データを構成する画素のいくつかを、注目画素の画素値を予測するために用いられる予測タップとして抽出し、予測タップ正規化部115に供給する。
予測タップ正規化部115は、予測タップブロック化回路114から供給された予測タップを正規化して、正規化された予測タップを適応処理回路116に供給する。
適応処理回路116は、クラス分類回路113から供給されたクラスコードに対応するタップ係数を係数メモリ117から読み出し、タップ係数を予測タップ正規化部115から供給された予測タップを構成する画素の画素値に乗算して、必要な画素値を予測演算する。
係数メモリ117は注目画素の画素値を予測するために用いられるクラスごとのタップ係数(各クラスについて予め求められているタップ係数)を記憶する。例えば、係数メモリ117には、各クラスに分類された注目画素のRの画素値を予測するためのタップ係数、Gの画素値を予測するためのタップ係数、およびBの画素値を予測するためのタップ係数が予め記憶されている。
補正回路106は、補間処理部105の適応処理回路116から供給された画像データに対し、エッジ強調などの画像を視覚的に良く見せるために必要な補正処理を行う。RGBマトリクス回路107は、補正回路106から供給された画像データとしてのR、G、およびBの各色信号をそのまま出力するか、または、各色信号に予め用意されている所定の変換マトリクスを乗算し、YUV方式(輝度Y、色差U、および色差Vを成分とする信号方式)などの所定の信号フォーマットの画像データに変換して出力する。
次に、図6のフローチャートを参照して、図4のステップS16の処理において、画像信号処理回路57により行われる画像信号処理について説明する。
ステップS41において、欠陥補正回路101は、A/D変換部56から供給された画像データに対して、欠陥画素があればこれを補正する欠陥補正処理を施し、欠陥補正処理が施された画像データをクランプ回路102に供給する。例えば、欠陥補正回路101は、光に反応しない画素、または常に電荷を有している画素に対しては、その画素の画素値を隣接する画素の画素値の平均値で置換することにより画像データを補正する。
ステップS42において、クランプ回路102は、欠陥補正回路101から供給された画像データに対して、A/D変換部56におけるオフセット値を補正するためのクランプ処理を施し、クランプ処理が施された画像データをホワイトバランス回路103に供給する。
ステップS43において、ホワイトバランス回路103は、クランプ回路102から供給された画像データに対してホワイトバランス調整処理を施し、画像データとしてのR、G、およびBの各色信号のそれぞれのレベルを適正な白が表現できるレベルに調整する。そして、ホワイトバランス回路103は、ホワイトバランス調整処理が施された画像データをガンマ補正回路104に供給する。
ステップS44において、ガンマ補正回路104は、ホワイトバランス回路103から供給された画像データに対してガンマ補正処理を施し、ガンマ補正処理が施された画像データを補間処理部105のADRCブロック化回路111および予測タップブロック化回路114に供給する。
ステップS45において、ADRCブロック化回路111は、ガンマ補正回路104から供給された画像データをp×q個(但し、pおよびqは正の整数)のブロックに分割し、分割された各ブロックからクラスタップを抽出する。ADRCブロック化回路111は、抽出したクラスタップをADRC処理回路112に供給する。
例えば、図7Aに示すように、注目画素の位置が矢印K11により示されるGの画素に対応する位置である場合、ADRCブロック化回路111は、図中、矢印K11により示されるGの画素の左上、左下、右上、および右下に隣接する4個のGの画素、矢印K11により示されるGの画素から上下方向にRの画素を介して隣接する2個のGの画素、および横方向にBの画素を介して隣接する2個のGの画素、並びに矢印K11により示されるGの画素からなる計9個のGの画素をクラスタップとして抽出する。
また、例えば、図7Bに示すように、注目画素の位置が矢印K12により示されるGの画素に対応する位置である場合、ADRCブロック化回路111は、図中、矢印K12により示されるGの画素の左上、左下、右上、および右下に隣接する4個のGの画素、矢印K12により示されるGの画素から上下方向にBの画素を介して隣接する2個のGの画素、および横方向にRの画素を介して隣接する2個のGの画素、並びに矢印K12により示されるGの画素からなる計9個のGの画素をクラスタップとして抽出する。
図6のフローチャートの説明に戻り、クラスタップが抽出されると、ステップS46において、ADRC処理回路112はADRCブロック化回路111から供給されたクラスタップにADRC処理を施し、その結果得られたADRCコードをADRC処理が施されたクラスタップとしてクラス分類回路113に供給する。
例えば、KビットADRC処理においては、ADRC処理回路112は、クラスタップを構成する画素の画素値の最大値MAXおよび最小値MINを検出し、検出された画素値の最大値MAXと最小値MINとの差DR(DR=MAX-MIN)を、クラスタップを構成する画素の集合の局所的なダイナミックレンジとする。ADRC処理回路112はこのダイナミックレンジDRに基づいて、クラスタップを構成する画素(の画素値)をKビットに再量子化する。即ち、ADRC処理回路112は、クラスタップを構成する各画素の画素値から最小値MINを減算し、その減算値をDR/2Kで除算(量子化)する。
そして、ADRC処理回路112は、以上のようにして得られるクラスタップを構成するKビットの各画素の画素値を所定の順番で並べたビット列を、ADRCコードとして出力する。したがって、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最小値MINが減算された後に最大値MAXと最小値MINとの差の1/2で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列がADRCコードとして出力される。
ステップS47において、クラス分類回路113は、ADRC処理回路112から供給されたADRCコードに基づいてクラス分類を行う。すなわち、クラス分類回路113は、クラスタップをADRC処理して得られたADRCコードに対応するクラスを決定し、そのクラスを示すクラスコードを生成して適応処理回路116に供給する。
ステップS48において、予測タップブロック化回路114は、ガンマ補正回路104から供給された画像データをp×q個(但し、pおよびqは正の整数)のブロックに分割し、分割された各ブロックから予測タップを抽出する。予測タップブロック化回路114は、抽出した予測タップを予測タップ正規化部115に供給する。
例えば、図7Aに示したように、矢印K11により示されるGの画素に対応する位置が注目画素の位置である場合、図8Aに示すように、予測タップブロック化回路114は、矢印K11により示されるGの画素を含む、そのGの画素の周囲の5×5個の画素を予測タップとして抽出する。この場合、予測タップの画素には、Rの画素、Gの画素、およびBの画素が含まれている。
また、図7Bに示したように、矢印K12により示されるGの画素に対応する位置が注目画素の位置である場合、図8Bに示すように、予測タップブロック化回路114は、矢印K12により示されるGの画素を含む、そのGの画素の周囲の5×5個の画素を予測タップとして抽出する。この場合も図8Aにおける場合と同様に、予測タップの画素には、Rの画素、Gの画素、およびBの画素が含まれている。
図6のフローチャートの説明に戻り、予測タップが抽出されると、ステップS49において、予測タップ正規化部115は、予測タップブロック化回路114から供給された予測タップを正規化して、正規化された予測タップを適応処理回路116に供給する。
例えば、図9に示すように、注目画素の位置が画素G33の位置であり、注目画素のRの画素値を予測する場合を考える。なお、図9の1つの四角形は1つの画素を示しており、画素G11乃至画素G55のそれぞれは、Gの画素を表し、画素B12乃至画素B54のそれぞれは、Bの画素を表し、画素R21乃至画素R45のそれぞれは、Rの画素を表している。
ここで、注目画素に対する予測タップを構成する画素を、画素G33を中心とする5×5個の画素(すなわち、図9に示す全ての画素)とすると、予測タップには、画素G11乃至画素G55の計13個のGの画素、画素B12乃至画素B54の計6個のBの画素、および画素R21乃至画素R45の計6個のRの画素が含まれる。
このように、Rの画素値を予測する場合、予測タップにRとは異なる色のGの画素およびBの画素が含まれているとき、図1を参照して説明したように、Rの画素のダイナミックレンジに対して、Gの画素またはBの画素のダイナミックレンジが大きすぎると画像に破綻が生じてしまう恐れがある。
そこで、予測タップ正規化部115は、予測タップを構成するGの画素のダイナミックレンジ、およびBの画素のダイナミックレンジが、Rの画素のダイナミックレンジと等しくなるように、予測タップを正規化する。
具体的には、まず、予測タップ正規化部115は、式(1)を計算することにより、Rの画素のダイナミックレンジDR(R)を求める。
DR(R)=Rmax−Rmin ・・・(1)
ここで、式(1)におけるRmaxおよびRminは、それぞれ予測タップを構成するRの画素の画素値のうちの最大値および最小値を表している。したがって、例えば、図9の例では、予測タップを構成する画素R21乃至画素R45の6個のRの画素の画素値のうちの最大値と最小値とが、それぞれRmaxおよびRminとされ、DR(R)は、その最大値と最小値との差の値とされる。
同様に、予測タップ正規化部115は、式(2)および式(3)を計算することにより、予測タップを構成するGの画素のダイナミックレンジDR(G)、およびBの画素のダイナミックレンジDR(B)を求める。
DR(G)=Gmax−Gmin ・・・(2)
DR(B)=Bmax−Bmin ・・・(3)
ここで、式(2)におけるGmaxおよびGminは、それぞれ予測タップを構成するGの画素の画素値のうちの最大値および最小値を表しており、式(3)におけるBmaxおよびBminは、それぞれ予測タップを構成するBの画素の画素値のうちの最大値および最小値を表している。
次に、予測タップ正規化部115は、求められたRの画素およびGの画素のダイナミックレンジDR(R)およびDR(G)を用いて式(4)を計算し、予測タップを構成するGの画素の画素値を正規化する。
GNij=Gij×(DR(R)/DR(G)) ・・・(4)
ここで、Gijは、図9におけるGの画素Gij(但し、1≦i≦5,1≦j≦5)の画素値を示しており、GNijは正規化された画素Gijの画素値を示している。したがって、例えば、予測タップ正規化部115は、式(4)を計算して画素G11乃至画素G55のそれぞれの画素値を正規化する。
同様に、予測タップ正規化部115は、求められたRの画素およびBの画素のダイナミックレンジDR(R)およびDR(B)を用いて式(5)を計算し、予測タップを構成するBの画素の画素値を正規化する。
BNij=Bij×(DR(R)/DR(B)) ・・・(5)
ここで、Bijは、図9におけるBの画素Bij(但し、1≦i≦5,1≦j≦5)の画素値を示しており、BNijは正規化された画素Bijの画素値を示している。
予測タップ正規化部115は、Gの画素の画素値、およびBの画素の画素値を正規化すると、Rの画素の画素値、正規化されたGの画素の画素値、および正規化されたBの画素の画素値を、正規化された予測タップを構成する画素の画素値とする。
また、予測タップ正規化部115は、注目画素のBの画素値を予測する場合、予測タップを構成するGの画素の画素値に、Bの画素のダイナミックレンジDR(B)をGの画素のダイナミックレンジDR(G)で除算した値を乗算して、Gの画素の画素値を正規化する。また、予測タップ正規化部115は、Rの画素の画素値に、Bの画素のダイナミックレンジDR(B)をRの画素のダイナミックレンジDR(R)で除算した値を乗算して、Rの画素の画素値を正規化する。そして、予測タップ正規化部115は、正規化されたRの画素の画素値、正規化されたGの画素の画素値、およびBの画素の画素値を、正規化された予測タップを構成する画素の画素値とする。
同様に、予測タップ正規化部115は、注目画素のGの画素値を予測する場合、予測タップを構成するBの画素の画素値に、Gの画素のダイナミックレンジDR(G)をBの画素のダイナミックレンジDR(B)で除算した値を乗算して、Bの画素の画素値を正規化する。また、予測タップ正規化部115は、Rの画素の画素値に、Gの画素のダイナミックレンジDR(G)をRの画素のダイナミックレンジDR(R)で除算した値を乗算して、Rの画素の画素値を正規化する。そして、予測タップ正規化部115は、正規化されたRの画素の画素値、Gの画素の画素値、および正規化されたBの画素の画素値を、正規化された予測タップを構成する画素の画素値とする。
このように、予測タップを正規化することによって、例えば、図10に示すように所定の位置BにおけるRの画素値を予測するために、予測タップとしてGの画素を用いても、Gの画素のダイナミックレンジを、Rの画素のダイナミックレンジと等しくなるようにすることができる。なお、図中、横軸は撮像された画像における位置を示し、縦軸は各位置における各色の成分の画素値(レベル)を示している。
曲線141は、現実世界の各位置におけるGの値(波形)を示しており、Gの値は位置Bの前後において急峻に増加している。また、曲線142は、現実世界の各位置におけるRの値(波形)を示しており、Rの値は曲線141により示されるGの値と比べると、位置Bの前後においてなだらかに増加している。
さらに、図中、丸および四角形は、予測タップを構成するGの画素(の画素値)およびRの画素(の画素値)を示している。ここで、図10の左側の図の丸により示される3つのGの画素、および四角形により示される2つのRの画素を予測タップとして用いて、クラス分類適応処理により位置BにおけるRの画素値を予測する場合を考える。
この場合、予測タップとして用いられるGの画素のダイナミックレンジは、予測タップとして用いられるRの画素のダイナミックレンジと比較して非常に大きく、位置Bの付近においてGの画素値は急激に変化している。
そこで、上述したように、Gの画素の画素値を正規化すると、正規化されたGの画素値(波形)は、図10の右側の図の曲線143に示すように、位置Bの前後において曲線142とほぼ同じ傾きを持ち、なだらかに増加する曲線となる。このように、Gの画素値を正規化すると、正規化されたGの画素のダイナミックレンジは、Rの画素のダイナミックレンジと等しくなり、画像に破綻が生じてしまうこともなく、予測された注目画素の画素値は適度に強調された値となる。
図6のフローチャートの説明に戻り、予測タップが正規化されると、ステップS50において、適応処理回路116は、クラス分類回路113から供給されたクラスコードに対応するタップ係数を係数メモリ117から読み出し、そのタップ係数を予測タップ正規化部115からの正規化された予測タップに乗算することで、注目画素の画素値(例えば、R、G、またはBの画素値)を予測演算する。適応処理回路116は、予測演算により注目画素の画素値を求めて3板CCD出力相当の画像データを生成し、補正回路106に供給する。
ステップS51において、補間処理部105は、全てのブロックについてクラス分類適応処理が終了したか否かを判定する。
ステップS51において、全てのブロックについてクラス分類適応処理が終了していないと判定された場合、処理はステップS45に戻り、それ以降の処理が繰り返される。
これに対して、ステップS51において、全てのブロックについてクラス分類適応処理が終了したと判定された場合、処理はステップS52に進み、補正回路106は、適応処理回路116からの画像データに対して画像を視覚的に良く見せるための補正処理(いわゆる画像作り)を施し、補正処理が施された画像データをRGBマトリクス回路107に供給する。
ステップS53において、RGBマトリクス回路107は、必要に応じて、補正回路106から供給された画像データとしてのR、G、およびBの各色信号をYUV方式の画像データに変換するなどの色空間の変換処理を行い、変換処理により得られた画像データを記録媒体インターフェース63に供給し、画像信号処理は終了する。
このようにして、画像信号処理回路57は、画像データから抽出した予測タップを正規化し、正規化した予測タップを用いてクラス分類適応処理を行う。
このように、予測タップを正規化してクラス分類適応処理を行うことで、予測タップの各色の画素のダイナミックレンジを等しくすることができ、画像の破綻を抑制することができる。これにより、単板のCCD54から出力された画像データから、より高精細な3板CCD出力相当の画像データをより精度よく生成することができる。
しかも、クラス分類適応処理により、3板CCD出力相当の画像データとしてのRの画像データ、Gの画像データ、およびBの画像データを得ることができるので、エッジ部分や細部の鮮鋭度が増して、S/N評価値も向上させることができ、より鮮明な画像を得ることができる。なお、図7および図8に注目画素に対するクラスタップおよび予測タップの一例を示したが、クラスタップまたは予測タップを構成する画素の位置は任意であり、それぞれ最も効率のよいように定められる。
次に、図5の適応処理回路116における予測演算と、係数メモリ117に記憶されたタップ係数の学習について説明する。
例えば、クラス分類適応処理として、単板のCCD54から出力された画像データから予測タップを抽出し、その予測タップとタップ係数とを用いて、3板CCD出力相当の画像の画素(以下、適宜、高画質画素と称する)の画素値を所定の予測演算によって求める(予測する)ことを考える。
所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、式(6)に示す線形1次式によって求められることになる。
Figure 0004730105
・・・(6)
但し、式(6)において、xiは、高画質画素の画素値yについての予測タップを構成する、i番目の単板のCCD54から出力された画像データの画素(以下、適宜、低画質画素と称する)の画素値を表し、wiは、i番目の低画質画素(の画素値)と乗算されるi番目のタップ係数を表す。なお、式(6)では、予測タップがN個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。
ここで、高画質画素の画素値yは、式(6)に示した線形1次式ではなく、2次以上の高次の線形関数の式によって求めるようにすることも可能である。また、線形関数に限らず、非線形関数によって高画質画素の画素値を求めるようにしてもよい。
いま、第sサンプルの高画質画素の画素値の真値をysと表すとともに、式(6)によって得られるその真値ysの予測値をys'と表すと、その予測誤差esは、次式(7)で表される。
s=(ys−ys') ・・・(7)
いま、式(7)の予測値ys'は、式(6)にしたがって求められるため、式(7)のys'を、式(6)にしたがって置き換えると、次式(8)が得られる。
Figure 0004730105
・・・(8)
但し、式(8)において、xs,iは、第sサンプルの高画質画素についての予測タップを構成するi番目の低画質画素を表す。
式(8)(または式(7))の予測誤差esを0とするタップ係数wiが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数wiを求めることは、一般には困難である。
そこで、タップ係数wiが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wiは、次式(9)で表される自乗誤差の総和Eを最小にすることで求めることができる。
Figure 0004730105
・・・(9)
但し、式(9)において、Sは、高画質画素ysと、その高画質画素ysについての予測タップを構成する低画質画素xs,1,xs,2,・・・,xs,Nとのセットのサンプル数(学習用のサンプルの数)を表す。
式(9)の自乗誤差の総和Eの最小値(極小値)は、式(10)に示すように、総和Eをタップ係数wiで偏微分したものを0とするwiによって与えられる。
Figure 0004730105
・・・(10)
一方、上述の式(8)をタップ係数wiで偏微分すると、次式(11)が得られる。
Figure 0004730105
・・・(11)
式(10)および式(11)から、次式(12)が得られる。
Figure 0004730105
・・・(12)
式(12)のesに、式(8)を代入することにより、式(12)は、式(13)に示す正規方程式で表すことができる。
Figure 0004730105
・・・(13)
また、Xi,j,Yiをそれぞれ式(14)および式(15)により定義すると(但し、1≦i≦N,1≦j≦N)、式(13)は、式(16)により表すことができる。
Figure 0004730105
・・・(14)
Figure 0004730105
・・・(15)
Figure 0004730105
・・・(16)
式(16)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wiについて解くことができる。
式(16)の正規方程式を、クラスごとに立てて解くことにより、最適なタップ係数wi(ここでは、自乗誤差の総和Eを最小にするタップ係数wi)を、クラスごとに求めることができる。
図5の補間処理部105では、以上のようなクラスごとのタップ係数wiを用いて、式(6)の演算を行うことにより、単板のCCD54から出力された画像データから、3板CCD出力相当の画像データを得ることができる。
次に、図11は、式(16)の正規方程式をクラスごとに立てて解くことによりタップ係数wiを求める学習を行う学習装置の構成例を示している。
学習装置201は、間引き回路211、ADRCブロック化回路212、ADRC処理回路213、クラス分類回路214、予測タップブロック化回路215、予測タップ正規化部216、教師画像ブロック化回路217、演算回路218、学習データメモリ219、演算回路220、および係数メモリ221から構成される。
この学習装置201には、タップ係数wiの学習に用いられる3板CCD出力相当の画像データ(以下、教師画像データとも称する)が入力されるようになされている。学習装置201において、教師画像データは間引き回路211および教師画像ブロック化回路217に供給される。
間引き回路211は、教師画像データから、色フィルタアレイの各色の配置にしたがって画素を間引く間引き処理を行う。この間引き処理は、撮像装置41(図3)のCCD54の前面に配置される色フィルタアレイ53(光学ローパスフィルタ)を想定したフィルタをかけることによって行う。
また、間引き回路211は、教師画像データに対して間引き処理を施すことによって得られた、単板CCD出力相当の画像データ(以下、生徒画像データとも称する)をADRCブロック化回路212および予測タップブロック化回路215に供給する。
ADRCブロック化回路212は、教師画像データにおける注目画素との対応をとりながら、間引き回路211から供給された生徒画像データから、生徒画像データを構成する画素のうちの所定の画素をクラスタップとして抽出する。また、ADRCブロック化回路212は、抽出したクラスタップをADRC処理回路213に供給する。
ADRC処理回路213は、ADRCブロック化回路212から供給されたクラスタップにADRC処理を施し、ADRC処理が施されたクラスタップをクラス分類回路214に供給する。クラス分類回路214は、ADRC処理回路213からのクラスタップに基づいて注目画素をクラス分類し、分類されたクラスを示すクラスコード(クラス番号)を演算回路218に供給する。
予測タップブロック化回路215は、教師画像データにおける注目画素との対応をとりながら、間引き回路211から供給された生徒画像データから、生徒画像データを構成する画素のうちの所定の画素を予測タップとして抽出する。また、予測タップブロック化回路215は、抽出した予測タップを予測タップ正規化部216に供給する。
予測タップ正規化部216は、予測タップブロック化回路215から供給された予測タップを正規化して、正規化された予測タップを演算回路218に供給する。
教師画像ブロック化回路217は、生徒画像データにおけるクラスタップとの対応を取りながら、教師画像データを構成する画素を順次、注目画素とし、教師画像データから注目画素(の画素値)を抽出して演算回路218に供給する。
演算回路218は、教師画像ブロック化回路217から供給された注目画素と、予測タップ正規化部216からの正規化された予測タップとの対応をとりながら、注目画素と予測タップを構成する画素とを対象とした足し込みを、クラス分類回路214からのクラスコードにしたがって行う。
すなわち、演算回路218には、教師画像データの注目画素の画素値ys、予測タップ(を構成する生徒画像データの画素の画素値)xs,i、注目画素のクラスを表すクラスコードが供給される。
そして、演算回路218はクラスコードに対応するクラスごとに、正規化された予測タップ(生徒画像データ)xs,iを用い、式(13)の左辺の行列における生徒画像データどうしの乗算(xs,is,i)、およびその乗算された値の総和の演算に相当する演算を行う。
さらに、演算回路218は、クラスコードに対応するクラスごとに、予測タップ(生徒画像データ)xs,iおよび教師画像データysを用い、式(13)の右辺のベクトルにおける生徒画像データxs,iおよび教師画像データysの乗算(xs,is)、並びにその乗算された値の総和の演算に相当する演算を行う。
すなわち、演算回路218は、前回、注目画素とされた教師画像データについて求められた式(13)における左辺の行列のコンポーネント(Σxs,is,i)と、右辺のベクトルのコンポーネント(Σxs,is)を記憶しており、その行列のコンポーネント(Σxs,is,i)またはベクトルのコンポーネント(Σxs,is)に対して、新たに注目画素とされた教師画像データについて、その教師画像データys+1および生徒データxs+1,iを用いて計算される、対応するコンポーネントxs+1,is+1,iまたはxs+1,is+1を足し込む(式(13)のΣで表される加算を行う)。
そして、演算回路218は、教師画像データの全ての画素を注目画素として、上述の足し込みを行うことにより、各クラスについて、式(13)に示した正規方程式を立てる(生成する)と、その正規方程式を学習データメモリ219に供給する。
学習データメモリ219は、演算回路218による足し込みによって得られた正規方程式(のマトリクス係数)を逐次読み込んで記憶する。また、学習データメモリ219は、記憶している正規方程式を演算回路220に供給する。
演算回路220は、学習データメモリ219から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wiを求めて係数メモリ221に供給する。係数メモリ221は、演算回路220から供給された各クラスのタップ係数wiを記憶する。
次に、図12のフローチャートを参照して、学習装置201による学習処理について説明する。この学習処理は、学習装置201の間引き回路211および教師画像ブロック化回路217に、教師画像データとしての3板CCD出力相当の画像データが供給されると開始される。
ステップS81において、間引き回路211は、教師画像データから画素を間引き、生徒画像データとしての単板CCD出力相当の画像データを生成し、ADRCブロック化回路212および予測タップブロック化回路215に供給する。
ステップS82において、ADRCブロック化回路212は、間引き回路211から供給された生徒画像データをp×q個(但し、pおよびqは正の整数)のブロックに分割し、分割された各ブロックからクラスタップを抽出する。ADRCブロック化回路212は、抽出したクラスタップをADRC処理回路213に供給する。
ステップS83において、ADRC処理回路213は、ADRCブロック化回路212から供給されたクラスタップにADRC処理を施し、その結果得られたADRCコードをADRC処理が施されたクラスタップとしてクラス分類回路214に供給する。
ステップS84において、クラス分類回路214は、ADRC処理回路213からのクラスタップに基づいて注目画素をクラス分類し、分類されたクラスを示すクラスコードを演算回路218に供給する。
ステップS85において、予測タップブロック化回路215は、間引き回路211から供給された生徒画像データをp×q個(但し、pおよびqは正の整数)のブロックに分割し、分割された各ブロックから予測タップを抽出する。予測タップブロック化回路215は、抽出した予測タップを予測タップ正規化部216に供給する。
ステップS86において、予測タップ正規化部216は、予測タップブロック化回路215から供給された予測タップを正規化して、正規化された予測タップを演算回路218に供給する。例えば、予測タップ正規化部216は、図9を参照して説明したように、注目画素のタップ係数を予測する所定の色の画素のダイナミックレンジと、他の色の画素のダイナミックレンジとが等しくなるように予測タップを正規化する。
ステップS87において、教師画像ブロック化回路217は、生徒画像データにおけるクラスタップとの対応を取りながら、教師画像データを構成する画素を順次、注目画素とし、教師画像データから注目画素(のR、G、およびBの画素値)を抽出して演算回路218に供給する。
ステップS88において、演算回路218は、教師画像ブロック化回路217から供給された注目画素と、予測タップ正規化部216からの正規化された予測タップとの対応をとりながら、注目画素と予測タップを構成する画素とを対象として、クラス分類回路214からのクラスコードに対応するクラスについて立てられた式(13)により示される正規方程式への足し込みを行う。
ステップS89において、演算回路218は全てのブロックについて足し込みを行ったか否かを判定する。
ステップS89において、全てのブロックについて足し込みを行っていないと判定された場合、処理はステップS88に戻り、まだ足し込みが行われていないブロックについて足し込みが行われる。
これに対して、ステップS89において、全てのブロックについて足し込みを行ったと判定された場合、演算回路218は、各クラスについて立てた正規方程式を学習データメモリ219に供給して記憶させる。そして、学習データメモリ219は、記憶している正規方程式を演算回路220に供給し、処理はステップS90に進む。
ステップS90において、演算回路220は、学習データメモリ219から供給されたクラスごとの正規方程式を、例えば、掃き出し法によって解くことにより各クラスのタップ係数wiを求めて係数メモリ221に供給する。これにより、各クラスのRの画素値、Gの画素値、およびBの画素値のそれぞれを予測するために用いられるタップ係数wiのそれぞれが求められる。
ステップS91において、演算回路220は、全てのクラスについてタップ係数wiを求めたか否かを判定する。
ステップS91において、全てのクラスについてタップ係数wiを求めていないと判定された場合、処理はステップS90に戻り、まだタップ係数wiが求められていないクラスの正規方程式が解かれてタップ係数wiが求められる。
これに対して、ステップS91において、全てのクラスについてタップ係数wiを求めたと判定された場合、処理はステップS92に進み、係数メモリ221は、演算回路220から供給された各クラスのタップ係数wiを記憶し、学習処理は終了する。
図5の係数メモリ117には、以上のようにして求められた複数セットのクラスごとのタップ係数wiが記憶されている。
このようにして、学習装置201は、生徒画像データとしての単板CCD出力相当の画像データから抽出した予測タップを正規化し、正規化した予測タップを用いて、各クラスのタップ係数wiを求める。
このように、単板CCD出力相当の画像データから抽出した予測タップを、各色の画素のダイナミックレンジが等しくなるように正規化し、正規化された予測タップを用いて各クラスのタップ係数wiを求めることで、より精度よくクラス分類適応処理を行うためのタップ係数wiを求めることができる。これにより、求められたタップ係数wiを用いてクラス分類適応処理を行った場合、画像の破綻を抑制することができ、単板CCDから出力された画像データから、より高精細な3板CCD出力相当の画像データをより精度よく得ることができる。
なお、以上においては、光の原色(R、G、B)成分を透過させる色フィルタアレイ53の例として、図13Aに示すベイヤー配列を用いるようにしたが、この他、図13Bに示すインタライン配列、図13Cに示すGストライプRB市松配列、図13Dに示すGストライプRB完全市松配列、または図13Eに示す原色色差配列などとすることができる。
図13Bに示すインタライン配列では、Gの色のフィルタが市松状に配置され、各行の残りの部分にRの色のフィルタおよびBの色のフィルタが交互に配置されている。
また、図13Cに示すGストライプRB市松配列では、Gの色のフィルタが一列おきに図中、縦方向に並べられて配置され、残りの列の縦方向にRの色のフィルタおよびBの色のフィルタが交互に配置されている。このとき、各列のRの色のフィルタまたはBの色のフィルタは、横方向にGの色のフィルタを介して同じ色のフィルタと隣接するように配置されている。
さらに、図13Dに示すGストライプRB完全市松配列では、Gの色のフィルタが一列おきに図中、縦方向に並べられて配置され、残りの列の縦方向にRの色のフィルタおよびBの色のフィルタが交互に配置されている。このとき、各列のRの色のフィルタおよびBの色のフィルタは、横方向にGの色のフィルタを介して、Bの色のフィルタおよびRの色のフィルタと隣接するように配置されている。
さらに、また、図13Eに示す原色色差配列では、1行目乃至3行目までは、Gの色のフィルタが一列おきに図中、縦方向に並べられて配置され、残りの列の縦方向にRの色のフィルタおよびBの色のフィルタが交互に配置されている。このとき、各列のRの色のフィルタおよびBの色のフィルタは、横方向にGの色のフィルタを介して同じ色のフィルタと隣接するように配置されている。そして、4行目は、Rの色のフィルタおよびGの色のフィルタが交互に配置されている。
また、色フィルタアレイ53を原色フィルタではなく、補色フィルタとすることもできる。この場合、撮像により得られた画像データの各画素は、イエロー(Ye)、シアン(Cy)、マゼンダ(Mg)、および緑(G)のうちのいずれか1つの値を有することになる。
さらに、以上においては、単板CCD出力相当の画像データから、同じ解像度の3板CCD出力相当の画像データを生成する例について説明したが、単板CCD出力相当の画像データから、n倍の解像度の3板CCD出力相当の画像データを生成することも可能である。
また、例えば、単板CCD出力相当の画像データから、4倍の解像度の3板CCD出力相当の画像データを生成するためのタップ係数を求める場合、学習装置201には、図14Aに示すような、Rの画像データ、Gの画像データ、およびBの画像データからなる3板CCD出力相当の画像データが入力され、教師画像データとされる。
そして、図14Aに示した3板CCD出力相当の画像データは、間引き回路211においてローパスフィルタにより間引かれて、図14Bに示すように、1/4の解像度の画像データとされる。図14Bに示すRの画像データ、Gの画像データ、およびBの画像データのそれぞれは、図14Aに示すRの画像データ、Gの画像データ、およびBの画像データのそれぞれの1/4の解像度の画像データとなっている。
さらに、図14Bに示した画像データは、間引き回路211においてさらに間引かれて、図14Cに示すように単板CCD出力相当のベイヤー配列の画像データとされ、この単板CCD出力相当の画像データが生徒画像データとされる。
さらに、図15Aに示すように、単板CCD出力相当の画像データの画素における面積の等しい4つの領域のそれぞれの位置に対応する画素のそれぞれが注目画素とされ、それぞれの注目画素の画素値を求めるためのタップ係数が求められる。
図15Aでは、単板CCD出力相当の画像データの画素のうち、矢印K41により示されるGの画素における面積の等しい4つの領域の位置に対応する画素が、それぞれ注目画素251−1乃至注目画素251−4とされる。また、ここで、注目画素251−1乃至注目画素251−4のそれぞれに対する予測タップは、例えば、矢印K41により示されるGの画素を中心とする3×3個の画素とされている。
そして、図15Bに示すように、3板CCD出力相当の画像データの注目画素251−1乃至注目画素251−4のそれぞれのRの画素値、Gの画素値、およびBの画素値と、予測タップとを基に、注目画素251−1乃至注目画素251−4のそれぞれのRの画素値を予測するためのタップ係数のそれぞれ、注目画素251−1乃至注目画素251−4のそれぞれのGの画素値を予測するためのタップ係数のそれぞれ、および注目画素251−1乃至注目画素251−4のそれぞれのBの画素値を予測するためのタップ係数のそれぞれの計12個のタップ係数が求められる。
この場合、演算回路218は、式(16)に対応する各クラスのR、G、およびBの色成分ごとに式(17)、式(18)、および式(19)に示される正規方程式を立てて足しこみを行う。
Figure 0004730105
・・・(17)
Figure 0004730105
・・・(18)
Figure 0004730105
・・・(19)
ここで、式(17)におけるwr1,i、wr2,i、wr3,i、およびwr4,iのそれぞれ(但し、1≦i≦N)は、注目画素251−1乃至注目画素251−4のそれぞれのRの画素値のそれぞれを予測するために用いられ、予測タップを構成するi番目の画素(の画素値)と乗算されるi番目のタップ係数のそれぞれを表している。
また、式(17)におけるR1,i、R2,i、R3,i、およびR4,iのそれぞれ(但し、1≦i≦N)は、式(15)に示したΣxs,isにおける画素値ysを、注目画素251−1乃至注目画素251−4のそれぞれのRの画素値としたものを表している。
同様に、式(18)におけるwg1,i、wg2,i、wg3,i、およびwg4,iのそれぞれ(但し、1≦i≦N)は、注目画素251−1乃至注目画素251−4のそれぞれのGの画素値のそれぞれを予測するために用いられ、予測タップを構成するi番目の画素(の画素値)と乗算されるi番目のタップ係数のそれぞれを表している。
また、式(18)におけるG1,i、G2,i、G3,i、およびG4,iのそれぞれ(但し、1≦i≦N)は、式(15)に示したΣxs,isにおける画素値ysを、注目画素251−1乃至注目画素251−4のそれぞれのGの画素値としたものを表している。
さらに、式(19)におけるwb1,i、wb2,i、wb3,i、およびwb4,iのそれぞれ(但し、1≦i≦N)は、注目画素251−1乃至注目画素251−4のそれぞれのBの画素値のそれぞれを予測するために用いられ、予測タップを構成するi番目の画素(の画素値)と乗算されるi番目のタップ係数のそれぞれを表している。
また、式(19)におけるB1,i、B2,i、B3,i、およびB4,iのそれぞれ(但し、1≦i≦N)は、式(15)に示したΣxs,isにおける画素値ysを、注目画素251−1乃至注目画素251−4のそれぞれのBの画素値としたものを表している。
演算回路220は、このようにして立てられた式(17)乃至式(19)の正規方程式を解くことにより、注目画素251−1乃至注目画素251−4のそれぞれのRの画素値、Gの画素値、およびBの画素値のそれぞれを予測するための12個のタップ係数を求める。
また、これらのタップ係数を用いることにより、適応処理回路116は、単板CCD出力相当の画像データから、4倍の解像度の3板CCD出力相当の画像データ(4倍密の画像データ)を生成することができる。
ところで、以上の実施の形態の効果を評価するため、発明者らは、シミュレーションを行った。3板CCD出力相当の画像から単板CCD出力相当の画像を作成し、上述した学習装置201が行う処理と同じ処理を行うアルゴリズムによりタップ係数を生成した。そして、単板CCD出力相当の画像を3板CCD出力相当の画像に変換する処理を、生成されたタップ係数を用いて、予測タップを正規化するクラス分類適応処理により補間生成した。
このようなシミュレーションの結果生成された3板CCD出力相当の画像と、従来のクラス分類適応処理を行って生成された3板CCD出力相当の画像とを比較して評価したところ、シミュレーションの結果生成された3板CCD出力相当の画像では、生成された全ての画像において、各色成分のダイナミックレンジの差により生じる画像の破綻が改善されていることが確認された。このことから、予測タップを正規化するクラス分類適応処理を行って3板CCD出力相当の画像を生成する方法は、従来のクラス分類適応処理を行って3板CCD出力相当の画像を生成する方法よりも優位性があるということができる。
以上のように、クラス分類適応処理に用いる予測タップを正規化することで、予測タップの各色の画素のダイナミックレンジを等しくすることができ、画像の破綻を抑制することができる。これにより、より高精細な画像データをより精度よく生成することができる。
また、各色の画素のダイナミックレンジが等しくなるように予測タップを正規化し、正規化された予測タップを用いて各クラスのタップ係数を求めることで、より精度よくクラス分類適応処理を行うためのタップ係数を求めることができる。これにより、求められたタップ係数を用いてクラス分類適応処理を行った場合、画像の破綻を抑制することができ、より高精細な画像データをより精度よく得ることができる。
なお、以上においては、抽出されたクラスタップにADRC処理を施すことにより、注目画素が分類されるクラスの数を削減したが、その他、DCT(Discrete Cosine Transform)、VQ(Vector Quantization)(ベクトル量子化)、DPCM(Differential Pulse Code Modulation)、BTC(Block Trancation Coding)、非線形量子化などにより、注目画素が分類されるクラスの数を削減するようにしてもよい。
また、画像データが、RGBのそれぞれを成分とするコンポーネント映像信号であるとして説明したが、その他、輝度Y、色差U、および色差Vを成分とするコンポーネント映像信号とするようにしてもよい。さらに、画像データが、イエロー(Ye)、シアン(Cy)、マゼンダ(Mg)、および緑(G)のうちの少なくともいずれか1つの値を各画素の画素値として有するようにしてもよい。
さらに、撮像素子としてCCDを用いて画像を撮像すると説明したが、画像を撮像する撮像素子として、その他、例えば、CMOS(Complementary Mental Oxide Semiconductor)などを用いることも可能である。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図16は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。パーソナルコンピュータ301のCPU311は、ROM(Read Only Memory)312、または記録部318に記録されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)313には、CPU311が実行するプログラムやデータなどが適宜記憶される。これらのCPU311、ROM312、およびRAM313は、バス314により相互に接続されている。
CPU311にはまた、バス314を介して入出力インターフェース315が接続されている。入出力インターフェース315には、キーボード、マウス、マイクロホンなどよりなる入力部316、ディスプレイ、スピーカなどよりなる出力部317が接続されている。CPU311は、入力部316から入力される指令に対応して各種の処理を実行する。そして、CPU311は、処理の結果を出力部317に出力する。
入出力インターフェース315に接続されている記録部318は、例えばハードディスクからなり、CPU311が実行するプログラムや各種のデータを記録する。通信部319は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部319を介してプログラムを取得し、記録部318に記録してもよい。
入出力インターフェース315に接続されているドライブ320は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア331が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部318に転送され、記録される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図16に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア331、または、プログラムが一時的もしくは永続的に格納されるROM312や、記録部318を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部319を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
予測タップとして、異なる色の画素を用いた場合に生じる画像の破綻について説明するための図である。 単板CCDの出力から、3板CCD出力相当の画像データを得る原理を説明する図である。 撮像装置の構成例を示すブロック図である。 撮像処理を説明するフローチャートである。 画像信号処理回路の構成例を示すブロック図である。 画像信号処理を説明するフローチャートである。 クラスタップの一例を示す図である。 予測タップの一例を示す図である。 予測タップの正規化を説明するための図である。 予測タップの正規化を説明するための図である。 学習装置の構成例を示すブロック図である。 学習処理を説明するフローチャートである。 色フィルタアレイの他の配列の例を示す図である。 単板CCDの出力から、4倍の解像度の3板CCD出力相当の画像データを得るためのタップ係数を求める学習処理の原理を説明する図である。 4倍の解像度の画像データを生成するタップ係数を求める場合における注目画素を説明するための図である。 パーソナルコンピュータの構成例を示すブロック図である。
符号の説明
41 撮像装置, 54 CCD, 57 画像信号処理回路, 65 記録媒体, 111 ADRCブロック化回路, 113 クラス分類回路, 114 予測タップブロック化回路, 115 予測タップ正規化部, 116 適応処理回路, 117 係数メモリ, 201 学習装置, 211 間引き回路, 212 ADRCブロック化回路, 214 クラス分類回路, 215 予測タップブロック化回路, 216 予測タップ正規化部, 218 演算回路, 220 演算回路, 301 パーソナルコンピュータ, 311 CPU, 312 ROM, 313 RAM, 318 記録部, 331 リムーバブルメディア

Claims (12)

  1. コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理装置において、
    前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出する予測タップ抽出手段と、
    前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出するクラスタップ抽出手段と、
    前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段と、
    前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段と、
    前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する予測演算手段と
    を備える画像処理装置。
  2. 前記正規化手段は、前記注目画素の前記第1の成分の値を予測演算する場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算することにより前記予測タップを正規化する
    請求項1に記載の画像処理装置。
  3. 前記第1の成分または前記第2の成分は、赤、青、または緑のいずれかの色を表わす成分である
    請求項1に記載の画像処理装置。
  4. 前記第1の成分または前記第2の成分は、輝度または色差を表わす成分である
    請求項1に記載の画像処理装置。
  5. コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理方法において、
    前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し、
    前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し、
    前記クラスタップを用いて、前記注目画素のクラス分類を行い、
    前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、
    前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する
    ステップを含む画像処理方法。
  6. コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理をコンピュータに実行させるプログラムにおいて、
    前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し、
    前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し、
    前記クラスタップを用いて、前記注目画素のクラス分類を行い、
    前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、
    前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する
    ステップを含む処理をコンピュータに実行させるプログラム。
  7. コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出する注目画素抽出手段と、
    前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出する予測タップ抽出手段と、
    前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出するクラスタップ抽出手段と、
    前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段と、
    前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段と、
    前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める演算手段と
    を備える学習装置。
  8. 前記正規化手段は、前記注目画素の前記第1の成分の値を予測するために用いられる前記タップ係数を求める場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算することにより前記予測タップを正規化する
    請求項7に記載の学習装置。
  9. 前記第1の成分または前記第2の成分は、赤、青、または緑のいずれかの色を表わす成分である
    請求項7に記載の学習装置。
  10. 前記第1の成分または前記第2の成分は、輝度または色差を表わす成分である
    請求項7に記載の学習装置。
  11. コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出し、
    前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出し、
    前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出し、
    前記クラスタップを用いて、前記注目画素のクラス分類を行い、
    前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、
    前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める
    ステップを含む学習方法。
  12. コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出し、
    前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出し、
    前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出し、
    前記クラスタップを用いて、前記注目画素のクラス分類を行い、
    前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、
    前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2006012386A 2006-01-20 2006-01-20 画像処理装置および方法、学習装置および方法、並びにプログラム Expired - Fee Related JP4730105B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006012386A JP4730105B2 (ja) 2006-01-20 2006-01-20 画像処理装置および方法、学習装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006012386A JP4730105B2 (ja) 2006-01-20 2006-01-20 画像処理装置および方法、学習装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007195023A JP2007195023A (ja) 2007-08-02
JP4730105B2 true JP4730105B2 (ja) 2011-07-20

Family

ID=38450343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006012386A Expired - Fee Related JP4730105B2 (ja) 2006-01-20 2006-01-20 画像処理装置および方法、学習装置および方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP4730105B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010044446A1 (ja) 2008-10-17 2010-04-22 オリンパス株式会社 画像生成装置、内視鏡システム、および画像生成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111092A (ja) * 2001-09-27 2003-04-11 Mega Chips Corp データ変換回路
JP2004221839A (ja) * 2003-01-14 2004-08-05 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006059365A1 (ja) * 2004-11-30 2006-06-08 Mitsubishi Denki Kabushiki Kaisha 画像処理装置、非撮像色信号算出装置及び画像処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111092A (ja) * 2001-09-27 2003-04-11 Mega Chips Corp データ変換回路
JP2004221839A (ja) * 2003-01-14 2004-08-05 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Also Published As

Publication number Publication date
JP2007195023A (ja) 2007-08-02

Similar Documents

Publication Publication Date Title
KR100745386B1 (ko) 화상 신호 처리 장치, 화상 신호 처리 방법, 학습 장치,학습 방법 및 기록 매체
US9392241B2 (en) Image processing apparatus and image processing method
US7903155B2 (en) Image capturing apparatus and program
US20060050956A1 (en) Signal processing apparatus, signal processing method, and signal processing program
KR20070110797A (ko) 촬상 장치 및 방법, 및 촬상 소자
JP2010011072A (ja) 撮像システム、画像処理方法および画像処理プログラム
JP2013162347A (ja) 画像処理装置、画像処理方法、プログラム、および装置
JP4730106B2 (ja) 画像処理装置および方法、学習装置および方法、並びにプログラム
JP4895107B2 (ja) 電子機器、情報処理方法、およびプログラム
EP2645702B1 (en) Image capturing apparatus, control method therefor, and program
JP4730105B2 (ja) 画像処理装置および方法、学習装置および方法、並びにプログラム
JP4057216B2 (ja) 固体撮像装置および画素欠陥検出方法
JP4687454B2 (ja) 画像処理装置および撮像装置
JP4433545B2 (ja) 画像信号処理装置、画像信号処理方法、学習装置、学習方法及び記録媒体
JP4839543B2 (ja) 画像信号処理装置、撮像装置、画像信号処理方法及び記録媒体
JP4547757B2 (ja) 画像信号処理装置、画像信号処理方法、学習装置、学習方法及び記録媒体
JP4581199B2 (ja) 画像信号処理装置、画像信号処理方法、学習装置、学習方法及び記録媒体
JP4433546B2 (ja) 画像信号処理装置、画像信号処理方法、学習装置、学習方法及び記録媒体
JP4547758B2 (ja) 画像信号処理装置、画像信号処理方法、学習装置、学習方法及び記録媒体
JP2006279389A (ja) 固体撮像装置およびその信号処理方法
JP2007295260A (ja) 画像処理方法およびデジタルカメラ
JP4529253B2 (ja) 画像信号処理装置、画像信号処理方法、学習装置、学習方法及び記録媒体
JP4483048B2 (ja) 画像信号処理装置、画像信号処理方法、学習装置、学習方法及び記録媒体
JP4695871B2 (ja) 画像処理装置および画像処理方法
JP4305744B2 (ja) 信号処理装置および信号処理方法、プログラム、並びに記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees