JP2004007167A - Image processing method, image processing program, and image processor - Google Patents

Image processing method, image processing program, and image processor Download PDF

Info

Publication number
JP2004007167A
JP2004007167A JP2002159250A JP2002159250A JP2004007167A JP 2004007167 A JP2004007167 A JP 2004007167A JP 2002159250 A JP2002159250 A JP 2002159250A JP 2002159250 A JP2002159250 A JP 2002159250A JP 2004007167 A JP2004007167 A JP 2004007167A
Authority
JP
Japan
Prior art keywords
color
image
component
color information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002159250A
Other languages
Japanese (ja)
Other versions
JP4196055B2 (en
Inventor
Kenichi Ishiga
石賀 健一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2002159250A priority Critical patent/JP4196055B2/en
Priority to PCT/JP2003/006388 priority patent/WO2003101119A1/en
Publication of JP2004007167A publication Critical patent/JP2004007167A/en
Application granted granted Critical
Publication of JP4196055B2 publication Critical patent/JP4196055B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method for outputting highly precise picture data of a different color system on the basis of picture data obtained by a triangular lattice-like color filter of delta arrangement and to provide an image processing program, and an image processor. <P>SOLUTION: Image data of delta arrangement composed of color components of RGB is obtained. A luminance component and a color difference component are directly formed without an interpolation processing in an RGB face on the basis of obtained triangular lattice-like picture data of delta arrangement. A luminance face is generated by weighting and adding a delta face so that it always becomes R:G:B=1:1:1 by a positive coefficient that changes in accordance with direction similarity. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、デルタ配列のカラーフィルタで得られる画像データを処理する画像処理方法、画像処理プログラム、画像処理装置に関する。
【0002】
【従来の技術】
電子カメラは、CCDなどの撮像素子により被写体を撮像する。この撮像素子において、RGB(赤緑青)の3色のカラーフィルタを図24(a)に示すように配列したベイア配列が知られている。また、図24(b)に示すように配列したデルタ配列も知られている。さらに、図24(c)に示すように配列したハニカム配列も知られている。ベイア配列で得られる画像データについては、例えば、米国特許5,552,827号、米国特許5,629,734号、特開2001−245314号公報などのように、各種の画像処理方法が提案されている。
【0003】
一方、デルタ配列で得られる画像データについては、特開平8−340455号公報、米国特許5,805,217号などで画像処理方法が提案されている。
【0004】
【発明が解決しようとする課題】
しかし、米国特許5,805,217号では、デルタ配列固有の特性に応じた画像処理がなされていない。また、特開平8−340455号公報では、簡単な画像復元方法しか提案されていない。また、ベイア配列で提案されている各種の画像処理方法は、必ずしも、そのままデルタ配列に適用できない。
【0005】
本発明は、デルタ配列等の三角格子状のカラーフィルタ等で得られた画像データに基づき、例えば異なる表色系の高精細な画像データを出力する画像処理方法、画像処理プログラム、画像処理装置を提供する。
【0006】
【課題を解決するための手段】
請求項1の発明は、画像処理方法に適用され、第1〜第3色成分で表され、1つの画素に1つの色成分の色情報を有する複数の画素が均等色配分された第1の画像を取得する画像取得手順と、取得した第1の画像の色情報を零以上の可変な係数値で加重加算することによって、第1の画像の色情報と異なる色成分の色情報を生成する色情報生成手順と、生成された色情報を使用して第2の画像を出力する出力手順を備え、色情報生成手順は、第1の画像の全ての画素において、第1〜第3色成分の色情報を常に均等(1:1:1)な色成分比率で加重加算するものである。
請求項2の発明は、請求項1に記載の画像処理方法において、複数の方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、色情報生成手順は、類似性判定手順で判定された類似性の強さに応じて加重加算の係数値を可変にすることとするものである。
請求項3の発明は、請求項1または2に記載の画像処理方法において、第1の画像は、複数の画素が三角格子状に配置されていることとするものである。
請求項4の発明は、請求項1〜3のいずれか1項に記載の画像処理方法において、色情報生成手順後出力手順前に、色情報生成手順で生成された第1の画像の色情報と異なる色成分の色情報を、予め決められた固定のフィルタ係数からなるフィルタ処理により、補正する補正手順をさらに備えることとするものである。請求項5の発明は、請求項4に記載の画像処理方法において、フィルタ係数の中に、正および負の値を含むこととするものである。
請求項6の発明は、画像処理方法に適用され、3種類以上の色成分で表され、1つの画素に1つの色成分の色情報を有する複数の画素からなる第1の画像を取得する画像取得手順と、取得した第1の画像の色情報を用いて、輝度成分の色情報と少なくとも3種類の色差成分の色情報とを生成する色情報生成手順と、色情報生成手順で生成された輝度成分の色情報と色差成分の色情報とを使用して第2の画像を出力する出力手順を備えるものである。
請求項7の発明は、請求項6に記載の画像処理方法において、輝度成分の色情報と少なくとも3種類の色差成分の色情報とを用いて、3種類の色成分の色情報に変換する変換手順をさらに備え、出力手順は、変換手順で変換された3種類の色成分の色情報を使用して第2の画像を出力することとするものである。
請求項8の発明は、請求項6または7に記載の画像処理方法において、色情報生成手順で生成された輝度成分の色情報と色差成分の色情報は、第1の画像の3種類以上の色成分とは異なる成分の色情報であることとするものである。
請求項9の発明は、請求項6〜8のいずれか1項に記載の画像処理方法において、第1の画像は、第1〜第3色成分で表され、複数の画素が均等色配分され、色情報生成手順は、1)第1〜第3色成分の色成分比率が1:1:1で構成される輝度成分の色情報と、2)第1色成分と第2色成分の間の色差成分の色情報と、3)第2色成分と第3色成分の間の色差成分の色情報と、4)第3色成分と第1色成分の間の色差成分の色情報とを生成することとするものである。
請求項10の発明は、請求項6〜9のいずれか1項に記載の画像処理方法において、複数の方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、色情報生成手順は、類似性判定手順で判定された類似性の強さに応じて輝度成分の色情報と少なくとも3種類の色差成分の色情報とを生成することとするものである。
請求項11の発明は、請求項6〜10のいずれか1項に記載の画像処理方法において、第1の画像は、複数の画素が三角格子状に配置されていることとするものである。
請求項12の発明は、画像処理方法に適用され、3種類以上の色成分で表され、1つの画素に1つの色成分の色情報を有する複数の画素からなる第1の画像を取得する画像取得手順と、取得した第1の画像の色情報を用いて、少なくとも3種類の色差成分の色情報を生成する色差生成手順と、生成した各々の色差成分の色情報に対して補正処理を行う補正手順と、補正した色差成分の色情報を使用して第2の画像を出力する出力手順とを備えるものである。
請求項13の発明は、請求項12に記載の画像処理方法において、第1の画像は第1〜第3色成分で表され、色差生成手順は、1)第1色成分と第2色成分の間の色差成分の色情報と、2)第2色成分と第3色成分の間の色差成分の色情報と、3)第3色成分と第1色成分の間の色差成分の色情報とを生成することとするものである。
請求項14の発明は、請求項12に記載の画像処理方法において、第1の画像は第1〜第3色成分で表され、色差生成手順は、第1の画像の色情報を用いて、第1の画像の色情報と異なる輝度成分の色情報を生成し、1)第1色成分と輝度成分の間の色差成分の色情報と、2)第2色成分と輝度成分の間の色差成分の色情報と、3)第3色成分と輝度成分の間の色差成分の色情報とを生成することとするものである。
請求項15の発明は、請求項14に記載の画像処理方法において、第1の画像は、第1〜第3色成分が複数の画素に均等色配分され、色差生成手順は、輝度成分として、第1〜第3色成分の色成分比率が1:1:1で構成される輝度成分の色情報を生成することとするものである。
請求項16の発明は、請求項1〜15のいずれか1項に記載の画像処理方法において、出力手順は、第1の画像と同じ画素位置に、第2画像を出力することとするものである。
請求項17の発明は、請求項1〜16のいずれか1項に記載の画像処理方法の手順をコンピュータに実行させるための画像処理プログラムとするものである。請求項18の発明は、請求項17の画像処理プログラムを記録したコンピュータ読みとり可能な記録媒体とするものである。
請求項19の発明は、請求項17の画像処理プログラムを搭載した画像処理装置とするものである。
【0007】
【発明の実施の形態】
−第1の実施の形態−
(電子カメラの構成)
図1は、第1の実施の形態における電子カメラの機能ブロック図である。電子カメラ1は、A/D変換部10、画像処理部11、制御部12、メモリ13、圧縮/伸長部14、表示画像生成部15を備える。また、メモリカード(カード状のリムーバブルメモリ)16とのインタフェースをとるメモリカード用インタフェース部17および所定のケーブルや無線伝送路を介してPC(パーソナルコンピュータ)18等の外部装置とのインタフェースをとる外部インタフェース部19を備える。これらの各ブロックはバス29を介して相互に接続される。画像処理部11は、例えば、画像処理専用の1チップ・マイクロプロセッサで構成される。
【0008】
電子カメラ1は、さらに、撮影光学系20、撮像素子21、アナログ信号処理部22、タイミング制御部23を備える。撮像素子21には撮影光学系20で取得された被写体の光学像が結像し、撮像素子21の出力はアナログ信号処理部22に接続される。アナログ信号処理部22の出力は、A/D変換部10に接続される。タイミング制御部23には制御部12の出力が接続され、タイミング制御部23の出力は、撮像素子21、アナログ信号処理部22、A/D変換部10、画像処理部11に接続される。撮像素子21は例えばCCDなどで構成される。
【0009】
電子カメラ1は、さらに、レリーズボタンやモード切り換え用の選択ボタン等に相当する操作部24およびモニタ25を備える。操作部24の出力は制御部12に接続され、モニタ25には表示画像生成部15の出力が接続される。
【0010】
なお、PC18には、モニタ26やプリンタ27等が接続されており、CD−ROM28に記録されたアプリケーションプログラムが予めインストールされている。また、PC18は、不図示のCPU、メモリ、ハードディスクの他に、メモリカード16とのインタフェースをとるメモリカード用インタフェース部(不図示)や所定のケーブルや無線伝送路を介して電子カメラ1等の外部装置とのインタフェースをとる外部インタフェース部(不図示)を備える。
【0011】
図1のような構成の電子カメラ1において、操作部24を介し、操作者によって撮影モードが選択されてレリーズボタンが押されると、制御部12は、タイミング制御部23を介して、撮像素子21、アナログ信号処理部22、A/D変換部10に対するタイミング制御を行う。撮像素子21は、光学像に対応する画像信号を生成する。その画像信号は、アナログ信号処理部22で所定の信号処理が行われ、A/D変換部10でディジタル化され、画像データとして、画像処理部11に供給される。
【0012】
本実施の形態の電子カメラ1では、撮像素子21において、R(赤)、G(緑)、B(青)のカラーフィルタがデルタ配列(後述)されているので、画像処理部11に供給される画像データはRGB表色系で示される。画像データを構成する各々の画素には、RGBの何れか1つの色成分の色情報が存在する。
【0013】
画像処理部11は、このような画像データに対し、後述する画像データ変換処理を行う他に、階調変換や輪郭強調などの画像処理を行う。このような画像処理が完了した画像データは、必要に応じて、圧縮/伸長部14で所定の圧縮処理が施され、メモリカード用インタフェース部17を介してメモリカード16に記録される。
【0014】
なお、画像処理が完了した画像データは、圧縮処理を施さずにメモリカード16に記録したり、PC18側のモニタ26やプリンタ27で採用されている表色系に変換して、外部インタフェース部19を介してPC18に供給しても良い。また、操作部24を介し、操作者によって再生モードが選択されると、メモリカード16に記録されている画像データは、メモリカード用インタフェース部17を介して読み出されて圧縮/伸長部12で伸長処理が施され、表示画像生成部15を介してモニタ25に表示される。
【0015】
なお、伸長処理が施された画像データは、モニタ25に表示せず、PC18側のモニタ26やプリンタ27で採用されている表色系に変換して、外部インタフェース部19を介してPC18に供給しても良い。
【0016】
(画像処理)
次に、デルタ配列で得られた画像データについて、三角格子上で補間処理し、コンピュータ上の取り扱いが容易な正方格子データに復元する処理について説明する。図25は、これらの処理の概念を示す図である。三角格子とは、撮像素子の画素が1行ごとに1/2画素ずれて配列された並びを言う。隣接する各画素の中心を結ぶと三角形を形成する並びである。画素の中心点を格子点と言ってもよい。図24(b)のデルタ配列は、三角格子状に配列されたものである。図24(b)のような配列で得られる画像は、画素が三角配置された画像と言ってもよい。正方格子とは、撮像素子の画素が1行ごとにずれないで配列された並びを言う。隣接する各画素の中心を結ぶと四角形を形成する並びである。図24(a)のベイア配列は正方格子状に配列されたものである。図24(a)のような配列で得られる画像は、画素が矩形(四角)配置された画像と言ってもよい。
【0017】
また、後述するように、デルタ配列の画像データを1行おきに1/2画素ずらす処理をすると、正方格子データが生成される。三角格子上で補間処理をするとは、デルタ配列で得られた画像データの状態で補間処理をすることを言う。すなわち、デルタ配列の画素位置に欠落する色成分の色情報を補間することを言う。
【0018】
図2は、画像処理部11が行う画像処理の概要を示すフローチャートである。ステップS1では、デルタ配列の撮像素子21で得られた画像を入力する。ステップS2において、類似度の算出を行う。ステップS3では、ステップS2で得られた類似度に基づき類似性を判定する。ステップS4では、ステップS3で得られた類似性の判定結果に基づいて、各画素において欠落する色成分の補間値を算出する。ステップS5では、得られたRGBカラー画像を出力する。ステップS5で出力されるRGBカラー画像は三角格子上で得られた画像データである。
【0019】
次に、ステップS6で、三角格子上で得られた画像データに対して1次元変位処理を行う。1次元変位処理は、後述するように、1行おきの画像データに対して行う。ステップS7で、1次元変位処理を行った画像データと行わなかった画像データを合わせて正方格子画像データを出力する。ステップS1〜S5は、三角格子上での補間処理であり、ステップS6、S7は正方化処理である。以下、これらの処理の詳細について説明する。
【0020】
−三角格子上補間処理−
以下の説明では、代表してR画素位置での補間処理について説明する。図3は、デルタ配列の撮像素子21により得られた画素の位置関係を示す図である。撮像素子21の画素は1行ごとに1/2画素ずれて配置され、カラーフィルターはRGBの色成分が1:1:1の割合で各画素上に配列されている。すなわち、均等に色配分されている。参考に、ベイア配列のカラーフィルタはRGBが1:2:1の割合で配列されている(図24(a))。
【0021】
R成分の色情報を有する画素をR画素、B成分の色情報を有する画素をB画素、G成分の色情報を有する画素をG画素と言う。撮像素子21で得られた画像データは、各画素に1つの色成分の色情報しか有しない。補間処理は、各画素に欠落する他の色成分の色情報を計算により求める処理である。以下、R画素位置にG、B成分の色情報を補間する場合について説明する。
【0022】
図3において、R画素である処理対象画素(補間対象画素)をRctrと呼ぶ。また、画素Rctrの周辺に存在する各画素位置を角度を用いて表現する。例えば、60度方向に存在するB画素をB060、G画素をG060と表現する。ただし、この角度は厳密な角度ではなく近似的なものである。また、0度−180度を結ぶ方向を0度方向、120度−300度を結ぶ方向を120度方向、240度−60度を結ぶ方向を240度方向、30度−210度を結ぶ方向を30度方向、150度−330度を結ぶ方向を150度方向、270度−90度を結ぶ方向を270度方向と呼ぶことにする。
【0023】
1.類似度の算出
0度、120度、240度方向の類似度C000、C120、C240を算出する。第1の実施の形態では、式(1)(2)(3)に示すように、異なる色成分間で構成される異色間類似度を求める。
C000 = {|G000−Rctr|+|B180−Rctr|+|(G000+B180)/2−Rctr|}/3 ...(1)
C120 = {|G120−Rctr|+|B300−Rctr|+|(G120+B300)/2−Rctr|}/3 ...(2)
C240 = {|G240−Rctr|+|B060−Rctr|+|(G240+B060)/2−Rctr|}/3 ...(3)
このように隣接画素間で定義される異色間類似度は、デルタ配列の三角格子で規定されるナイキスト周波数の画像構造を空間的に解像させる能力を持つ。
【0024】
次に、類似度の周辺加算を行って周辺画素との連続性を考慮することにより、類似度の精度を上げる。ここでは各画素について求めた上記類似度を、R位置について図4に示す係数を使用して周辺加算を行う。周辺加算を行った類似度を小文字で表記する。[]は、処理対象画素から見たデルタ配列上の画素位置を表す。式(4)は0度方向の類似度の周辺加算を示す。

Figure 2004007167
120度方向のc120、240度方向のc240も同様にして求める。
【0025】
2.類似性判定
上述した類似度は値が小さいほど大きな類似性を示すので、各方向の類似性の強弱を、類似度の逆数比で連続的に変化するように判定する。すなわち(1/c000):(1/c120):(1/c240)で判定する。具体的には、次の加重係数を演算する。
【0026】
各方向の類似性を1で規格化された加重係数w000、w120、w240として表すと、
w000=(c120*c240+Th)/(c120*c240+c240*c000+c000*c120+3*Th) ...(5)
w120=(c240*c000+Th)/(c120*c240+c240*c000+c000*c120+3*Th) ...(6)
w240=(c000*c120+Th)/(c120*c240+c240*c000+c000*c120+3*Th) ...(7)
により求まる。ただし、閾値Thは発散を防ぐための項で正の値をとる。通常Th=1とすればよいが、高感度撮影画像などノイズの多い画像に対してはこの閾値を上げるとよい。加重係数w000、w120、w240は、類似性の強弱に応じた値となる。
【0027】
ベイア配列では、米国特許5,552,827号、米国特許5,629,734号、特開2001−245314号に示されるように、G補間における方向判定法として、加重係数による連続的判定法と閾値判定による離散的判定法の2通りがある。ベイア配列では、最隣接G成分が補間対象画素に対して4方向と密に存在するため、連続的判定法と離散的判定法のどちらを使用してもおおよそ問題なく使える。しかし、最隣接G成分が0度方向、120度方向、240度方向の3方向にしか存在しないデルタ配列においては加重係数による連続的な方向判定が重要となる。最隣接G成分とは、補間対象画素と辺を接する画素でG成分を有するものである。図3では、G000,G120,G240である。
【0028】
3.補間値算出
G成分、B成分の補間値を上記加重係数を用いて算出する。補間値は、平均情報と曲率情報の2つの項からなる。
<平均情報>
Gave = w000*Gave000+w120*Gave120+w240*Gave240 ...(8)
Bave = w000*Bave000+w120*Bave120+w240*Bave240 ...(9)
ここで、
Gave000 = (2*G000+G180)/3 ...(10)
Bave000 = (2*B180+B000)/3 ...(11)
Gave120 = (2*G120+G300)/3 ...(12)
Bave120 = (2*B300+B120)/3 ...(13)
Gave240 = (2*G240+G060)/3 ...(14)
Bave240 = (2*B060+B240)/3 ...(15)
である。
<曲率情報>
dR = (6*Rctr−R030−R090−R150−R210−R270−R330)/12 ...(16)
<補間値>
Gctr = Gave+dR ...(17)
Bctr = Bave+dR ...(18)
【0029】
通常、ベイア配列のG補間においては、最隣接G成分を用いて平均情報を求める。しかし、デルタ配列の場合は同様にすると縦線や30度方向、150度方向の境界線がブツブツになる問題が生じることが実験的に判明した。これは、例えば縦線境界の場合、加重係数がw000≒0、w120≒w240≒0.5になっていると想定され、2方向間で平均処理を行う部分に相当する。しかしながら、最隣接画素平均だけでは、縦線に沿ってある点では左側の2点平均をとり、次の隣の斜め右上あるいは右下の点では右側の2点平均をとることになってしまうためと考えられる。
【0030】
そこで、第2隣接画素まで考慮して補間対象画素からの距離比に応じた平均処理を行うと、例えば縦線の場合、常に右側と左側の両方から平均をとるので、縦線、30度方向、150度方向の境界線のブツブツが劇的に改善する。故に、式(10)〜(15)に示すように、第2隣接画素まで含む平均処理を行う。これにより、30度、150度、270度方向の空間解像力が向上する。例えば、式(10)において、G000が最隣接画素あるいは第1隣接画素であり、G180が第2隣接画素である。式(12)において、G120が最隣接画素あるいは第1隣接画素であり、G300が第2隣接画素である。他の式も同様である。第1隣接画素は約1画素ピッチ離れた画素であり、第2隣接画素は約2画素ピッチ離れた画素と言える。RctrとG120は約1画素ピッチ離れており、RctrとG300は約2画素ピッチ離れていると言える。図22は、隣接画素について定義する図である。centerは処理対象画素であり、nearestは最近接あるいは最隣接あるいは第1隣接画素であり、2ndは第2隣接画素である。
【0031】
また、ベイア配列補間の従来技術において、曲率情報dRに相当する項は平均情報と同じ方向性を考慮して算出するのが普通である。しかしながら、デルタ配列においては、平均情報の方向性(0度、120度、240度方向)と抽出可能な曲率情報の方向性(30度、150度、270度方向)が一致していない。このような場合、30度方向と150度方向の曲率情報を平均して0度方向の曲率情報を定義し、ベイア配列と同様に曲率情報の方向性を考慮して補間値を算出することも可能であるが、曲率情報は方向性を考慮せずに一律に抽出するほうが効果が大きいことが実験的に判明した。従って、本実施の形態では、方向性のない曲率情報で方向性を考慮した平均情報を補正する。これにより、あらゆる方向の高周波領域まで階調鮮明性を向上させることが可能となる。
【0032】
曲率情報dRを求める式(16)は、図5に示す係数値が使用される。式(16)は、補間対象画素Rctrと周辺画素の差分とその反対側の周辺画素と補間対象画素Rctrの差分とを求めさらにそれらの差分を求めている。従って、2次微分演算により求められている。
【0033】
また、曲率情報dRとは、ある色成分の色情報の変化する度合いを示す情報である。ある色成分の色情報の値をプロットして曲線で表した場合、その曲線の曲がりの変化、曲がり具合を示す情報である。すなわち、色成分の色情報の変化の凹凸に関する構造情報が反映された量である。本実施の形態では、R画素位置の曲率情報dRは、補間対象画素のRctrと周辺のR画素の色情報を使用して求める。G画素位置の場合はG成分、B画素位置の場合はB成分の色情報を使用する。
【0034】
以上のようにして、「R画素位置におけるG、B成分の補間処理」を行うことができた。「G画素位置におけるB、R成分の補間処理」は、「R画素位置におけるG、B成分の補間処理」の記号をRをGに、GをBに、BをRに循環的に置き換えて全く同様の処理を行えばよい。また、「B位置におけるR、G成分の補間処理」は、「G位置におけるB、R成分の補間処理」の記号をGをBに、BをRに、RをGに循環的に置き換えて全く同様の処理を行えばよい。すなわち、各補間処理において同一の演算ルーチン(サブルーチン)を使用することが可能である。
【0035】
以上のようにして復元された画像は、空間方向に関してデルタ配列が持つ限界解像性能を全て引き出すことができる。すなわち、周波数空間(k空間)で見ると、図6に示すように、デルタ配列が持つ六角形の無彩色再現領域を全て解像する。また、階調方向に関しても鮮明な画像が得られる。特に無彩色部の多い画像に対しては極めて有効な手法である。
【0036】
−正方化処理−
次に、上述のように三角格子上で補間処理された画像データを、コンピューター上の取り扱いが容易な正方格子データに復元する処理について説明する。行単位で1/2画素ずつずれた単板撮像素子のデータを、3色揃った正方格子データに復元する従来技術として、デルタ配列については特開平8−340455号公報、ハニカム配列については特開平2001−103295号公報、特開平2000−194386号公報等がある。
【0037】
特開平8−340455号公報では、三角格子と異なる画素位置に復元データを生成したり、三角格子より倍の画素密度を持つ仮想正方格子に復元データを生成したりする例を示している。また、三角格子と半分の行は同じ画素位置に復元して、残りの半分の行は三角格子と1/2画素ずれた画素位置に復元する例も示している。しかし、これは直接正方格子位置で補間処理を実現し、三角格子の隣接画素との距離が変わると別々の補間処理を適用するものである。一方、特開平2001−103295号公報では2次元のキュービック補間により正方化し、特開平2000−194386号公報では仮想的な倍密正方格子データを生成している。
【0038】
このように色々なやり方が存在するが、本第1の実施の形態では、デルタ配列の性能を最大限に維持する方式を示す。
【0039】
本第1の実施の形態では、上述したように、まず、デルタ配列と同じ画素位置に三角格子のまま補間データを復元している。これにより、デルタ配列が持つ空間周波数の限界解像性能を引き出すことができる。また、色差補正処理やエッジ強調処理も三角配置のままで行うとその効果が等方的にうまく作用する。従って、いったん三角格子上で画像復元し、各画素にRGB値を生成する。
【0040】
次に、三角格子上で生成された画像データを正方化変換する。三角格子の解像性能を保持するには、できるだけ元のデータを残すことが重要であることが実験的に判明した。したがって、一行置きに半分の行だけ1/2画素ずらす変位処理を行い、残り半分の行は処理せず三角配置が持つ縦線のナイキスト解像を維持させる。変位処理は、処理対象行の一次元内でキュービック補間により自己推定させると、正方格子のナイキスト周波数の影響は多少受けるものの、ほとんど問題なく三角格子の縦線解像度が維持できることが実験により確認された。
【0041】
すなわち、偶数行について、以下の式(19)の処理を行い、その後、式(20)の代入処理を行う。これにより、[x,y]の画素位置のR成分の色情報を求める。
Figure 2004007167
G成分、B成分についても同様にして求める。式(19)の処理を、キュービック変位処理と言う。また、1次元方向の位置を変位処理しているので1次元変位処理とも言う。図7は、式(19)で使用する係数値を示す図である。上記キュービックによる1次元変位処理は正および負の係数値からなる1次元フィルタをかける処理と言える。
【0042】
上述したような画像復元方法は、三角配置の限界解像度を最大限に維持できるだけでなく、三角格子上の画像復元処理は全ての画素で同一の処理ルーチンを使うことが可能で、最後に半分の行だけ単純な一次元処理を施すだけで済むので、データ量の増加を伴わず、従来技術に比べより簡略なアルゴリズムを達成することができる。特にハードウェアで実現する場合にはその効果は大きい。
【0043】
−第2の実施の形態−
第1の実施の形態では、異色間類似度を求めて類似性を判定するものであったが、第2の実施の形態では同色間類似度を求めて類似性を判定する。第2の実施の形態は、彩色部を多く含む画像に対して有効である。第2の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。画像処理について、第1の実施の形態と異なる部分を中心に説明する。特に記載がなければ第1の実施の形態と同様とする。
【0044】
(画像処理)
−三角格子上補間処理−
1.類似度の算出
0度、120度、240度方向の類似度C000、C120、C240を算出する。第2の実施の形態では、式(20)(21)(22)に示すように、同じ色成分間で構成される同色間類似度を求める。3画素ピッチ離れた画素間の演算が行われる。図8は、式(20)(21)(22)で使用する画素位置を示す図である。
C000 = {(|R000−Rctr|+|R180−Rctr|)/2+|G000−G180|+|B000−B180|}/3 ...(20) C120 = {(|R120−Rctr|+|R300−Rctr|)/2+|G120−G300|+|B120−B300|}/3 ...(21) C240 = {(|R240−Rctr|+|R060−Rctr|)/2+|G240−G060|+|B240−B060|}/3 ...(22) このように定義される同色間類似度は、彩色部における0度方向の横線や120度方向、240度方向の画像構造を空間的に解像させる能力を持ち、また色収差のある系に対しても影響を受けることなく画像構造を判別する能力を有する。
【0045】
次に、第1の実施の形態と同様にして、類似度の周辺加算を行う。
【0046】
2.類似性判定
第1の実施の形態と同様である。
【0047】
3.補間値算出
G成分、B成分の補間値を算出する。補間値は、平均情報と曲率情報の2つの項からなる。
<平均情報>:第1の実施の形態と同様である。
<曲率情報>
dR = (6*Rctr−R030−R090−R150−R210−R270−R330)/12 ...(23)
dG = ((G000+G120+G240)−(G060+G180+G300))/6 ...(24)
dB = ((B060+B180+B300)−(B000+B120+B240))/6 ...(25)
<補間値>
Gctr = Gave+(dR+dG+dB)/3 ...(26)
Bctr = Bave+(dR+dG+dB)/3 ...(27)
【0048】
第2の実施の形態では、第1の実施の形態と異なり3色の曲率情報で平均情報を補正している。これは、従来技術の特開2001−245314号公報に開示されているように、彩色部や色収差を含む画像においてdRのみによる過補正を防ぎつつ、階調方向の鮮明性を保つためである。ただし、特開2001−245314号公報はベイア配列に関するものである。このように3色の曲率情報を使用する場合でも、ベイア配列の場合と違って、第1の実施の形態と同様に、RGB3成分とも方向性のない曲率情報による補正が、最もあらゆる方向に対して階調鮮明性を上げる効果が高いことが実験により判明した。また、デルタ配列がR:G:B=1:1:1からなるので、3成分の曲率情報を1:1:1で用いるのがよいことも分かった。図9は、式(23)(24)(25)で使用する係数値を図示したものである。
【0049】
以上のようにして、「R画素位置におけるG、B成分の補間処理」を行うことができた。「G画素位置におけるB、R成分の補間処理」、「B位置におけるR、G成分の補間処理」も、第1の実施の形態と同様に、RGBをそれぞれ循環的に置きかえることによって求める。正方化処理も、第1の実施の形態と同様に行うことができる。
【0050】
以上のように、第2の実施の形態の復元処理は、彩色部を含む画像に対しても色境界を判別して解像させることができ、かつ階調方向の過補正を引き起こすことなく鮮明な画像を得ることができる。また、色収差を含むような系に対しても強い。
【0051】
−第3の実施の形態−
ベイア配列で得られる画像データの画像処理においては通常、補間処理後に画像に残っている偽色を低減するためにRGB信号を、輝度と色差からなるYCbCrに変換し、Cb、Cr面で色差ローパスフィルタを掛けたり、色差メディアンフィルタを掛けたりして偽色を除去し、RGB表色系に戻す事後処理が行われる。また、光学ローパスフィルタ等による鮮明度の低下を補うために、輝度成分Y面にエッジ強調処理を施したりする。デルタ配列の場合も、全く同様の事後処理を適応してもよい。
【0052】
しかし、第3の実施の形態では、デルタ配列に適した事後処理の方法を示す。第3の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。
【0053】
図10は、第3の実施の形態において、画像処理部11が行う画像処理の概要を示すフローチャートである。第1の実施の形態と同様に三角格子上で補間処理が行われるものとする。図10は、補間処理後のRGBカラー画像を入力するところからスタートする。すなわち、第1の実施の形態の図2のステップS1〜S5が終了し、その後、図10のフローチャートが開始する。
【0054】
ステップS11では、補間処理後のRGBカラー画像データを入力する。ステップS12において、RGB表色系から本第3の実施の形態特有のYCrCgCb表色系に変換する。ステップS13では、色差面(CrCgCb面)に対してローパスフィルタ処理を行う。ステップS14では、輝度面(Y面)に対してエッジ強調処理を行う。ステップS15では、色差面の偽色が除去された段階で、YCrCgCb表色系を元のRGB表色系に戻す変換をする。ステップS16において、得られたRGBカラー画像データを出力する。ステップS16で出力されるRGBカラー画像データは三角格子上で得られた画像データである。
【0055】
三角格子上で得られた画像データに対して正方化処理をする場合は、第1の実施の形態と同様に、図2のステップS6、S7の処理を行う。以下、上述のステップS12〜15の処理の詳細について説明する。
【0056】
1.表色系変換
RGB表色系からYCrCgCb表色系に変換する。ただし、YCrCgCb表色系は、式(28)〜(31)で表されるものとして定義する。
Y[i,j] = (R[i,j]+G[i,j]+B[i,j])/3 ...(28)
Cr[i,j] = R[i,j]−Y[i,j] ...(29)
Cg[i,j] = G[i,j]−Y[i,j] ...(30)
Cb[i,j] = B[i,j]−Y[i,j] ...(31)
【0057】
サーキュラーゾーンプレートを撮像して三角格子上で補間処理した後、式(28)のように、Y面生成においてRGBを均等に扱う変換を行うと、図6の六角形の角の部分を中心に発生するような色モアレが、完全に輝度面Yからは消え去るようになる。その結果、全ての偽色要素を色差成分Cr,Cg,Cbに含ませることができる。そして、従来扱われている2種類の色差成分ではなく、第3の実施の形態では3種類の色差成分を用意して扱っているので、デルタ配列固有の全ての偽色要素を取り出すことができる。
【0058】
2.色差補正
ここでは、色差補正の処理として色差面に対して式(32)によりローパス処理を行う例を示す。三角格子(三角配置)上で色差ローパスフィルタを掛けるとその偽色低減効果は全方向に対して相性よく得られる。また、三角格子上のメディアンフィルタ処理でもよい。ここで[]は、図22に示すように、処理対象画素から見た三角格子上の画素位置を表すものとする。図11は、式(32)に使用する係数値を図示するものである。なお、ローパスフィルタはここに示すものに留まらず、他のものを用いてもよい。図12、図13に他のローパスフィルタの例を示す。
<ローパス処理>
Figure 2004007167
tmp_Cg, tmp_Cbについても同様に処理する。
<代入処理>
Cr[i,j] = tmp_Cr[i,j] ...(33)
Cg[i,j] = tmp_Cg[i,j] ...(34)
Cb[i,j] = tmp_Cb[i,j] ...(35)
【0059】
3.エッジ強調処理
次に、輝度面Yに対するエッジ強調処理が必要であれば、三角格子上で以下の処理を行う。
<バンドパス処理>
三角格子上のラプラシアン処理によりエッジ抽出する。図14は、式(36)のラプラシアン処理に使用する係数値を図示するものである。なお、ラプラシアンはここに示すものに留まらず、他のものを用いてもよい。図15、図16に他のラプラシアンの例を示す。
Figure 2004007167
<エッジ強調処理>
Y[center]=Y[center]+K*YH[center] ...(37)
ここで、Kは零以上の値で、エッジ強調の加減を調整するパラメータである。
【0060】
4.表色系変換
前述した通り色差補正処理がなされ、色差面の偽色が除去された段階で、元のRGB表色系に戻す。
R[i,j]=Cr[i,j]+Y[i,j] ...(38)
G[i,j]=Cg[i,j]+Y[i,j] ...(39)
B[i,j]=Cb[i,j]+Y[i,j] ...(40)
【0061】
このように、輝度解像をR:G:B=1:1:1の比で生成したY成分に待避させ、3種類の均等に扱った色差成分Cr,Cg,Cbを導入することにより、極めて偽色抑制能力の高い色差補正が可能となる。また、色差補正処理や輝度補正処理を三角格子上で行うことにより、デルタ配列の方向性に適した補正処理が可能となる。
【0062】
−第4の実施の形態−
第1の実施の形態では、三角格子上において、各画素に欠落する色成分の色情報を補間する処理について説明した。第4の実施の形態では、第1の実施の形態のRGB面内における補間処理とは異なる系統の画像復元処理の例を示す。これは、デルタ配列から、RGB面内の補間処理を介さずに直接輝度成分と色差成分を作る方式である。思想的に第3の実施の形態で示した1つの輝度面と3つの色差面に分離することの有用性を引き継ぎ、輝度面には無彩色の輝度解像力を最大限に引き出す役割を担当させ、3つの色差面には3原色の色解像力を最大限に引き出す役割を担当させている。
【0063】
第4の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。
【0064】
(画像処理)
図17は、デルタ配列のデルタ面から、直接、輝度面(Y)と3つの色差面(Cgb,Cbr,Crg)を生成し、その後、元のRGBの表色系に変換する概念を示す図である。図18は、第4の実施の形態において、画像処理部11が行う画像処理の概要を示すフローチャートである。
【0065】
ステップS21では、デルタ配列の撮像素子21で得られた画像を入力する。ステップS22において、類似度の算出を行う。ステップS23では、ステップS22で得られた類似度に基づき類似性を判定する。ステップS24では、ステップS23で得られた類似性の判定結果とステップS21で得られたデルタ配列の画像データに基づき輝度面(Y0面)を生成する。ステップS25では、ステップS24で得られた輝度面(Y0面)に対して補正処理を行う。
【0066】
一方、ステップS26では、ステップS23で得られた類似性の判定結果とステップS21で得られたデルタ配列の画像データに基づき、色差成分Cgb,Cbr,Crgを生成する。ステップS26では、まだ、すべての画素においてすべての色差成分Cgb,Cbr,Crgが生成されてはいない。ステップS27で、生成されていない色差成分を周辺の色差成分に基づき補間処理をする。その結果、Cgb,Cbr,Crgの色差面が完成する。
【0067】
ステップS28では、生成されたY,Cgb,Cbr,Crgの表色系からRGB表色系に変換する。ステップS29で、変換されたRGBカラー画像データを出力する。ステップS21〜ステップS29は、すべて三角格子上での処理である。従って、ステップS29で出力されるRGBカラー画像データは、三角格子の画像データである。以下、これらの処理の詳細について説明する。なお、正方化処理が必要な場合は、第1の実施の形態の図2のステップS6、S7と同様の処理を行う。
【0068】
1.類似度の算出
まず、類似度の算出を行う。ここでは、任意の方式で求められる類似度でよい。ただし、できるだけ正確なものを利用するものとする。例えば、第1の実施の形態で示した異色間類似度や、第2の実施の形態で示した同色間類似度や、それらを組み合わせて用いたもの、あるいは色指標等によって異色間類似度と同色間類似度を切り替えて用いたものでもよい。
【0069】
2.類似性判定
第1の実施の形態と同様にして判定する。
【0070】
3.復元値算出
1)輝度成分生成
まず、デルタ面を方向類似性に応じて変化する正の係数で常にR:G:B=1:1:1となるように加重加算して輝度面を生成する。その加重加算の範囲は第1の実施の形態と同様の理由によって、G成分とB成分は第2隣接画素までとる。すなわち、第1の実施の形態の式(10)〜式(15)の定義式を用いてもう一度、式(8)(9)を書き直すと式(41)(42)のようになる。
<G>2nd = Gave = w000*Gave000+w120*Gave120+w240*Gave240 ...(41)
<B>2nd = Bave = w000*Bave000+w120*Bave120+w240*Bave240 ...(42)
これらと中心のR成分を用いて、式(43)により輝度成分Y0を生成する。
Y0=Rctr+<G>2nd+<B>2nd ...(43)
【0071】
このようにして生成される輝度成分は、正の方向加重係数を用いて常に一定の色成分比で中心画素を含みながら生成されるので、極めて階調鮮明性の潜在能力が高く、空間解像力の高い画像が得られ、かつ色収差に影響されずに極めて滑らかに周辺画素と連結する画像が得られる。例えば、無彩色のサーキュラーゾーンプレートに対して、異色間類似度を類似度として採用した場合、第1の実施の形態と同様に空間解像度は図6の限界解像まで達する。
【0072】
2)輝度成分補正
上述した輝度面は正の係数のみを用いて生成されているので、そこに含まれている階調鮮明性の潜在能力を引き出すために、ラプラシアンによる補正処理を行う。輝度面Y0は、方向性を考慮して周辺画素と極めて滑らかに連結するように作られているので、補正処理は新たに方向性に応じて計算しなければならないような補正項の算出は不要で、固定バンドパスフィルタによる単一処理でよい。三角配置におけるラプラシアンの取り方は、第3の実施の形態の図14〜図16に示すようにいくつかの方法が可能である。しかし、若干なりとも最適度を上げるならば、輝度面Y0が0度、120度、240度方向のG,B成分を集めてしか生成しえないので、その間隙の方向を埋め合わせるために、ここではそれとは独立な30度、150度、270度方向の図15のラプラシアンで補正する場合を示す(式(44))。補正された輝度成分をYとする。
【0073】
<バンドパス処理>
Figure 2004007167
<補正処理>
Y[center]=Y[center]+k*YH[center] ...(45)
ここで、kは正の値で通常1とする。ただし、1より大きい値に設定することで、第3の実施の形態に示したようなエッジ強調処理をここで兼ね備えることもできる。
【0074】
3)色差成分生成
3つの色差面は第3の実施の形態の定義と異なり、輝度面Yとは独立にデルタ面から直接生成する。3つの色差成分Cgb,Cbr,Crgを求める。ただし、Cgb=G−B、Cbr=B−R、Crg=R−Gと定義する。
【0075】
まず、R位置においてCrgとCbrを求める。中心画素のR成分と周辺画素のG成分もしくはB成分との差分値を方向性を考慮しながら算出する。
Crg=Rctr−{<G>2nd+dG} ...(46)
Cbr={<B>2nd+dB}−Rctr ...(47)
ここに、dG,dBは、第2の実施の形態の式(24)(25)で定義されたものと同じで、<G>2nd,<B>2ndは式(41)(42)と同じである。色差成分の生成においても第1の実施の形態と同様に、第2隣接画素までを含む平均情報を算出し、輝度成分との整合性をとることにより、30度、150度、270度方向の解像力を上げている。また、dGとdBは必ずしも必要な訳ではないが、色解像力と色鮮やかさを上げる効果があるので付加している。
【0076】
G位置における色差成分Cgb,Crg、およびB位置における色差成分Cbr,Cgbも同様にして求める。この時点でR位置にはCrg,Cbr成分が、その最隣接画素にはCgb成分が求まっている。図19は、その様子を示す図である。
【0077】
次に、R位置周辺画素のCgb成分を用いて式(48)よりR位置にCgb成分を求める(補間処理)。このとき、R位置で求まっている方向判定結果を用いて算出する。
Figure 2004007167
【0078】
以上のようにして、全ての画素にYCgbCbrCrgの4成分が求まる。必要に応じて、色差面Cgb,Cbr,Crgに対しては第3の実施の形態と同様の色差ローパスフィルタ等の補正処理を行って、偽色抑制を図ってもよい。
【0079】
4)表色系変換
各画素に生成されたYCgbCbrCrgをRGB表色系に変換する。Y=(R+G+B)/3, Cgb=G−B, Cbr=B−R, Crg=R−Gは独立な4式ではなく、Cgb+Cbr+Crg=0の関係を満たす。すなわち、4対3変換なので変換方法は一意的ではないが、色モアレを抑制し、輝度解像度と色解像度を最高にするため、R,G,Bそれぞれの変換式に全てのY,Cgb,Cbr,Crg成分が含まれるようにし、相互のモアレ相殺効果を利用する。こうしてY,Cgb,Cbr,Crg各面がそれぞれに役割分担して生成されてきた最高性能の全てを、R,G,Bの各々に反映させることができる。
R[i,j]=(9*Y[i,j]+Cgb[i,j]−2*Cbr[i,j]+4*Crg[i,j])/9 ...(49)
G[i,j]=(9*Y[i,j]+4*Cgb[i,j]+Cbr[i,j]−2*Crg[i,j])/9 ...(50)
B[i,j]=(9*Y[i,j]−2*Cgb[i,j]+4*Cbr[i,j]+Crg[i,j])/9 ...(51)
【0080】
以上説明したように、第4の実施の形態の画像復元方法は、極めて階調鮮明性が高く、空間方向にも優れた輝度解像性能と色解像性能を同時に達成しつつ、色収差に対しても強いという効果を発揮する。正方化処理が必要な場合は、第1の実施の形態と同様に行うことができる。
【0081】
−第5の実施の形態−
第2の実施の形態では、同色間類似度を求めて類似性を判定した。このとき、0度、120度、240度方向の類似度のみを求めるものであった。しかし、第5の実施の形態では、30度、150度、270度方向の類似度も求めるようにしたものである。第5の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。
【0082】
R画素位置にG、B成分を補間する場合を中心に述べる。また、第2の実施の形態の図8を参照する。R画素位置においてG成分の最隣接画素は隣接して0度、120度、240度を指す位置に3つあり、第2隣接画素は2画素分離れた60度、180度、300度を指す位置に3つある。B成分も同様に、最隣接画素は隣接して60度、180度、300度を指す位置に3つあり、第2隣接画素は2画素分離れた0度、120度、240度を指す位置に3つある。また、R成分の最隣接画素は2画素分離れた30度、90度、150度、210度、270度、330度を指す位置に6つあり、第2隣接画素は3画素分離れた0度、60度、120度、180度、240度、300度を指す位置に6つある。
【0083】
1.類似度の算出
1)3画素間隔同色間類似度の算出
0度、120度、240度方向の類似度C000、C120、C240を算出する。これらの方向の同じ色成分間で構成される同色間類似度は、3画素間隔より短く定義することができない。
C000 = {(|R000−Rctr|+|R180−Rctr|)/2+|G000−G180|+|B000−B180|}/3 ...(52) C120 = {(|R120−Rctr|+|R300−Rctr|)/2+|G120−G300|+|B120−B300|}/3 ...(53) C240 = {(|R240−Rctr|+|R060−Rctr|)/2+|G240−G060|+|B240−B060|}/3 ...(54)
【0084】
このように定義される同色間類似度は、R画素位置に欠落するG成分とB成分が存在する方向と一致する方向性を調べているので、彩色部における0度方向の横線や120度方向、240度方向の画像構造を空間的に解像させる能力を持つと考えられる。しかし、ベイア配列における2画素間隔の同色間類似度と違って、3画素間隔と極めて離れた画素間の情報であることに注意を要する。
【0085】
2)2画素間隔同色間類似度の算出
次に、30度、150度、270度方向の類似度C030、C150、C270を算出する。これらの方向の同色間類似度は、0度、120度、240度方向と異なりより短い2画素間隔で定義することができる。
C030 = {(|R030−Rctr|+|R210−Rctr|)/2+|G240−G000|+|B060−B180|}/3 ...(55) C150 = {(|R150−Rctr|+|R330−Rctr|)/2+|G000−G120|+|B180−B300|}/3 ...(56) C270 = {(|R270−Rctr|+|R090−Rctr|)/2+|G120−G240|+|B300−B060|}/3 ...(57) ただし、R画素位置に欠落するG成分とB成分が存在する方向と一致しない方向の類似性を調べているので、これらを有効に活用するにはテクニックを要する。
【0086】
3)類似度の周辺加算
更に、上述した類似度の各々について周辺加算を行って周辺画素との連続性を考慮することにより、類似度の精度を上げる。ここでは各画素について求めた上記6つの類似度それぞれに対し、R画素位置について周辺加算を行う。周辺加算を行った類似度を小文字で表記する。ただし、[]は、処理対象画素から見たデルタ配列上の画素位置を表すものとする。式(58)は第1の実施の形態の式(4)と同様である。
Figure 2004007167
c120, c240, c030, c150, c270も同様にして求める。
ここに、上述した類似度の方位関係を図26に示す。
【0087】
2.類似性判定
上述した類似度は値が小さいほどその方向に対して大きな類似性を示す。ただし、類似性を判定して意味があるのは、処理対象画素に存在しないG成分とB成分が存在する方向、すなわち0度、120度、240度方向であり、30度、150度、270度方向の類似性が判定できてもあまり意味がない。そこで、まず考えられるのは、0度、120度、240度方向の類似性の強弱を、0度、120度、240度方向の類似度を用いて、その逆数比で連続的に判定することである。すなわち(1/c000):(1/c120):(1/c240)で判定する。
【0088】
例えば、類似度c000は有彩色の横線を解像する能力を有するので、図20のデルタ配列のRGB各色成分の周波数再現域のky軸方向を限界解像まで伸ばすことができる。すなわち、このような判定方法は、有彩色の画像に対して、図20の6角形の頂点の限界解像まで色解像度を引き伸ばすことができる。しかしながら、3画素間隔という長距離間の類似度であるため、その間の角度となると折り返し周波数成分の影響を受けて方向性を判別することができず、特に30度、150度、270度方向に対しては最もその悪影響が生じ、図20の6角形の各辺の中点付近がえぐれるような色解像力しか発揮することができない。
【0089】
そこで、このような長距離相関の悪影響を防ぐため、短距離相関の類似度c030,c150,c270を有効活用する。ただし、逆数をとるだけでは30度、150度、270度方向の類似性が判別できるようになるだけなので、それを0度、120度、240度方向の類似性に変換するために、逆数ではなく類似度の値自体が30度、150度、270度方向に直交する方向、すなわち120度、240度、0度方向の類似性を表しているものと解釈する。故に0度、120度、240度方向の類似性を以下の比率で判定する。
(c270/c000):(c030/c120):(c150/c240)
【0090】
0度、120度、240度方向の類似性を1で規格化された加重係数w000,w120,w240として表すと、
Figure 2004007167
により求まる。ただし、定数Thは発散を防ぐための項で正の値をとる。通常Th=1とすればよいが、高感度撮影画像などノイズの多い画像に対してはこの閾値を上げるとよい。
【0091】
なお、0度方向と270度方向、120度方向と30度方向、240度方向と150度方向は直交した関係である。この直交した関係を0度方向⊥270度方向、120度方向⊥30度方向、240度方向⊥150度方向と表す。
【0092】
こうして6方向の類似度を用いて連続的に判定された類似性は、有彩色画像に対して図20の六角形の全てを正確に再現する空間解像力を有する。また、この同色間類似度による空間解像力は、同じ色成分間で類似性を見ているため、光学系に含まれる色収差の影響を受けずに常に達成することができる。
【0093】
3.補間値算出
補間値は、第2の実施の形態と同様にして求める。
【0094】
以上のようにして、第5の実施の形態では如何なる画像に対してもデルタ配列が元来有する各RGB単色の空間色解像力を全て引き出すことができる。また、階調方向に鮮明な画像復元が可能で、色収差を含む系に対しても強い性能を発揮する。
【0095】
なお、第5の実施の形態の類似度の算出および類似性の判定を第4の実施の形態の類似度の算出および類似性の判定にも適用できる。このような画像復元方法は、極めて階調鮮明性が高く、空間方向にも優れた輝度解像性能と色解像性能を同時に達成しつつ、色収差に対しても強いという効果を発揮する。特に、鮮明な階調を達成しつつデルタ配列の最高の色解像性能を導き出すことができる。通常の画像処理では、階調鮮明性を上げようとエッジ強調処理を行ったりして、その分色解像力が落ちて色褪せたり、立体感が損なわれたりしてしまうトレードオフが生じるが、この場合、4成分の復元値を導入することによりこの相反する課題を同時に解決することができるようになる。
【0096】
−第6の実施の形態−
ベイア配列においては通常、補間処理後に画像に残っている偽色を低減するためにRGB信号を、輝度と色差からなるYCbCrに変換し、Cb、Cr面で色差ローパスフィルタを掛けたり、色差メディアンフィルタを掛けたりして偽色を除去し、RGB表色系に戻す事後処理が行われる。デルタ配列の場合も、完全に光学ローパスフィルタでナイキスト周波数を落とせなければ、見栄えを良くするため適度な偽色低減処理を必要とする。第6の実施の形態では、デルタ配列の優れた特徴である色解像性能をできるだけ損なわないような事後処理の方法を示す。第6の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。
【0097】
図21は、第6の実施の形態において、画像処理部11が行う画像処理の概要を示すフローチャートである。第1、2、4、5の実施の形態と同様に三角格子上で補間処理が行われるものとする。図21は、補間処理後のRGBカラー画像を入力するところからスタートする。例えば、第1の実施の形態の図2のステップS1〜S5が終了し、その後、図21のフローチャートが開始する。
【0098】
ステップS31では、補間処理後のRGBカラー画像データを入力する。ステップS32において、RGB表色系から本第6の実施の形態特有のYCgbCbrCrg表色系に変換する。ステップS33では、色判定用画像を生成する。ステップS34では、ステップS33で生成した色判定用画像を使用して色指標を算出する。ステップS35では、ステップS34の色指標に基づき低彩度か高彩度かの色判定を行う。
【0099】
ステップS36において、ステップS35の色判定結果に基づき、使用するローパスフィルタを切り換えて色差補正を行う。補正の対象となる色差データはステップS32で生成されたものである。ステップS37では、色差面の偽色が除去された段階で、YCgbCbrCrg表色系を元のRGB表色系に戻す変換をする。ステップS38において、得られたRGBカラー画像データを出力する。ステップS38で出力されるRGBカラー画像データは三角格子上で得られた画像データである。
【0100】
三角格子上で得られた画像データに対して正方化処理をする場合は、第1の実施の形態と同様に、図2のステップS6、S7の処理を行う。以下、上述のステップS32〜37の処理の詳細について説明する。
【0101】
1.表色系変換
RGB表色系からYCgbCbrCrg表色系に変換する。ただし、YCgbCbrCrg表色系は次の式(62)〜(65)で定義される。
Y[i,j] = (R[i,j]+G[i,j]+B[i,j])/3 ...(62)
Cgb[i,j] = G[i,j]−B[i,j] ...(63)
Cbr[i,j] = B[i,j]−R[i,j] ...(64)
Crg[i,j] = R[i,j]−G[i,j] ...(65)
このようにRGBを均等に扱う変換を行うと、例えばサーキュラーゾーンプレートで、図6の六角形の角の部分を中心に発生するような色モアレが、完全に輝度面Yからは消え去り、全ての偽色要素を色差成分Cgb,Cbr,Crgに含ませることができる。
【0102】
2.色評価
1)色判定用画像の生成
無彩色部に於ける偽色をできるだけ彩色部と区別して色評価するために、全面に強力な色差ローパスフィルタをかけて偽色を一旦低減する。ただし、これは一時的な色判定用画像なので、実際の画像には影響を与えない。
Figure 2004007167
TCbr, TCrgについても同様に求める。
【0103】
2)色指標の算出
次に、偽色の低減された色判定用画像を用いて色指標Cdiffを算出し、画素単位の色評価を行う。
Cdiff[i,j]=(|Cgb[i,j]|+|Cbr[i,j]|+|Crg[i,j]|)/3 ...(67)
【0104】
3)色判定
上記連続的色指標Cdiffを閾値判定し、離散的な色指標BWに変換する。
Figure 2004007167
ここで閾値Thは256階調の場合30程度に設定するのがよい。
【0105】
3.適応的色差補正
色判定により画像を2つの領域に分割することができたので、無彩色部の偽色は強力に消す一方、彩色部の色解像はできるだけ温存する色差補正処理を加える。ここでは式(68)および式(69)のローパス処理を行うが、メディアンフィルタ処理を用いてもよい。[]は、処理対象画素から見た三角格子上の画素位置を表すものとする。式(68)のローパスフィルタは、第3の実施の形態の図11に示す係数値を使用し、式(69)のローパスフィルタは図13に示す係数値を使用する。
【0106】
<ローパス処理>
Figure 2004007167
【0107】
<代入処理>
Cgb[i,j] = tmp_Cgb[i,j]
Cbr[i,j] = tmp_Cbr[i,j]
Crg[i,j] = tmp_Crg[i,j]
【0108】
4.表色系変換処理
色差面の偽色が除去された段階で、第4の実施の形態と同様の式(70)〜(72)を用いて元のRGB表色系に戻す。
R[i,j]=(9*Y[i,j]+Cgb[i,j]−2*Cbr[i,j]+4*Crg[i,j])/9 ...(70)
G[i,j]=(9*Y[i,j]+4*Cgb[i,j]+Cbr[i,j]−2*Crg[i,j])/9 ...(71)
B[i,j]=(9*Y[i,j]−2*Cgb[i,j]+4*Cbr[i,j]+Crg[i,j])/9 ...(72)
【0109】
このようにして第6の実施の形態では、デルタ配列が持つ色解像性能をできるだけ保持した形で、画像全体としての偽色低減が可能となる。尚、第4の実施の形態で生成された画像データにこの事後処理を取り入れる場合は、既にYCgbCbrCrg表色系の状態になっているので、初めの表色系変換は不要で、最後の表色系変換を行う前に上記2.3.の処理を付け加えればよいだけである。
【0110】
なお、第1〜第6の実施の形態に記載した画像復元方法は、デルタ配列の入力画像が撮像素子出力の線形階調のままでも、ガンマ補正された階調のものでも、どのような階調特性のものでも適用できる。8ビットでガンマ補正が既にかかってしまっている入力画像に対しては対処のしようがないが、今日のデジタルスチルカメラの撮像信号は、12ビットの線形階調出力といったものが一般的になっており、このような場合に適した画像復元処理(第1や第2の実施の形態のようなRGB方式も第4の実施の形態のようなYCCC方式も含む)と階調処理の関係をここに示す。図27は、その処理を示すフローチャートである。
1)線形階調デルタ配列データ入力(ステップS41)
2)ガンマ補正処理(ステップS42)
3)画像復元処理(ステップS43)
4)逆ガンマ補正処理(ステップS44)
5)ユーザーガンマ補正処理(ステップS45)
【0111】
ユーザーガンマ補正処理は、線形階調からディスプレイ出力に適した8ビット階調に変換する処理、すなわち、画像のダイナミックレンジを出力表示機器の範囲内に圧縮する処理である。これとは独立に、一旦あるガンマ空間に階調を変換して、第1の実施の形態〜第6の実施の形態に相当する画像復元処理を行うと、より優れた復元結果が得られる。この階調変換方法として以下のようなものがある。
<ガンマ補正処理>
入力信号x(0≦x≦xmax)、出力信号y(0≦x≦ymax)、入力画像はデルタ面
y=ymax√(x/xmax)
入力信号が12ビットの場合はxmax=4095で、出力信号は例えば16ビットのymax=65535に設定するとよい。
<逆ガンマ補正処理>
入力信号y(0≦x≦ymax)、出力信号x(0≦x≦xmax)、入力画像はRGB面
x=xmax(y/ymax)
【0112】
このように平方根型のガンマ空間で画像復元処理を行うと、画像復元処理のテクニックとは別の観点から次のような利点が同時に得られる。
1)色境界部の鮮明化が可能
(例えば、赤白境界の色にじみ抑制や、黒縁発生の抑制等)
2)輝点(極めて明るい部分)周辺の偽色抑制が可能
3)方向判定精度が向上
【0113】
1)と2)は画像復元処理のRGB方式では「補間値算出部」、Y方式では「復元値算出部」が関与して生み出される効果である。また、3)は画像復元処理の「類似度算出部」と「類似性判定部」が関与して生み出される効果である。つまり、入力信号xには量子論的揺らぎの誤差dx=k√x(kはISO感度で決まる定数)が含まれており、平方根のガンマ空間に変換すると誤差伝搬則によりこの誤差が全階調0≦y≦ymaxに渡って均一の誤差dy=constantで扱えるようになるため、方向判定精度が向上する。この技術はデルタ配列に限らずベイア配列やその他諸々のフィルタ配列の補間処理にも応用することができる。上記実施の形態においては、デルタ配列は元々ベイア配列よりも単色の色解像性能が高いため、この階調変換処理を画像復元処理の前後に入れることで、更に優れた色鮮明性を生み出すことが可能となる。
【0114】
上記第1の実施の形態では、三角格子上で補間処理された画像データを正方化処理をする例を示した。また、他の実施の形態でも、正方化処理が必要な場合はその処理を行う旨示した。しかし、三角格子上で補間処理や表色系変換された画像データそのものをそのまま使用するようにしてもよい。
【0115】
上記第3の実施の形態では、第1の実施の形態と同様に生成されたRGBカラー画像データに補正処理を行う例を示したが、必ずしもこの内容に限定する必要はない。他の実施の形態で生成されたRGBカラー画像データに対しても同様に適用できる。このように、上記第1〜第6の実施の形態では、それぞれ適宜組み合わせることが可能である。すなわち、上記第1〜第6の実施の形態では、類似の方向性判定処理、補間処理あるいは色差面直接生成処理、補正等の後処理、正方化処理などを記載しているが、各実施の形態の各処理を適宜組み合わせて最適な画像処理方法、処理装置を実現することができる。
【0116】
上記実施の形態では、単板式の撮像素子を前提にした説明を行ったが、この内容に限定する必要はない。本発明は、2板式の撮像素子においても適用できる。2板式であれば、例えば、各画素において欠落する色成分は1つとなるが、この欠落する1つの色成分の補間処理に上記実施の形態の内容を適用することができ、必要であれば正方化処理も同様にできる。また、第4の実施の形態の、デルタ配列から補間処理を介さずに直接輝度成分と色差成分を作る方式においても、同様に2板式の撮像素子にも適用できる。
【0117】
上記実施の形態では、類似性の判定に各種の計算式を示したが、必ずしも実施の形態に示した内容に限定する必要はない。他の、適切な計算式により類似性を判定するようにしてもよい。また、輝度情報の計算においても各種の計算式を示したが、必ずしも実施の形態に示した内容に限定する必要はない。他の、適切な計算式により輝度情報を生成するようにしてもよい。
【0118】
上記実施の形態では、色差補正等でローパスフィルタ、エッジ強調でバンドパスフィルタの例を示したが、必ずしも実施の形態で示した内容に限定する必要はない。他の構成のローパスフィルタやバンドパスフィルタであってもよい。
【0119】
上記実施の形態では、電子カメラの例で示したが、必ずしもこの内容に限定する必要はない。動画を撮像するビデオカメラや、撮像素子つきパーソナルコンピュータや携帯電話などであってもよい。すなわち、撮像素子によりカラー画像データを生成するあらゆる装置に適用できる。
【0120】
パーソナルコンピュータなどに適用する場合、上述した処理に関するプログラムは、CD−ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供することができる。図23はその様子を示す図である。パーソナルコンピュータ100は、CD−ROM104を介してプログラムの提供を受ける。また、パーソナルコンピュータ100は通信回線101との接続機能を有する。コンピュータ102は上記プログラムを提供するサーバーコンピュータであり、ハードディスク103などの記録媒体にプログラムを格納する。通信回線101は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。コンピュータ102はハードディスク103を使用してプログラムを読み出し、通信回線101を介してプログラムをパーソナルコンピュータ100に送信する。すなわち、プログラムをデータ信号として搬送波にのせて、通信回線101を介して送信する。このように、プログラムは、記録媒体や搬送波などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
【0121】
【発明の効果】
本発明は、第1〜第3色成分で表された第1の画像の全ての画素において、第1〜第3色成分の色情報を常に均等(1:1:1)の色成分比率で加重加算して第1の画像の色情報と異なる色成分の色情報を生成する。このようにして生成される色成分の色情報は極めて階調鮮明性の潜在能力が高く、空間解像力の高い画像が得られ、かつ色収差に影響されずに極めて滑らかに周辺画素と連結する画像が得られる。
【図面の簡単な説明】
【図1】
第1の実施の形態における電子カメラの機能ブロック図である。
【図2】
第1の実施の形態において、画像処理部が行う画像処理の概要を示すフローチャートである。
【図3】
デルタ配列の撮像素子により得られた画素の位置関係を示す図である。
【図4】
周辺加算に使用する係数を示す図である。
【図5】
曲率情報dRを求めるときに使用する係数値を示す図である。
【図6】
デルタ配列の無彩色の空間周波数再現領域を示す図である。
【図7】
1次元変位処理に使用する係数値を示す図である。
【図8】
第2の実施の形態の演算で使用する画素位置を示す図である。
【図9】
曲率情報dR、dG、dBを求めるときに使用する係数値を示す図である。
【図10】
第3の実施の形態において、画像処理部が行う画像処理の概要を示すフローチャートである。
【図11】
ローパスフィルタの係数値を示す図である。
【図12】
他のローパスフィルタの係数値を示す図である。
【図13】
他のローパスフィルタの係数値を示す図である。
【図14】
ラプラシアンの係数値を示す図である。
【図15】
他のラプラシアンの係数値を示す図である。
【図16】
他のラプラシアンの係数値を示す図である。
【図17】
デルタ配列のデルタ面から、直接、輝度面(Y)と3つの色差面(Cgb,Cbr,Crg)を生成し、その後、元のRGBの表色系に変換する概念を示す図である。
【図18】
第4の実施の形態において、画像処理部が行う画像処理の概要を示すフローチャートである。
【図19】R位置にはCrg,Cbr成分がその最隣接画素にはCgb成分が求まっている様子を示す図である。
【図20】
デルタ配列のRGB各色成分の空間周波数再現領域を示す図である。
【図21】
第6の実施の形態において、画像処理部が行う画像処理の概要を示すフローチャートである。
【図22】
隣接画素について定義する図である。
【図23】
プログラムを、CD−ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供する様子を示す図である。
【図24】
RGBカラーフィルタのベイア配列、デルタ配列、ハニカム配列を示す図である。
【図25】
デルタ配列で得られた画像データについて、三角格子上で補間処理し、正方格子データに復元する処理の概念を示す図である。
【図26】
第5の実施の形態において、類似度の方位関係を示す図である。
【図27】
画像復元処理と階調処理を示すフローチャートである。
【符号の説明】
1 電子カメラ
10 A/D変換部
11 画像処理部
12 制御部
13 メモリ
14 圧縮/伸長部
15 表示画像生成部
16 メモリカード
17 メモリカード用インタフェース部
18 PC(パーソナルコンピュータ)
19 外部インタフェース部
20 撮影光学系
21 撮像素子
22 アナログ信号処理部
23 タイミング制御部
24 操作部
25、26 モニタ
27 プリンタ
28 CD−ROM[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing method, an image processing program, and an image processing apparatus for processing image data obtained by a delta array color filter.
[0002]
[Prior art]
An electronic camera captures an image of a subject using an image sensor such as a CCD. In this image sensor, a Bayer arrangement in which three color filters of RGB (red, green, blue) are arranged as shown in FIG. Further, a delta arrangement arranged as shown in FIG. 24B is also known. Further, a honeycomb arrangement arranged as shown in FIG. 24C is also known. For image data obtained by the Bayer array, various image processing methods have been proposed, for example, as in US Pat. No. 5,552,827, US Pat. No. 5,629,734, and JP-A-2001-245314. ing.
[0003]
On the other hand, for image data obtained in a delta arrangement, an image processing method is proposed in Japanese Patent Application Laid-Open No. 8-340455, US Pat. No. 5,805,217, and the like.
[0004]
[Problems to be solved by the invention]
However, in US Pat. No. 5,805,217, image processing is not performed in accordance with characteristics unique to the delta array. Japanese Patent Application Laid-Open No. 8-340455 proposes only a simple image restoration method. Further, various image processing methods proposed in the Bayer array cannot always be applied to the delta array as they are.
[0005]
The present invention provides an image processing method, an image processing program, and an image processing apparatus that output, for example, high-definition image data of a different color system based on image data obtained by a triangular lattice color filter such as a delta arrangement. provide.
[0006]
[Means for Solving the Problems]
The invention according to claim 1 is applied to an image processing method, wherein a plurality of pixels represented by first to third color components and having color information of one color component in one pixel are uniformly distributed. An image acquisition procedure for acquiring an image, and color information of a color component different from the color information of the first image is generated by weight-adding the acquired color information of the first image with a variable coefficient value of zero or more. A color information generating step of outputting a second image using the generated color information, wherein the color information generating step includes the steps of: first, second, third, and third color components in all pixels of the first image; Is always weighted and added at a uniform (1: 1: 1) color component ratio.
According to a second aspect of the present invention, in the image processing method according to the first aspect, the image processing method further includes a similarity determination procedure for determining the degree of similarity in a plurality of directions, and the color information generation procedure is determined by the similarity determination procedure. The coefficient value of the weighted addition is made variable according to the strength of the similarity.
According to a third aspect of the present invention, in the image processing method according to the first or second aspect, the first image includes a plurality of pixels arranged in a triangular lattice.
According to a fourth aspect of the present invention, in the image processing method according to any one of the first to third aspects, the color information of the first image generated by the color information generating procedure after the color information generating procedure and before the output procedure. And a correction procedure for correcting color information of a color component different from the above by a filter process including a predetermined fixed filter coefficient. According to a fifth aspect of the present invention, in the image processing method of the fourth aspect, the filter coefficients include positive and negative values.
The invention according to claim 6 is applied to an image processing method, and obtains a first image including a plurality of pixels represented by three or more types of color components and having one pixel having color information of one color component. An acquisition procedure, a color information generation procedure for generating color information of a luminance component and color information of at least three types of color difference components using the acquired color information of the first image, and a color information generation procedure. An output procedure for outputting a second image using the color information of the luminance component and the color information of the color difference component is provided.
According to a seventh aspect of the present invention, in the image processing method according to the sixth aspect, conversion is performed by using color information of a luminance component and color information of at least three types of color difference components into color information of three types of color components. The output procedure further includes outputting the second image using the color information of the three types of color components converted in the conversion procedure.
According to an eighth aspect of the present invention, in the image processing method according to the sixth or seventh aspect, the color information of the luminance component and the color information of the color difference component generated in the color information generating procedure are three or more types of the first image. This is color information of a component different from the color component.
According to a ninth aspect of the present invention, in the image processing method according to any one of the sixth to eighth aspects, the first image is represented by first to third color components, and a plurality of pixels are uniformly distributed. The color information generation procedure includes: 1) color information of a luminance component in which the color component ratio of the first to third color components is 1: 1: 1; and 2) the color information of the first color component and the second color component. 3) color information of a color difference component between the second color component and the third color component, and 4) color information of a color difference component between the third color component and the first color component. It is to be generated.
According to a tenth aspect of the present invention, in the image processing method according to any one of the sixth to ninth aspects, the image processing method further includes a similarity determination procedure for determining the degree of similarity in a plurality of directions. The color information of the luminance component and the color information of at least three types of color difference components are generated according to the degree of similarity determined in the similarity determination procedure.
According to an eleventh aspect, in the image processing method according to any one of the sixth to tenth aspects, the first image has a plurality of pixels arranged in a triangular lattice.
The invention according to claim 12 is applied to an image processing method, and obtains a first image including a plurality of pixels represented by three or more types of color components and having one pixel having color information of one color component. An acquisition procedure, a color difference generation procedure for generating color information of at least three types of color difference components using the acquired color information of the first image, and a correction process for the generated color information of each color difference component. The method includes a correction procedure and an output procedure of outputting a second image using the corrected color difference component color information.
According to a thirteenth aspect of the present invention, in the image processing method according to the twelfth aspect, the first image is represented by first to third color components, and the color difference generation procedure includes: 1) a first color component and a second color component. 2) color information of a color difference component between the second color component and the third color component, and 3) color information of a color difference component between the third color component and the first color component. Is generated.
According to a fourteenth aspect of the present invention, in the image processing method according to the twelfth aspect, the first image is represented by first to third color components, and the color difference generation procedure uses color information of the first image. Generating color information of a luminance component different from the color information of the first image; 1) color information of a color difference component between the first color component and the luminance component; and 2) color difference between a second color component and the luminance component. The color information of the component and 3) the color information of the color difference component between the third color component and the luminance component are generated.
According to a fifteenth aspect of the present invention, in the image processing method according to the fourteenth aspect, in the first image, the first to third color components are uniformly distributed to a plurality of pixels, and the color difference generation procedure includes: This is to generate color information of a luminance component in which the color component ratio of the first to third color components is 1: 1: 1.
According to a sixteenth aspect of the present invention, in the image processing method according to any one of the first to fifteenth aspects, the output procedure includes outputting the second image at the same pixel position as the first image. is there.
A seventeenth aspect of the present invention is an image processing program for causing a computer to execute the procedure of the image processing method according to any one of the first to sixteenth aspects. According to an eighteenth aspect of the present invention, there is provided a computer-readable recording medium storing the image processing program according to the seventeenth aspect.
According to a nineteenth aspect of the present invention, there is provided an image processing apparatus having the image processing program according to the seventeenth aspect.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
-1st Embodiment-
(Configuration of electronic camera)
FIG. 1 is a functional block diagram of the electronic camera according to the first embodiment. The electronic camera 1 includes an A / D conversion unit 10, an image processing unit 11, a control unit 12, a memory 13, a compression / decompression unit 14, and a display image generation unit 15. Further, a memory card interface unit 17 for interfacing with a memory card (card-shaped removable memory) 16 and an external unit for interfacing with an external device such as a PC (personal computer) 18 via a predetermined cable or wireless transmission path. An interface unit 19 is provided. These blocks are interconnected via a bus 29. The image processing unit 11 is formed of, for example, a one-chip microprocessor dedicated to image processing.
[0008]
The electronic camera 1 further includes a photographing optical system 20, an image sensor 21, an analog signal processor 22, and a timing controller 23. An optical image of the subject acquired by the imaging optical system 20 is formed on the image sensor 21, and an output of the image sensor 21 is connected to an analog signal processing unit 22. The output of the analog signal processing unit 22 is connected to the A / D conversion unit 10. The output of the control unit 12 is connected to the timing control unit 23, and the output of the timing control unit 23 is connected to the image sensor 21, the analog signal processing unit 22, the A / D conversion unit 10, and the image processing unit 11. The imaging device 21 is configured by, for example, a CCD.
[0009]
The electronic camera 1 further includes an operation unit 24 and a monitor 25 corresponding to a release button, a mode switching selection button, and the like. The output of the operation unit 24 is connected to the control unit 12, and the monitor 25 is connected to the output of the display image generation unit 15.
[0010]
Note that a monitor 26, a printer 27, and the like are connected to the PC 18, and an application program recorded on a CD-ROM 28 is installed in advance. Further, the PC 18 includes a CPU, a memory, and a hard disk (not shown), a memory card interface unit (not shown) for interfacing with the memory card 16, and the electronic camera 1 and the like via a predetermined cable or a wireless transmission path. An external interface unit (not shown) for interfacing with an external device is provided.
[0011]
In the electronic camera 1 having the configuration as shown in FIG. 1, when a shooting mode is selected by the operator via the operation unit 24 and the release button is pressed, the control unit 12 causes the imaging device 21 via the timing control unit 23. , The analog signal processing unit 22 and the A / D conversion unit 10. The image sensor 21 generates an image signal corresponding to the optical image. The image signal is subjected to predetermined signal processing by an analog signal processing unit 22, digitized by an A / D conversion unit 10, and supplied to the image processing unit 11 as image data.
[0012]
In the electronic camera 1 of the present embodiment, since the color filters of R (red), G (green), and B (blue) are arranged in a delta arrangement (described later) in the image sensor 21, they are supplied to the image processing unit 11. Image data is represented in an RGB color system. Each pixel constituting the image data has color information of any one of RGB color components.
[0013]
The image processing unit 11 performs image processing such as gradation conversion and contour emphasis on such image data in addition to performing image data conversion processing described later. The image data that has undergone such image processing is subjected to predetermined compression processing by the compression / decompression unit 14 as necessary, and is recorded on the memory card 16 via the memory card interface unit 17.
[0014]
The image data on which the image processing has been completed is recorded on the memory card 16 without performing compression processing, or converted into a color system adopted by the monitor 26 and the printer 27 on the PC 18 side, and May be supplied to the PC 18 via the. When a reproduction mode is selected by the operator via the operation unit 24, the image data recorded on the memory card 16 is read out via the memory card interface unit 17 and is read by the compression / decompression unit 12. The image is expanded and displayed on the monitor 25 via the display image generation unit 15.
[0015]
The decompressed image data is not displayed on the monitor 25, but is converted into a color system adopted by the monitor 26 and the printer 27 of the PC 18 and supplied to the PC 18 via the external interface unit 19. You may.
[0016]
(Image processing)
Next, a description will be given of a process of interpolating image data obtained in the delta arrangement on a triangular lattice and restoring it to square lattice data which can be easily handled on a computer. FIG. 25 is a diagram illustrating the concept of these processes. The triangular lattice refers to an arrangement in which pixels of the image sensor are arranged with a shift of 1/2 pixel for each row. The arrangement forms a triangle by connecting the centers of adjacent pixels. The center point of the pixel may be referred to as a grid point. The delta arrangement shown in FIG. 24B is arranged in a triangular lattice. An image obtained in the arrangement as shown in FIG. 24B may be an image in which pixels are arranged in a triangular arrangement. The square lattice refers to an arrangement in which pixels of the image sensor are arranged without being shifted for each row. The arrangement forms a square when the centers of adjacent pixels are connected. The Bayer arrangement in FIG. 24A is arranged in a square lattice. An image obtained in the arrangement shown in FIG. 24A may be referred to as an image in which pixels are arranged in a rectangle (square).
[0017]
Further, as will be described later, square image data is generated by performing a process of shifting the image data of the delta array by 1/2 pixel every other row. Interpolation processing on a triangular lattice means performing interpolation processing in a state of image data obtained in a delta arrangement. That is, it means that color information of a color component missing at a pixel position in the delta arrangement is interpolated.
[0018]
FIG. 2 is a flowchart illustrating an outline of the image processing performed by the image processing unit 11. In step S1, an image obtained by the image sensor 21 in the delta arrangement is input. In step S2, the similarity is calculated. In step S3, similarity is determined based on the similarity obtained in step S2. In step S4, an interpolation value of a missing color component in each pixel is calculated based on the similarity determination result obtained in step S3. In step S5, the obtained RGB color image is output. The RGB color image output in step S5 is image data obtained on a triangular lattice.
[0019]
Next, in step S6, one-dimensional displacement processing is performed on the image data obtained on the triangular lattice. The one-dimensional displacement processing is performed on every other row of image data, as described later. In step S7, the image data subjected to the one-dimensional displacement processing and the image data not subjected to the one-dimensional displacement processing are combined to output square lattice image data. Steps S1 to S5 are interpolation processing on a triangular lattice, and steps S6 and S7 are square processing. Hereinafter, details of these processes will be described.
[0020]
−Interpolation on triangular lattice−
In the following description, the interpolation process at the R pixel position will be described as a representative. FIG. 3 is a diagram illustrating a positional relationship between pixels obtained by the image sensor 21 in the delta arrangement. The pixels of the image sensor 21 are arranged with a shift of 1/2 pixel for each row, and the color filters are arranged on each pixel in a ratio of RGB color components of 1: 1: 1. That is, the colors are evenly distributed. For reference, the color filters of the Bayer array are arranged in a ratio of RGB of 1: 2: 1 (FIG. 24A).
[0021]
A pixel having R component color information is called an R pixel, a pixel having B component color information is called a B pixel, and a pixel having G component color information is called a G pixel. The image data obtained by the image sensor 21 has only one color component color information for each pixel. The interpolation process is a process of calculating color information of other color components missing in each pixel by calculation. Hereinafter, a case where color information of the G and B components is interpolated at the R pixel position will be described.
[0022]
In FIG. 3, a processing target pixel (interpolation target pixel) which is an R pixel is referred to as Rctr. Further, each pixel position existing around the pixel Rctr is expressed using an angle. For example, a B pixel existing in the 60-degree direction is expressed as B060, and a G pixel is expressed as G060. However, this angle is not an exact angle but an approximate one. The direction connecting 0 degrees to 180 degrees is the 0 degree direction, the direction connecting 120 degrees to 300 degrees is the 120 degree direction, the direction connecting 240 degrees to 60 degrees is the 240 direction, and the direction connecting 30 degrees to 210 degrees is the direction. The direction connecting the 30-degree direction and the direction connecting 150-330 degrees is called the 150-degree direction, and the direction connecting the 270-90 degrees is called the 270-degree direction.
[0023]
1. Calculation of similarity
The similarities C000, C120, and C240 in the directions of 0, 120, and 240 degrees are calculated. In the first embodiment, as shown in Expressions (1), (2), and (3), a similarity between different colors formed between different color components is obtained.
C000} = {| G000-Rctr | + | B180-Rctr | + | (G000 + B180) / 2-Rctr |} / 3}. . . (1)
C120} = {| G120-Rctr | + | B300-Rctr | + | (G120 + B300) / 2-Rctr |} / 3}. . . (2)
C240} = {| G240-Rctr | + | B060-Rctr | + | (G240 + B060) / 2-Rctr |} / 3}. . . (3)
The different-color similarity defined between adjacent pixels as described above has an ability to spatially resolve an image structure having a Nyquist frequency defined by a triangular lattice in a delta arrangement.
[0024]
Next, by performing peripheral addition of similarity and considering continuity with peripheral pixels, the accuracy of similarity is increased. Here, the above-mentioned similarity obtained for each pixel is subjected to peripheral addition using the coefficients shown in FIG. 4 for the R position. The similarity for which peripheral addition has been performed is expressed in lowercase letters. [] Indicates a pixel position on the delta array viewed from the processing target pixel. Equation (4) shows peripheral addition of similarity in the 0-degree direction.
Figure 2004007167
C120 in the 120-degree direction and c240 in the 240-degree direction are similarly obtained.
[0025]
2. Similarity judgment
The smaller the value of the similarity is, the greater the similarity is. Therefore, the strength of the similarity in each direction is determined so as to continuously change according to the reciprocal ratio of the similarity. That is, the determination is made based on (1 / c000) :( 1 / c120) :( 1 / c240). Specifically, the following weight coefficient is calculated.
[0026]
Expressing the similarity in each direction as weighting coefficients w000, w120, and w240 standardized by 1,
w000 = (c120 * c240 + Th) / (c120 * c240 + c240 * c000 + c000 * c120 + 3 * Th) {. . . (5)
w120 = (c240 * c000 + Th) / (c120 * c240 + c240 * c000 + c000 * c120 + 3 * Th) {. . . (6)
w240 = (c000 * c120 + Th) / (c120 * c240 + c240 * c000 + c000 * c120 + 3 * Th) {. . . (7)
Is determined by However, the threshold Th is a term for preventing divergence and takes a positive value. Normally, it is sufficient to set Th = 1, but it is preferable to increase this threshold value for an image with much noise such as a high-sensitivity photographed image. The weighting coefficients w000, w120, and w240 are values according to the strength of similarity.
[0027]
In the Bayer arrangement, as shown in U.S. Pat. No. 5,552,827, U.S. Pat. No. 5,629,734, and JP-A-2001-245314, as a direction determination method in G interpolation, a continuous determination method using a weight coefficient is used. There are two types of discrete judgment methods using threshold judgment. In the Bayer array, the nearest neighbor G component exists densely in four directions with respect to the pixel to be interpolated, so that either the continuous determination method or the discrete determination method can be used without any problem. However, in the delta arrangement in which the nearest G component exists only in three directions of the 0-degree direction, the 120-degree direction, and the 240-degree direction, it is important to continuously determine the direction using the weighting coefficient. The nearest neighbor G component is a pixel having a side adjacent to the interpolation target pixel and having a G component. In FIG. 3, they are G000, G120, and G240.
[0028]
3. Interpolated value calculation
The interpolation values of the G component and the B component are calculated using the above weighting coefficients. The interpolated value includes two terms, average information and curvature information.
<Average information>
Gave} = {w000 * Gave000 + w120 * Gave120 + w240 * Gave240}. . . (8)
Bave = {w000 * Bave000 + w120 * Bave120 + w240 * Bave240}. . . (9)
here,
Gave000 = {(2 * G000 + G180) / 3}. . . (10)
Bave000 = {(2 * B180 + B000) / 3}. . . (11)
Gave120 = {(2 * G120 + G300) / 3}. . . (12)
Bave120 = {(2 * B300 + B120) / 3}. . . (13)
Gave240 = {(2 * G240 + G060) / 3}. . . (14)
Bave240 = {(2 * B060 + B240) / 3}. . . (15)
It is.
<Curvature information>
dR} = {(6 * Rctr-R030-R090-R150-R210-R270-R330) / 12}. . . (16)
<Interpolated value>
Gctr = {Gave + dR}. . . (17)
Bctr = {Bave + dR}. . . (18)
[0029]
Normally, in G interpolation of a Bayer array, average information is obtained using the nearest neighbor G component. However, in the case of the delta arrangement, it has been experimentally found that a similar problem occurs in which the vertical lines and the boundary lines in the 30-degree direction and the 150-degree direction become bumpy. For example, in the case of a vertical line boundary, it is assumed that the weighting coefficients are w000 ≒ 0 and w120 ≒ w240 ≒ 0.5, and correspond to a portion that performs averaging processing in two directions. However, if only the nearest neighbor pixel average is used, an average of two points on the left side is obtained at a point along the vertical line, and an average of two points on the right side is obtained at the next adjacent diagonally upper right or lower right point. it is conceivable that.
[0030]
Therefore, when averaging is performed according to the distance ratio from the interpolation target pixel in consideration of the second adjacent pixel, for example, in the case of a vertical line, the average is always obtained from both the right and left sides. , 150 degree boundaries are dramatically improved. Therefore, as shown in Expressions (10) to (15), averaging processing including up to the second adjacent pixel is performed. Thereby, the spatial resolution in the directions of 30, 150, and 270 degrees is improved. For example, in equation (10), G000 is the nearest neighbor pixel or the first neighbor pixel, and G180 is the second neighbor pixel. In equation (12), G120 is the nearest neighbor pixel or the first neighbor pixel, and G300 is the second neighbor pixel. The same applies to other expressions. The first adjacent pixels are pixels separated by about one pixel pitch, and the second adjacent pixels are separated by about two pixel pitches. It can be said that Rctr and G120 are separated by about one pixel pitch, and Rctr and G300 are separated by about 2 pixel pitches. FIG. 22 is a diagram defining adjacent pixels. center is a pixel to be processed, nearest is the nearest, nearest, or first neighboring pixel, and 2nd is a second neighboring pixel.
[0031]
In the conventional technique of Bayer array interpolation, the term corresponding to the curvature information dR is generally calculated in consideration of the same directionality as the average information. However, in the delta arrangement, the directionality of the average information (0-, 120-, and 240-degree directions) does not match the directionality of the extractable curvature information (30-, 150-, and 270-degree directions). In such a case, the curvature information in the 30-degree direction and the 150-degree direction are averaged to define the curvature information in the 0-degree direction, and the interpolation value may be calculated in consideration of the directionality of the curvature information as in the case of the Bayer array. Although it is possible, it has been experimentally found that it is more effective to uniformly extract the curvature information without considering the directionality. Therefore, in the present embodiment, the average information considering the directionality is corrected using the curvature information having no directionality. As a result, it is possible to improve the gradation clarity up to the high-frequency regions in all directions.
[0032]
The equation (16) for calculating the curvature information dR uses the coefficient values shown in FIG. Equation (16) calculates the difference between the interpolation target pixel Rctr and the peripheral pixel, the difference between the peripheral pixel on the opposite side and the interpolation target pixel Rctr, and further calculates the difference between them. Therefore, it is obtained by the second derivative operation.
[0033]
The curvature information dR is information indicating a degree of change in color information of a certain color component. When the value of the color information of a certain color component is plotted and represented by a curve, this is information indicating a change in the curve of the curve and the degree of the curve. In other words, the amount reflects the structural information related to the unevenness of the change in the color information of the color component. In the present embodiment, the curvature information dR of the R pixel position is obtained using the Rctr of the interpolation target pixel and the color information of the surrounding R pixels. The color information of the G component is used for the G pixel position, and the color information of the B component is used for the B pixel position.
[0034]
As described above, the "interpolation processing of the G and B components at the R pixel position" could be performed. The "interpolation process of B and R components at G pixel position" is performed by cyclically replacing the symbol of "interpolation process of G and B components at R pixel position" with R for G, G for B, and B for R. Exactly the same processing may be performed. The "interpolation process of R and G components at B position" is performed by cyclically replacing the symbol of "interpolation process of B and R components at G position" with G as B, B as R, and R as G. Exactly the same processing may be performed. That is, the same calculation routine (subroutine) can be used in each interpolation process.
[0035]
The image restored as described above can bring out all the limit resolution performance of the delta arrangement in the spatial direction. That is, when viewed in the frequency space (k space), as shown in FIG. 6, all the hexagonal achromatic color reproduction regions of the delta arrangement are resolved. Also, a clear image can be obtained in the gradation direction. This is an extremely effective method especially for an image having many achromatic portions.
[0036]
−Square processing−
Next, a description will be given of a process of restoring image data interpolated on a triangular lattice as described above into square lattice data which is easy to handle on a computer. As a conventional technique for restoring data of a single-chip image sensor shifted by 画素 pixel on a row-by-row basis to three-color aligned square grid data, JP-A-8-340455 discloses a delta arrangement, and JP-A-8-340455 discloses a honeycomb arrangement. There are JP-A-2001-103295 and JP-A-2000-194386.
[0037]
Japanese Patent Application Laid-Open No. 8-340455 discloses an example in which restored data is generated at a pixel position different from that of a triangular lattice, or restored data is generated on a virtual square lattice having a pixel density twice that of the triangular lattice. Also, an example is shown in which a half row of the triangular lattice is restored to the same pixel position, and the other half row is restored to a pixel position shifted by 画素 pixel from the triangular lattice. However, this implements the interpolation processing directly at the square lattice position, and applies a different interpolation processing when the distance between adjacent pixels of the triangular lattice changes. On the other hand, in JP-A-2001-103295, squares are formed by two-dimensional cubic interpolation, and in JP-A-2000-194386, virtual double-density square lattice data is generated.
[0038]
Although there are various methods as described above, in the first embodiment, a method for maximizing the performance of the delta arrangement will be described.
[0039]
In the first embodiment, as described above, first, the interpolation data is restored with the triangular lattice at the same pixel position as the delta arrangement. As a result, the spatial frequency limit resolution performance of the delta arrangement can be obtained. Further, if the color difference correction processing and the edge enhancement processing are also performed in the triangular arrangement, the effect works isotropically well. Therefore, the image is restored once on the triangular lattice, and RGB values are generated for each pixel.
[0040]
Next, the image data generated on the triangular lattice is subjected to square conversion. It has been experimentally found that it is important to keep the original data as much as possible in order to maintain the resolution performance of the triangular lattice. Therefore, a displacement process is performed in which every other row is shifted by half a pixel by a half row, and the remaining half row is not processed, so that the Nyquist resolution of the vertical line of the triangular arrangement is maintained. Experiments have confirmed that the displacement processing can be self-estimated by cubic interpolation within one dimension of the row to be processed, although the Nyquist frequency of the square lattice is affected to some extent, but the vertical line resolution of the triangular lattice can be maintained with almost no problem. .
[0041]
That is, the processing of the following equation (19) is performed on the even-numbered rows, and then the substitution processing of the equation (20) is performed. Thus, the color information of the R component at the pixel position of [x, y] is obtained.
Figure 2004007167
The G component and the B component are obtained in the same manner. The processing of Expression (19) is called cubic displacement processing. In addition, since the position in the one-dimensional direction is subjected to the displacement processing, it is also referred to as one-dimensional displacement processing. FIG. 7 is a diagram showing coefficient values used in the equation (19). The one-dimensional displacement process by the cubic can be said to be a process of applying a one-dimensional filter composed of positive and negative coefficient values.
[0042]
The image restoration method as described above can not only maintain the limit resolution of the triangular arrangement to the maximum, but also can use the same processing routine for all the pixels in the image restoration processing on the triangular lattice, and finally, reduce the half of the image. Since simple one-dimensional processing only needs to be performed on the rows, an algorithm that is simpler than that of the related art can be achieved without increasing the data amount. In particular, the effect is great when implemented by hardware.
[0043]
-2nd Embodiment-
In the first embodiment, the similarity is determined by calculating the similarity between different colors. In the second embodiment, the similarity is determined by calculating the similarity between the same colors. The second embodiment is effective for an image including many colored portions. The configuration of the electronic camera 1 according to the second embodiment is the same as that of FIG. 1 according to the first embodiment, and a description thereof will be omitted. The image processing will be described focusing on the differences from the first embodiment. Unless otherwise stated, it is the same as the first embodiment.
[0044]
(Image processing)
−Interpolation on triangular lattice−
1. Calculation of similarity
The similarities C000, C120, and C240 in the directions of 0, 120, and 240 degrees are calculated. In the second embodiment, as shown in Expressions (20), (21), and (22), the similarity between same colors formed between the same color components is obtained. An operation is performed between pixels separated by three pixel pitches. FIG. 8 is a diagram showing pixel positions used in equations (20), (21), and (22).
C000} = {(| R000-Rctr | + | R180-Rctr |) / 2 + | G000-G180 | + | B000-B180 |} / 3}. . . (20) {C120} = {(| R120-Rctr | + | R300-Rctr |) / 2 + | G120-G300 | + | B120-B300 |} / 3}. . . (21) {C240} = {(| R240-Rctr | + | R060-Rctr |) / 2 + | G240-G060 | + | B240-B060 |} / 3}. . . (22) The similarity between same colors defined as described above has a capability of spatially resolving a horizontal line in the 0-degree direction and an image structure in the 120-degree and 240-degree directions in the color portion, and a system having chromatic aberration. Has the ability to determine the image structure without being affected by
[0045]
Next, peripheral addition of similarity is performed in the same manner as in the first embodiment.
[0046]
2. Similarity judgment
This is the same as in the first embodiment.
[0047]
3. Interpolated value calculation
The interpolation values of the G component and the B component are calculated. The interpolated value includes two terms, average information and curvature information.
<Average information>: Same as in the first embodiment.
<Curvature information>
dR} = {(6 * Rctr-R030-R090-R150-R210-R270-R330) / 12}. . . (23)
dG} = {((G000 + G120 + G240)-(G060 + G180 + G300)) / 6}. . . (24)
dB} = {((B060 + B180 + B300)-(B000 + B120 + B240)) / 6}. . . (25)
<Interpolated value>
Gctr = {Gave + (dR + dG + dB) / 3}. . . (26)
Bctr} = {Bave + (dR + dG + dB) / 3}. . . (27)
[0048]
In the second embodiment, unlike the first embodiment, the average information is corrected using curvature information of three colors. This is because, as disclosed in Japanese Patent Application Laid-Open No. 2001-245314, the image including a coloring portion or chromatic aberration is prevented from being overcorrected only by dR, and the sharpness in the gradation direction is maintained. However, JP-A-2001-245314 relates to a Bayer arrangement. Even in the case where the curvature information of three colors is used, unlike the case of the Bayer arrangement, similarly to the first embodiment, the correction using the curvature information having no direction with respect to the three RGB components is performed in all directions. It has been found through experiments that the effect of improving the gradation clarity is high. Further, since the delta array is composed of R: G: B = 1: 1: 1, it was also found that it is better to use three-component curvature information at 1: 1: 1. FIG. 9 illustrates coefficient values used in equations (23), (24), and (25).
[0049]
As described above, the "interpolation processing of the G and B components at the R pixel position" could be performed. "Interpolation processing of B and R components at G pixel position" and "interpolation processing of R and G components at B position" are also obtained by cyclically replacing RGB, respectively, as in the first embodiment. The square processing can be performed in the same manner as in the first embodiment.
[0050]
As described above, in the restoration processing of the second embodiment, it is possible to determine and resolve a color boundary even for an image including a color portion, and to perform sharpness without causing overcorrection in the gradation direction. Can obtain a perfect image. It is also strong against systems that include chromatic aberration.
[0051]
-Third embodiment-
In image processing of image data obtained by the Bayer array, usually, in order to reduce false colors remaining in an image after interpolation processing, an RGB signal is converted into YCbCr comprising luminance and color difference, and a color difference low pass is performed on Cb and Cr planes. Post-processing is performed to remove false colors by applying a filter or a color difference median filter, and to return to the RGB color system. Further, in order to compensate for a decrease in sharpness due to an optical low-pass filter or the like, edge enhancement processing is performed on the luminance component Y plane. In the case of the delta arrangement, exactly the same post-processing may be applied.
[0052]
However, in the third embodiment, a post-processing method suitable for the delta arrangement will be described. The configuration of the electronic camera 1 according to the third embodiment is the same as that of FIG. 1 of the first embodiment, and a description thereof will be omitted.
[0053]
FIG. 10 is a flowchart illustrating an outline of the image processing performed by the image processing unit 11 in the third embodiment. It is assumed that the interpolation processing is performed on a triangular lattice as in the first embodiment. FIG. 10 starts from the input of the RGB color image after the interpolation processing. That is, steps S1 to S5 in FIG. 2 of the first embodiment are completed, and thereafter, the flowchart in FIG. 10 starts.
[0054]
In step S11, the RGB color image data after the interpolation processing is input. In step S12, conversion is performed from the RGB color system to the YCrCgCb color system unique to the third embodiment. In step S13, a low-pass filter process is performed on the color difference plane (CrCgCb plane). In step S14, edge enhancement processing is performed on the luminance plane (Y plane). In step S15, when the false color on the color difference plane has been removed, conversion is performed to return the YCrCgCb color system to the original RGB color system. In step S16, the obtained RGB color image data is output. The RGB color image data output in step S16 is image data obtained on a triangular lattice.
[0055]
When performing the square processing on the image data obtained on the triangular lattice, the processing of steps S6 and S7 in FIG. 2 is performed as in the first embodiment. Hereinafter, the details of the processing in steps S12 to S15 will be described.
[0056]
1. Color system conversion
Conversion is made from the RGB color system to the YCrCgCb color system. However, the YCrCgCb color system is defined as that represented by equations (28) to (31).
Y [i, j]} = {(R [i, j] + G [i, j] + B [i, j]) / 3}. . . (28)
Cr [i, j]} = {R [i, j] -Y [i, j]}. . . (29)
Cg [i, j]} = {G [i, j] -Y [i, j]}. . . (30)
Cb [i, j]} = {B [i, j] -Y [i, j]}. . . (31)
[0057]
After imaging the circular zone plate and performing interpolation processing on a triangular lattice, as shown in equation (28), when conversion is performed to uniformly handle RGB in Y-plane generation, the hexagonal corner in FIG. The generated color moiré completely disappears from the luminance plane Y. As a result, all false color elements can be included in the color difference components Cr, Cg, and Cb. In the third embodiment, three types of color difference components are prepared and handled instead of the two types of color difference components conventionally handled, so that all false color elements unique to the delta array can be extracted. .
[0058]
2. Color difference correction
Here, an example is shown in which low-pass processing is performed on a color difference plane by equation (32) as color difference correction processing. When a color difference low-pass filter is applied on a triangular lattice (triangular arrangement), the false color reduction effect can be obtained with good compatibility in all directions. Also, median filter processing on a triangular lattice may be used. Here, [] represents a pixel position on the triangular lattice viewed from the processing target pixel as shown in FIG. 22. FIG. 11 illustrates the coefficient values used in equation (32). The low-pass filter is not limited to the one shown here, and another one may be used. 12 and 13 show examples of other low-pass filters.
<Low-pass processing>
Figure 2004007167
The same applies to tmp_Cg and @tmp_Cb.
<Substitution processing>
Cr [i, j]} = {tmp_Cr [i, j]}. . . (33)
Cg [i, j]} = {tmp_Cg [i, j]}. . . (34)
Cb [i, j]} = {tmp_Cb [i, j]}. . . (35)
[0059]
3. Edge enhancement processing
Next, if edge enhancement processing is necessary for the luminance plane Y, the following processing is performed on a triangular lattice.
<Band pass processing>
Edges are extracted by Laplacian processing on a triangular lattice. FIG. 14 illustrates coefficient values used for the Laplacian processing of the equation (36). The Laplacian is not limited to the one shown here, and another Laplacian may be used. 15 and 16 show other examples of Laplacian.
Figure 2004007167
<Edge enhancement processing>
Y [center] = Y [center] + K * YH [center] {. . . (37)
Here, K is a value equal to or greater than zero, and is a parameter for adjusting the level of edge enhancement.
[0060]
4. Color system conversion
As described above, when the color difference correction processing is performed and the false color on the color difference surface is removed, the color system is returned to the original RGB color system.
R [i, j] = Cr [i, j] + Y [i, j]}. . . (38)
G [i, j] = Cg [i, j] + Y [i, j]}. . . (39)
B [i, j] = Cb [i, j] + Y [i, j]}. . . (40)
[0061]
As described above, the luminance resolution is saved to the Y component generated at a ratio of R: G: B = 1: 1: 1, and three kinds of equally treated color difference components Cr, Cg, and Cb are introduced. Color difference correction with extremely high false color suppression ability can be performed. Further, by performing the color difference correction processing and the luminance correction processing on the triangular lattice, the correction processing suitable for the directionality of the delta arrangement can be performed.
[0062]
-Fourth embodiment-
In the first embodiment, the process of interpolating the color information of the color component missing in each pixel on the triangular lattice has been described. In the fourth embodiment, an example of image restoration processing of a different system from the interpolation processing in the RGB plane of the first embodiment will be described. This is a method in which a luminance component and a color difference component are directly generated from a delta array without through an interpolation process in an RGB plane. Ideally, the usefulness of separating into one luminance plane and three chrominance planes described in the third embodiment is taken over, and the luminance plane is responsible for maximizing the achromatic luminance resolution. The three color difference surfaces are responsible for maximizing the color resolution of the three primary colors.
[0063]
The configuration of the electronic camera 1 of the fourth embodiment is the same as that of FIG. 1 of the first embodiment, and a description thereof will be omitted.
[0064]
(Image processing)
FIG. 17 is a diagram showing a concept of directly generating a luminance plane (Y) and three color difference planes (Cgb, Cbr, Crg) from a delta plane in a delta arrangement, and then converting the plane to the original RGB color system. It is. FIG. 18 is a flowchart illustrating an outline of image processing performed by the image processing unit 11 in the fourth embodiment.
[0065]
In step S21, an image obtained by the image sensor 21 in the delta arrangement is input. In step S22, the similarity is calculated. In step S23, similarity is determined based on the similarity obtained in step S22. In step S24, a luminance plane (Y0 plane) is generated based on the similarity determination result obtained in step S23 and the delta array image data obtained in step S21. In step S25, a correction process is performed on the luminance plane (Y0 plane) obtained in step S24.
[0066]
On the other hand, in step S26, the color difference components Cgb, Cbr, and Crg are generated based on the similarity determination result obtained in step S23 and the delta array image data obtained in step S21. In step S26, not all the color difference components Cgb, Cbr, and Crg have been generated yet in all the pixels. In step S27, interpolation processing is performed on the color difference components that have not been generated based on the peripheral color difference components. As a result, a color difference plane of Cgb, Cbr, and Crg is completed.
[0067]
In step S28, the generated color system of Y, Cgb, Cbr, and Crg is converted into the RGB color system. In step S29, the converted RGB color image data is output. Steps S21 to S29 are all processing on a triangular lattice. Therefore, the RGB color image data output in step S29 is triangular lattice image data. Hereinafter, details of these processes will be described. If the square processing is necessary, the same processing as steps S6 and S7 in FIG. 2 of the first embodiment is performed.
[0068]
1. Calculation of similarity
First, the similarity is calculated. Here, the similarity obtained by an arbitrary method may be used. However, the most accurate one shall be used. For example, the similarity between different colors shown in the first embodiment, the similarity between same colors shown in the second embodiment, a combination thereof, or the similarity between different colors is determined by a color index or the like. The same-color similarity may be switched and used.
[0069]
2. Similarity judgment
The determination is made in the same manner as in the first embodiment.
[0070]
3. Restored value calculation
1) Generation of luminance component
First, a luminance plane is generated by weighted addition of the delta plane so that R: G: B = 1: 1: 1 always with a positive coefficient that changes according to the direction similarity. For the same reason as in the first embodiment, the range of the weighted addition takes the G component and the B component to the second adjacent pixel. That is, when the expressions (8) and (9) are rewritten using the definition expressions of the expressions (10) to (15) of the first embodiment, the expressions (41) and (42) are obtained.
<G>2nd{= {Gave} = {w000 * Gave000 + w120 * Gave120 + w240 * Gave240}. . . (41)
<B>2nd{= Bave} = {w000 * Bave000 + w120 * Bave120 + w240 * Bave240}. . . (42)
Using these and the central R component, a luminance component Y0 is generated by equation (43).
Y0 = Rctr + <G>2nd+ <B>2nd. . . (43)
[0071]
Since the luminance component generated in this manner is always generated using the positive direction weighting coefficient while including the center pixel at a constant color component ratio, the potential for gradation sharpness is extremely high, and the spatial resolution is extremely high. A high image can be obtained, and an image which is connected to peripheral pixels very smoothly without being affected by chromatic aberration can be obtained. For example, when the similarity between different colors is adopted as the similarity for an achromatic circular zone plate, the spatial resolution reaches the limit resolution of FIG. 6 as in the first embodiment.
[0072]
2) Brightness component correction
Since the above-described luminance plane is generated using only positive coefficients, a correction process using Laplacian is performed in order to draw out the potential of gradation clarity contained therein. Since the luminance plane Y0 is formed so as to be extremely smoothly connected to peripheral pixels in consideration of the directionality, it is not necessary to calculate a correction term that requires a new calculation in accordance with the directionality in the correction processing. Thus, a single process using a fixed bandpass filter may be used. As shown in FIGS. 14 to 16 of the third embodiment, several methods are available for obtaining the Laplacian in the triangular arrangement. However, if the degree of optimality is slightly increased, the luminance plane Y0 can be generated only by collecting the G and B components in the directions of 0, 120, and 240 degrees. FIG. 15 shows a case where correction is performed using the Laplacian shown in FIG. Let Y be the corrected luminance component.
[0073]
<Band pass processing>
Figure 2004007167
<Correction processing>
Y [center] = Y [center] + k * YH [center] {. . . (45)
Here, k is a positive value and is usually set to 1. However, by setting the value to be larger than 1, the edge emphasis processing as shown in the third embodiment can also be provided here.
[0074]
3) Color difference component generation
Unlike the definition of the third embodiment, the three color difference planes are generated directly from the delta plane independently of the luminance plane Y. The three color difference components Cgb, Cbr, and Crg are obtained. However, Cgb = GB, Cbr = BR, and Crg = RG are defined.
[0075]
First, Crg and Cbr are obtained at the R position. The difference value between the R component of the central pixel and the G component or B component of the peripheral pixel is calculated in consideration of the directionality.
Crg = Rctr-{<G>2nd+ DG}. . . (46)
Cbr = {<B>2nd+ DB {-Rctr}. . . (47)
Here, dG and dB are the same as those defined by the equations (24) and (25) in the second embodiment, and <G>2nd, <B>2ndIs the same as Expressions (41) and (42). Similarly to the first embodiment, in the generation of the color difference component, average information including up to the second adjacent pixel is calculated, and consistency with the luminance component is obtained. The resolution has been raised. Although dG and dB are not always necessary, they are added because they have the effect of improving color resolution and color vividness.
[0076]
The color difference components Cgb and Crg at the G position and the color difference components Cbr and Cgb at the B position are obtained in the same manner. At this point, the Crg and Cbr components have been obtained at the R position, and the Cgb component has been obtained at the nearest pixel. FIG. 19 is a diagram showing this state.
[0077]
Next, the Cgb component at the R position is obtained from the equation (48) using the Cgb component of the pixel around the R position (interpolation processing). At this time, the calculation is performed using the direction determination result obtained at the R position.
Figure 2004007167
[0078]
As described above, the four components of YCgbCbrCrg are obtained for all the pixels. If necessary, the color difference planes Cgb, Cbr, and Crg may be subjected to correction processing such as a color difference low-pass filter similar to that of the third embodiment to suppress false colors.
[0079]
4) Color system conversion
The YCgbCbrCrg generated for each pixel is converted to an RGB color system. Y = (R + G + B) / 3, Cgb = GB, Cbr = BR, Crg = RG are not four independent equations, but satisfy the relationship of Cgb + Cbr + Crg = 0. That is, although the conversion method is not unique because it is a 4-to-3 conversion, all Y, Cgb, Cbr are used in the R, G, B conversion formulas in order to suppress color moire and maximize the luminance resolution and the color resolution. , Crg components are included, and the mutual moiré canceling effect is used. In this way, all of the highest performances generated by the respective roles of Y, Cgb, Cbr, and Crg can be reflected on each of R, G, and B.
R [i, j] = (9 * Y [i, j] + Cgb [i, j] -2 * Cbr [i, j] + 4 * Crg [i, j]) / 9}. . . (49)
G [i, j] = (9 * Y [i, j] + 4 * Cgb [i, j] + Cbr [i, j] -2 * Crg [i, j]) / 9}. . . (50)
B [i, j] = (9 * Y [i, j] -2 * Cgb [i, j] + 4 * Cbr [i, j] + Crg [i, j]) / 9}. . . (51)
[0080]
As described above, the image restoration method according to the fourth embodiment has extremely high gradation clarity, and simultaneously achieves excellent luminance resolution performance and color resolution performance in the spatial direction, while reducing chromatic aberration. It has the effect of being strong. When the square processing is required, it can be performed in the same manner as in the first embodiment.
[0081]
-Fifth embodiment-
In the second embodiment, the similarity is determined by calculating the similarity between the same colors. At this time, only similarities in the directions of 0, 120, and 240 degrees were obtained. However, in the fifth embodiment, the similarity in the directions of 30, 150, and 270 degrees is also obtained. The configuration of the electronic camera 1 according to the fifth embodiment is the same as that of FIG. 1 according to the first embodiment, and a description thereof will be omitted.
[0082]
The case where the G and B components are interpolated at the R pixel position will be mainly described. Further, reference is made to FIG. 8 of the second embodiment. At the R pixel position, the three nearest pixels of the G component are adjacently located at positions indicating 0, 120, and 240 degrees, and the second adjacent pixel indicates 60, 180, and 300 degrees separated by two pixels. There are three in position. Similarly, for the B component, there are three adjacent pixels at positions adjacent to each other at 60 degrees, 180 degrees, and 300 degrees, and a second adjacent pixel at positions 0 degrees, 120 degrees, and 240 degrees separated by two pixels. There are three. In addition, the nearest neighbor pixel of the R component is located at six positions 30 degrees, 90 degrees, 150 degrees, 210 degrees, 270 degrees, and 330 degrees separated by two pixels, and the second adjacent pixel is 0 pixels separated by three pixels. There are six at positions pointing to degrees, 60 degrees, 120 degrees, 180 degrees, 240 degrees, and 300 degrees.
[0083]
1. Calculation of similarity
1) Calculation of similarity between same colors at three pixel intervals
The similarities C000, C120, and C240 in the directions of 0, 120, and 240 degrees are calculated. The same-color similarity formed between the same color components in these directions cannot be defined to be shorter than three pixel intervals.
C000} = {(| R000-Rctr | + | R180-Rctr |) / 2 + | G000-G180 | + | B000-B180 |} / 3}. . . (52) {C120} = {(| R120-Rctr | + | R300-Rctr |) / 2 + | G120-G300 | + | B120-B300 |} / 3}. . . (53) {C240} = {(| R240-Rctr | + | R060-Rctr |) / 2 + | G240-G060 | + | B240-B060 |} / 3}. . . (54)
[0084]
Since the same-color similarity defined in this way is examined for the directionality that matches the direction in which the G component and the B component are missing at the R pixel position, the horizontal line in the 0-degree direction and the 120-degree direction in the coloring portion are examined. , 240 degrees are spatially resolved. However, it should be noted that, unlike the same-color similarity at two-pixel intervals in the Bayer array, the information is between pixels that are very far from three-pixel intervals.
[0085]
2) Calculation of the similarity between the same colors at two pixel intervals
Next, the similarities C030, C150, and C270 in the directions of 30, 150, and 270 degrees are calculated. The similarity between the same colors in these directions can be defined by a shorter two-pixel interval, unlike the 0 degree, 120 degree, and 240 degree directions.
C030} = {(| R030-Rctr | + | R210-Rctr |) / 2 + | G240-G000 | + | B060-B180 |} / 3}. . . (55) {C150} = {(| R150-Rctr | + | R330-Rctr |) / 2 + | G000-G120 | + | B180-B300 |} / 3}. . . (56) {C270} = {(| R270-Rctr | + | R090-Rctr |) / 2 + | G120-G240 | + | B300-B060 |} / 3. . . (57) However, since the similarity in the direction in which the G component and the B component missing at the R pixel position do not coincide with the direction in which the B component exists is examined, a technique is required to effectively utilize these.
[0086]
3) Surrounding addition of similarity
Further, by performing peripheral addition on each of the above-described similarities and taking into account continuity with peripheral pixels, the accuracy of the similarity is increased. Here, peripheral addition is performed on the R pixel position for each of the above-described six similarities obtained for each pixel. The similarity for which peripheral addition has been performed is expressed in lowercase letters. However, [] represents a pixel position on the delta array viewed from the processing target pixel. Equation (58) is the same as equation (4) in the first embodiment.
Figure 2004007167
c120, c240, c030, c150, and c270 are similarly obtained.
FIG. 26 shows the azimuth relationship of the similarity described above.
[0087]
2. Similarity judgment
The smaller the value of the similarity described above, the greater the similarity to the direction. However, the meaning of determining the similarity is significant in the direction in which the G component and the B component do not exist in the processing target pixel, that is, in the directions of 0, 120, and 240 degrees, and in the directions of 30, 150, and 270. It is meaningless to be able to determine the degree of similarity. Therefore, it is conceivable to first determine the degree of similarity in the 0-degree, 120-degree, and 240-degree directions continuously using the similarity in the 0-degree, 120-degree, and 240-degree directions and the reciprocal ratio thereof. It is. That is, the determination is made based on (1 / c000) :( 1 / c120) :( 1 / c240).
[0088]
For example, since the similarity c000 has a capability of resolving a chromatic horizontal line, the ky-axis direction of the frequency reproduction range of each of the RGB color components in the delta arrangement in FIG. 20 can be extended to the limit resolution. That is, such a determination method can extend the color resolution of a chromatic image to the limit resolution of the hexagonal vertices in FIG. However, since the similarity is a long-distance similarity of three pixel intervals, the direction cannot be determined due to the influence of the aliasing frequency component at an angle between them, and particularly in the direction of 30 degrees, 150 degrees, and 270 degrees. This has the most adverse effect, and only a color resolving power such that the vicinity of the midpoint of each side of the hexagon in FIG.
[0089]
Therefore, in order to prevent such an adverse effect of the long-range correlation, the similarities c030, c150, and c270 of the short-range correlation are effectively used. However, by simply taking the reciprocal, it is only possible to determine the similarity in the directions of 30, 150, and 270 degrees. In order to convert the similarity to the similarity in the directions of 0, 120, and 240 degrees, the reciprocal is Instead, it is interpreted that the value of the similarity itself expresses the similarity in the direction orthogonal to the directions of 30 degrees, 150 degrees, and 270 degrees, that is, the directions of 120 degrees, 240 degrees, and 0 degrees. Therefore, the similarity in the 0 degree, 120 degree, and 240 degree directions is determined by the following ratio.
(C270 / c000): (c030 / c120): (c150 / c240)
[0090]
When the similarities in the 0-degree, 120-degree, and 240-degree directions are expressed as weighting coefficients w000, w120, and w240 standardized by 1,
Figure 2004007167
Is determined by However, the constant Th takes a positive value in a term for preventing divergence. Normally, it is sufficient to set Th = 1, but it is preferable to increase this threshold value for an image with much noise such as a high-sensitivity photographed image.
[0091]
The 0 degree direction and the 270 degree direction, the 120 degree direction and the 30 degree direction, and the 240 degree direction and the 150 degree direction are orthogonal to each other. This orthogonal relationship is expressed as a 0 degree direction ⊥270 degree direction, a 120 degree direction ⊥30 degree direction, and a 240 degree direction ⊥150 degree direction.
[0092]
The similarity continuously determined using the similarities in the six directions has a spatial resolution that accurately reproduces all the hexagons in FIG. 20 with respect to the chromatic image. In addition, the spatial resolution based on the similarity between the same colors can always be achieved without being affected by the chromatic aberration included in the optical system because the similarity between the same color components is observed.
[0093]
3. Interpolated value calculation
The interpolation value is obtained in the same manner as in the second embodiment.
[0094]
As described above, in the fifth embodiment, the spatial color resolving power of each RGB single color originally included in the delta arrangement can be derived for any image. In addition, clear image restoration in the gradation direction is possible, and a strong performance is exhibited even for a system including chromatic aberration.
[0095]
The calculation of the similarity and the determination of the similarity in the fifth embodiment can be applied to the calculation of the similarity and the determination of the similarity in the fourth embodiment. Such an image restoration method has an effect that it has extremely high gradation clarity, simultaneously achieves excellent luminance resolution performance and color resolution performance in the spatial direction, and is strong against chromatic aberration. In particular, it is possible to derive the highest color resolution performance of the delta arrangement while achieving clear gradation. In normal image processing, there is a trade-off in which edge enhancement processing is performed to increase gradation clarity, the color resolution is reduced by that amount, color fading occurs, and the three-dimensional appearance is impaired. By introducing the restoration values of the four components, the conflicting problems can be solved at the same time.
[0096]
-Sixth embodiment-
In the Bayer array, usually, in order to reduce false colors remaining in an image after the interpolation processing, the RGB signals are converted into YCbCr composed of luminance and chrominance, and a chrominance low-pass filter is applied to the Cb and Cr planes, or a chrominance median filter is used. Or post-processing to remove false colors and return to the RGB color system. Even in the case of the delta arrangement, if the Nyquist frequency cannot be completely reduced by the optical low-pass filter, an appropriate false color reduction process is required to improve the appearance. In the sixth embodiment, a post-processing method will be described in which the color resolution performance, which is an excellent feature of the delta arrangement, is not impaired as much as possible. The configuration of the electronic camera 1 of the sixth embodiment is the same as that of FIG. 1 of the first embodiment, and a description thereof will be omitted.
[0097]
FIG. 21 is a flowchart illustrating an outline of image processing performed by the image processing unit 11 in the sixth embodiment. Interpolation processing is performed on a triangular lattice as in the first, second, fourth, and fifth embodiments. FIG. 21 starts from the point where the RGB color image after the interpolation processing is input. For example, steps S1 to S5 in FIG. 2 of the first embodiment are completed, and thereafter, the flowchart in FIG. 21 starts.
[0098]
In step S31, the RGB color image data after the interpolation processing is input. In step S32, the RGB color system is converted to the YCgbCbrCrg color system unique to the sixth embodiment. In step S33, a color determination image is generated. In step S34, a color index is calculated using the color determination image generated in step S33. In step S35, color determination of low saturation or high saturation is performed based on the color index of step S34.
[0099]
In step S36, the low-pass filter to be used is switched to perform color difference correction based on the color determination result in step S35. The color difference data to be corrected is generated in step S32. In step S37, conversion is performed to return the YCgbCbrCrg color system to the original RGB color system when the false color on the color difference plane has been removed. In step S38, the obtained RGB color image data is output. The RGB color image data output in step S38 is image data obtained on a triangular lattice.
[0100]
When performing the square processing on the image data obtained on the triangular lattice, the processing of steps S6 and S7 in FIG. 2 is performed as in the first embodiment. Hereinafter, the details of the processing in steps S32 to S37 will be described.
[0101]
1. Color system conversion
Conversion from the RGB color system to the YCgbCbrCrg color system. However, the YCgbCbrCrg color system is defined by the following equations (62) to (65).
Y [i, j]} = {(R [i, j] + G [i, j] + B [i, j]) / 3}. . . (62)
Cgb [i, j]} = {G [i, j] -B [i, j]}. . . (63)
Cbr [i, j]} = {B [i, j] -R [i, j]}. . . (64)
Crg [i, j]} = {R [i, j] -G [i, j]}. . . (65)
By performing the conversion for uniformly handling RGB in this manner, for example, in the circular zone plate, the color moiré that occurs around the corners of the hexagon in FIG. 6 completely disappears from the luminance plane Y, False color elements can be included in the color difference components Cgb, Cbr, and Crg.
[0102]
2. Color rating
1) Generation of color judgment image
In order to distinguish false colors in the achromatic portion from the colored portions as much as possible for color evaluation, a strong color difference low-pass filter is applied to the entire surface to temporarily reduce the false color. However, since this is a temporary color determination image, it does not affect the actual image.
Figure 2004007167
TCbr and TCrg are similarly obtained.
[0103]
2) Calculation of color index
Next, the color index Cdiff is calculated using the color determination image in which the false color is reduced, and color evaluation is performed in pixel units.
Cdiff [i, j] = (| Cgb [i, j] | + | Cbr [i, j] | + | Crg [i, j] |) / 3}. . . (67)
[0104]
3) Color judgment
A threshold value is determined for the continuous color index Cdiff, and is converted into a discrete color index BW.
Figure 2004007167
Here, the threshold value Th is preferably set to about 30 in the case of 256 gradations.
[0105]
3. Adaptive color difference correction
Since the image can be divided into two regions by the color judgment, the false color of the achromatic portion is strongly erased, while the color resolution of the chromatic portion is subjected to a color difference correction process which is conserved as much as possible. Here, the low-pass processing of Expressions (68) and (69) is performed, but a median filter processing may be used. [] Indicates a pixel position on the triangular lattice viewed from the processing target pixel. The low-pass filter of Expression (68) uses the coefficient values shown in FIG. 11 of the third embodiment, and the low-pass filter of Expression (69) uses the coefficient values shown in FIG.
[0106]
<Low-pass processing>
Figure 2004007167
[0107]
<Substitution processing>
Cgb [i, j] = {tmp_Cgb [i, j]
Cbr [i, j] = tmp_Cbr [i, j]
Crg [i, j] = {tmp_Cerg [i, j]
[0108]
4. Color system conversion processing
At the stage where the false color on the color difference plane has been removed, the original RGB color system is restored using the same equations (70) to (72) as in the fourth embodiment.
R [i, j] = (9 * Y [i, j] + Cgb [i, j] -2 * Cbr [i, j] + 4 * Crg [i, j]) / 9}. . . (70)
G [i, j] = (9 * Y [i, j] + 4 * Cgb [i, j] + Cbr [i, j] -2 * Crg [i, j]) / 9}. . . (71)
B [i, j] = (9 * Y [i, j] -2 * Cgb [i, j] + 4 * Cbr [i, j] + Crg [i, j]) / 9}. . . (72)
[0109]
As described above, in the sixth embodiment, it is possible to reduce the false color of the entire image while maintaining the color resolution performance of the delta arrangement as much as possible. When this post-processing is incorporated into the image data generated in the fourth embodiment, since the YCgbCbrCrg color system has already been set, the first color system conversion is not necessary, and the last color system is not necessary. Before performing system conversion, the above 2.3. It is only necessary to add the processing of.
[0110]
It should be noted that the image restoration methods described in the first to sixth embodiments are applicable to any image processing method regardless of whether the input image in the delta arrangement is a linear gradation of the image sensor output or a gamma-corrected gradation. Tonal characteristics can also be applied. There is no way to deal with an input image that has already been gamma-corrected with 8 bits, but today's digital still camera imaging signals generally have a 12-bit linear gradation output. The relationship between image restoration processing (including the RGB method as in the first and second embodiments and the YCCC method as in the fourth embodiment) and gradation processing suitable for such a case is described here. Shown in FIG. 27 is a flowchart showing the processing.
1) Linear gradation delta array data input (step S41)
2) Gamma correction processing (step S42)
3) Image restoration processing (step S43)
4) Inverse gamma correction processing (step S44)
5) User gamma correction processing (step S45)
[0111]
The user gamma correction process is a process of converting a linear gradation to an 8-bit gradation suitable for display output, that is, a process of compressing a dynamic range of an image to a range of an output display device. Independently of this, if the gradation is once converted into a certain gamma space and the image restoration processing corresponding to the first to sixth embodiments is performed, a better restoration result can be obtained. There are the following methods as this gradation conversion method.
<Gamma correction processing>
Input signal x (0 ≦ x ≦ xmax), output signal y (0 ≦ x ≦ ymax), input image is delta plane
y = ymax√ (x / xmax)
When the input signal is 12 bits, xmax = 4095, and the output signal may be set to, for example, 16 bits ymax = 65535.
<Reverse gamma correction processing>
Input signal y (0 ≦ x ≦ ymax), output signal x (0 ≦ x ≦ xmax), input image is RGB plane
x = xmax (y / ymax)2
[0112]
When the image restoration processing is performed in the square root type gamma space as described above, the following advantages are simultaneously obtained from a viewpoint different from the technique of the image restoration processing.
1) Clear color boundaries
(For example, suppression of color bleeding at the red-white boundary, suppression of black border occurrence, etc.)
2) False color suppression around bright spots (extremely bright parts) is possible
3) Improved direction determination accuracy
[0113]
1) and 2) are the effects produced by the involvement of the “interpolated value calculation unit” in the RGB system of the image restoration process and the “restored value calculation unit” in the Y system. In addition, 3) is an effect produced by involving the “similarity calculation unit” and the “similarity determination unit” in the image restoration processing. In other words, the input signal x contains an error dx = k√x (k is a constant determined by the ISO sensitivity) of the quantum fluctuation. Since a uniform error dy = constant can be handled over 0 ≦ y ≦ ymax, the direction determination accuracy is improved. This technique can be applied not only to the delta arrangement but also to the interpolation processing of the Bayer arrangement and other various filter arrangements. In the above-described embodiment, since the delta array originally has higher color resolution performance of a single color than the Bayer array, by providing this gradation conversion processing before and after the image restoration processing, it is possible to produce more excellent color clarity. Becomes possible.
[0114]
In the first embodiment, an example has been described in which image data interpolated on a triangular lattice is subjected to square processing. Also, in other embodiments, it has been described that when the square processing is necessary, the processing is performed. However, the image data itself that has been subjected to the interpolation processing or the color system conversion on the triangular lattice may be used as it is.
[0115]
In the third embodiment, an example in which the correction processing is performed on the RGB color image data generated in the same manner as in the first embodiment has been described. However, the present invention is not necessarily limited to this. The same applies to RGB color image data generated in other embodiments. As described above, the first to sixth embodiments can be appropriately combined with each other. That is, in the first to sixth embodiments, similar directionality determination processing, interpolation processing or color difference plane direct generation processing, post-processing such as correction, square processing, and the like are described. An optimal image processing method and processing apparatus can be realized by appropriately combining the processes of the embodiments.
[0116]
In the above-described embodiment, the description has been made on the assumption that the imaging device is a single-chip type, but the present invention is not limited to this. The present invention can also be applied to a two-chip image sensor. In the case of the two-plate type, for example, one color component is missing in each pixel. However, the contents of the above-described embodiment can be applied to the interpolation processing of one missing color component. The conversion process can be similarly performed. Further, the method of directly generating a luminance component and a color difference component from the delta array without through the interpolation processing according to the fourth embodiment can be similarly applied to a two-chip image sensor.
[0117]
In the above embodiment, various calculation formulas are shown for determining similarity. However, the present invention is not necessarily limited to the content shown in the embodiment. The similarity may be determined by another appropriate calculation formula. Further, in the calculation of the luminance information, various calculation formulas are shown, but it is not necessarily limited to the contents described in the embodiment. The luminance information may be generated by another appropriate calculation formula.
[0118]
In the above embodiment, an example of a low-pass filter for color difference correction and the like and a band-pass filter for edge enhancement have been described. However, the present invention is not necessarily limited to the contents described in the embodiment. A low-pass filter or a band-pass filter having another configuration may be used.
[0119]
In the above embodiment, an example of an electronic camera has been described, but the present invention is not necessarily limited to this. It may be a video camera that captures moving images, a personal computer with an image sensor, a mobile phone, or the like. That is, the present invention can be applied to any device that generates color image data using an image sensor.
[0120]
When applied to a personal computer or the like, the program related to the above-described processing can be provided through a recording medium such as a CD-ROM or a data signal such as the Internet. FIG. 23 is a diagram showing this state. The personal computer 100 receives the program via the CD-ROM 104. The personal computer 100 has a function of connecting to the communication line 101. The computer 102 is a server computer that provides the program, and stores the program in a recording medium such as the hard disk 103. The communication line 101 is a communication line such as the Internet or personal computer communication, or a dedicated communication line. The computer 102 reads the program using the hard disk 103 and transmits the program to the personal computer 100 via the communication line 101. That is, the program is transmitted as a data signal on a carrier wave via the communication line 101. Thus, the program can be supplied as a computer-readable computer program product in various forms such as a recording medium and a carrier wave.
[0121]
【The invention's effect】
According to the present invention, in all pixels of the first image represented by the first to third color components, the color information of the first to third color components is always equal (1: 1: 1). Weight information is added to generate color information of a color component different from the color information of the first image. The color information of the color components generated in this way has an extremely high gradation clear potential, an image with high spatial resolution is obtained, and an image that is connected to peripheral pixels very smoothly without being affected by chromatic aberration is obtained. can get.
[Brief description of the drawings]
FIG.
FIG. 2 is a functional block diagram of the electronic camera according to the first embodiment.
FIG. 2
5 is a flowchart illustrating an outline of image processing performed by an image processing unit according to the first embodiment.
FIG. 3
FIG. 3 is a diagram illustrating a positional relationship between pixels obtained by an image sensor in a delta arrangement.
FIG. 4
It is a figure showing the coefficient used for peripheral addition.
FIG. 5
It is a figure showing the coefficient value used when calculating curvature information dR.
FIG. 6
FIG. 3 is a diagram illustrating an achromatic spatial frequency reproduction region in a delta arrangement.
FIG. 7
It is a figure showing the coefficient value used for one-dimensional displacement processing.
FIG. 8
FIG. 14 is a diagram illustrating pixel positions used in the calculation according to the second embodiment.
FIG. 9
It is a figure which shows the coefficient value used when calculating | requiring curvature information dR, dG, and dB.
FIG. 10
13 is a flowchart illustrating an outline of image processing performed by an image processing unit according to the third embodiment.
FIG. 11
FIG. 4 is a diagram illustrating coefficient values of a low-pass filter.
FIG.
FIG. 9 is a diagram illustrating coefficient values of another low-pass filter.
FIG. 13
FIG. 9 is a diagram illustrating coefficient values of another low-pass filter.
FIG. 14
It is a figure showing the coefficient value of Laplacian.
FIG.
It is a figure showing the coefficient value of another Laplacian.
FIG.
It is a figure showing the coefficient value of another Laplacian.
FIG.
It is a figure which shows the concept which produces | generates a luminance surface (Y) and three color difference surfaces (Cgb, Cbr, Crg) directly from the delta surface of a delta arrangement | sequence, and converts it into the original RGB color system after that.
FIG.
15 is a flowchart illustrating an outline of image processing performed by an image processing unit according to a fourth embodiment.
FIG. 19 is a diagram illustrating a state in which Crg and Cbr components are obtained at the R position and a Cgb component is obtained at the nearest pixel.
FIG.
FIG. 4 is a diagram illustrating a spatial frequency reproduction area of each color component of RGB in a delta arrangement.
FIG. 21
15 is a flowchart illustrating an outline of image processing performed by an image processing unit according to a sixth embodiment.
FIG.
It is a figure which defines about an adjacent pixel.
FIG. 23
FIG. 2 is a diagram illustrating a state where a program is provided through a recording medium such as a CD-ROM or a data signal such as the Internet.
FIG. 24
FIG. 3 is a diagram illustrating a Bayer array, a delta array, and a honeycomb array of RGB color filters.
FIG. 25
FIG. 9 is a diagram illustrating the concept of a process of performing interpolation processing on image data obtained in a delta arrangement on a triangular lattice and restoring the data to square lattice data.
FIG. 26
FIG. 21 is a diagram illustrating an azimuth relationship of similarity in the fifth embodiment.
FIG. 27
9 is a flowchart illustrating image restoration processing and gradation processing.
[Explanation of symbols]
1 Electronic camera
10 A / D converter
11 Image processing unit
12 control unit
13 memory
14mm compression / expansion unit
15 Display image generator
16 memory card
17 Interface for memory card
18 PC (personal computer)
19 External interface
20mm shooting optical system
21mm image sensor
22 analog signal processing unit
23 Timing control unit
24 operation unit
25, 26 monitor
27 printer
28 CD-ROM

Claims (19)

第1〜第3色成分で表され、1つの画素に1つの色成分の色情報を有する複数の画素が均等色配分された第1の画像を取得する画像取得手順と、
前記取得した第1の画像の色情報を零以上の可変な係数値で加重加算することによって、前記第1の画像の色情報と異なる色成分の色情報を生成する色情報生成手順と、
前記生成された色情報を使用して第2の画像を出力する出力手順を備える画像処理方法であって、
前記色情報生成手順は、前記第1の画像の全ての画素において、第1〜第3色成分の色情報を常に均等な色成分比率で加重加算することを特徴とする画像処理方法。
An image acquisition procedure of acquiring a first image represented by first to third color components, in which a plurality of pixels having color information of one color component in one pixel are uniformly distributed,
A color information generating step of generating color information of a color component different from the color information of the first image by performing weighted addition of the obtained color information of the first image with a variable coefficient value of zero or more;
An image processing method comprising an output step of outputting a second image using the generated color information,
The image processing method according to claim 1, wherein the color information generating step performs weighted addition of color information of the first to third color components at a uniform color component ratio at all pixels of the first image.
請求項1に記載の画像処理方法において、
複数の方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、
前記色情報生成手順は、前記類似性判定手順で判定された類似性の強さに応じて前記加重加算の係数値を可変にすることを特徴とする画像処理方法。
The image processing method according to claim 1,
It further includes a similarity determination procedure for determining the strength of similarity in a plurality of directions,
The image processing method, wherein the color information generating step varies the coefficient value of the weighted addition according to the similarity strength determined in the similarity determining step.
請求項1または2に記載の画像処理方法において、
前記第1の画像は、複数の画素が三角格子状に配置されていることを特徴とする画像処理方法。
The image processing method according to claim 1, wherein
The image processing method according to claim 1, wherein the first image includes a plurality of pixels arranged in a triangular lattice.
請求項1〜3のいずれか1項に記載の画像処理方法において、
前記色情報生成手順後前記出力手順前に、前記色情報生成手順で生成された前記第1の画像の色情報と異なる色成分の色情報を、予め決められた固定のフィルタ係数からなるフィルタ処理により、補正する補正手順をさらに備えることを特徴とする画像処理方法。
The image processing method according to any one of claims 1 to 3,
After the color information generation procedure and before the output procedure, a filtering process is performed by using color information of a color component different from the color information of the first image generated in the color information generation procedure, using a predetermined fixed filter coefficient. An image processing method, further comprising a correction procedure for performing correction.
請求項4に記載の画像処理方法において、
前記フィルタ係数の中に、正および負の値を含むことを特徴とする画像処理方法。
The image processing method according to claim 4,
An image processing method, wherein the filter coefficients include positive and negative values.
3種類以上の色成分で表され、1つの画素に1つの色成分の色情報を有する複数の画素からなる第1の画像を取得する画像取得手順と、
前記取得した第1の画像の色情報を用いて、輝度成分の色情報と少なくとも3種類の色差成分の色情報とを生成する色情報生成手順と、
前記色情報生成手順で生成された輝度成分の色情報と色差成分の色情報とを使用して第2の画像を出力する出力手順を備えることを特徴とする画像処理方法。
An image acquisition procedure of acquiring a first image composed of a plurality of pixels represented by three or more types of color components and having color information of one color component per pixel;
A color information generating step of generating color information of a luminance component and color information of at least three types of color difference components using the acquired color information of the first image;
An image processing method comprising an output step of outputting a second image using color information of a luminance component and color information of a color difference component generated in the color information generation procedure.
請求項6に記載の画像処理方法において、
前記輝度成分の色情報と前記少なくとも3種類の色差成分の色情報とを用いて、3種類の色成分の色情報に変換する変換手順をさらに備え、
前記出力手順は、前記変換手順で変換された前記3種類の色成分の色情報を使用して第2の画像を出力することを特徴とする画像処理方法。
The image processing method according to claim 6,
Further comprising a conversion step of converting the color information of the luminance component and the color information of the at least three types of color difference components into color information of three types of color components,
The image processing method according to claim 1, wherein the output step includes outputting a second image using the color information of the three types of color components converted in the conversion step.
請求項6または7に記載の画像処理方法において、
前記色情報生成手順で生成された輝度成分の色情報と色差成分の色情報は、前記第1の画像の前記3種類以上の色成分とは異なる成分の色情報であることを特徴とする画像処理方法。
The image processing method according to claim 6, wherein
The image, wherein the color information of the luminance component and the color information of the color difference component generated in the color information generation procedure are color information of components different from the three or more types of color components of the first image. Processing method.
請求項6〜8のいずれか1項に記載の画像処理方法において、
前記第1の画像は、第1〜第3色成分で表され、複数の画素が均等色配分され、
前記色情報生成手順は、
1)第1〜第3色成分の色成分比率が1:1:1で構成される輝度成分の色情報と、
2)第1色成分と第2色成分の間の色差成分の色情報と、
3)第2色成分と第3色成分の間の色差成分の色情報と、
4)第3色成分と第1色成分の間の色差成分の色情報と
を生成することを特徴とする画像処理方法。
The image processing method according to any one of claims 6 to 8,
The first image is represented by first to third color components, and a plurality of pixels are uniformly distributed in color.
The color information generation procedure includes:
1) color information of a luminance component in which the color component ratio of the first to third color components is 1: 1: 1;
2) color information of a color difference component between the first color component and the second color component;
3) color information of a color difference component between the second color component and the third color component;
4) An image processing method, wherein color information of a color difference component between the third color component and the first color component is generated.
請求項6〜9のいずれか1項に記載の画像処理方法において、
複数の方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、
前記色情報生成手順は、前記類似性判定手順で判定された類似性の強さに応じて前記輝度成分の色情報と前記少なくとも3種類の色差成分の色情報とを生成することを特徴とする画像処理方法。
The image processing method according to any one of claims 6 to 9,
It further includes a similarity determination procedure for determining the strength of similarity in a plurality of directions,
The color information generating step generates color information of the luminance component and color information of the at least three types of color difference components in accordance with the degree of similarity determined in the similarity determining step. Image processing method.
請求項6〜10のいずれか1項に記載の画像処理方法において、
前記第1の画像は、複数の画素が三角格子状に配置されていることを特徴とする画像処理方法。
In the image processing method according to any one of claims 6 to 10,
The image processing method according to claim 1, wherein the first image includes a plurality of pixels arranged in a triangular lattice.
3種類以上の色成分で表され、1つの画素に1つの色成分の色情報を有する複数の画素からなる第1の画像を取得する画像取得手順と、
前記取得した第1の画像の色情報を用いて、少なくとも3種類の色差成分の色情報を生成する色差生成手順と、
前記生成した各々の色差成分の色情報に対して補正処理を行う補正手順と、
前記補正した色差成分の色情報を使用して第2の画像を出力する出力手順とを備えることを特徴とする画像処理方法。
An image acquisition procedure of acquiring a first image composed of a plurality of pixels represented by three or more types of color components and having color information of one color component per pixel;
A color difference generation procedure for generating color information of at least three types of color difference components using the acquired color information of the first image;
A correction procedure for performing a correction process on the color information of each of the generated color difference components,
An output procedure of outputting a second image using the corrected color difference component color information.
請求項12に記載の画像処理方法において、
前記第1の画像は第1〜第3色成分で表され、
前記色差生成手順は、
1)第1色成分と第2色成分の間の色差成分の色情報と、
2)第2色成分と第3色成分の間の色差成分の色情報と、
3)第3色成分と第1色成分の間の色差成分の色情報と
を生成することを特徴とする画像処理方法。
The image processing method according to claim 12,
The first image is represented by first to third color components,
The color difference generation procedure includes:
1) color information of a color difference component between the first color component and the second color component;
2) color information of a color difference component between the second color component and the third color component;
3) An image processing method characterized by generating color information of a color difference component between a third color component and a first color component.
請求項12に記載の画像処理方法において、
前記第1の画像は第1〜第3色成分で表され、
前記色差生成手順は、
前記第1の画像の色情報を用いて、前記第1の画像の色情報と異なる輝度成分の色情報を生成し、
1)第1色成分と前記輝度成分の間の色差成分の色情報と、
2)第2色成分と前記輝度成分の間の色差成分の色情報と、
3)第3色成分と前記輝度成分の間の色差成分の色情報と
を生成することを特徴とする画像処理方法。
The image processing method according to claim 12,
The first image is represented by first to third color components,
The color difference generation procedure includes:
Using the color information of the first image, generating color information of a luminance component different from the color information of the first image;
1) color information of a color difference component between a first color component and the luminance component;
2) color information of a color difference component between the second color component and the luminance component;
3) An image processing method, wherein color information of a color difference component between the third color component and the luminance component is generated.
請求項14に記載の画像処理方法において、
前記第1の画像は、前記第1〜第3色成分が複数の画素に均等色配分され、
前記色差生成手順は、前記輝度成分として、前記第1〜第3色成分の色成分比率が1:1:1で構成される輝度成分の色情報を生成することを特徴とする画像処理方法。
The image processing method according to claim 14,
In the first image, the first to third color components are uniformly distributed to a plurality of pixels,
The image processing method according to claim 1, wherein the color difference generating step includes generating, as the luminance component, color information of a luminance component having a color component ratio of the first to third color components of 1: 1: 1.
請求項1〜15のいずれか1項に記載の画像処理方法において、
前記出力手順は、前記第1の画像と同じ画素位置に、前記第2画像を出力することを特徴とする画像処理方法。
The image processing method according to any one of claims 1 to 15,
The image processing method according to claim 1, wherein the outputting includes outputting the second image at the same pixel position as the first image.
請求項1〜16のいずれか1項に記載の画像処理方法の手順をコンピュータに実行させるための画像処理プログラム。An image processing program for causing a computer to execute the procedure of the image processing method according to claim 1. 請求項17の画像処理プログラムを記録したコンピュータ読みとり可能な記録媒体。A computer-readable recording medium on which the image processing program according to claim 17 is recorded. 請求項17の画像処理プログラムを搭載した画像処理装置。An image processing apparatus comprising the image processing program according to claim 17.
JP2002159250A 2002-05-24 2002-05-31 Image processing method, image processing program, and image processing apparatus Expired - Lifetime JP4196055B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002159250A JP4196055B2 (en) 2002-05-31 2002-05-31 Image processing method, image processing program, and image processing apparatus
PCT/JP2003/006388 WO2003101119A1 (en) 2002-05-24 2003-05-22 Image processing method, image processing program, image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002159250A JP4196055B2 (en) 2002-05-31 2002-05-31 Image processing method, image processing program, and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2004007167A true JP2004007167A (en) 2004-01-08
JP4196055B2 JP4196055B2 (en) 2008-12-17

Family

ID=30429103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002159250A Expired - Lifetime JP4196055B2 (en) 2002-05-24 2002-05-31 Image processing method, image processing program, and image processing apparatus

Country Status (1)

Country Link
JP (1) JP4196055B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006186965A (en) * 2004-12-01 2006-07-13 Megachips Lsi Solutions Inc Pixel interpolation method and image distinction method
JP2008249413A (en) * 2007-03-29 2008-10-16 Fujinon Corp Defect detection method and device
JP2009055281A (en) * 2007-08-27 2009-03-12 Mega Chips Corp Image processing apparatus
US8576244B2 (en) 2009-09-22 2013-11-05 Samsung Electronics Co., Ltd. Video signal generation apparatus and method minimizing crosstalk between luminance signal and color difference signal

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006186965A (en) * 2004-12-01 2006-07-13 Megachips Lsi Solutions Inc Pixel interpolation method and image distinction method
US7894110B2 (en) 2004-12-01 2011-02-22 Megachips Corporation Pixel interpolation method and image distinction method
JP2008249413A (en) * 2007-03-29 2008-10-16 Fujinon Corp Defect detection method and device
JP2009055281A (en) * 2007-08-27 2009-03-12 Mega Chips Corp Image processing apparatus
US8798398B2 (en) 2007-08-27 2014-08-05 Megachips Corporation Image processing apparatus
US8576244B2 (en) 2009-09-22 2013-11-05 Samsung Electronics Co., Ltd. Video signal generation apparatus and method minimizing crosstalk between luminance signal and color difference signal

Also Published As

Publication number Publication date
JP4196055B2 (en) 2008-12-17

Similar Documents

Publication Publication Date Title
JP3985679B2 (en) Image processing method, image processing program, and image processing apparatus
JP5045421B2 (en) Imaging apparatus, color noise reduction method, and color noise reduction program
JP4352371B2 (en) Digital image processing method implementing adaptive mosaic reduction method
US7236628B2 (en) Interpolation processing apparatus and recording medium having interpolation processing program recording therein
US7082218B2 (en) Color correction of images
US20100265352A1 (en) Image processing apparatus, control method therefor, and storage medium
US8320714B2 (en) Image processing apparatus, computer-readable recording medium for recording image processing program, and image processing method
WO2004112401A1 (en) Image processing method, image processing program, image processor
JP4321064B2 (en) Image processing apparatus and image processing program
JP3972816B2 (en) Image processing apparatus and color system conversion method
WO2005112470A1 (en) Image processing device and image processing program
JP4329542B2 (en) Image processing apparatus and image processing program for determining similarity of pixels
JP4196055B2 (en) Image processing method, image processing program, and image processing apparatus
JP4239483B2 (en) Image processing method, image processing program, and image processing apparatus
JP4239480B2 (en) Image processing method, image processing program, and image processing apparatus
JP4239484B2 (en) Image processing method, image processing program, and image processing apparatus
WO2003101119A1 (en) Image processing method, image processing program, image processor
JP2004064227A (en) Video signal processing apparatus
JP2012100215A (en) Image processing device, imaging device, and image processing program
JP2013165482A (en) Image processor, image processing program and imaging apparatus
JP4748278B2 (en) Interpolation processing apparatus and recording medium recording interpolation processing program
JP2003244711A (en) Color signal processing method for single board imaging apparatus, single board imaging apparatus, and color signal processing program
JP2014131175A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080812

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4196055

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141010

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141010

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141010

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term