JPWO2015083502A1 - Image processing apparatus, method, and program - Google Patents

Image processing apparatus, method, and program Download PDF

Info

Publication number
JPWO2015083502A1
JPWO2015083502A1 JP2015551441A JP2015551441A JPWO2015083502A1 JP WO2015083502 A1 JPWO2015083502 A1 JP WO2015083502A1 JP 2015551441 A JP2015551441 A JP 2015551441A JP 2015551441 A JP2015551441 A JP 2015551441A JP WO2015083502 A1 JPWO2015083502 A1 JP WO2015083502A1
Authority
JP
Japan
Prior art keywords
image
image data
data
pixel
luminance component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015551441A
Other languages
Japanese (ja)
Inventor
基広 浅野
基広 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2015083502A1 publication Critical patent/JPWO2015083502A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)

Abstract

本発明の画像処理装置、該方法および該プログラムでは、デモザイク処理で生成した複数の画像データから高解像画像データが生成される。前記デモザイク処理では、原画像データの単位配列の色組成比と同じ色組成比を持つデータに変換するフィルタ係数を備える画像フィルタで原画像データをフィルタリングすることで輝度成分画像データが生成され、原画像データから輝度成分画像データを減算することで色度成分画像データが生成され、色度成分画像データにおいて、複数色ごとに、欠落画素の色度成分データを、単位配列に含まれる同色の個数および輝度成分画像データに基づいた補間方法で補間することで複数色ごとの各色別色度成分画像データが生成され、各色別色度成分画像データそれぞれに輝度成分画像データをそれぞれ加算することで前記画像データが生成される。In the image processing apparatus, the method, and the program of the present invention, high resolution image data is generated from a plurality of image data generated by demosaic processing. In the demosaicing process, luminance component image data is generated by filtering the original image data with an image filter having a filter coefficient for conversion into data having the same color composition ratio as the color composition ratio of the unit arrangement of the original image data, The chromaticity component image data is generated by subtracting the luminance component image data from the image data. In the chromaticity component image data, the chromaticity component data of the missing pixels is included in the unit array for each of the plurality of colors. And each chromaticity component image data for each color is generated by interpolating with an interpolation method based on the luminance component image data, and the luminance component image data is added to each chromaticity component image data for each color to add Image data is generated.

Description

本発明は、画像を処理する画像処理技術に関し、特に、相対的に低解像度な複数の画像から相対的に高解像度な1つの画像を生成する画像処理技術に関する。   The present invention relates to an image processing technique for processing an image, and more particularly to an image processing technique for generating a relatively high-resolution image from a plurality of relatively low-resolution images.

近年、各種デジタル技術の進展に伴い、例えばCCD(Charge Coupled Device)型イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等の固体撮像素子を用いることによってデジタル画像が比較的容易に得られるようになり、このデジタル画像が様々に利用されている。例えば、複数のデジタル画像から所定の被写体までの距離を計測する画像処理技術や、解像度を変換する画像処理技術等がある。   In recent years, with the progress of various digital technologies, for example, a digital image can be obtained relatively easily by using a solid-state imaging device such as a CCD (Charge Coupled Device) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor. This digital image is used in various ways. For example, there are an image processing technique for measuring distances from a plurality of digital images to a predetermined subject, an image processing technique for converting resolution, and the like.

このような解像度を変換する技術の一つに、相対的に低解像度な複数の画像から、相対的に高解像度な1つの画像を合成する高解像度画像生成技術があり、例えば特許文献1や非特許文献1に開示されている。この特許文献1に開示された高解像度カラー画像生成方法は、イメージセンサと色フィルタ配列を用いる画像撮像装置によって撮像された1枚または一連の複数枚の入力画像に基づいて高解像度カラー画像を生成するものである。また、前記非特許文献1に開示された高解像度画像生成技術は、いわゆるベイヤー配列を用いたイメージセンサで撮像した画像データから高周波成分を残すフィルタ処理で輝度成分を作り、複数の画像から高解像度な1つの画像を生成するものである。   One of such resolution conversion techniques is a high-resolution image generation technique for synthesizing one relatively high-resolution image from a plurality of relatively low-resolution images. It is disclosed in Patent Document 1. The high-resolution color image generation method disclosed in Patent Document 1 generates a high-resolution color image based on one or a series of input images captured by an image capturing device using an image sensor and a color filter array. To do. In addition, the high-resolution image generation technique disclosed in Non-Patent Document 1 creates a luminance component by filtering processing that leaves high-frequency components from image data captured by an image sensor using a so-called Bayer array, and generates high-resolution from a plurality of images. A single image is generated.

ところで、上述の特許文献1および非特許文献1に開示された技術で、相対的に低解像度な複数の画像から相対的に高解像度な1つの画像を生成すると、この生成した高解像度な画像において、本来、滑らかな直線や曲線がギザギザな線になってしまうことがある。例えば、図24Aに示すように、直線的な境界線で段階状に濃度の異なる被写体が、後述の図6の個眼4、5に撮像された場合、図24Bおよび図24Cに示すように、撮像素子(イメージセンサ)の各光電変換素子(各画素)は、その受光面の全面積で受光した光量に応じたレベル(大きさ)の電気信号、すなわち、その受光面内で濃度が異なることがあっても平均濃度の情報を表す電気信号を出力する一方、撮像素子(イメージセンサ)上で同じ位置(m行n列の位置同士)であっても、個眼間の基線長に応じてずれて被写体を撮像することになる。なお、図24Bおよび図24Cは、ベイヤー配列のイメージセンサにおけるR(赤色)の画素(R成分の濃度データを生成する画素)について示し、それら左側の図は、R光を光電変換するRの光電変換素子(Rの画素、実線の矩形)と被写体との関係、すなわち、Rの画素に映り込む被写体を示し、それら右側の図は、その映り込んだ被写体を光電変換することによってRの画素から出力される電気信号のレベルを濃淡で示す。実際には9眼の画像を用いるが、説明の都合上、仮に個眼4、5の画像から、より高解像度な画像を生成するものとすると、図24Dに示すように、高解像度な画像における同じライン上の画素であっても、異なるカメラで撮像した電気信号で画素値が生成される。例えば、画素Px1は、左カメラで撮像した電気信号で画素値が生成される一方、画素Px1と同じライン上の画素Px2は、右カメラで撮像した電気信号で画素値が生成される。これら電気信号は、上述したように、平均濃度の情報を表し、それらレベルが異なると、生成した高解像度な画像では、濃度の違いとなって図24Dに示すように、本来、滑らかな直線や曲線がギザギザな線になってしまう。前記非特許文献1に開示された技術では、ベイヤー配列の画像データから高周波成分を残す画像フィルタでフィルタリングすることによって輝度成分画像データを生成するため、高解像度化に適しているが、前記画像フィルタのサイズが大きいため、遠い画素も影響するため、前記ギザギザな線が顕著に表れてしまう。   By the way, when one relatively high-resolution image is generated from a plurality of relatively low-resolution images using the techniques disclosed in Patent Document 1 and Non-Patent Document 1, the generated high-resolution image Originally, smooth straight lines and curves may become jagged lines. For example, as shown in FIG. 24A, when subjects with different levels of density in a stepwise manner on a linear boundary line are imaged on the individual eyes 4 and 5 of FIG. 6 described later, as shown in FIGS. 24B and 24C, Each photoelectric conversion element (each pixel) of the image sensor (image sensor) has an electric signal of a level (size) corresponding to the amount of light received over the entire area of the light receiving surface, that is, the density varies within the light receiving surface. While an electrical signal representing average density information is output even if there is, even at the same position (positions of m rows and n columns) on the image sensor (image sensor), depending on the baseline length between the individual eyes The subject is imaged with a shift. FIGS. 24B and 24C show R (red) pixels (pixels that generate R component density data) in a Bayer array image sensor, and the left-side diagrams show R photoelectrics for photoelectric conversion of R light. The relationship between the conversion element (R pixel, solid-line rectangle) and the subject, that is, the subject reflected in the R pixel, and the diagram on the right side thereof shows the relationship between the R pixel by photoelectrically converting the reflected subject. The level of the electric signal to be output is indicated by shading. Actually, a nine-eye image is used. For convenience of explanation, if a higher-resolution image is generated from the images of the individual eyes 4 and 5, as shown in FIG. Even for pixels on the same line, pixel values are generated by electrical signals captured by different cameras. For example, the pixel value of the pixel Px1 is generated by an electrical signal captured by the left camera, while the pixel value of the pixel Px2 on the same line as the pixel Px1 is generated by the electrical signal captured by the right camera. As described above, these electrical signals represent average density information. If the levels are different, the generated high-resolution image has a density difference as shown in FIG. 24D. The curve becomes a jagged line. In the technique disclosed in Non-Patent Document 1, luminance component image data is generated by filtering with image filters that leave high-frequency components from image data in a Bayer array, which is suitable for high resolution. Since the size of is large, distant pixels are also affected, so that the jagged line appears remarkably.

国際公開WO2004/068862号パンフレットInternational Publication WO 2004/068862 Pamphlet

「Joint Demosaicing and Super−Resolution Imaging from a Set of Unregistered Aliased Images」,School of Computer and Communication Sciences,2007"Joint Demonstration and Super-Resolution Imaging from a Set of Unregulated Aliased Images", School of Computer and Communications Sciences, 2007

本発明は、上述の事情に鑑みて為された発明であり、その目的は、相対的に低解像度な複数の画像から相対的に高解像度な1つの画像を生成する場合に生じる前記ギザギザな線をより低減できる画像処理装置、画像処理方法および画像処理プログラムを提供することである。   The present invention has been made in view of the above-mentioned circumstances, and the object thereof is the jagged line generated when a relatively high-resolution image is generated from a plurality of relatively low-resolution images. Is to provide an image processing apparatus, an image processing method, and an image processing program.

本発明にかかる画像処理装置、画像処理方法および画像処理プログラムでは、デモザイク処理で生成した複数の画像データから高解像画像データが生成される。前記デモザイク処理では、原画像データの単位配列の色組成比と同じ色組成比を持つデータに変換するフィルタ係数を備える画像フィルタで原画像データをフィルタリングすることで輝度成分画像データが生成され、原画像データから輝度成分画像データを減算することで色度成分画像データが生成され、色度成分画像データにおいて、複数色ごとに、欠落画素の色度成分データを、単位配列に含まれる同色の個数および輝度成分画像データに基づいた補間方法で補間することで複数色ごとの各色別色度成分画像データが生成され、各色別色度成分画像データそれぞれに輝度成分画像データをそれぞれ加算することで前記画像データが生成される。このため、本発明にかかる画像処理装置、画像処理方法および画像処理プログラムは、相対的に低解像度な複数の画像から相対的に高解像度な1つの画像を生成する場合に生じる前記ギザギザな線をより低減できる。   In the image processing apparatus, the image processing method, and the image processing program according to the present invention, high resolution image data is generated from a plurality of image data generated by demosaic processing. In the demosaicing process, luminance component image data is generated by filtering the original image data with an image filter having a filter coefficient for conversion into data having the same color composition ratio as the color composition ratio of the unit arrangement of the original image data, The chromaticity component image data is generated by subtracting the luminance component image data from the image data. In the chromaticity component image data, the chromaticity component data of the missing pixels is included in the unit array for each of the plurality of colors. And each chromaticity component image data for each color is generated by interpolating with an interpolation method based on the luminance component image data, and the luminance component image data is added to each chromaticity component image data for each color to add Image data is generated. For this reason, the image processing apparatus, the image processing method, and the image processing program according to the present invention generate the jagged lines generated when generating a relatively high-resolution image from a plurality of relatively low-resolution images. It can be reduced more.

上記並びにその他の本発明の目的、特徴及び利点は、以下の詳細な記載と添付図面から明らかになるであろう。   The above and other objects, features and advantages of the present invention will become apparent from the following detailed description and the accompanying drawings.

実施形態における画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus in embodiment. 実施形態の画像処理装置における、カメラである場合の画像取得部の構成を示す図である。It is a figure which shows the structure of the image acquisition part in the case of being a camera in the image processing apparatus of embodiment. 実施形態の画像処理装置における、アレイカメラである場合の画像取得部の構成を示す斜視図である。It is a perspective view which shows the structure of the image acquisition part in the case of being an array camera in the image processing apparatus of embodiment. 前記カメラまたは前記アレイカメラにおける色フィルタの単位色フィルタ配列を示す図である。It is a figure which shows the unit color filter arrangement | sequence of the color filter in the said camera or the said array camera. 実施形態における画像処理装置の動作を示すフローチャートである。6 is a flowchart illustrating an operation of the image processing apparatus according to the embodiment. アレイカメラによって撮像された各原画像データ間(各画像間)における相互位置関係を説明するための図である。It is a figure for demonstrating the mutual positional relationship between each original image data imaged with the array camera (between each image). 実施形態の画像処理装置におけるデモザイク処理を示すフローチャートである。It is a flowchart which shows the demosaic process in the image processing apparatus of embodiment. 前記デモザイク処理における輝度成分生成処理を説明するための図である。It is a figure for demonstrating the luminance component production | generation process in the said demosaic process. 前記輝度成分生成処理におけるフィルタ処理を説明するための図である。It is a figure for demonstrating the filter process in the said brightness | luminance component production | generation process. 前記輝度成分生成処理に用いられる画像フィルタの他の構成を示す図である。It is a figure which shows the other structure of the image filter used for the said brightness | luminance component production | generation process. 前記デモザイク処理における色度成分生成処理を説明するための図である。It is a figure for demonstrating the chromaticity component production | generation process in the said demosaic process. 前記デモザイク処理における色度成分補間処理を説明するための図である。It is a figure for demonstrating the chromaticity component interpolation process in the said demosaic process. 前記デモザイク処理における画像生成処理を説明するための図である。It is a figure for demonstrating the image generation process in the said demosaic process. 実施形態の画像処理装置における対応点探索処理を説明するための図である。It is a figure for demonstrating the corresponding point search process in the image processing apparatus of embodiment. 実施形態の画像処理装置におけるサブピクセル単位での位置ズレ量演算処理を説明するための図である。It is a figure for demonstrating the positional offset amount calculation processing per subpixel in the image processing apparatus of embodiment. 実施形態の画像処理装置における第1態様の超解像処理を示すフローチャートである。It is a flowchart which shows the super-resolution process of the 1st aspect in the image processing apparatus of embodiment. 実施形態の画像処理装置における超解像処理の劣化情報を説明するための図である。It is a figure for demonstrating the degradation information of the super-resolution process in the image processing apparatus of embodiment. 残差処理における劣化情報に応じた出力候補画像の変換を説明するための図である。It is a figure for demonstrating conversion of the output candidate image according to the degradation information in a residual process. 残差処理における符号関数の演算を説明するための図である。It is a figure for demonstrating the calculation of the code function in a residual process. 残差処理における符号関数の演算結果に影響した出力候補画像の画素を求める処理を説明するための図である。It is a figure for demonstrating the process which calculates | requires the pixel of the output candidate image which influenced the calculation result of the code function in a residual process. 各入力画像に対する残差処理を示すフローチャートである。It is a flowchart which shows the residual process with respect to each input image. 実施例の画像処理結果と比較例の画像処理結果とを説明するための図である。It is a figure for demonstrating the image processing result of an Example, and the image processing result of a comparative example. 実施形態の画像処理装置における第2態様の超解像処理を示すフローチャートである。It is a flowchart which shows the super-resolution process of the 2nd aspect in the image processing apparatus of embodiment. 従来において、相対的に低解像度な複数の画像から相対的に高解像度な1つの画像を生成する場合に生じるギザギザな線を説明するための図である。It is a figure for demonstrating the jagged line which arises in the case of producing | generating one image with relatively high resolution from several images with relatively low resolution conventionally.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。   Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted suitably. In this specification, when referring generically, it shows with the reference symbol which abbreviate | omitted the suffix, and when referring to an individual structure, it shows with the reference symbol which attached the suffix.

実施形態における画像処理装置は、所与の原画像データに対し所定の画像処理を実施する装置であり、前記所定の画像処理には、少なくともデモザイク処理および高解像度画像生成処理が含まれる。一般に、撮像装置(カメラ)は、イメージセンサから出力される画像信号に対し、ホワイトバランス処理、フィルタ処理、階調変換処理および色空間変換処理等のいわゆる通常の画像処理を施し、最終的な画像信号を生成する。前記原画像データは、このような通常の画像処理を施す前の、イメージセンサから出力された生の画像信号であり、2次元アレイ状に配列された複数の画素それぞれに対応する複数のデータであって、互いに異なる複数色の複数の濃度データを所定のパターンで配列した単位配列を、複数、さらに2次元アレイ状に配列した前記複数のデータを備えるものである。このような原画像データは、例えばローデータ(Raw Data、生データ)である。前記デモザイク処理は、原画像データをデモザイク(demosaic)することによって各色成分データを各画素ごとに持つ画像データを生成する処理である。前記高解像度画像生成処理は、複数の画像(画像データ)から前記画像よりも解像度の高い高解像度な画像を生成する処理である。   The image processing apparatus according to the embodiment is an apparatus that performs predetermined image processing on given original image data, and the predetermined image processing includes at least demosaic processing and high-resolution image generation processing. In general, an imaging device (camera) performs so-called normal image processing such as white balance processing, filter processing, gradation conversion processing, and color space conversion processing on an image signal output from an image sensor, thereby obtaining a final image. Generate a signal. The original image data is a raw image signal output from an image sensor before performing such normal image processing, and is a plurality of data corresponding to each of a plurality of pixels arranged in a two-dimensional array. A plurality of unit arrays in which a plurality of density data of a plurality of colors different from each other are arranged in a predetermined pattern, and the plurality of data arranged in a two-dimensional array are provided. Such original image data is, for example, raw data (raw data). The demosaicing process is a process of generating image data having each color component data for each pixel by demosaicing the original image data. The high resolution image generation process is a process of generating a high resolution image having a higher resolution than the image from a plurality of images (image data).

図1は、実施形態における画像処理装置の構成を示すブロック図である。図1Aは、全体構成を示し、図1Bは、デモザイク処理部の構成を示す。図2は、実施形態の画像処理装置における、カメラである場合の画像取得部の構成を示す図である。図3は、第1実施形態の画像処理装置における、アレイカメラである場合の画像取得部の構成を示す斜視図である。図4は、前記カメラまたは前記アレイカメラにおける色フィルタの単位色フィルタ配列を示す図である。図4Aおよび図4Bは、単位色フィルタ配列の第1および第2態様を示す。   FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to the embodiment. 1A shows the overall configuration, and FIG. 1B shows the configuration of the demosaic processing unit. FIG. 2 is a diagram illustrating a configuration of an image acquisition unit in the case of a camera in the image processing apparatus according to the embodiment. FIG. 3 is a perspective view illustrating a configuration of an image acquisition unit in the case of an array camera in the image processing apparatus according to the first embodiment. FIG. 4 is a diagram illustrating unit color filter arrays of color filters in the camera or the array camera. 4A and 4B show first and second aspects of the unit color filter array.

この実施形態における画像処理装置Dは、例えば、図1Aに示すように、制御処理部1と、記憶部2と、画像取得部3と、入力部4と、出力部5とを備える。   For example, as illustrated in FIG. 1A, the image processing apparatus D in this embodiment includes a control processing unit 1, a storage unit 2, an image acquisition unit 3, an input unit 4, and an output unit 5.

画像取得部3は、制御処理部1に接続され、原画像データを外部から当該画像処理装置Dに取り込むための装置である。画像取得部3は、この取得した画像データを制御処理部1へ出力する。画像取得部3は、例えば、原画像データを記録した記録媒体から前記原画像データを読み込むドライブ装置3aや、物体(被写体)の光学像を撮像して原画像データを生成するカメラ3b等である。   The image acquisition unit 3 is connected to the control processing unit 1 and is an apparatus for taking original image data into the image processing apparatus D from the outside. The image acquisition unit 3 outputs the acquired image data to the control processing unit 1. The image acquisition unit 3 is, for example, a drive device 3a that reads the original image data from a recording medium on which the original image data is recorded, a camera 3b that captures an optical image of an object (subject) and generates original image data. .

ドライブ装置3aは、例えば、フレキシブルディスク、CD−ROM、CD−RおよびDVD−R等の記録媒体とデータを読み書きする装置であり、例えば、フレキシブルディスクドライブ、CD−ROMドライブ、CD−RドライブおよびDVD−Rドライブ等である。また例えば、ドライブ装置3aは、SDメモリカード(SDのロゴは登録商標)およびUSB(Universal Serial Bus)メモリ等の固体記憶素子からデータを読み書きする装置であり、例えばSDドライブおよびUSBインターフェース等である。   The drive device 3a is a device that reads / writes data from / to a recording medium such as a flexible disk, CD-ROM, CD-R, and DVD-R, for example, a flexible disk drive, a CD-ROM drive, a CD-R drive, and the like. DVD-R drive or the like. Further, for example, the drive device 3a is a device that reads and writes data from a solid-state storage element such as an SD memory card (SD logo is a registered trademark) and a USB (Universal Serial Bus) memory, such as an SD drive and a USB interface. .

カメラ3bは、図2に示すように、被写体の光学像を所定の結像面に結像する撮像光学系31と、撮像光学系31の像側に配置される色フィルタ部32と、前記所定の結像面の位置に受光面が位置するように配置され、前記撮像光学系31によって結像された被写体の光学像を色フィルタ部32を介して撮像して原画像データを出力する撮像部33とを備える。カメラ3bは、単眼の1個のカメラ3baであって良く、また、複眼(3眼以上)のアレイカメラ3bbであって良い。   As shown in FIG. 2, the camera 3b includes an imaging optical system 31 that forms an optical image of a subject on a predetermined imaging plane, a color filter unit 32 disposed on the image side of the imaging optical system 31, and the predetermined An image pickup unit that is arranged so that a light receiving surface is positioned at the position of the image forming plane, and that picks up an optical image of a subject imaged by the image pickup optical system 31 via the color filter unit 32 and outputs original image data 33. The camera 3b may be a single-lens camera 3ba, or may be a compound eye (three or more eyes) array camera 3bb.

単眼のカメラ3baは、被写体を撮像して1個の原画像データを生成する装置であり、例えば、単眼(1個)の撮像光学系31aと、撮像光学系31aの像側に配置される色フィルタ部32と、撮像光学系31aによって結像された被写体の光学像を色フィルタ部32を介して1個の有効撮像領域で撮像して1個の原画像データを出力する撮像部33aとを備える。撮像光学系31aは、その光軸に沿って1または複数の光学レンズを備えて構成される。撮像部33aは、2次元マトリクス状に配列された複数の光電変換素子(複数の画素)を備え、各光電変換素子は、それぞれ、色フィルタ部32を介して受光した光の光量に応じて変換した電気信号を原画像データにおける各画素のデータとして出力する。このような撮像部33aは、例えば、CCD型イメージセンサやCMOS型イメージセンサ等の固体撮像素子を備えて構成される。   The monocular camera 3ba is a device that images a subject and generates one original image data. For example, a monocular (one) imaging optical system 31a and a color arranged on the image side of the imaging optical system 31a. A filter unit 32 and an imaging unit 33a that captures an optical image of a subject formed by the imaging optical system 31a in one effective imaging region via the color filter unit 32 and outputs one original image data. Prepare. The imaging optical system 31a includes one or more optical lenses along the optical axis. The imaging unit 33a includes a plurality of photoelectric conversion elements (a plurality of pixels) arranged in a two-dimensional matrix, and each photoelectric conversion element converts the light according to the amount of light received through the color filter unit 32. The electrical signal is output as data of each pixel in the original image data. Such an imaging unit 33a includes a solid-state imaging device such as a CCD image sensor or a CMOS image sensor.

3眼以上の複眼のアレイカメラ3bbは、被写体を撮像して複数(3個以上)の原画像データを生成する装置であり、例えば、図3に示すように、3個以上の複数の撮像光学系31bと、前記複数の撮像光学系31bに対応し、各撮像光学系31の各像側にそれぞれ配置される複数の色フィルタ部32(図3には不図示)と、前記複数の撮像光学系31bに対応し、前記複数の撮像光学系31bそれぞれによって結像された被写体の光学像を各色フィルタ部32を介してそれぞれ撮像して複数の原画像データを出力する複数の撮像部33bとを備える。なお、図3では色フィルタ部32が省略されている。複数の撮像光学系31bは、それぞれ、当該撮像光学系31bに対応する撮像部33bの受光面に被写体の光学像を結像する光学素子である。1個の撮像光学系31bは、その光軸に沿って1または複数の光学レンズを備えて構成される。複数の撮像光学系31bは、図3に示す例では、各光軸が互いに略平行となるように配列される。したがって、複数の撮像光学系31bおよび複数の色フィルタ部32を介して被写体の光学像をそれぞれ撮像する複数の撮像部33bは、同じ被写体を写した略視差だけずれた原画像データを生成することになる。図3に示す例では、複数の撮像光学系31bは、複数の撮像部33bに対応して線形独立な2方向、より具体的には互いに直交するX方向およびY方向の2方向に2次元マトリクス状に配列されている。図3に示す例では、複数の撮像光学系31bは、撮像部33bの配列態様および個数に合わせて3行3列に2次元マトリクス状に配列された9個の撮像光学系31b−11〜31b−33である。複数の撮像部33bは、それぞれ、2次元マトリクス状に配列された複数の光電変換素子(複数の画素)を備え、各光電変換素子は、それぞれ、前記色フィルタ部32を介して受光した光の光量に応じて変換した電気信号を原画像データにおける各画素のデータとして出力する。複数の撮像部33bは、複数の撮像光学系31bに対応し、各撮像面が互いに同一平面となるように配列される。図3に示す例では、複数の撮像部33bは、線形独立な2方向、より具体的には互いに直交するX方向およびY方向の2方向に2次元マトリクス状に配列されている。図3に示す例では、複数の撮像部33bは、3行3列に2次元マトリクス状に配列された9個の撮像部33b−11〜33b−33が示されている。これら複数の撮像部33bは、同一の基板上に2次元マトリクス状に配列された複数の前記固体撮像素子を備えて構成されて良いが、図3に示す例では、1個の前記固体撮像素子を備えて構成され、この1個の前記固体撮像素子における有効画素領域が、各撮像部33bに対応するように、2次元マトリクス状に配列された複数の領域に分割され、これら各領域が各撮像部33bとして利用される。   The three or more compound eye array camera 3bb is a device that captures a subject and generates a plurality (three or more) of original image data. For example, as shown in FIG. A plurality of color filter sections 32 (not shown in FIG. 3) corresponding to the system 31b, the plurality of imaging optical systems 31b, respectively disposed on the respective image sides of the imaging optical systems 31, and the plurality of imaging optics. A plurality of imaging units 33b that correspond to the system 31b and that respectively capture optical images of the subject formed by the plurality of imaging optical systems 31b through the color filter units 32 and output a plurality of original image data. Prepare. In FIG. 3, the color filter unit 32 is omitted. Each of the plurality of imaging optical systems 31b is an optical element that forms an optical image of a subject on the light receiving surface of the imaging unit 33b corresponding to the imaging optical system 31b. One imaging optical system 31b includes one or a plurality of optical lenses along the optical axis. In the example shown in FIG. 3, the plurality of imaging optical systems 31 b are arranged so that the optical axes are substantially parallel to each other. Therefore, the plurality of imaging units 33b that respectively capture the optical images of the subject via the plurality of imaging optical systems 31b and the plurality of color filter units 32 generate original image data that is shifted by a substantially parallax showing the same subject. become. In the example illustrated in FIG. 3, the plurality of imaging optical systems 31 b are two-dimensional matrices in two linearly independent directions corresponding to the plurality of imaging units 33 b, more specifically, in two directions of X and Y directions orthogonal to each other. Are arranged in a shape. In the example illustrated in FIG. 3, the plurality of imaging optical systems 31b includes nine imaging optical systems 31b-11 to 31b arranged in a two-dimensional matrix in three rows and three columns in accordance with the arrangement mode and the number of the imaging units 33b. -33. Each of the plurality of imaging units 33b includes a plurality of photoelectric conversion elements (a plurality of pixels) arranged in a two-dimensional matrix, and each photoelectric conversion element receives light received via the color filter unit 32, respectively. The electrical signal converted according to the amount of light is output as data of each pixel in the original image data. The plurality of imaging units 33b correspond to the plurality of imaging optical systems 31b and are arranged so that the imaging surfaces are on the same plane. In the example illustrated in FIG. 3, the plurality of imaging units 33 b are arranged in a two-dimensional matrix in two linearly independent directions, more specifically, in two directions of X and Y directions orthogonal to each other. In the example illustrated in FIG. 3, the plurality of imaging units 33b include nine imaging units 33b-11 to 33b-33 arranged in a two-dimensional matrix in three rows and three columns. The plurality of imaging units 33b may include a plurality of the solid-state imaging elements arranged in a two-dimensional matrix on the same substrate, but in the example illustrated in FIG. The effective pixel area in the single solid-state imaging device is divided into a plurality of areas arranged in a two-dimensional matrix so as to correspond to each imaging unit 33b. Used as the imaging unit 33b.

単眼のカメラ3baにおける色フィルタ部32および複眼のアレイカメラ3bbにおける複数の色フィルタ部32それぞれは、互いに異なる複数の色フィルタを所定のパターンで配列した単位色フィルタ配列321を、複数、さらに2次元アレイ状に配列した光学フィルタ素子である。色フィルタ部32の各色フィルタは、それぞれ、入射した光のうち所定の波長範囲(透過波長帯域)の光を透過し、撮像部33の各光電変換素子に対応するように配置される。すなわち、単眼のカメラ3baの色フィルタ部32における各色フィルタは、撮像部33aにおける複数の光電変換素子(複数の画素)それぞれに対応するように配置される。複眼のアレイカメラ3bbにおける複数の色フィルタ部32は、それぞれ、複数の撮像部33bに対応するように配置され、各色フィルタ部32および撮像部33bそれぞれにおいて、色フィルタ部32における各色フィルタは、撮像部33bにおける複数の光電変換素子(複数の画素)それぞれに対応するように配置される。   Each of the color filter unit 32 in the monocular camera 3ba and the plurality of color filter units 32 in the compound eye array camera 3bb includes a plurality of unit color filter arrays 321 in which a plurality of different color filters are arranged in a predetermined pattern, and further two-dimensionally. These are optical filter elements arranged in an array. Each color filter of the color filter unit 32 transmits light in a predetermined wavelength range (transmission wavelength band) of incident light, and is disposed so as to correspond to each photoelectric conversion element of the imaging unit 33. That is, each color filter in the color filter unit 32 of the monocular camera 3ba is arranged so as to correspond to each of a plurality of photoelectric conversion elements (a plurality of pixels) in the imaging unit 33a. The plurality of color filter sections 32 in the compound-eye array camera 3bb are respectively arranged so as to correspond to the plurality of imaging sections 33b. In each of the color filter sections 32 and the imaging section 33b, each color filter in the color filter section 32 is imaged. It arrange | positions so that it may respond | correspond to each of the some photoelectric conversion element (several pixels) in the part 33b.

前記単位色フィルタ配列321は、例えば画像の使用用途等に応じて種々の態様を採用できる。特に、本実施形態における画像処理装置Dは、単位色フィルタ配列321中に複数の同色の色フィルタを含む場合に、効果的であり、前記単位色フィルタ配列321は、例えば、図4AおよびBに示す第1および第2態様の単位色フィルタ配列321a、321b等である。   The unit color filter array 321 can adopt various modes depending on, for example, the usage of the image. In particular, the image processing apparatus D in this embodiment is effective when the unit color filter array 321 includes a plurality of color filters of the same color. Unit color filter arrays 321a and 321b of the first and second modes shown.

図4Aに示す第1態様の単位色フィルタ配列321aは、赤色を透過する赤色フィルタ(R)、緑色を透過する第1緑色フィルタ(G)、緑色を透過する第2緑色フィルタ(G)、および、青色を透過する青色フィルタ(B)を2行2列で2次元マトリックス状に配置した配列であり、いわゆるベイヤー配列である。すなわち、1行1列に赤色フィルタが配置され、1行2列および2行1列それぞれ第1および第2緑色フィルタが配置され、そして、2行2列に青色フィルタが配置される。このような複数の単位色フィルタ配列321aをさらに2次元アレイ状に配列した色フィルタ部32aが図2に示す色フィルタ部32として用いられてよい。この色フィルタ部32aは、いわゆる原色フィルタである。   The unit color filter array 321a of the first mode shown in FIG. 4A includes a red filter (R) that transmits red, a first green filter (G) that transmits green, a second green filter (G) that transmits green, and The blue filter (B) that transmits blue light is arranged in a two-dimensional matrix with two rows and two columns, and is a so-called Bayer arrangement. That is, a red filter is arranged in one row and one column, a first and second green filter is arranged in one row and two columns and two rows and one column, respectively, and a blue filter is arranged in two rows and two columns. A color filter section 32a in which such a plurality of unit color filter arrays 321a are further arranged in a two-dimensional array may be used as the color filter section 32 shown in FIG. The color filter unit 32a is a so-called primary color filter.

この図4Aに示す第1態様の単位色フィルタ配列321aは、2行2列の大きさであるが、これに限定されるものではなく、単位色フィルタ配列321は、任意の大きさであってよい。例えば、図4Bに示す第2態様の単位色フィルタ配列321bは、赤色を透過する第1および第2赤色フィルタ(R)、緑色を透過する第1ないし第5緑色フィルタ(G)、ならびに、青色を透過する第1および第2青色フィルタ(B)を3行3列で2次元マトリックス状に配置した配列である。すなわち、1行1列および3行3列それぞれに第1および第2赤色フィルタが配置され、1行2列、2行1列、2行2列、2行3列および3行2列それぞれに第1ないし第5緑色フィルタが配列され、1行3列および3行1列それぞれに青色フィルタが配置される。このような複数の単位色フィルタ配列321bをさらに2次元アレイ状に配列した色フィルタ部32bが図2に示す色フィルタ部32として用いられてよい。   The unit color filter array 321a of the first aspect shown in FIG. 4A has a size of 2 rows and 2 columns, but is not limited to this, and the unit color filter array 321 has an arbitrary size. Good. For example, the unit color filter array 321b of the second mode illustrated in FIG. 4B includes first and second red filters (R) that transmit red, first to fifth green filters (G) that transmit green, and blue. The first and second blue filters (B) that pass through are arranged in a two-dimensional matrix with three rows and three columns. That is, the first and second red filters are arranged in 1 row 1 column and 3 rows 3 columns, respectively, and 1 row 2 columns, 2 rows 1 column, 2 rows 2 columns, 2 rows 3 columns and 3 rows 2 columns respectively. First to fifth green filters are arranged, and blue filters are arranged in 1 row 3 columns and 3 rows 1 column, respectively. A color filter section 32b in which such a plurality of unit color filter arrays 321b are further arranged in a two-dimensional array may be used as the color filter section 32 shown in FIG.

上記構成の単眼のカメラ3baでは、被写体からの光束は、撮像光学系31aに入射され、色フィルタ部32を介して撮像部33aの受光面に物体の光学像を形成する。撮像部33aの各光電変換素子は、それぞれ、色フィルタ部32の各色フィルタを介して受光した光をその光量に応じた電気信号に光電変換し、各画素のデータとして出力する。色フィルタ部32は、図4に示す単位色フィルタ配列321で構成されているので、撮像部33aは、2次元アレイ状に配列された複数の画素それぞれに対応する複数のデータであって、互いに異なる複数色の複数の濃度データを所定のパターンで配列した単位配列を、複数、さらに2次元アレイ状に配列した前記複数のデータを備える原画像データを出力することになる。   In the monocular camera 3ba having the above configuration, the light beam from the subject enters the imaging optical system 31a and forms an optical image of the object on the light receiving surface of the imaging unit 33a via the color filter unit 32. Each photoelectric conversion element of the imaging unit 33a photoelectrically converts the light received through each color filter of the color filter unit 32 into an electrical signal corresponding to the amount of light, and outputs it as data of each pixel. Since the color filter unit 32 includes the unit color filter array 321 shown in FIG. 4, the imaging unit 33a includes a plurality of data corresponding to each of a plurality of pixels arranged in a two-dimensional array, and Original image data including a plurality of unit arrays in which a plurality of density data of different colors are arranged in a predetermined pattern and the plurality of data arranged in a two-dimensional array is output.

上記構成の複眼のカメラ3bbでは、被写体からの光束は、複数の撮像光学系31bにそれぞれ入射され、各色フィルタ部32を介して各撮像部33bの各受光面に物体の光学像をそれぞれ形成する。各撮像部33bの各光電変換素子は、それぞれ、各色フィルタ部32の各色フィルタを介して受光した光をその光量に応じた電気信号に光電変換し、各画素のデータとして出力する。色フィルタ部32は、図4に示す単位色フィルタ配列321で構成されているので、各撮像部33bは、それぞれ、2次元アレイ状に配列された複数の画素それぞれに対応する複数のデータであって、互いに異なる複数色の複数の濃度データを所定のパターンで配列した単位配列を、複数、さらに2次元アレイ状に配列した前記複数のデータを備える原画像データを出力することになる。したがって、複数の撮像部33bは、複数の原画像データを出力する。図3に示す例では、9個の撮像部33b−11〜33b−33を備える固体撮像素子は、9個の原画像データを出力することになる。   In the compound-eye camera 3bb having the above-described configuration, the light flux from the subject is incident on each of the plurality of imaging optical systems 31b, and forms an optical image of the object on each light receiving surface of each imaging unit 33b via each color filter unit 32. . Each photoelectric conversion element of each imaging unit 33b photoelectrically converts the light received through each color filter of each color filter unit 32 into an electrical signal corresponding to the amount of light, and outputs it as data of each pixel. Since the color filter unit 32 is composed of the unit color filter array 321 shown in FIG. 4, each imaging unit 33b is a plurality of data corresponding to each of a plurality of pixels arranged in a two-dimensional array. Thus, original image data including a plurality of unit arrays in which a plurality of density data of a plurality of different colors are arranged in a predetermined pattern, and the plurality of data arranged in a two-dimensional array is output. Therefore, the plurality of imaging units 33b output a plurality of original image data. In the example illustrated in FIG. 3, the solid-state imaging device including the nine imaging units 33 b-11 to 33 b-33 outputs nine original image data.

上記第1態様の色フィルタ部32aが用いられる場合では、単位色フィルタ配列321aの色組成比は、R:B:G=1:1:2であり、このため、この色フィルタ部32aを用いることによって生成された原画像データの色組成比も、R:B:G=1:1:2である。上記第2態様の色フィルタ部32bが用いられる場合では、単位色フィルタ配列321bの色組成比は、R:B:G=2:2:5であり、このため、この色フィルタ部32bを用いることによって生成された原画像データの色組成比も、R:B:G=2:2:5である。   When the color filter unit 32a of the first aspect is used, the color composition ratio of the unit color filter array 321a is R: B: G = 1: 1: 2, and therefore, this color filter unit 32a is used. The color composition ratio of the original image data generated by this is also R: B: G = 1: 1: 2. When the color filter unit 32b of the second aspect is used, the color composition ratio of the unit color filter array 321b is R: B: G = 2: 2: 5. Therefore, the color filter unit 32b is used. The color composition ratio of the original image data generated by this is also R: B: G = 2: 2: 5.

図1Aに戻って、入力部4は、制御処理部1に接続され、例えば、画像処理の開始を指示するコマンド等の各種コマンド、および、例えば画像処理対象の画像における識別子(ファイルネーム)の入力や画像処理の際に用いられる画像フィルタの選択入力等の画像処理を実行する上で必要な各種データを画像処理装置Dに入力する機器であり、例えば、キーボードやマウス等である。出力部5は、制御処理部1に接続され、入力部4から入力されたコマンドやデータ、および、画像処理装置Dによって画像処理された画像処理の結果の画像を出力する機器であり、例えばCRTディスプレイ、LCDおよび有機ELディスプレイ等の表示装置やプリンタ等の印刷装置等である。   Returning to FIG. 1A, the input unit 4 is connected to the control processing unit 1 and inputs various commands such as a command for instructing start of image processing and an identifier (file name) in an image to be processed, for example. And a device for inputting various data necessary for executing image processing such as selection input of an image filter used in image processing to the image processing apparatus D, such as a keyboard and a mouse. The output unit 5 is connected to the control processing unit 1 and outputs a command or data input from the input unit 4 and an image obtained as a result of the image processing performed by the image processing device D. For example, the CRT A display device such as a display, an LCD, and an organic EL display, and a printing device such as a printer.

なお、入力部4および出力部5からタッチパネルが構成されてもよい。このタッチパネルを構成する場合において、入力部4は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置であり、出力部5は、表示装置である。このタッチパネルでは、表示装置の表示面上に位置入力装置が設けられ、表示装置に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として画像処理装置Dに入力される。このようなタッチパネルでは、ユーザは、入力操作を直感的に理解し易いので、ユーザにとって取り扱い易い画像処理装置Dが提供される。   A touch panel may be configured from the input unit 4 and the output unit 5. In the case of configuring this touch panel, the input unit 4 is a position input device that detects and inputs an operation position such as a resistive film method or a capacitance method, and the output unit 5 is a display device. In this touch panel, a position input device is provided on the display surface of the display device, one or more input content candidates that can be input to the display device are displayed, and the user touches the display position where the input content to be input is displayed. The position is detected by the position input device, and the display content displayed at the detected position is input to the image processing device D as the operation input content of the user. With such a touch panel, the user can easily understand the input operation intuitively, and thus an image processing apparatus D that is easy for the user to handle is provided.

記憶部2は、制御処理部1に接続され、画像処理を実行する上で必要な各種プログラムや各種データを記憶する装置であり、例えば、ROM(Read Only Memory)やEEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性記憶素子、RAM(Random Access Memory)等の揮発性記憶素子およびその周辺回路等を備えて構成される。記憶部2は、例えばハードディスク等の大容量記憶装置を備えても良い。そして、記憶部2は、原画像データを記憶し、この原画像データに対し制御処理部1によって後述の画像処理を行うための作業領域として用いられる。   The storage unit 2 is a device that is connected to the control processing unit 1 and stores various programs and various data necessary for executing image processing. Non-volatile memory elements such as Memory), volatile memory elements such as RAM (Random Access Memory), and peripheral circuits thereof. The storage unit 2 may include a large-capacity storage device such as a hard disk. The storage unit 2 stores original image data, and is used as a work area for performing image processing to be described later on the original image data by the control processing unit 1.

制御処理部1は、所定の画像処理プログラムに基づき後述の画像処理を実行するべく、画像処理装置Daの各部を当該各部の機能に応じてそれぞれ制御するものである。制御処理部1aは、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成され、所定の画像処理プログラムを実行することによって、機能的に、制御部11、デモザイク処理部12、対応点探索処理部13、位置ズレ量演算部14および超解像処理部15が構成される。   The control processing unit 1 controls each unit of the image processing device Da according to the function of each unit so as to execute image processing described later based on a predetermined image processing program. The control processing unit 1a includes, for example, a CPU (Central Processing Unit) and its peripheral circuits, and functionally executes a predetermined image processing program, thereby functionally controlling the control unit 11, the demosaic processing unit 12, and corresponding points. A search processing unit 13, a positional deviation amount calculation unit 14, and a super-resolution processing unit 15 are configured.

制御部11は、所定の画像処理を実行するために、画像処理装置Dの各部を当該各部の機能に応じてそれぞれ制御するものである。   The control unit 11 controls each unit of the image processing apparatus D in accordance with the function of each unit in order to execute predetermined image processing.

デモザイク処理部12は、原画像データをデモザイクすることによって各色成分データを各画素ごとに持つ画像データの少なくとも1色を生成するものである。このようなデモザイク処理部12は、本実施形態では、図1Bに示すように、輝度成分生成処理部121と、色度成分生成処理部122と、色度成分補間処理部123と、画像生成処理部124とを備える。   The demosaic processing unit 12 generates at least one color of image data having each color component data for each pixel by demosaicing the original image data. In this embodiment, such a demosaic processing unit 12 includes a luminance component generation processing unit 121, a chromaticity component generation processing unit 122, a chromaticity component interpolation processing unit 123, and an image generation process as illustrated in FIG. 1B. Part 124.

輝度成分生成処理部121は、原画像データを所定の画像フィルタでフィルタリングすることによって輝度成分画像データを生成するものである。前記所定の画像フィルタは、フィルタリングするデータである対象データに対応する画素の周辺に位置する画素に対応するデータに基づいて、前記対象データを、原画像データにおける単位配列321の色組成比と同じ色組成比を持つデータに変換するフィルタ係数を備えて構成される。そして、前記画像フィルタは、1つであって良いが、本実施形態では、複数の画像フィルタが用いられ、輝度成分生成処理部121は、原画像データを前記複数の画像フィルタそれぞれでフィルタリングすることによって複数の素輝度成分画像データを生成し、前記複数の素輝度成分画像データを予め設定された所定の合成比で合成することで前記輝度成分生成画像データを生成する。これら複数の画像フィルタは、サイズが互いに異なるとともに、前記フィルタリングによって高周波成分を除去する除去率が互いに異なる画像フィルタを含む。一例では、輝度成分生成処理部121は、原画像データを第1および第2画像フィルタそれぞれでフィルタリングすることによって第1および第2素輝度成分画像データを生成し、これら第1および第2素輝度成分画像データを予め適宜に設定された所定の合成比で合成することで前記輝度成分生成画像データを生成する。この第1画像フィルタは、第2画像フィルタのサイズよりも大きなサイズであり、前記フィルタリングによって高周波成分を除去する除去率が第2画像フィルタよりも小さい。このような画像フィルタについては、後に、詳述する。   The luminance component generation processing unit 121 generates luminance component image data by filtering original image data with a predetermined image filter. The predetermined image filter is the same as the color composition ratio of the unit array 321 in the original image data based on data corresponding to pixels located around the pixel corresponding to the target data that is data to be filtered. The filter coefficient is converted into data having a color composition ratio. In the present embodiment, a plurality of image filters are used, and the luminance component generation processing unit 121 filters the original image data with each of the plurality of image filters. To generate a plurality of elementary luminance component image data, and synthesize the plurality of elementary luminance component image data at a predetermined synthesis ratio set in advance, thereby generating the luminance component generation image data. The plurality of image filters include image filters having different sizes and different removal rates for removing high-frequency components by the filtering. In one example, the luminance component generation processing unit 121 generates first and second elementary luminance component image data by filtering the original image data with the first and second image filters, respectively, and the first and second elementary luminances are generated. The luminance component generation image data is generated by synthesizing the component image data with a predetermined synthesis ratio set appropriately in advance. The first image filter has a size larger than that of the second image filter, and a removal rate for removing high-frequency components by the filtering is smaller than that of the second image filter. Such an image filter will be described in detail later.

色度成分生成処理部122は、前記原画像データから、輝度成分生成処理部121で生成された輝度成分画像データを、各画素ごとに、減算することによって、色度成分画像データを生成するものである。   The chromaticity component generation processing unit 122 generates chromaticity component image data by subtracting, for each pixel, the luminance component image data generated by the luminance component generation processing unit 121 from the original image data. It is.

色度成分補間処理部123は、色度成分生成処理部122で生成された色度成分画像データにおいて、前記複数色ごとに、欠落する画素の色度成分データを、前記単位配列に含まれる同色の個数、および、輝度成分生成処理部121で生成された輝度成分画像データに基づいた補間方法で補間することによって、前記複数色ごとの各色別色度成分画像データを生成するものである。好ましくは、本実施形態では、色度成分補間処理部123は、前記単位配列に含まれる同色の個数が1つである色の色度成分データを補間する場合には、バイリニア補間法を前記補間方法として用いるものである。また、好ましくは、本実施形態では、色度成分補間処理部123は、前記単位配列に含まれる同色の個数が複数である色の色度成分データを補間する場合には、輝度成分生成処理部121で生成された輝度成分画像データに基づいた補間方法を前記補間方法として用いるものである。より具体的には、輝度成分生成処理部121で生成された輝度成分画像データに基づいた補間方法は、前記色度成分データが欠落する画素を注目画素とし、前記色度成分データ上における前記注目画素の第1画素位置に対応する前記輝度成分画像データ上における第2画素位置の第1輝度成分データと、前記第2画素位置の周辺に位置する周辺画素位置の第2輝度成分データとの相関の有無に応じて選択される補間方法である。好ましくは、輝度成分生成処理部121で生成された輝度成分画像データに基づいた補間方法は、前記相関の有る場合には、第1画素位置の周辺に位置する周辺画素位置の色度成分データを前記相関の程度に応じた重みで重みを付けて平均する重み付け補間法であり、前記相関の無い場合には、バイリニア補間法である。   In the chromaticity component image data generated by the chromaticity component generation processing unit 122, the chromaticity component interpolation processing unit 123 converts the chromaticity component data of the missing pixel for each of the plurality of colors into the same color included in the unit array. And the chromaticity component image data for each color for each of the plurality of colors are generated by interpolation using an interpolation method based on the luminance component image data generated by the luminance component generation processing unit 121. Preferably, in the present embodiment, the chromaticity component interpolation processing unit 123 uses a bilinear interpolation method when interpolating chromaticity component data of a color having the same number of colors included in the unit array. It is used as a method. Preferably, in the present embodiment, the chromaticity component interpolation processing unit 123, when interpolating chromaticity component data of a color having a plurality of the same colors included in the unit array, is a luminance component generation processing unit. An interpolation method based on the luminance component image data generated in 121 is used as the interpolation method. More specifically, in the interpolation method based on the luminance component image data generated by the luminance component generation processing unit 121, a pixel in which the chromaticity component data is missing is set as a target pixel, and the attention on the chromaticity component data is set. Correlation between the first luminance component data at the second pixel position on the luminance component image data corresponding to the first pixel position of the pixel and the second luminance component data at the peripheral pixel position located around the second pixel position The interpolation method is selected according to whether or not there is. Preferably, in the interpolation method based on the luminance component image data generated by the luminance component generation processing unit 121, when there is the correlation, the chromaticity component data of the peripheral pixel position positioned around the first pixel position is used. This is a weighted interpolation method that weights and averages the weights according to the degree of correlation, and when there is no correlation, it is a bilinear interpolation method.

画像生成処理部124は、色度成分補間処理部123で生成された前記複数色ごとの各色別色度成分画像データそれぞれに、輝度成分生成処理部121で生成された輝度成分画像データを、各画素ごとに、それぞれ加算することによって、前記画像データを生成するものである。   The image generation processing unit 124 adds the luminance component image data generated by the luminance component generation processing unit 121 to each of the chromaticity component image data for each color generated by the chromaticity component interpolation processing unit 123. The image data is generated by adding each pixel.

図1Aに戻って、対応点探索処理部13は、複数の原画像データに基づく複数の画像の間で対応点探索を実施するものである。   Returning to FIG. 1A, the corresponding point search processing unit 13 performs a corresponding point search among a plurality of images based on a plurality of original image data.

位置ズレ量演算部14は、対応点探索処理部13で探索された対応点間の距離である位置ズレ量を求めるものである。位置ズレ量は、ピクセル単位(画素単位、画素ピッチの整数倍)で求められてもよいが、本実施形態では、サブピクセル単位で求められる。   The positional deviation amount calculation unit 14 obtains a positional deviation amount that is a distance between corresponding points searched by the corresponding point search processing unit 13. The positional shift amount may be obtained in pixel units (pixel units, integer multiples of the pixel pitch), but in the present embodiment, it is obtained in subpixel units.

超解像処理部15は、複数の原画像データからデモザイク処理部12によって生成された複数の画像データ、および、位置ズレ量演算部14で求めた位置ズレ量に基づいて、前記複数の画像データに対応する複数の画像における解像度より高い高解像度な画像の高解像画像データを生成するものである。   The super-resolution processing unit 15 uses the plurality of pieces of image data based on the plurality of pieces of image data generated by the demosaic processing unit 12 from the plurality of pieces of original image data and the amount of position shift obtained by the position shift amount calculation unit 14. The high-resolution image data of the high-resolution image higher than the resolution in the plurality of images corresponding to the above is generated.

このような画像処理装置Dは、例えばノート型やディスクトップ型等のパーソナルコンピュータや、また例えば携帯電話機等の携帯機器やカメラ等のコンピュータを搭載した機器等によって構成可能である。   Such an image processing apparatus D can be configured by, for example, a personal computer such as a notebook computer or a desktop computer, a portable device such as a mobile phone, or a device equipped with a computer such as a camera.

次に、実施形態における画像処理装置の動作について説明する。図5は、実施形態における画像処理装置の動作を示すフローチャートである。図6は、アレイカメラによって撮像された各原画像データ間(各画像間)における相互位置関係を説明するための図である。図7は、実施形態の画像処理装置におけるデモザイク処理を示すフローチャートである。図8は、前記デモザイク処理における輝度成分生成処理を説明するための図である。図8Aは、原画像データISの画像(原画像)PISの一例を示し、図8Bは、図8Aに示す原画像データISを第1態様の画像フィルタFLaでフィルタリングした素輝度成分画像データBISp−1の画像(素輝度成分画像)PBISp−1および前記第1態様の画像フィルタFLaを示し、図8Cは、図8Aに示す原画像データISを第2態様の画像フィルタFLbでフィルタリングした素輝度成分画像データBISp−2の画像(素輝度成分画像)PBISp−2および前記第2態様の画像フィルタFLbを示し、そして、図8Dは、図8Bに示す素輝度成分画像と図8Cに示す素輝度成分画像とを1:4の割合で合成することによって求めた輝度成分画像データBISの画像(輝度成分画像)PBISを示す。図9は、前記輝度成分生成処理におけるフィルタ処理を説明するための図である。図9Aは、原画像データISの各データ(原画像PISの各画素)と画像フィルタFLとの関係を示し、図9Bは、画像フィルタFL(この例では第2態様の画像フィルタFLb)を示し、図9Cは、フィルタリング後の素輝度成分画像データBISpを示し、図9Dは、原画像PISの一例を示し、そして、図9Eは、図9Dに示す原画像PISの原画像データISを第2態様の画像フィルタFLbでフィルタリングした素輝度成分画像PBISpの一例を示す。図10は、前記輝度成分生成処理に用いられる画像フィルタの他の構成を示す図である。図9Aは、第3態様の画像フィルタFLcを示し、図9Bは、第4態様の画像フィルタFLdを示し、図9Cは、第5態様の画像フィルタFLeを示す。図11は、前記デモザイク処理における色度成分生成処理を説明するための図である。図11Aは、単位配列がベイヤー配列である場合の原画像データISを示し、図11Bは、図11Aに示す原画像データISに対応する輝度成分画像データBISを示し、図11Cは、図11Aに示す原画像データISに対応するG、R、Bの各色の色度成分画像データCIS(CIS−G、CIS−R、CIS−B)(補間前の色別色度成分画像データ)を示す。図12は、前記デモザイク処理における色度成分補間処理を説明するための図である。図12Aは、注目画素Xとその周辺画素A〜Dの位置関係を示し、図12Bは、重みと補間演算とを示す。図13は、前記デモザイク処理における画像生成処理を説明するための図である。図13Aは、G成分の場合を示し、図13Bは、R成分の場合を示し、図13Cは、B成分の場合を示す。図14は、実施形態の画像処理装置における対応点探索処理を説明するための図である。図14Aは、対応点探索の対象である第1および第2画像を重ねて表示した図であり、図14Bおよび図14Cは、相対的に粗い精度での対応点探索を示し、図14Dは、相対的に細かい精度での対応点探索を示す。図15は、実施形態の画像処理装置におけるサブピクセル単位での位置ズレ量演算処理を説明するための図である。図15Aは、対応点探索結果の一例であるNCC値を示し、図15Bは、図15Aに示すNCC値からサブピクセル単位で求められた対応点を示す。図16は、実施形態の画像処理装置における第1態様の超解像処理を示すフローチャートである。図17は、実施形態の画像処理装置における超解像処理の劣化情報を説明するための図である。図18は、残差処理と超解像処理との関係を説明するための図である。図18Aは、ベイヤー配列を示し、図18Bおよび図18Cは、2個の入力画像の補間関係を示す。図18は、残差処理における劣化情報に応じた出力候補画像の変換を説明するための図である。図18Aは、出力候補画像Xを示し、図18Bは、劣化情報に応じて入力画像相当の解像度に変換した出力候補画像Xを示し、図18Cは、図18Aから図18Bへの変換Dを説明するための図である。図19は、残差処理における符号関数の演算を説明するための図である。図19Aは、劣化情報に応じて入力画像相当の解像度に変換した出力候補画像Xを示し、図19Bは、入力画像Yを示し、図19Cは、差異sign(D−Y)を示す。図20は、残差処理における符号関数の演算結果に影響した出力候補画像の画素を求める処理を説明するための図である。図20Aは、差異sign(D−Y)を示し、図20Bは、超解像画像のサイズでの差異の画像F sign(D−Y)を示し、図20Cは、図20Aから図20Bへの変換F を説明するための図である。図21は、各入力画像に対する残差処理を示すフローチャートである。図22は、実施例の画像処理結果と比較例の画像処理結果とを説明するための図である。Next, the operation of the image processing apparatus in the embodiment will be described. FIG. 5 is a flowchart illustrating the operation of the image processing apparatus according to the embodiment. FIG. 6 is a diagram for explaining the mutual positional relationship between original image data (between images) captured by the array camera. FIG. 7 is a flowchart illustrating demosaic processing in the image processing apparatus according to the embodiment. FIG. 8 is a diagram for explaining a luminance component generation process in the demosaic process. 8A shows an example of an image (original image) PIS of the original image data IS, and FIG. 8B shows elementary luminance component image data BISp− obtained by filtering the original image data IS shown in FIG. 8A with the image filter FLa of the first mode. FIG. 8C shows the first image (primary luminance component image) PBISp-1 and the image filter FLa of the first aspect, and FIG. 8C shows the elementary luminance component obtained by filtering the original image data IS shown in FIG. 8A with the image filter FLb of the second aspect. FIG. 8D shows an image (primary luminance component image) PBISp-2 of the image data BISp-2 and the image filter FLb of the second aspect, and FIG. 8D shows an elementary luminance component image shown in FIG. 8B and an elementary luminance component shown in FIG. 8C. An image (luminance component image) PBIS of luminance component image data BIS obtained by combining the image and the image at a ratio of 1: 4 is shown. FIG. 9 is a diagram for explaining filter processing in the luminance component generation processing. FIG. 9A shows the relationship between each data of the original image data IS (each pixel of the original image PIS) and the image filter FL, and FIG. 9B shows the image filter FL (the image filter FLb of the second mode in this example). 9C shows the filtered elementary luminance component image data BISp, FIG. 9D shows an example of the original image PIS, and FIG. 9E shows the second original image data IS of the original image PIS shown in FIG. 9D. An example of the elementary luminance component image PBISp filtered by the image filter FLb of the aspect is shown. FIG. 10 is a diagram showing another configuration of the image filter used for the luminance component generation processing. 9A shows the image filter FLc of the third aspect, FIG. 9B shows the image filter FLd of the fourth aspect, and FIG. 9C shows the image filter FLe of the fifth aspect. FIG. 11 is a diagram for explaining chromaticity component generation processing in the demosaic processing. 11A shows the original image data IS when the unit array is a Bayer array, FIG. 11B shows the luminance component image data BIS corresponding to the original image data IS shown in FIG. 11A, and FIG. The chromaticity component image data CIS (CIS-G, CIS-R, CIS-B) for each color of G, R, and B corresponding to the original image data IS shown (color-specific chromaticity component image data before interpolation) is shown. FIG. 12 is a diagram for explaining chromaticity component interpolation processing in the demosaic processing. 12A shows the positional relationship between the pixel of interest X and its peripheral pixels A to D, and FIG. 12B shows the weights and the interpolation calculation. FIG. 13 is a diagram for explaining an image generation process in the demosaic process. 13A shows the case of the G component, FIG. 13B shows the case of the R component, and FIG. 13C shows the case of the B component. FIG. 14 is a diagram for explaining corresponding point search processing in the image processing apparatus according to the embodiment. FIG. 14A is a diagram in which the first and second images that are the target of the corresponding point search are displayed in an overlapping manner. FIGS. 14B and 14C show the corresponding point search with relatively coarse accuracy, and FIG. Corresponding point search with relatively fine accuracy is shown. FIG. 15 is a diagram for explaining the positional deviation amount calculation processing in units of subpixels in the image processing apparatus according to the embodiment. FIG. 15A shows an NCC value that is an example of a corresponding point search result, and FIG. 15B shows a corresponding point obtained in units of subpixels from the NCC value shown in FIG. 15A. FIG. 16 is a flowchart illustrating the super-resolution processing of the first aspect in the image processing apparatus of the embodiment. FIG. 17 is a diagram for describing deterioration information of super-resolution processing in the image processing apparatus according to the embodiment. FIG. 18 is a diagram for explaining the relationship between the residual processing and the super-resolution processing. FIG. 18A shows a Bayer array, and FIGS. 18B and 18C show an interpolation relationship between two input images. FIG. 18 is a diagram for explaining conversion of an output candidate image according to deterioration information in the residual processing. 18A shows the output candidate image Xn , FIG. 18B shows the output candidate image Xn converted to the resolution equivalent to the input image according to the degradation information, and FIG. 18C shows the conversion D from FIG. 18A to FIG. 18B. it is a diagram for explaining a k H k F k. FIG. 19 is a diagram for explaining the calculation of the sign function in the residual process. 19A shows an output candidate image Xn converted to a resolution equivalent to the input image in accordance with the deterioration information, FIG. 19B shows the input image Yk , and FIG. 19C shows the difference sign (D k H k F k X n- Yk ). FIG. 20 is a diagram for explaining processing for obtaining pixels of an output candidate image that has influenced the calculation result of the sign function in the residual processing. Figure 20A is a difference sign indicates (D k H k F k X n -Y k), FIG. 20B, image differences in the size of the super-resolution image F k T H k T D k T sign (D k H k F k X n -Y k ) indicates, FIG 20C is a diagram for explaining conversion F k T H k T D k T to Figure 20B from Figure 20A. FIG. 21 is a flowchart showing residual processing for each input image. FIG. 22 is a diagram for explaining the image processing result of the example and the image processing result of the comparative example.

画像処理装置Dは、例えば、ユーザの操作によって入力部4から起動コマンドを受け付けると、画像処理プログラムを実行する。この画像処理プログラムの実行によって、制御処理部1に制御部11、デモザイク処理部12、対応点探索処理部13、位置ズレ量演算部14および超解像処理部15が機能的に構成される。   For example, when the image processing apparatus D receives an activation command from the input unit 4 by a user operation, the image processing apparatus D executes the image processing program. By executing the image processing program, the control processing unit 1 includes a control unit 11, a demosaic processing unit 12, a corresponding point search processing unit 13, a positional deviation amount calculation unit 14, and a super-resolution processing unit 15.

そして、図5において、まず、処理S1では、画像取得部3によって複数の原画像それぞれに対応する複数の原画像データが当該画像処理装置Dに入力され、記憶部2に記憶される。本実施形態では、一例として、9個の第1ないし第9原画像データISが入力され、記憶部2に記憶される。これら第1ないし第9原画像データISは、例えば3行3列に2次元アレイ状に配列された9眼を持つアレイカメラ3bbで同一の被写体を撮像することによって生成されたデータである。したがって、これら第1ないし第9原画像データIS−11〜IS−33は、互いの位置関係として図6に示すように3行3列に2次元アレイ状に配列される。1行1列に位置する原画像データが第1原画像データIS−11であり、2次元アレイ状配列の各位置に位置する各原画像データISが順次にそれぞれ番号付けられ、3行3列に位置する原画像データが第9原画像データIS−33である。そして、中央位置の2行2列に位置にする原画像データISは、第5原画像データIS−22であり、後述の対応点探索で基準画像とされる。これら第1ないし第9原画像データIS−11〜IS−33は、それぞれ、適宜な色フィルタ部32を用いて生成された任意の画像数のデータであって良いが、ここでは、一例として、ベイヤー配列の色フィルタ部32aを用いて生成された500×500画素のデータである。   In FIG. 5, first, in process S <b> 1, a plurality of original image data corresponding to each of a plurality of original images is input to the image processing device D by the image acquisition unit 3 and stored in the storage unit 2. In the present embodiment, as an example, nine first to ninth original image data IS are input and stored in the storage unit 2. These first to ninth original image data IS are data generated by imaging the same subject with an array camera 3bb having nine eyes arranged in a two-dimensional array, for example, in three rows and three columns. Therefore, the first to ninth original image data IS-11 to IS-33 are arranged in a two-dimensional array in three rows and three columns as shown in FIG. The original image data located in one row and one column is the first original image data IS-11, and each original image data IS located in each position of the two-dimensional array is sequentially numbered, and three rows and three columns. Is the ninth original image data IS-33. The original image data IS positioned at 2 rows and 2 columns at the central position is the fifth original image data IS-22, which is used as a reference image in the corresponding point search described later. Each of the first to ninth original image data IS-11 to IS-33 may be data of an arbitrary number of images generated using an appropriate color filter unit 32. Here, as an example, This is data of 500 × 500 pixels generated by using the color filter section 32a in the Bayer array.

次に、処理S2では、デモザイク処理部12によって第1ないし第9原画像データIS−11〜IS−33それぞれがデモザイクされる。すなわち、デモザイク処理部12は、第1ないし第9原画像データIS−11〜IS−33それぞれをデモザイクすることによって第1ないし第9画像データID−11〜ID−33それぞれを生成し、これら生成した第1ないし第9画像データID−11〜ID−33を記憶部2に記憶する。この原画像データISをデモザイクするデモザイク処理は、より具体的には、例えば、本実施形態では、図7に示すように、まず、デモザイク処理部12の輝度成分生成処理部121によって原画像データISに基づいて輝度成分画像データBISが生成され(S201)、次に、デモザイク処理部12の色度成分生成処理部122によって原画像データISおよび輝度成分画像データBISに基づいて色度成分画像データCISが生成され(S202)、次に、デモザイク処理部12の色度成分補間処理部123によって輝度成分画像データBISおよび色度成分画像データCISに基づいて補間処理されて色別色度成分画像データICISが生成され(S203)、そして、デモザイク処理部12の画像生成処理部124によって輝度成分画像データBISおよび色別色度成分画像データICISに基づいて画像データIDが生成される(S204)。これら処理S201〜S204の各処理は、第1ないし第9原画像データIS−11〜IS−33それぞれに対し、実行される。より詳しくは、これら各処理S201〜S204は、次のように処理される。   Next, in process S2, each of the first to ninth original image data IS-11 to IS-33 is demosaiced by the demosaic processing unit 12. That is, the demosaic processing unit 12 generates the first to ninth image data ID-11 to ID-33 by demosaicing each of the first to ninth original image data IS-11 to IS-33, and generates these. The first to ninth image data ID-11 to ID-33 are stored in the storage unit 2. More specifically, the demosaicing process for demosaicing the original image data IS is, for example, in the present embodiment, first, as shown in FIG. 7, the luminance component generation processing unit 121 of the demosaic processing unit 12 first performs the original image data IS. The luminance component image data BIS is generated based on the original image data IS and the luminance component image data BIS by the chromaticity component generation processing unit 122 of the demosaic processing unit 12 (S201). Is generated (S202), and then interpolated by the chromaticity component interpolation processing unit 123 of the demosaic processing unit 12 based on the luminance component image data BIS and the chromaticity component image data CIS, and the chromaticity component image data ICIS for each color Is generated (S203), and the luminance generation is performed by the image generation processing unit 124 of the demosaic processing unit 12. Image data ID is generated based on the image data BIS and color-coded chroma component image data ICIS (S204). Each of these processes S201 to S204 is executed for each of the first to ninth original image data IS-11 to IS-33. More specifically, each of these processes S201 to S204 is performed as follows.

輝度成分を生成する輝度成分生成処理S201では、輝度成分生成処理部121は、原画像データISを所定の画像フィルタFLでフィルタリングすることによって輝度成分画像データBISを生成する。この輝度成分生成処理S201では、1個の画像フィルタFLが用いられ、輝度成分生成処理部121は、原画像データISをこの1個の画像フィルタFLでフィルタリングすることによって輝度成分画像データBISを生成しても良いが、本実施形態では、複数の画像フィルタFLnが用いられ、輝度成分生成処理部121は、原画像データISをこれら複数の画像フィルタFLnそれぞれでフィルタリングすることによって複数の素輝度成分画像データBISpを生成し、これら複数の素輝度成分画像データBISpを所定の合成比で合成することによって1個の輝度成分画像データBISを生成する。図8に示す例では、図8Bおよび図8Cに示す2個の第1および第2態様の画像フィルタFLa、FLbが用いられ、輝度成分生成処理部121は、原画像データIS(図8A)を第1態様の画像フィルタFLaでフィルタリングすることによって第1素輝度成分画像データBISp−1を生成し(図8B)、原画像データISを第2態様の画像フィルタFLbでフィルタリングすることによって第2素輝度成分画像データBISp−2を生成し(図8C)、そして、これら第1および第2素輝度成分画像データBISp−1、BISp−2を1:4の合成比で合成することによって1個の輝度成分画像データBISを生成する(図8D)。   In the luminance component generation processing S201 for generating the luminance component, the luminance component generation processing unit 121 generates the luminance component image data BIS by filtering the original image data IS with a predetermined image filter FL. In this luminance component generation processing S201, one image filter FL is used, and the luminance component generation processing unit 121 generates luminance component image data BIS by filtering the original image data IS with this one image filter FL. However, in the present embodiment, a plurality of image filters FLn are used, and the luminance component generation processing unit 121 filters a plurality of elementary luminance components by filtering the original image data IS with each of the plurality of image filters FLn. Image data BISp is generated, and a plurality of elementary luminance component image data BISp is synthesized at a predetermined synthesis ratio to generate one luminance component image data BIS. In the example shown in FIG. 8, the two image filters FLa and FLb of the first and second modes shown in FIGS. 8B and 8C are used, and the luminance component generation processing unit 121 uses the original image data IS (FIG. 8A). The first elementary luminance component image data BISp-1 is generated by filtering with the image filter FLa of the first aspect (FIG. 8B), and the second elementary image data ISb is filtered with the image filter FLb of the second aspect. The luminance component image data BISp-2 is generated (FIG. 8C), and the first and second elementary luminance component image data BISp-1 and BISp-2 are synthesized at a synthesis ratio of 1: 4. Luminance component image data BIS is generated (FIG. 8D).

これら第1および第2態様の画像フィルタFLa、FLbは、それぞれ、フィルタリングの対象データに対応する画素(対象画素)の周辺に位置する画素(周辺画素)に対応するデータ(周辺データ)に基づいて、前記対象データを、原画像データISにおける単位配列(単位色フィルタ配列321)の色組成比と同じ色組成比を持つデータに変換するように、そのフィルタ係数の各値がそれぞれ調整されて設定されている。そして、輝度成分画像データBIS(素輝度成分画像データBISp)に残す高周波成分の度合い等を考慮することによって、画像フィルタFLにおけるフィルタ係数の各値が調整されることが好ましく、また、フィルタリングする対象画素に影響を与える、当該対象画素の周辺に位置する画素範囲等を考慮することによって、画像フィルタFLの大きさ(サイズ)が調整されることが好ましい。   The image filters FLa and FLb of the first and second modes are each based on data (peripheral data) corresponding to pixels (peripheral pixels) located around the pixel (target pixel) corresponding to the filtering target data. The respective values of the filter coefficients are adjusted and set so that the target data is converted into data having the same color composition ratio as the unit composition (unit color filter array 321) in the original image data IS. Has been. Then, it is preferable that each value of the filter coefficient in the image filter FL is adjusted by considering the degree of the high frequency component remaining in the luminance component image data BIS (elementary luminance component image data BISp) and the object to be filtered It is preferable that the size (size) of the image filter FL is adjusted by considering a pixel range or the like located around the target pixel that affects the pixel.

より具体的には、第1態様の画像フィルタFLaは、原画像データISの単位配列がベイヤー配列である場合に用いられる11行11列のフィルタであり、前記周辺データに基づいて前記対象データを、ベイヤー配列における単位配列の色組成比(R:B:G=1:1:2)と同じ色組成比を持つデータに変換するようにそのフィルタ係数の各値がそれぞれ調整されて設定されている。そして、この第1態様の画像フィルタFLaは、その中心位置に対し対称なフィルタ係数を持つフィルタである。すなわち、図8Bに示すように、中心の6行6列に位置するフィルタ係数は、104/128であり、5行6列、6行5列、6行7列および7行6列それぞれに位置する各フィルタ係数は、7/128であり、1行5列、1行7列、3行3列、3行4列、3行6列、3行8列、3行9列、4行3列、4行9列、5行1列、5行5列、5行7列、5行11列、7行1列、7行5列、7行7列、7行11列、8行3列、8行9列、9行3列、9行4列、9行6列、9行8列、9行9列、11行5列および11行7列それぞれに位置する各フィルタ係数は、1/128であり、4行6列、6行4列、6行8列および8行6列それぞれに位置する各フィルタ係数は、−9/128であり、4行5列、4行7列、5行4列、5行8列、7行4列、7行8列、8行5列および8行7列それぞれに位置する各フィルタ係数は、3/128であり、4行4列、4行8列、8行4列および8行8列それぞれに位置する各フィルタ係数は、−5/128であり、3行5列、3行7列、5行3列、5行9列、7行3列、7行9列、9行5列および9行7列それぞれに位置する各フィルタ係数は、2/128であり、2行4列、2行8列、4行2列、4行10列、8行2列、8行10列、10行4列および10行8列それぞれに位置する各フィルタ係数は、−1/128であり、2行6列、6行2列、6行10列および10行6列それぞれに位置する各フィルタ係数は、−2/128であり、そして、残余の各位置に位置する各フィルタ係数は、0/128である。なお、図8Bでは、行列表示の各位置にフィルタ係数の値の分子が記載され、分母は、行列表示外の右下に纏めて記載されている。図8Cおよび図10も同様の記載形式で記載されている。このようなフィルタ係数を持つ第1態様の画像フィルタFLaは、前記フィルタリングによって高周波成分を除去する除去率が比較的小さいために、輝度成分画像データBIS(素輝度成分画像データBISp)に比較的多くの高周波成分が残り、輝度成分画像データBIS(素輝度成分画像データBISp)には、比較的鮮鋭度が保持される。そして、このような第1態様の画像フィルタFLaは、11×11というフィルタサイズを持つので、フィルタリングする対象画素に影響を与える画素範囲が比較的広く、前記対象画素から比較的遠くに位置する画素まで前記対象画素に影響を与え、輝度成分画像データBIS(素輝度成分画像データBISp)には、比較的多くの誤差が含まれる。このため、ギザギザな線が比較的出易い。   More specifically, the image filter FLa of the first aspect is an 11 × 11 filter used when the unit array of the original image data IS is a Bayer array, and the target data is obtained based on the peripheral data. Each value of the filter coefficient is adjusted and set so as to be converted into data having the same color composition ratio as the color composition ratio (R: B: G = 1: 1: 2) of the unit array in the Bayer array. Yes. The image filter FLa according to the first aspect is a filter having a filter coefficient that is symmetric with respect to the center position. That is, as shown in FIG. 8B, the filter coefficient located at the center 6 rows and 6 columns is 104/128, and is located at 5 rows 6 columns, 6 rows 5 columns, 6 rows 7 columns, and 7 rows 6 columns, respectively. Each filter coefficient is 7/128, 1 row 5 columns, 1 row 7 columns, 3 rows 3 columns, 3 rows 4 columns, 3 rows 6 columns, 3 rows 8 columns, 3 rows 9 columns, 4 rows 3 Column, 4 rows, 9 columns, 5 rows, 1 column, 5 rows, 5 columns, 5 rows, 7 columns, 5 rows, 11 columns, 7 rows, 1 column, 7 rows, 5 columns, 7 rows, 7 columns, 7 rows, 11 columns, 8 rows, 3 Each filter coefficient located in the column, 8 rows 9 columns, 9 rows 3 columns, 9 rows 4 columns, 9 rows 6 columns, 9 rows 8 columns, 9 rows 9 columns, 11 rows 5 columns and 11 rows 7 columns, Each filter coefficient located at 1/128, 4 rows 6 columns, 6 rows 4 columns, 6 rows 8 columns and 8 rows 6 columns is -9/128, 4 rows 5 columns, 4 rows 7 columns 5 rows 4 columns 5 rows 8 columns 7 rows 4 columns 7 rows 8 , 8 rows and 5 columns and 8 rows and 7 columns respectively, the filter coefficients are 3/128, and each filter is located in 4 rows and 4 columns, 4 rows and 8 columns, 8 rows and 4 columns, and 8 rows and 8 columns, respectively. The coefficient is −5/128, 3 rows and 5 columns, 3 rows and 7 columns, 5 rows and 3 columns, 5 rows and 9 columns, 7 rows and 3 columns, 7 rows and 9 columns, 9 rows and 5 columns, and 9 rows and 7 columns, respectively. Each filter coefficient located at 2 is 2/128, 2 rows 4 columns, 2 rows 8 columns, 4 rows 2 columns, 4 rows 10 columns, 8 rows 2 columns, 8 rows 10 columns, 10 rows 4 columns and 10 Each filter coefficient located in each of the 8 columns is -1/128, and each filter coefficient located in each of 2 rows 6 columns, 6 rows 2 columns, 6 rows 10 columns and 10 rows 6 columns is -2 / 128, and each filter coefficient located at each remaining position is 0/128. In FIG. 8B, the numerator of the value of the filter coefficient is described at each position in the matrix display, and the denominator is described collectively at the lower right outside the matrix display. 8C and 10 are also described in the same description format. The image filter FLa according to the first aspect having such a filter coefficient has a relatively small removal rate for removing high-frequency components by the filtering, and therefore is relatively large in luminance component image data BIS (elementary luminance component image data BISp). Therefore, the brightness component image data BIS (elementary brightness component image data BISp) is relatively sharp. And since the image filter FLa of such a 1st aspect has a filter size of 11x11, the pixel range which affects the object pixel to filter is comparatively wide, and the pixel located comparatively far from the said object pixel The luminance component image data BIS (elementary luminance component image data BISp) includes a relatively large amount of error. For this reason, a jagged line is relatively easy to appear.

第2態様の画像フィルタFLbは、原画像データISの単位配列がベイヤー配列である場合に用いられる3行3列のフィルタであり、前記周辺データに基づいて前記対象データを、ベイヤー配列における単位配列の色組成比(R:B:G=1:1:2)と同じ色組成比を持つデータに変換するようにそのフィルタ係数の各値がそれぞれ調整されて設定されている。そして、この第2態様の画像フィルタFLbは、その中心位置に対し対称なフィルタ係数を持つフィルタである。すなわち、図8Cに示すように、中心の2行2列に位置するフィルタ係数は、4/16であり、1行2列、2行1列、2行3列および3行2列それぞれに位置する各フィルタ係数は、2/16であり、そして、1行1列、1行3列、3行1列および3行3列それぞれに位置する各フィルタ係数は、1/16である。このようなフィルタ係数を持つ第2態様の画像フィルタFLbは、ガウシアンフィルタでもある。このような第2態様の画像フィルタFLbは、第1態様の画像フィルタFLaと比較して、逆に、前記フィルタリングによって高周波成分を除去する除去率が比較的大きいために、輝度成分画像データBIS(素輝度成分画像データBISp)に高周波成分が比較的少なくなり、そして、フィルタリングする対象画素に影響を与える画素範囲が比較的狭く、輝度成分画像データBIS(素輝度成分画像データBISp)に含まれる誤差は、比較的少なく、ギザギザな線が比較的出難い。このため、上述したように、1個の画像フィルタFLを用いて輝度成分画像データBISを生成する場合には、このような第2態様の画像フィルタFLbが利用される。   The image filter FLb of the second aspect is a 3-by-3 filter used when the unit array of the original image data IS is a Bayer array, and the target data is converted into a unit array in the Bayer array based on the peripheral data. Each value of the filter coefficient is adjusted and set so as to be converted into data having the same color composition ratio (R: B: G = 1: 1: 2). The image filter FLb of the second aspect is a filter having a filter coefficient that is symmetric with respect to the center position. That is, as shown in FIG. 8C, the filter coefficient located at the center 2 rows and 2 columns is 4/16, and is located at 1 row 2 columns, 2 rows 1 column, 2 rows 3 columns, and 3 rows 2 columns, respectively. Each filter coefficient to be performed is 2/16, and each filter coefficient located in each of 1 row, 1 column, 1 row, 3 columns, 3 rows, 1 column, and 3 rows, 3 columns is 1/16. The image filter FLb of the second aspect having such a filter coefficient is also a Gaussian filter. In contrast to the image filter FLa of the first mode, the image filter FLb of the second mode has a relatively high removal rate for removing high-frequency components by the filtering. Therefore, the luminance component image data BIS ( The luminance component image data BISp) has a relatively small amount of high frequency components, and the pixel range that affects the target pixel to be filtered is relatively narrow, and the error included in the luminance component image data BIS (elementary luminance component image data BISp). Are relatively few, and jagged lines are relatively difficult to produce. For this reason, as described above, when the luminance component image data BIS is generated using one image filter FL, the image filter FLb of the second mode is used.

また、画像フィルタFLの各フィルタ係数は、画像フィルタFL全域に単位配列を重ねた場合に、前記単位配列の同じ配列位置におけるフィルタ係数の和が全ての配列位置で同じ値になるように、設定されてよい。   In addition, each filter coefficient of the image filter FL is set so that the sum of the filter coefficients at the same arrangement position of the unit arrangement becomes the same value at all arrangement positions when the unit arrangement is overlapped over the entire area of the image filter FL. May be.

フィルタリングは、原画像データISにおける最初の1行1列に位置する画素に対応するデータから最終の500行500列に位置する画素に対応するデータまで順次に実行される。   The filtering is sequentially executed from data corresponding to the pixel located in the first row and first column in the original image data IS to data corresponding to the pixel located in the last 500 rows and 500 columns.

例えば、図9A上段に示す2行2列に位置するG画素に対し図8Cおよび図9Bに示す第2態様の画像フィルタFLbでフィルタリングすると、2行2列に位置するG画素に対応する輝度成分画像データBIS(素輝度成分画像データBISp)のデータは、(1行1列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のG画素のデータの値)+(1行2列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のR画素のデータの値)+(1行3列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のG画素のデータの値)+(2行1列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のB画素のデータの値)+(2行2列に位置する画像フィルタFLbのフィルタ値;4/16)×(その位置に対応する位置のG画素のデータの値)+(2行3列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のB画素のデータの値)+(3行1列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のG画素のデータの値)+(3行2列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のR画素のデータの値)+(3行3列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のG画素のデータの値)となる。したがって、R画素に対応するフィルタ係数の値は、総計、(2/16)×2=4/16=1/4となり、B画素に対応するフィルタ係数の値は、総計、(2/16)×2=4/16=1/4となり、そして、G画素に対応するフィルタ係数の値は、総計、(1/16)×4+(4/16)×1=8/16=1/2となる。したがって、画像フィルタFLbの色組成比は、R:B:G=1/4:1/4:1/2=1:1:2となり、色フィルタ部32aにおける単位色フィルタ配列321aの色組成比、すなわち、原画像データISにおける単位配列の色組成比と同じである。   For example, when the G pixel located in 2 rows and 2 columns shown in the upper part of FIG. 9A is filtered by the image filter FLb of the second mode shown in FIGS. 8C and 9B, the luminance component corresponding to the G pixels located in 2 rows and 2 columns The data of the image data BIS (elementary luminance component image data BISp) is (filter value of the image filter FLb located in 1 row and 1 column; 1/16) × (data value of G pixel at the position corresponding to the position) + (Filter value of the image filter FLb located in the first row and the second column; 2/16) × (data value of the R pixel at the position corresponding to the position) + (the filter of the image filter FLb located in the first row and the third column) Value; 1/16) × (data value of G pixel at position corresponding to that position) + (filter value of image filter FLb located in 2 rows and 1 column; 2/16) × (position corresponding to that position) B pixel de Value) + (filter value of image filter FLb located in 2 rows and 2 columns; 4/16) × (value of G pixel data at a position corresponding to that position) + (image located in 2 rows and 3 columns) Filter value of filter FLb; 2/16) × (value of data of B pixel at position corresponding to that position) + (filter value of image filter FLb located in 3 rows and 1 column; 1/16) × (position Data value of G pixel at position corresponding to) + (filter value of image filter FLb located at 3 rows × 2 columns; 2/16) × (value of data of R pixel at position corresponding to that position) + ( The filter value of the image filter FLb located in 3 rows and 3 columns; 1/16) × (data value of G pixel at the position corresponding to the position). Therefore, the value of the filter coefficient corresponding to the R pixel is a total, (2/16) × 2 = 4/16 = 1/4, and the value of the filter coefficient corresponding to the B pixel is the total, (2/16) X2 = 4/16 = 1/4, and the value of the filter coefficient corresponding to the G pixel is (1/16) * 4 + (4/16) * 1 = 8/16 = 1/2 in total. Become. Therefore, the color composition ratio of the image filter FLb is R: B: G = 1/4: 1/4: 1/2 = 1: 1: 2, and the color composition ratio of the unit color filter array 321a in the color filter section 32a. That is, it is the same as the color composition ratio of the unit array in the original image data IS.

図9A下段に示す3行2列に位置するR画素に対し前記画像フィルタFLbでフィルタリングすると、3行2列に位置するR画素に対応する輝度成分画像データBIS(素輝度成分画像データBISp)のデータは、(1行1列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のB画素のデータの値)+(1行2列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のG画素のデータの値)+(1行3列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のB画素のデータの値)+(2行1列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のG画素のデータの値)+(2行2列に位置する画像フィルタFLbのフィルタ値;4/16)×(その位置に対応する位置のR画素のデータの値)+(2行3列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のG画素のデータの値)+(3行1列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のB画素のデータの値)+(3行2列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のG画素のデータの値)+(3行3列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のB画素のデータの値)となる。したがって、R画素に対応するフィルタ係数の値は、総計、(4/16)×1=4/16=1/4となり、B画素に対応するフィルタ係数の値は、総計、(1/16)×4=4/16=1/4となり、そして、G画素に対応するフィルタ係数の値は、総計、(2/16)×4=8/16=1/2となる。したがって、画像フィルタFLbの色組成比は、R:B:G=1/4:1/4:1/2=1:1:2となり、上述と同様に、原画像データISにおける単位配列の色組成比と同じである。   When the R pixel located at 3 rows and 2 columns shown in the lower part of FIG. 9A is filtered by the image filter FLb, the luminance component image data BIS (elementary luminance component image data BISp) corresponding to the R pixels located at 3 rows and 2 columns is converted. The data is (filter value of image filter FLb located in 1 row and 1 column; 1/16) × (value of data of B pixel at position corresponding to that position) + (image filter FLb located in 1 row and 2 columns) Filter value; 2/16) × (value of G pixel data at the position corresponding to that position) + (filter value of image filter FLb located at 1 row × 3 columns; 1/16) × (corresponding to the position) Data value of the B pixel at the position) + (filter value of the image filter FLb located in 2 rows and 1 column; 2/16) × (data value of the G pixel at the position corresponding to the position) + (2 rows) Image frames located in two rows Filter value of filter FLb; 4/16) × (value of data of R pixel at position corresponding to that position) + (filter value of image filter FLb located at 2 rows × 3 columns; 2/16) × (position) Data value of the G pixel at the position corresponding to) + (filter value of the image filter FLb located at 3 rows and 1 column; 1/16) × (data value of the B pixel at the position corresponding to the position) + ( Filter value of image filter FLb located in 3 rows and 2 columns; 2/16) × (value of G pixel data at a position corresponding to that position) + (filter values of image filter FLb located in 3 rows and 3 columns; 1/16) × (data value of the B pixel at the position corresponding to the position). Therefore, the value of the filter coefficient corresponding to the R pixel is a total, (4/16) × 1 = 4/16 = 1/4, and the value of the filter coefficient corresponding to the B pixel is the total, (1/16) × 4 = 4/16 = 1/4, and the value of the filter coefficient corresponding to the G pixel is (2/16) × 4 = 8/16 = 1/2 in total. Accordingly, the color composition ratio of the image filter FLb is R: B: G = 1/4: 1/4: 1/2 = 1: 1: 2, and the color of the unit array in the original image data IS as described above. It is the same as the composition ratio.

2行3列に位置するB画素に対し前記画像フィルタFLbでフィルタリングすると、2行3列に位置するB画素に対応する輝度成分画像データBIS(素輝度成分画像データBISp)のデータは、(1行1列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のR画素のデータの値)+(1行2列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のG画素のデータの値)+(1行3列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のR画素のデータの値)+(2行1列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のG画素のデータの値)+(2行2列に位置する画像フィルタFLbのフィルタ値;4/16)×(その位置に対応する位置のB画素のデータの値)+(2行3列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のG画素のデータの値)+(3行1列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のR画素のデータの値)+(3行2列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のG画素のデータの値)+(3行3列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のR画素のデータの値)となる。したがって、R画素に対応するフィルタ係数の値は、総計、(1/16)×4=4/16=1/4となり、B画素に対応するフィルタ係数の値は、総計、(4/16)×1=4/16=1/4となり、そして、G画素に対応するフィルタ係数の値は、総計、(2/16)×4=8/16=1/2となる。したがって、画像フィルタFLbの色組成比は、R:B:G=1/4:1/4:1/2=1:1:2となり、上述と同様に、原画像データISにおける単位配列の色組成比と同じである。   When the B pixel located in 2 rows and 3 columns is filtered by the image filter FLb, the luminance component image data BIS (elemental luminance component image data BISp) corresponding to the B pixels located in 2 rows and 3 columns is (1 Filter value of image filter FLb located in row 1 column; 1/16) × (data value of R pixel at position corresponding to that position) + (filter value of image filter FLb located in 1 row 2 column; 2 / 16) × (data value of G pixel at position corresponding to that position) + (filter value of image filter FLb located in 1 row × 3 columns; 1/16) × (R pixel at position corresponding to that position) Data value) + (filter value of the image filter FLb located in 2 rows and 1 column; 2/16) × (data value of G pixel at the position corresponding to that position) + (positioned in 2 rows and 2 columns) Image filter FLb 4/16) × (value of data of B pixel at the position corresponding to the position) + (filter value of the image filter FLb positioned at 2 rows × 3 columns; 2/16) × (corresponding to the position Data value of G pixel at position) + (Filter value of image filter FLb located at 3 rows and 1 column; 1/16) × (Data value of R pixel at position corresponding to that position) + (3 rows 2 Filter value of the image filter FLb located in the column; 2/16) × (data value of the G pixel at the position corresponding to the position) + (filter value of the image filter FLb located in the third row and the third column; 1/16 ) × (data value of R pixel at the position corresponding to the position). Therefore, the value of the filter coefficient corresponding to the R pixel is a total, (1/16) × 4 = 4/16 = 1/4, and the value of the filter coefficient corresponding to the B pixel is the total, (4/16) X1 = 4/16 = 1/4, and the value of the filter coefficient corresponding to the G pixel is (2/16) * 4 = 8/16 = 1/2 in total. Accordingly, the color composition ratio of the image filter FLb is R: B: G = 1/4: 1/4: 1/2 = 1: 1: 2, and the color of the unit array in the original image data IS as described above. It is the same as the composition ratio.

そして、3行3列に位置するG画素に対し前記画像フィルタFLbでフィルタリングすると、3行3列に位置するG画素に対応する輝度成分画像データBIS(素輝度成分画像データBISp)のデータは、(1行1列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のG画素のデータの値)+(1行2列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のB画素のデータの値)+(1行3列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のG画素のデータの値)+(2行1列に位置する画像フィルタFLaのフィルタ値;2/16)×(その位置に対応する位置のR画素のデータの値)+(2行2列に位置する画像フィルタFLbのフィルタ値;4/16)×(その位置に対応する位置のG画素のデータの値)+(2行3列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のR画素のデータの値)+(3行1列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のG画素のデータの値)+(3行2列に位置する画像フィルタFLbのフィルタ値;2/16)×(その位置に対応する位置のB画素のデータの値)+(3行3列に位置する画像フィルタFLbのフィルタ値;1/16)×(その位置に対応する位置のG画素のデータの値)となる。したがって、R画素に対応するフィルタ係数の値は、総計、(2/16)×2=4/16=1/4となり、B画素に対応するフィルタ係数の値は、総計、(2/16)×2=4/16=1/4となり、そして、G画素に対応するフィルタ係数の値は、総計、(1/16)×4+(4/16)×1=8/16=1/2となる。したがって、画像フィルタFLbの色組成比は、R:B:G=1/4:1/4:1/2=1:1:2となり、上述と同様に、原画像データISにおける単位配列の色組成比と同じである。   When the G pixel located at 3 rows and 3 columns is filtered by the image filter FLb, the luminance component image data BIS (elemental luminance component image data BISp) corresponding to the G pixels located at 3 rows and 3 columns is: (Filter value of image filter FLb located in 1 row and 1 column; 1/16) × (value of G pixel data at a position corresponding to that position) + (filter value of image filter FLb located in 1 row and 2 columns) 2/16) × (value of the data of the B pixel at the position corresponding to the position) + (filter value of the image filter FLb located in the first row and the third column; 1/16) × (the position corresponding to the position) G pixel data value) + (filter value of the image filter FLa located in 2 rows and 1 column; 2/16) × (data value of R pixel at the position corresponding to that location) + (2 rows and 2 columns Image filter F located b filter value; 4/16) × (data value of G pixel at position corresponding to that position) + (filter value of image filter FLb located at 2 rows × 3 columns; 2/16) × (at that position) Data value of R pixel at corresponding position) + (Filter value of image filter FLb located at 3 rows and 1 column; 1/16) × (Data value of G pixel at position corresponding to that position) + (3 Filter value of image filter FLb located in row 2 column; 2/16) × (value of data of B pixel at position corresponding to that position) + (filter value of image filter FLb located in row 3 column 3; 1 / 16) × (data value of G pixel at the position corresponding to the position). Therefore, the value of the filter coefficient corresponding to the R pixel is a total, (2/16) × 2 = 4/16 = 1/4, and the value of the filter coefficient corresponding to the B pixel is the total, (2/16) X2 = 4/16 = 1/4, and the value of the filter coefficient corresponding to the G pixel is (1/16) * 4 + (4/16) * 1 = 8/16 = 1/2 in total. Become. Accordingly, the color composition ratio of the image filter FLb is R: B: G = 1/4: 1/4: 1/2 = 1: 1: 2, and the color of the unit array in the original image data IS as described above. It is the same as the composition ratio.

画像フィルタFLは、原画像データISにおける単位配列の色組成比と同じ色組成比のフィルタ係数を備えるから、原画像データISに画像フィルタFLを作用させた場合において、原画像データISのR画素に対応するフィルタ係数の総計と、原画像データISのB画素に対応するフィルタ係数の総計と、原画像データISのG画素に対応するフィルタ係数の総計は、原画像データISにおける単位配列の色組成比と同じになる。   Since the image filter FL has filter coefficients having the same color composition ratio as that of the unit array in the original image data IS, when the image filter FL is applied to the original image data IS, the R pixel of the original image data IS. The total of the filter coefficients corresponding to the B pixels of the original image data IS, and the total of the filter coefficients corresponding to the G pixels of the original image data IS are the colors of the unit array in the original image data IS. It becomes the same as the composition ratio.

このように原画像データISの単位配列におけるいずれの画素のデータも画像フィルタFLによって同じ色組成比でフィルタリングされる。したがって、原画像データISにおける全ての画素のデータが画像フィルタFLによって同じ色組成比でフィルタリングされることになる。この結果、輝度成分画像データBIS(素輝度成分画像データBISp)における全ての画素のデータは、図9Cに示すように、(G/2+R/4+B/4)で合成された同じ色成分を持つデータとして扱うことが可能となる。   In this way, the data of any pixel in the unit array of the original image data IS is filtered with the same color composition ratio by the image filter FL. Accordingly, all pixel data in the original image data IS are filtered with the same color composition ratio by the image filter FL. As a result, the data of all the pixels in the luminance component image data BIS (elementary luminance component image data BISp) is data having the same color component synthesized by (G / 2 + R / 4 + B / 4) as shown in FIG. 9C. Can be handled as

このような輝度成分生成処理の一具体例を挙げると、図9Dに示す原画像PISは、画像フィルタFLbのフィルタリングによって、図9Eに示す1チャンネル(単色)のモノクロ画像の輝度成分画像PBIS(素輝度成分画像データPBISp)となる。   As a specific example of such luminance component generation processing, the original image PIS shown in FIG. 9D is obtained by filtering the luminance component image PBIS (elementary color) of one channel (monochrome) shown in FIG. Luminance component image data PBISp).

そして、複数(本実施形態では2個)の素輝度成分画像データBISpの合成では、輝度成分画像データBISの各データ(各画素値)は、当該データの位置(当該画素の位置)に対応する位置の各素輝度成分画像データBISpの各データ値を所定の合成比で合成することによって求められる。例えば、輝度成分画像データBISにおけるm行n列のデータ(各画素値)DVBIS,mnは、各素輝度成分画像データBISpにおけるm行n列の各データ値を前記所定の合成比で合成することによって求められる。前記所定の合成比は、予め、複数のサンプルの原画像に対し合成比を変えながら実際に合成し、合成後の画像を見比べることによって適宜な比に設定され、例えば、本実施形態では、1:4である。したがって、第1態様の画像フィルタFLaを原画像ISに作用することによって得られた素輝度成分画像データBISp−1におけるm行n列のデータ値をDVBISp−1,mnとし、第2態様の画像フィルタFLbを原画像ISに作用することによって得られた素輝度成分画像データBISp−2におけるm行n列のデータ値をDVBISp−2,mnとした場合、輝度成分画像データBISにおけるm行n列のデータは、(4×DVBISp−1,mn+1×DVBISp−2,mn)/(1+4)となる。第1態様の画像フィルタFLaは、上述したように、鮮鋭度が比較的保持される一方ギザギザな線が比較的出易い素輝度成分画像データBISp−1を生成するため、この第1態様の画像フィルタFLaによる素輝度成分画像データBISp−1と、この画像フィルタFLaと逆の特性を持つ第2態様の画像フィルタFLbによる素輝度成分画像データBISp−2とを組み合わせ、これらを所定の合成比で合成して輝度成分画像データBISを生成することで、鮮鋭度を保持しつつギザギザな線の少ない輝度成分画像データBISが生成できる。In the synthesis of a plurality (two in this embodiment) of the elementary luminance component image data BISp, each data (each pixel value) of the luminance component image data BIS corresponds to the position of the data (the position of the pixel). It is obtained by synthesizing each data value of each elementary luminance component image data BISp at a position with a predetermined synthesis ratio. For example, m rows and n columns of data (each pixel value) DV BIS, mn in the luminance component image data BIS synthesize each data value of m rows and n columns in each elementary luminance component image data BISp with the predetermined synthesis ratio. Is required. The predetermined synthesis ratio is set in advance to an appropriate ratio by actually synthesizing the original images of a plurality of samples while changing the synthesis ratio, and comparing the images after synthesis. : 4. Therefore, the data value of m rows and n columns in the elementary luminance component image data BISp-1 obtained by applying the image filter FLa of the first mode to the original image IS is DV BISp-1, mn , When the data value of m rows and n columns in the elementary luminance component image data BISp-2 obtained by applying the image filter FLb to the original image IS is DV BISp-2, mn , m rows in the luminance component image data BIS. The data of n columns is (4 × DV BISp−1, mn + 1 × DV BISp−2, mn ) / (1 + 4). As described above, the image filter FLa of the first aspect generates the elementary luminance component image data BISp-1 in which the sharpness is relatively maintained while the jagged line is relatively easily generated. The elementary luminance component image data BISp-1 obtained by the filter FLa and the elementary luminance component image data BISp-2 obtained by the image filter FLb of the second mode having characteristics opposite to those of the image filter FLa are combined, and these are combined at a predetermined composition ratio. By synthesizing and generating the luminance component image data BIS, the luminance component image data BIS with few jagged lines can be generated while maintaining sharpness.

なお、前記画像フィルタFLは、上述の第1および第2態様の画像フィルタFLa、FLbに限定されるものではなく、種々の態様を採用でき、例えば、ベイヤー配列を単位色フィルタ配列とした色フィルタ部32aによって得られる原画像データISに対し、図10Aないし図10Cに示す第3ないし第5態様の画像フィルタFLc〜FLe等である。これら第3ないし第5態様の画像フィルタFLc〜FLeも、それぞれ、前記周辺データに基づいて前記対象データを、原画像データISにおける単位配列(色フィルタ部32aの単位色フィルタ配列321a)の色組成比(R:B:G=1:1:2)と同じ色組成比を持つデータに変換するように、そのフィルタ係数の各値がそれぞれ調整されて設定されている。   The image filter FL is not limited to the image filters FLa and FLb of the first and second modes described above, and various modes can be adopted. For example, a color filter having a Bayer array as a unit color filter array The original image data IS obtained by the unit 32a is the image filters FLc to FLe of the third to fifth modes shown in FIGS. 10A to 10C. Each of the image filters FLc to FLe of the third to fifth aspects also uses the target data based on the peripheral data as the color composition of the unit array (unit color filter array 321a of the color filter unit 32a) in the original image data IS. Each value of the filter coefficient is adjusted and set so as to be converted into data having the same color composition ratio as the ratio (R: B: G = 1: 1: 2).

より具体的には、第3態様の画像フィルタFLcは、5行5列の中心位置に対し対称なフィルタ係数を持つフィルタである。すなわち、図10Aに示すように、中心の3行3列に位置するフィルタ係数は、36/256であり、2行3列、3行2列、3行4列および4行3列それぞれに位置する各フィルタ係数は、24/256であり、2行2列、2行4列、4行2列および4行4列それぞれに位置する各フィルタ係数は、16/256であり、1行3列、3行1列、3行5列および5行3列それぞれに位置する各フィルタ係数は、6/256であり、1行2列、1行4列、2行1列、2行5列、4行1列、4行5列、5行2列および5行4列それぞれに位置する各フィルタ係数は、4/256であり、そして、1行1列、1行5列、5行1列および5行5列それぞれに位置する各フィルタ係数は、1/256である。   More specifically, the image filter FLc of the third aspect is a filter having a filter coefficient that is symmetric with respect to the center position of 5 rows and 5 columns. That is, as shown in FIG. 10A, the filter coefficient located at the center 3 rows and 3 columns is 36/256, and the filter coefficients are located at 2 rows and 3 columns, 3 rows and 2 columns, 3 rows and 4 columns, and 4 rows and 3 columns, respectively. Each filter coefficient is 24/256, and each filter coefficient located in each of 2 rows and 2 columns, 2 rows and 4 columns, 4 rows and 2 columns, and 4 rows and 4 columns is 16/256, and 1 row and 3 columns. Each filter coefficient located in each of 3 rows, 1 column, 3 rows, 5 columns and 5 rows and 3 columns is 6/256, 1 row 2 columns, 1 row 4 columns, 2 rows 1 column, 2 rows 5 columns, Each filter coefficient located in 4 rows, 1 column, 4 rows, 5 columns, 5 rows, 2 columns, and 5 rows, 4 columns is 4/256, and 1 row, 1 column, 1 row, 5 columns, 5 rows, 1 column Each filter coefficient located in each of 5 rows and 5 columns is 1/256.

第4態様の画像フィルタFLdは、7行7列の中心位置に対し対称なフィルタ係数を持つフィルタである。すなわち、図10Bに示すように、中心の4行4列に位置するフィルタ係数は、400/4096であり、3行4列、4行3列、4行5列および5行4列それぞれに位置する各フィルタ係数は、300/4096であり、3行3列、3行5列、5行3列および5行5列それぞれに位置する各フィルタ係数は、225/4096であり、2行4列、4行2列、4行6列および6行4列それぞれに位置する各フィルタ係数は、200/4096であり、2行3列、2行5列、3行2列、3行6列、5行2列、5行5列、6行3列および6行5列それぞれに位置する各フィルタ係数は、90/4096であり、2行2列、2行6列、6行2列および6行6列それぞれに位置する各フィルタ係数は、36/4096であり、1行4列、4行1列、4行7列および7行4列それぞれに位置する各フィルタ係数は、20/4096であり、1行3列、1行5列、3行1列、3行7列、5行1列、5行7列、7行3列および7行5列それぞれに位置する各フィルタ係数は、15/256であり、1行2列、1行6列、2行1列、2行7列、6行1列、6行7列、7行2列および7行6列それぞれに位置する各フィルタ係数は、6/256であり、そして、1行1列、1行7列、7行1列および7行7列それぞれに位置する各フィルタ係数は、1/4096である。   The image filter FLd of the fourth aspect is a filter having a filter coefficient that is symmetric with respect to the center position of 7 rows and 7 columns. That is, as shown in FIG. 10B, the filter coefficient located at the center 4 rows and 4 columns is 400/4096, and is located at 3 rows 4 columns, 4 rows 3 columns, 4 rows 5 columns, and 5 rows 4 columns, respectively. Each filter coefficient to be performed is 300/4096, and each filter coefficient located in each of 3 rows and 3 columns, 3 rows and 5 columns, 5 rows and 3 columns, and 5 rows and 5 columns is 225/4096, and 2 rows and 4 columns. Each filter coefficient located in each of 4 rows and 2 columns, 4 rows and 6 columns, and 6 rows and 4 columns is 200/4096, 2 rows 3 columns, 2 rows 5 columns, 3 rows 2 columns, 3 rows 6 columns, Each filter coefficient located in each of 5 rows and 2 columns, 5 rows and 5 columns, 6 rows and 3 columns, and 6 rows and 5 columns is 90/4096, 2 rows and 2 columns, 2 rows and 6 columns, 6 rows and 2 columns, and 6 Each filter coefficient located in each of the 6 rows and columns is 36/4096, 1 row, 4 columns, 4 rows, 1 column, 4 rows. Each filter coefficient located in each column and 7 rows and 4 columns is 20/4096, 1 row 3 columns, 1 row 5 columns, 3 rows 1 column, 3 rows 7 columns, 5 rows 1 columns, 5 rows 7 columns. , 7 rows 3 columns and 7 rows 5 columns, each filter coefficient is 15/256, 1 row 2 columns, 1 row 6 columns, 2 rows 1 column, 2 rows 7 columns, 6 rows 1 column, Each filter coefficient located in each of 6 rows and 7 columns, 7 rows and 2 columns, and 7 rows and 6 columns is 6/256, and 1 row and 1 column, 1 row and 7 columns, 7 rows and 1 column, and 7 rows and 7 columns. Each filter coefficient located in each is 1/4096.

第5態様の画像フィルタFLeは、5行5列の中心位置に対し対称なフィルタ係数を持つフィルタである。すなわち、図10Cに示すように、中心の3行3列に位置するフィルタ係数は、16/144であり、2行3列、3行2列、3行4列および4行3列それぞれに位置する各フィルタ係数は、12/144であり、2行2列、2行4列、4行2列および4行4列それぞれに位置する各フィルタ係数は、9/144であり、1行3列、3行1列、3行5列および5行3列それぞれに位置する各フィルタ係数は、4/144であり、1行2列、1行4列、2行1列、2行5列、4行1列、4行5列、5行2列および5行4列それぞれに位置する各フィルタ係数は、3/144であり、そして、1行1列、1行5列、5行1列および5行5列それぞれに位置する各フィルタ係数は、1/144である。   The image filter FLe according to the fifth aspect is a filter having a filter coefficient that is symmetric with respect to the center position of 5 rows and 5 columns. That is, as shown in FIG. 10C, the filter coefficient located at the center 3 rows and 3 columns is 16/144, and is located at 2 rows and 3 columns, 3 rows and 2 columns, 3 rows and 4 columns, and 4 rows and 3 columns, respectively. Each filter coefficient is 12/144, and each filter coefficient located in each of 2 rows and 2 columns, 2 rows and 4 columns, 4 rows and 2 columns, and 4 rows and 4 columns is 9/144, and 1 row and 3 columns. Each filter coefficient located in each of 3 rows, 1 column, 3 rows, 5 columns and 5 rows, 3 columns is 4/144, 1 row 2 columns, 1 row 4 columns, 2 rows 1 column, 2 rows 5 columns, Each filter coefficient located in 4 rows, 1 column, 4 rows, 5 columns, 5 rows, 2 columns and 5 rows, 4 columns is 3/144, and 1 row, 1 column, 1 row, 5 columns, 5 rows, 1 column Each filter coefficient located in each of 5 rows and 5 columns is 1/144.

上述では、繰り返しパターンの単位として単位色フィルタ配列321aを用いた色フィルタ部32aによって得られる原画像データISに対する様々な第1ないし第5態様の画像フィルタFLa〜FLeについて説明したが、他の態様の単位色フィルタ配列321を用いた色フィルタ部32によって得られる原画像データに対しても、同様に、画像フィルタFLを設定できる。例えば、図4Bに示す第2態様の単位色フィルタ配列321bを用いた色フィルタ部32bによって得られる原画像データISに対し、図10Dに示す第6態様の画像フィルタFLfが使用できる。この第6態様の画像フィルタFLfは、前記周辺データに基づいて前記対象データを、単位色フィルタ配列321bの色組成比(R:B:G=2:2:5)、すなわち、原画像データISにおける単位配列の色組成比と同じ色組成比を持つデータに変換するように、そのフィルタ係数の各値がそれぞれ調整されて設定されている。より具体的には、図10Dに示すように、各位置に位置する各フィルタ係数それぞれが全て1/9であるフィルタである。この第6態様の画像フィルタFLfは、3行3列の中心位置に対し対称なフィルタ係数を持つフィルタでもある。   In the above description, the various first to fifth image filters FLa to FLe for the original image data IS obtained by the color filter unit 32a using the unit color filter array 321a as the unit of the repetitive pattern have been described. Similarly, the image filter FL can be set for the original image data obtained by the color filter unit 32 using the unit color filter array 321. For example, the image filter FLf of the sixth mode shown in FIG. 10D can be used for the original image data IS obtained by the color filter unit 32b using the unit color filter array 321b of the second mode shown in FIG. 4B. The image filter FLf of the sixth aspect converts the target data based on the peripheral data into the color composition ratio (R: B: G = 2: 2: 5) of the unit color filter array 321b, that is, the original image data IS. Each value of the filter coefficient is adjusted and set so as to be converted into data having the same color composition ratio as the color composition ratio of the unit array in FIG. More specifically, as shown in FIG. 10D, each filter coefficient at each position is a 1/9 filter. The image filter FLf of the sixth aspect is also a filter having a filter coefficient symmetric with respect to the center position of 3 rows and 3 columns.

図7に戻って、色度成分を生成する色度成分生成処理S202では、色度成分生成処理部122は、図11に示すように、原画像データIS(図11A)から、上述のように輝度成分生成処理部121で生成された輝度成分画像データBIS(図11B)を、各画素ごとに、減算することによって、色度成分画像データCIS(図11C)を生成する。すなわち、色度成分画像データCISにおけるm行n列のデータ(各画素値)DVCIS,mnは、原画像データISにおけるm行n列のデータ値DVIS,mnから、輝度成分画像データBISにおけるm行n列のデータ値DVBIS,mnを減算することによって求められる(DVCIS,mn=DVIS,mn−DVBIS,mn)。なお、図11Cでは、色度成分画像データCISが色別に図示されており、図11Cの上段には、G色度成分のG色度成分画像データCIS−Gが示され、図11Cの中段には、R色度成分のR色度成分画像データCIS−Rが示され、そして、図11Cの下段には、B色度成分のB色度成分画像データCIS−Bが示されている。また、色別に図示した図11Cにおいて、データ値(画素値)が欠落している画素には、そのデータ値として「0」が設定されている。Returning to FIG. 7, in the chromaticity component generation processing S202 for generating chromaticity components, the chromaticity component generation processing unit 122, as shown in FIG. 11, from the original image data IS (FIG. 11A) as described above. The luminance component image data CIS (FIG. 11C) is generated by subtracting the luminance component image data BIS (FIG. 11B) generated by the luminance component generation processing unit 121 for each pixel. That is, m rows and n columns of data (pixel values) DV CIS, mn in the chromaticity component image data CIS are obtained from the m rows and n columns of data values DV IS, mn in the original image data IS in the luminance component image data BIS. data values DV BIS of m rows and n columns, is determined by subtracting the mn (DV CIS, mn = DV iS, mn -DV BIS, mn). In FIG. 11C, the chromaticity component image data CIS is shown for each color. The upper part of FIG. 11C shows the G chromaticity component image data CIS-G of the G chromaticity component, and the middle part of FIG. 11C. FIG. 11C shows R chromaticity component image data CIS-R of the R chromaticity component, and B chromaticity component image data CIS-B of the B chromaticity component is shown in the lower part of FIG. 11C. Further, in FIG. 11C illustrated for each color, “0” is set as the data value of the pixel in which the data value (pixel value) is missing.

図7に戻って、各画素で欠落している色度成分を補間する色度成分補間処理S203では、色度成分補間処理部123は、色度成分生成処理部122で生成された色度成分画像データCISにおいて、前記複数色ごとに、欠落する画素の色度成分データを、前記単位配列に含まれる同色の個数および輝度成分生成処理部121で生成された輝度成分画像データBISに基づいた補間方法で補間することによって、前記複数色ごとの各色別色度成分画像データICISを生成する。   Returning to FIG. 7, in chromaticity component interpolation processing S <b> 203 that interpolates missing chromaticity components in each pixel, the chromaticity component interpolation processing unit 123 performs the chromaticity component generated by the chromaticity component generation processing unit 122. In the image data CIS, for each of the plurality of colors, the chromaticity component data of the missing pixel is interpolated based on the number of the same color included in the unit array and the luminance component image data BIS generated by the luminance component generation processing unit 121. By interpolating with the method, the chromaticity component image data ICIS for each color for each of the plurality of colors is generated.

本実施形態では、色度成分補間処理部123は、前記単位配列に含まれる同色の個数が1つである色の色度成分データを補間する場合には、バイリニア補間法を前記補間方法として用い、色度成分補間処理部123は、前記単位配列に含まれる同色の個数が複数である色の色度成分データを補間する場合には、輝度成分生成処理部121で生成された輝度成分画像データに基づいた補間方法を前記補間方法として用いる。   In this embodiment, the chromaticity component interpolation processing unit 123 uses a bilinear interpolation method as the interpolation method when interpolating chromaticity component data of a color having the same number of colors included in the unit array. When the chromaticity component interpolation processing unit 123 interpolates chromaticity component data of a color having a plurality of the same colors included in the unit array, the luminance component image data generated by the luminance component generation processing unit 121 is used. Is used as the interpolation method.

したがって、ベイヤー配列の単位色フィルタ配列321aを持つ色フィルタ部32aで生成された原画像データISの場合、前記単位配列には、R(赤色)の濃度データは、1つであり、R色度成分のR色度成分画像データCIS−Rは、図11Cに示すように、4画素に1画素の割合でしかデータ値(画素値)が無い。このため、R色度成分のデータが欠落している画素のデータ値がバイリニア補間されても前記ギザギザな線は、生じ難い。そして、B(緑色)の濃度データも、上述のRの濃度データの場合と同様である。よって、本実施形態では、色度成分補間処理部123は、処理S202で色度成分生成処理部122によって生成された色度成分画像データCISのR色度成分画像データCIS−Rにおける、R色度成分のデータが欠落している画素のデータ値をバイリニア補間法で補間することで、R(赤色)のR色別色度成分画像データICIS−Rを生成し、同様に、処理S202で色度成分生成処理部122によって生成された色度成分画像データCISのB色度成分画像データCIS−Bにおける、B色度成分のデータが欠落している画素のデータ値をバイリニア補間法で補間することで、B(青色)のB色別色度成分画像データICIS−Bを生成する。このバイリニア補間は、1行1列、1行3列、3行1列および3行3列の各位置にフィルタ係数1/4を持ち、1行2列、2行1列、2行3列および3行2列の各位置にフィルタ係数2/4を持ち、そして、2行2列の位置にフィルタ係数4/4を持つ画像フィルタ(RBバイリニア用画像フィルタ)を用いてフィルタリングすることで実行できる。したがって、より具体的には、色度成分補間処理部123は、前記R色度成分画像データCIS−Rを前記RBバイリニア用画像フィルタでフィルタリングすることによって前記R色別色度成分画像データICIS−Rを生成し、同様に、前記B色度成分画像データCIS−Bを前記RBバイリニア用画像フィルタでフィルタリングすることによって前記B色別色度成分画像データICIS−Bを生成する。   Therefore, in the case of the original image data IS generated by the color filter unit 32a having the unit color filter array 321a of the Bayer array, the unit array has one density data of R (red), and R chromaticity The component R chromaticity component image data CIS-R has data values (pixel values) only at a ratio of one pixel to four pixels, as shown in FIG. 11C. For this reason, even if the data value of the pixel in which the R chromaticity component data is missing is subjected to bilinear interpolation, the jagged line is unlikely to occur. The density data for B (green) is the same as the density data for R described above. Therefore, in this embodiment, the chromaticity component interpolation processing unit 123 uses the R color in the R chromaticity component image data CIS-R of the chromaticity component image data CIS generated by the chromaticity component generation processing unit 122 in step S202. R (red) chromaticity component image data ICIS-R for each R color is generated by interpolating the data value of the pixel with missing chromaticity component data by the bilinear interpolation method. The data value of the pixel in which the B chromaticity component data is missing in the B chromaticity component image data CIS-B of the chromaticity component image data CIS generated by the chromaticity component generation processing unit 122 is interpolated by the bilinear interpolation method. As a result, B (blue) chromaticity component image data ICIS-B for each B color is generated. This bilinear interpolation has a filter coefficient 1/4 at each position of 1 row 1 column, 1 row 3 column, 3 rows 1 column and 3 rows 3 columns, 1 row 2 columns, 2 rows 1 column, 2 rows 3 columns. And filtering by using an image filter (RB bilinear image filter) having a filter coefficient 2/4 at each position of 3 rows and 2 columns and a filter coefficient 4/4 at a position of 2 rows and 2 columns. it can. Therefore, more specifically, the chromaticity component interpolation processing unit 123 filters the R chromaticity component image data CIS-R with the RB bilinear image filter, thereby performing the R-specific chromaticity component image data ICIS-. R is generated, and similarly, the B chromaticity component image data ICIS-B is generated by filtering the B chromaticity component image data CIS-B with the RB bilinear image filter.

一方、ベイヤー配列の単位色フィルタ配列321aを持つ色フィルタ部32aで生成された原画像データISの場合、前記単位配列には、G(緑色)の濃度データは、2つであり、G色度成分のG色度成分画像データCIS−Gは、G色度成分のデータが欠落している画素のデータ値を仮にバイリニア補間すると、前記ギザギザな線は、生じてしまう。このため、本実施形態では、補間方法は、G色度成分のデータが欠落する画素を注目画素とし、G色度成分画像データCIS−G上における前記注目画素の第1画素位置に対応する輝度成分画像データBIS上における第2画素位置の第1輝度成分データと、前記第2画素位置の周辺に位置する周辺画素位置の第2輝度成分データとの相関の有無に応じて、選択される。より具体的には、前記相関の有る場合には、前記第1画素位置の周辺に位置する周辺画素位置のG色度成分データを前記相関の程度に応じた重みで重みを付けて平均する重み付け補間法が前記補間方法として用いられ、前記相関の無い場合には、バイリニア補間法が前記補間方法として用いられる。例えば、図12Aに示すように、G色成分のデータが欠落する画素を注目画素Xとし、この注目画素Xに対し列方向にそれぞれ隣接する画素を周辺画素A、Dとし、この注目画素Xに対し行方向にそれぞれ隣接する画素を周辺画素B、Cとし、輝度成分画像データBISにおける注目画素Xの輝度成分データをBDxとし、輝度成分画像データBISにおける各周辺画素A、B、C、Dの輝度成分データをBDa、BDb、BDc、BDdとし、G色度成分画像データCIS−Gにおける各周辺画素A、B、C、DのG色度成分データをCDGa、CDGb、CDGc、CDGdとし、重みを求める重み関数W(d)を図12B示すように注目画素Xの輝度成分データBDxと周辺画素K(K=A、B、C、D)の輝度成分データBDkとの差d(輝度差d=|BDx−BDk|)に応じて線形に変化し、そして、前記輝度差dが大きくなるに従って重みW(d)が小さくなる場合、前記相関Wt(X;A、B、C、D)は、次式Iによって求められる。なお、この重み関数W(d)は、d=0でW(0)=1.0であり、W(Th)でW(Th)=0である。前記Thは、重みを与える範囲を規定する値であり、例えば10等である。
Wt(X;A、B、C、D)=Wt(|BDx−BDa|)+Wt(|BDx−BDb|)+Wt(|BDx−BDc|)+Wt(|BDx−BDd|) (式I)
On the other hand, in the case of the original image data IS generated by the color filter unit 32a having the unit color filter array 321a of the Bayer array, the unit array includes two G (green) density data, and the G chromaticity In the component G chromaticity component image data CIS-G, if the data value of a pixel lacking G chromaticity component data is bilinearly interpolated, the jagged line is generated. For this reason, in this embodiment, the interpolation method uses a pixel in which G chromaticity component data is missing as a pixel of interest, and luminance corresponding to the first pixel position of the pixel of interest on the G chromaticity component image data CIS-G. The selection is made according to whether or not there is a correlation between the first luminance component data at the second pixel position on the component image data BIS and the second luminance component data at the peripheral pixel position located around the second pixel position. More specifically, when there is a correlation, weighting is performed by weighting and averaging the G chromaticity component data of peripheral pixel positions located around the first pixel position with a weight according to the degree of correlation. An interpolation method is used as the interpolation method, and when there is no correlation, a bilinear interpolation method is used as the interpolation method. For example, as shown in FIG. 12A, a pixel lacking G color component data is a target pixel X, and pixels adjacent to the target pixel X in the column direction are peripheral pixels A and D. The adjacent pixels in the row direction are the peripheral pixels B and C, the luminance component data of the pixel of interest X in the luminance component image data BIS is BDx, and the peripheral pixels A, B, C, and D in the luminance component image data BIS are Luminance component data is BDa, BDb, BDc, BDd, G chromaticity component data of each peripheral pixel A, B, C, D in G chromaticity component image data CIS-G is CDGa, CDGb, CDGc, CDGd, and weights As shown in FIG. 12B, the weighting function W (d) for calculating the luminance function data BDx of the target pixel X and the luminance component data BDk of the surrounding pixels K (K = A, B, C, D) d (luminance difference d = | BDx−BDk |) linearly changes, and when the weight W (d) decreases as the luminance difference d increases, the correlation Wt (X; A, B, C, D) is obtained by the following formula I. The weight function W (d) is d = 0 and W (0) = 1.0, and W (Th) is W (Th) = 0. The Th is a value that defines a range in which a weight is given, and is 10 or the like, for example.
Wt (X; A, B, C, D) = Wt (| BDx−BDa |) + Wt (| BDx−BDb |) + Wt (| BDx−BDc |) + Wt (| BDx−BDd |) (Formula I)

このような式Iによって求められた前記相関Wt(X;A、B、C、D)が正である場合(Wt(X;A、B、C、D)>0)には、前記相関が有ると判断され、注目画素X(欠落画素)のデータ値CDGxは、次式IIによって求められる。
CDGx=(Wtxa×CDGa+Wtxb×CDGb+Wtxc×CDGc+Wtxd×CDGd)/(Wtxa+Wtxb+Wtxc+Wtxd) (式II)
なお、式IIにおいて、Wt(|BDx−BDa|)=Wtxa、Wt(|BDx−BDb|)=Wtxb、Wt(|BDx−BDc|)=Wtxc、Wt(|BDx−BDd|)=Wtxdとした。
When the correlation Wt (X; A, B, C, D) obtained by the formula I is positive (Wt (X; A, B, C, D)> 0), the correlation is The data value CDGx of the target pixel X (missing pixel) is determined by the following formula II.
CDGx = (Wtxa × CDGa + Wtxb × CDGb + Wtxc × CDGc + Wtxd × CDGd) / (Wtxa + Wtxb + Wtxc + Wtxd) (Formula II)
In Formula II, Wt (| BDx−BDa |) = Wtxa, Wt (| BDx−BDb |) = Wtxb, Wt (| BDx−BDc |) = Wtxc, Wt (| BDx−BDd |) = Wtxd did.

また、前記式Iによって求められた前記相関Wt(X;A、B、C、D)が0である場合(Wt(X;A、B、C、D)=0)には、前記相関が無いと判断され、注目画素X(欠落画素)のデータ値CDGxは、周辺画素A、B、C、DのG色度成分データCDGa、CDGb、CDGc、CDGdを均等な重み、例えば、1/4で補間する。すなわち、バイリニア補間法が用いられ、注目画素X(欠落画素)のデータ値CDGxは、次式IIIによって求められる。この前記相関が無い場合では、実質的にG成分にある高周波の折り返し歪み(モアレ)が残ることになり、この成分を用いることで超解像できる。このように実施形態における画像処理装置Dは、超解像可能にデモザイク処理を実行できる。
CDGx=(CDGa+CDGb+CDGc+CDGd)/4 (式III)
Further, when the correlation Wt (X; A, B, C, D) obtained by the formula I is 0 (Wt (X; A, B, C, D) = 0), the correlation is The data value CDGx of the target pixel X (missing pixel) is determined to be absent, and the G chromaticity component data CDGa, CDGb, CDGc, CDGd of the peripheral pixels A, B, C, and D are evenly weighted, for example, 1/4. Interpolate with. That is, the bilinear interpolation method is used, and the data value CDGx of the target pixel X (missing pixel) is obtained by the following formula III. When there is no correlation, high-frequency aliasing distortion (moire) substantially in the G component remains, and super-resolution can be achieved by using this component. As described above, the image processing apparatus D according to the embodiment can execute the demosaic process so as to be super-resolution.
CDGx = (CDGa + CDGb + CDGc + CDGd) / 4 (formula III)

図7に戻って、画像データを生成する画像生成処理S204では、画像生成処理部124は、図13に示すように、色度成分補間処理部123で生成された複数色ごとの各色別色度成分画像データICISそれぞれに、輝度成分生成処理部121で生成された輝度成分画像データBISを、各画素ごとに、それぞれ加算することによって、画像データIDを生成する。より具体的には、G成分の画像データID−Gにおけるm行n列のデータ(各画素値)DVID−G,mnは、図13Aに示すように、輝度成分画像データBISにおけるm行n列のデータ値DVBIS,mnにG色別色度成分画像データICIS−Gにおけるm行n列のデータ値DVICIS−G,mnを加算することによって求められる(DVID−G,mn=DVBIS,mn+DVICIS−G,mn)。同様に、R成分の画像データID−Rにおけるm行n列のデータ(各画素値)DVID−R,mnは、図13Bに示すように、輝度成分画像データBISにおけるm行n列のデータ値DVBIS,mnにR色別色度成分画像データICIS−Rにおけるm行n列のデータ値DVICIS−R,mnを加算することによって求められる(DVID−R,mn=DVBIS,mn+DVICIS−R,mn)。同様に、B成分の画像データID−Bにおけるm行n列のデータ(各画素値)DVID−B,mnは、図13Cに示すように、輝度成分画像データBISにおけるm行n列のデータ値DVBIS,mnにB色別色度成分画像データICIS−Bにおけるm行n列のデータ値DVICIS−B,mnを加算することによって求められる(DVID−B,mn=DVBIS,mn+DVICIS−B,mn)。これによって各画素ごとに、G成分DVID−R,mn、R成分DVID−R,mnおよびB成分DVID−B,mnの各色成分を持つ画像データIDが生成される。Returning to FIG. 7, in the image generation processing S <b> 204 for generating image data, the image generation processing unit 124, as shown in FIG. 13, the chromaticity for each color for each of the plurality of colors generated by the chromaticity component interpolation processing unit 123. Image data ID is generated by adding the luminance component image data BIS generated by the luminance component generation processing unit 121 to each component image data ICIS for each pixel. More specifically, m rows and n columns of data (pixel values) DV ID-G and mn in the G component image data ID-G are represented by m rows and n in the luminance component image data BIS as shown in FIG. 13A. It is obtained by adding m row n column data value DV ICIS-G , mn in G color-specific chromaticity component image data ICIS-G to the column data value DVBIS, mn (DV ID-G, mn = DV BIS, mn + DV ICIS-G, mn ). Similarly, m-row n-column data (each pixel value) DV ID-R, mn in the R component image data ID-R is m-row n-column data in the luminance component image data BIS, as shown in FIG. 13B. It is obtained by adding data value DV ICIS-R, mn of m rows and n columns in R color-specific chromaticity component image data ICIS-R to value DV BIS, mn (DV ID-R, mn = DV BIS, mn + DV ICIS-R, mn ). Similarly, m row and n column data (pixel values) DV ID-B and mn in the B component image data ID-B are m row and n column data in the luminance component image data BIS as shown in FIG. 13C. The value DV BIS, mn is obtained by adding m rows and n columns of data values DV ICIS-B , mn in the B color-specific chromaticity component image data ICIS-B (DV ID-B, mn = DV BIS, mn). + DV ICIS-B, mn ). As a result, an image data ID having color components of the G component DV ID-R, mn , the R component DV ID-R, mn and the B component DV ID-B, mn is generated for each pixel.

図5に戻って、このようなデモザイク処理S2に続いて、処理S3では、対応点探索処理部13によって対応点探索が実行される。この対応点探索では、例えば、2行2列の中央に位置する第5原画像データIS−22に対応する第5画像P(PID、PBIS)が基準画像とされ、この第5画像Pの周辺に位置する第1ないし第4および第6ないし第9原画像データIS−11〜IS−21、IS−23〜IS−33に対応するに第1ないし第4および第6ないし第9画像P(PID、PBIS)それぞれが参照画像とされ、各参照画像ごとに基準画像に対する各対応点がそれぞれ探索される。この対応点探索では、デモザイク処理した画像データIDにおけるG成分が用いられてよく、あるいは、輝度成分生成処理部121によって生成された輝度成分画像データBISが用いられてよい。このため、前記画像Pは、画像データIDの画像PIDまたは輝度成分画像データBISの輝度成分画像PBISである。また、この対応点探索では、本実施形態では、ピクセル単位で対応点が探索され(第1対応点探索処理)、続いて、サブピクセル単位で対応点が探索される(第2対応点探索処理)。そして、前記第1対応点探索では、処理時間を短縮しつつより高精度に対応点を探索する観点から、まず、複数の画素おきに、例えば、8画素おきに対応点が探索され(粗対応点探索処理)、続いて、前記粗対応点探索処理で探索された位置の周辺で1画素おきに対応点が探索される(精対応点探索処理)。この各対応点探索処理には、公知の常套手段が利用され、対応点探索処理は、例えば特開2009−14445号公報等に開示されている。   Returning to FIG. 5, subsequent to the demosaic process S <b> 2, in the process S <b> 3, a corresponding point search is performed by the corresponding point search processing unit 13. In this corresponding point search, for example, the fifth image P (PID, PBIS) corresponding to the fifth original image data IS-22 located at the center of 2 rows and 2 columns is set as the reference image, and the periphery of the fifth image P Corresponding to the first to fourth and sixth to ninth original image data IS-11 to IS-21, IS-23 to IS-33, which are located in the first to fourth and sixth to ninth images P ( PID, PBIS) are used as reference images, and corresponding points for the reference image are searched for each reference image. In this corresponding point search, the G component in the demosaiced image data ID may be used, or the luminance component image data BIS generated by the luminance component generation processing unit 121 may be used. Therefore, the image P is the image PID of the image data ID or the luminance component image PBIS of the luminance component image data BIS. In this corresponding point search, in this embodiment, corresponding points are searched for in units of pixels (first corresponding point searching process), and then corresponding points are searched for in units of sub-pixels (second corresponding point searching process). ). In the first corresponding point search, from the viewpoint of searching for corresponding points with higher accuracy while reducing processing time, first, corresponding points are searched every plural pixels, for example, every eight pixels (coarse correspondence). Point search processing), and then corresponding points are searched every other pixel around the position searched in the rough corresponding point search processing (fine corresponding point search processing). For each corresponding point search process, a known conventional means is used, and the corresponding point search process is disclosed in, for example, Japanese Patent Application Laid-Open No. 2009-14445.

一例として、第1画像P−11と第5画像P−22との対応点探索について以下により具体的に説明する。第1画像P−11と第5画像P−22との位置ズレを視覚的に捉えるため、参考までに、第1画像P−11と第5画像P−22とを重ねて表示すると、図14Aに示す画像となる。このような第1画像P−11と第5画像P−22とにおいて、まず、第1対応点探索処理の粗対応点探索処理では、基準画像の第5画像P−22上で、対応点を探索したい所定の画素位置を中心に所定の大きさを持つウィンドウWbが設定される。同様に、参照画像の第1画像P−11上にも同じ大きさを持つウィンドウWraが、当該対応点探索されるこれら画像間のズレ方向に複数画素おきに複数設定される。例えば、第5画像P−22の(x、y)=(100、150)に位置する画素に対応する参照画像の第1画像P−11における画素位置を探索するものとすると、図14Bに示すように、基準画像の第5画像P−22上で、画素位置(100、150)を中心にウィンドウWbが設定され、図14Cに示すように、参照画像の第1画像P−11上に、第1画像P−11と第5画像P−22との間におけるズレ方向である2次元アレイ状配列の対角方向に複数画素おきに、例えばXY方向共に4画素おきに、8個のウィンドウWra1〜Wra8が設定される。なお、図14Cには、5個のウィンドウWra1〜Wra5が示されている。そして、基準画像の第5画像P−22上におけるウィンドウWb(テンプレート)に対する、参照画像の第1画像P−11上における各ウィンドウWra1〜Wra8の一致度(相関度)が所定の手法で求められ(テンプレートマッチング)、最も一致度の高いウィンドウWraにおける中心位置の画素が対応点として求められる。前記所定の手法には、公知の常套手段、例えば、NCC(Normalized Cross Correlation)法、SAD(Sum of Absolute Difference)法(絶対誤差法)およびSSD(Sum of Squared Difference)法(二乗誤差法)等が用いられる。例えば、前記NCC法では、次式1で一致度RNCCの値が求められる。As an example, the corresponding point search between the first image P-11 and the fifth image P-22 will be described more specifically below. In order to visually grasp the positional deviation between the first image P-11 and the fifth image P-22, when the first image P-11 and the fifth image P-22 are displayed for reference, FIG. The image shown in In such first image P-11 and fifth image P-22, first, in the rough corresponding point search process of the first corresponding point search process, the corresponding point is set on the fifth image P-22 of the reference image. A window Wb having a predetermined size around a predetermined pixel position to be searched is set. Similarly, a plurality of windows Wra having the same size are set on the first image P-11 of the reference image at intervals of a plurality of pixels in the shift direction between the images searched for the corresponding points. For example, assuming that the pixel position in the first image P-11 of the reference image corresponding to the pixel located at (x, y) = (100, 150) in the fifth image P-22 is searched for, as shown in FIG. 14B. Thus, on the fifth image P-22 of the standard image, a window Wb is set around the pixel position (100, 150), and as shown in FIG. 14C, on the first image P-11 of the reference image, Eight windows Wra1 at intervals of a plurality of pixels in the diagonal direction of the two-dimensional array arrangement, which is a shift direction between the first image P-11 and the fifth image P-22, for example, every four pixels in the XY direction. ~ Wra8 is set. In FIG. 14C, five windows Wra1 to Wra5 are shown. Then, the degree of coincidence (degree of correlation) of each of the windows Wra1 to Wra8 on the first image P-11 of the reference image with respect to the window Wb (template) on the fifth image P-22 of the standard image is obtained by a predetermined method. (Template matching), the pixel at the center position in the window Wra having the highest degree of matching is obtained as the corresponding point. Examples of the predetermined method include known conventional means, such as NCC (Normalized Cross Correlation) method, SAD (Sum of Absolute Difference) method (absolute error method), and SSD (Sum of Squared Difference) method (square error method). Is used. For example, in the NCC method, the value of the matching degree R NCC is obtained by the following formula 1.

Figure 2015083502
Figure 2015083502

ここで、I(i,j)は、基準画像のウィンドウWbにおける位置(i,j)の画素値(画像データIDまたは輝度成分画像データBISにおける画素のデータ値)であり、T(i,j)は、参照画像のウィンドウWrにおける位置(i,j)の画素値(画像データIDまたは輝度成分画像データBISにおける画素のデータ値)であり、Nは、ウィンドウWb、WrにおけるX方向(横方向)の長さ(画素単位)であり、そして、Mは、ウィンドウWb、WrにおけるY方向(縦方向)の長さ(画素単位)である。   Here, I (i, j) is a pixel value (a pixel data value in the image data ID or luminance component image data BIS) at the position (i, j) in the window Wb of the reference image, and T (i, j). ) Is a pixel value (data value of a pixel in the image data ID or luminance component image data BIS) at the position (i, j) in the window Wr of the reference image, and N is an X direction (lateral direction) in the windows Wb and Wr. ) (Pixel unit), and M is the length (pixel unit) in the Y direction (vertical direction) of the windows Wb and Wr.

これによって上述の例では、参照画像の第1画像P−11における画素位置(100、150)に対し(−4、−4)、(0、0)、(4、4)、(8、8)、(12、12)、(16、16)、(20、20)、(24、24)だけずれた8画素、すなわち、(96、146)、(100、150)、(104、154)、(108、158)、(112、162)、(116、166)、(120、170)、(124、174)の8画素に対しテンプレートマッチングが実行され、最も一致度の高い画素が探索される。   Accordingly, in the above-described example, (−4, −4), (0, 0), (4, 4), (8, 8) with respect to the pixel position (100, 150) in the first image P-11 of the reference image. ), (12, 12), (16, 16), (20, 20), (24, 24) shifted by 8 pixels, ie, (96, 146), (100, 150), (104, 154) , (108, 158), (112, 162), (116, 166), (120, 170), (124, 174) are subjected to template matching, and the pixel with the highest matching degree is searched. The

続いて、第1対応点探索処理の精対応点探索処理では、図14Dに示すように、前記粗対応点探索処理の結果、最も一致度の高いウィンドウWraの中心画素に対する周辺を1画素の精度で平面的に対応点探索処理が実行される。対応点探索の範囲は、所定の範囲、例えば、前記粗対応点探索処理で複数画素おき(上述の例ではXY方向共に4画素おき)に探索したが、この複数画素に応じた範囲(例えば±4画素の範囲)である。より具体的には、前記粗対応点探索処理の結果、最も一致度の高いウィンドウWrの中心画素に対する周辺±4画素それぞれを中心に81個のウィンドウWrb1〜Wrb81が設定され、これら81個のウィンドウWrb1〜Wrb81それぞれについてテンプレートマッチングが実行され、最も一致度の高いウィンドウWrbにおける中心位置の画素が対応点として求められる。   Subsequently, in the fine corresponding point search process of the first corresponding point search process, as shown in FIG. 14D, as a result of the rough corresponding point search process, the periphery of the center pixel of the window Wra having the highest degree of coincidence is determined with one pixel accuracy. The corresponding point search process is executed in a plane. The corresponding point search range is a predetermined range, for example, every second pixel is searched in the rough corresponding point search process (in the above example, every four pixels in the XY direction). Range of 4 pixels). More specifically, as a result of the rough corresponding point search process, 81 windows Wrb1 to Wrb81 are set around each of ± 4 pixels around the center pixel of the window Wr having the highest degree of coincidence. Template matching is executed for each of Wrb1 to Wrb81, and the pixel at the center position in the window Wrb having the highest degree of matching is obtained as the corresponding point.

続いて、第2対応点探索処理では、図15Aに示すように、前記精対応点探索処理の結果、最も一致度の高いウィンドウWrbの中心画素およびこの中心画素の周辺8画素それぞれの9個の一致度に、図15Bに示すように、最も近似する2次曲面が求められ(2次曲面フィッティング)、この求められた2次曲面の頂点を与える座標値がサブピクセル単位の対応点として求められる(図15Bでは2次曲面の一断面を図示している)。このようなサブピクセル単位で対応点を求める手法は、例えば、「田中、矢口、古川、奥富、「位置ずれ量を考慮した画素選択に基づくロバスト超解像処理」、電子情報通信学会論文誌、Vol.J92−D、No.5、pp650−660、2009.、2009年5月」等に開示されている。なお、上述では、最も近似する2次曲面を求めることによってサブピクセル単位の対応点が求められたが、X方向およびY方向それぞれで最も近似する2次曲線がそれぞれ求められ、これら求められた各2次曲線のピークを与える各座標値がサブピクセル単位の対応点として求められてもよい。   Subsequently, in the second corresponding point search process, as shown in FIG. 15A, as a result of the fine corresponding point search process, the center pixel of the window Wrb having the highest degree of coincidence and the nine pixels around the center pixel are each nine. As shown in FIG. 15B, the degree of coincidence is obtained as the most approximate quadric surface (quadratic surface fitting), and the coordinate value giving the vertex of the obtained quadric surface is obtained as a corresponding point in subpixel units. (FIG. 15B shows a section of a quadric surface). The method for obtaining the corresponding points in units of sub-pixels is, for example, “Tanaka, Yaguchi, Furukawa, Okutomi,“ Robust super-resolution processing based on pixel selection considering misalignment ”, IEICE Transactions, Vol. J92-D, No. 5, pp650-660, 2009. , May 2009 ". In the above description, corresponding points in units of subpixels are obtained by obtaining the most approximate quadric surface, but quadratic curves that are most approximate in the X direction and the Y direction are obtained, respectively. Each coordinate value giving the peak of the quadratic curve may be obtained as a corresponding point in subpixel units.

図5に戻って、次に、処理S4では、処理S3で求められた各対応点間について、位置ズレ量演算部14によって各対応点間の位置ズレ量が求められる。例えば、単位長を1画素の大きさ(サイズ)とすれば、対応点間の座標差が位置ズレ量となる。すなわち、基準画像における画素の座標値と参照画像における、前記基準画像の画素に対応する画素の座標値との差が位置ズレ量となる。また例えば、単位長をm単位とすれば、対応点間の座標差に画素ピッチを乗じた値が位置ズレ量となる。前記画素ピッチは、画素の中心位置とこれに隣接する画素の中心位置との間の長さである。   Returning to FIG. 5, next, in process S <b> 4, the position shift amount between the corresponding points is determined by the position shift amount calculation unit 14 between the corresponding points determined in process S <b> 3. For example, if the unit length is a size (size) of one pixel, a coordinate difference between corresponding points becomes a positional deviation amount. That is, the difference between the coordinate value of the pixel in the standard image and the coordinate value of the pixel corresponding to the pixel of the standard image in the reference image is the positional deviation amount. Further, for example, when the unit length is m units, a value obtained by multiplying the coordinate difference between corresponding points by the pixel pitch is the positional deviation amount. The pixel pitch is a length between the center position of a pixel and the center position of a pixel adjacent thereto.

次に、処理S5では、超解像処理部15によって複数の画像から、これら複数の画像の解像度よりも高い解像度を持つ1個の画像(超解像画像)が求められる。この超解像処理には、公知の常套手段が利用され、超解像処理は、例えば、「「Fast and Robust Multiframe Super Resolution」、IEEE TRANNSACTION ON IMAGE PROCESSING,Vol.13,No.10,October 2004,pp1327−1344」等に開示されている。この文献に開示された再構成型超解像処理について、図16ないし図21を用いて以下に概説する。   Next, in process S5, the super-resolution processing unit 15 obtains one image (super-resolution image) having a resolution higher than the resolution of the plurality of images from the plurality of images. For this super-resolution processing, known conventional means are used. For example, “Fast and Robust Multiframe Super Resolution”, IEEE TRANSACTION ON IMAGE PROCESSING, Vol. 13, no. 10, Oct. 2004, pp 1327-1344, etc. The reconstruction type super-resolution processing disclosed in this document will be outlined below with reference to FIGS.

この超解像処理では、原画像データISを上述のようにデモザイク(demosaic)した画像データIDが用いられ、図16に示す超解像処理は、色成分ごとに実行される。すなわち、画像データIDは、デモザイクによって、画素ごとに、R成分、B成分およびG成分の各値を持ち、図16に示す超解像処理は、R成分の各画素値で構成される画像(Rプレーン)、B成分の各画素値で構成される画像(Bプレーン)、および、G成分の各画素値で構成される画像(Gプレーン)それぞれに対して実行され、超解像化されたRプレーン、BプレーンおよびGプレーンを重ねることで、フルカラーの1個の超解像画像が生成される。以下、一例として、Gプレーンの場合について概説するが、RプレーンおよびBプレーンの場合も同様である。   In this super-resolution processing, the image data ID obtained by demosaicing the original image data IS as described above is used, and the super-resolution processing shown in FIG. 16 is executed for each color component. That is, the image data ID has values of R component, B component, and G component for each pixel by demosaic, and the super-resolution processing shown in FIG. R-plane), an image composed of B component pixel values (B plane), and an image composed of G component pixel values (G plane). By superimposing the R plane, the B plane, and the G plane, one full-color super-resolution image is generated. Hereinafter, the case of the G plane will be outlined as an example, but the same applies to the case of the R plane and the B plane.

図16において、処理S11では、超解像処理部15に複数の画像PIDおよびその劣化情報が記憶部2から読み込まれる。例えば、本実施形態では、図7でデモザイク済みの第1ないし第9画像データID−11〜ID−33およびその劣化情報が記憶部2から超解像処理部15に読み込まれる。劣化情報は、図17に示すように、超解像処理後の理想的な超解像画像から見て、この前記超解像画像と画像データIDに対応する画像PID(以下、この超解像処理の説明において、「入力画像」と呼称する。)との間における対応関係を表す情報である。前記超解像画像の各画素値(この例ではG成分の画素値)を持つ1次元ベクトルをXとし、画像データIDに対応する入力画像の各画素値(この例ではG成分の画素値)を持つ1次元ベクトルをYとし、後述する初期画像の出力候補画像Xを生成した元の入力画像Yと他の各入力画像Yそれぞれとの位置ズレ量を行列Fとし、後述する出力候補画像Xのサイズを入力画像Yのサイズに合わせるためのダウンサンプリング量をDとし、そして、入力画像のボケ量(本実施形態では、撮像光学系31のPSF(Point spread function、点拡がり関数、点像分布関数)情報)をHとすると、前記劣化情報は、Dであり、Y=DX(X=F )の関係が成り立つ。なお、kは、第1ないし第9原画像データIS−11〜IS−33それぞれに対応する各入力画像PID−11〜PID−33を指し、1〜9の整数値である。また、上付きの添え字Tは、転置行列であることを示す。この劣化情報は、後述の処理S14における残差の演算に用いられる。In FIG. 16, in step S <b> 11, the super-resolution processing unit 15 reads a plurality of images PID and its deterioration information from the storage unit 2. For example, in this embodiment, the first to ninth image data ID-11 to ID-33 demodulated in FIG. 7 and the deterioration information thereof are read from the storage unit 2 to the super-resolution processing unit 15. As shown in FIG. 17, the deterioration information is an image PID corresponding to the super-resolution image and the image data ID (hereinafter, this super-resolution) when viewed from an ideal super-resolution image after super-resolution processing. In the description of the processing, this information is referred to as “input image”). A one-dimensional vector having each pixel value (G component pixel value in this example) of the super-resolution image is X, and each pixel value (G component pixel value in this example) of the input image corresponding to the image data ID. a one-dimensional vector having a Y k, the amount of positional shift matrix F k of the output candidates from which generated the image X 0 input image Y k and the other of each input image Y k each described later initial image, described later downsampling amount for adjusting the size of the output candidate image X n the size of the input image Y k to a D k, then the blur amount of the input image (in this embodiment, the imaging optical system 31 of the PSF (Point spread function When the point spread function, the point spread function) information) and H k, the degradation information is D k H k F k, Y k = D k H k F k X (X = F k T H k T D k T Y k ). Note that k represents each input image PID-11 to PID-33 corresponding to each of the first to ninth original image data IS-11 to IS-33, and is an integer value of 1 to 9. A superscript T indicates a transposed matrix. This deterioration information is used for calculating a residual in the process S14 described later.

次に、処理S12では、超解像処理部15によって入力画像Yから、初期画像としての出力候補画像X(ここでは初期画像なのでN=0)が作成される。この初期画像の出力候補画像Xは、超解像画像Xを生成するために後述するように処理S12〜処理S15の各処理を繰り返し実行する繰り返し処理における最初の出力候補画像Xである。この出力候補画像Xは、生成すべき超解像画像Xと同じ解像度(同じサイズ)を持つ画像であり、例えば、第1ないし第9原画像データIS−11〜IS−33に対応する複数の第1ないし第9入力画像Yのうちの1つから例えばバイリニア等の補間処理によって不足画素を補うことで生成される。本実施形態では、上述の処理S1ないし処理S4によって、第5原画像データIS−22に対応する第5画像P−22に対し、周辺の第1ないし第4および第6ないし第9原画像データIS−11〜IS−21、IS−23〜IS−33それぞれに対応する各画像P−11〜P−21、P−23〜P−33の位置ズレ量を求めているので、第5原画像データIS−22に対応する第5画像データID−22から初期画像の出力候補画像Xが作成され、前記位置ズレ量Fは、上述の処理S1ないし処理S4によって求められた各位置ズレ量となる。入力画像Yは、500×500のサイズであり、超解像画像Xが1500×1500のサイズであるとすると、この出力候補画像Xの生成において、入力画像Yは、X方向(横方向)およびY方向(縦方向)共に3倍に拡大されることになる。入力画像Yにおける互いに隣接する画素間には、入力画像Yが3倍に拡大されると、X方向およびY方向それぞれにおいて、画素値の無い2個の画素が新たにそれぞれ生じることになり(2次元アレイでは画素値の無い8個の画素が新たに生じる)、これら画素値の無い画素の画素値が前記補間処理によって生成される。Next, in process S12, the super-resolution processing unit 15 creates an output candidate image X n (here, N = 0 because it is an initial image) as an initial image from the input image Y k . The output candidate image X 0 of the initial image is the first output candidate image X n in the repeating process executed repeatedly each processing process S12~ processing S15 as described below to generate a super-resolution image X. The output candidate image X 0 is the same resolution image having the (same size) as the super-resolution image X to be generated, for example, a plurality corresponding to the first to ninth original image data IS-11~IS-33 Are generated from one of the first to ninth input images Y k by compensating for the deficient pixels by, for example, bilinear interpolation. In the present embodiment, the first to fourth and sixth to ninth peripheral image data around the fifth image P-22 corresponding to the fifth original image data IS-22 by the above-described processes S1 to S4. Since the displacement amounts of the images P-11 to P-21 and P-23 to P-33 corresponding to the IS-11 to IS-21 and IS-23 to IS-33 are obtained, the fifth original image is obtained. output candidate image X 0 of the initial image from the fifth image data ID-22 is created corresponding to the data iS-22, the position shift amount F k is the positional displacement amount obtained by the processing S1 to step S4 described above It becomes. If the input image Y k has a size of 500 × 500 and the super-resolution image X has a size of 1500 × 1500, the input image Y k is generated in the X direction (horizontal) in the generation of the output candidate image X 0. (Direction) and Y direction (longitudinal direction) are enlarged three times. Between adjacent pixels in the input image Y k, the input image Y k is larger 3 times, in the X and Y directions, respectively, two pixels without pixel values will be generated anew each (In the two-dimensional array, eight pixels having no pixel value are newly generated), and pixel values of pixels having no pixel value are generated by the interpolation process.

次に、処理S13では、超解像処理部15によって、入力画像Yにノイズがあってもロバストに収束できるように、正則化項としていわゆるBTV量(Bilateral Total Value)が求められる。このBTV量は、後述の式2における右辺第3項である。Next, in process S13, a so-called BTV amount (bilateral total value) is obtained as a regularization term so that the super-resolution processing unit 15 can robustly converge even if there is noise in the input image Yk . This BTV amount is the third term on the right side in Equation 2 described later.

次に、処理S14では、超解像処理部15によって、第1ないし第9画像データID−11〜ID−33に対応する第1ないし第9入力画像Yそれぞれについて、これら各入力画像Yの劣化情報に応じて入力画像Yの解像度(大きさ)と同じ解像度(大きさ)に変換した出力候補画像Xとの差である残差がそれぞれ求められる。この残差は、後述の式2における右辺第2項である。Next, in process S14, each of the input images Y k for the first to ninth input images Y k corresponding to the first to ninth image data ID-11 to ID-33 by the super-resolution processing unit 15 is described. Residuals that are differences between the resolution (size) of the input image Yk and the output candidate image Xn converted to the same resolution (size) according to the deterioration information are obtained. This residual is the second term on the right side in Equation 2 described later.

この残差を求める処理である残差処理S14について、図18ないし図21を参照しつつ、より具体的に説明すると、まず、図18Aおよび図18Bに示すように、当該入力画像Yの劣化情報が出力候補画像Xに乗じられ、当該入力画像Yの劣化情報に応じて前記画像の解像度(大きさ)と同じ解像度(大きさ)に変換した出力候補画像(D)が生成される(図21の処理S22−1〜S22−9ないし処理S24−1〜S24−9)。なお、nは、本実施形態では、前記繰り返し処理の回数が、通常収束すると判断できる例えば200回の定数値に設定されているため、0〜199の整数値である。したがって、出力候補画像X199は、この処理S5の超解像処理で出力される超解像画像Xとなる(X=X199)。この残差処理について、より詳しくは、まず、PSF情報をフィルタ係数に持つ画像フィルタで出力候補画像Xがフィルタリングされ(図21の処理S22−1〜S22−9)、これによって出力候補画像Xのボケ画像が生成され、前記入力画像Yの解像度と同じ解像度となるように、出力候補画像Xの元の第5画像データID−22に対応する第5入力画像Yと当該入力画像Yとの位置ズレ量Fを考慮してダウンサンプリングが行われる(図21の処理S23−1〜S23−9、処理S24−1〜S24−9)。例えば、図18Cに示すように、第5入力画像Yと当該入力画像Yとの位置ズレ量FがX方向(横方向)に1/3画素であって、X方向(横方向)およびY方向(縦方向)共に1/3にダウンサンプリングする場合(1500×1500→500×500)には、ダウンサンプリング前の画像でX方向に1画素(=1/3画素×3倍)だけずらした位置に位置する3×3の9画素における各画素値の平均値が、ダウンサンプリングした画素値とされる。次に、図19に示すように、ダウンサンプリング後の出力候補画像(D)(図19A)から、入力画像Y(図19B)が減算され、この減算結果(D−Y)が符号関数sign(α)で演算される(図19C、図21の処理S25−1〜S25−9))。この符号関数sign(α)は、αが0である場合には0を出力し、αが正である場合には1を出力し、そして、αが負である場合には−1を出力する演算子である。したがって、符号関数sign(α)の演算によって、前記減算結果(D−Y)が0である場合には、0が出力され、前記減算結果(D−Y)が正である場合には、1が出力され、そして、前記減算結果(D−Y)が負である場合には、−1が出力される。次に、図20Aおよび図20Bに示すように、符号関数sign(α)で演算された前記減算結果(D−Y)(差異)に影響した超解像画像Xの画素が調べられる(図21の処理S26−1〜S26−9ないし処理S28−1〜S28−9)。上述の処理が上述の行列Dで定義された場合、この処理は、転置行列を用いた行列F で定義される。すなわち、この処理は、出力候補画像Xの元の第5画像データID−22に対応する第5入力画像Yと当該入力画像Yとの位置ズレ量Fを考慮したアップサンプリングを行った後に(F 、図21の処理S26−1〜S26−9)、ボケの影響を元に戻す処理(H )となる(F sign(D−Y)、図21の処理S27−1〜S27−9、処理S28−1〜S28−9)。例えば、図20Cに示すように、上述の例で、第5入力画像Yと当該入力画像Yとの位置ズレ量FがX方向(横方向)に1/3画素であって、X方向(横方向)およびY方向(縦方向)共に3倍にアップサンプリングする場合(500×500→1500×1500)には、アップサンプリング後の画像でX方向に1画素(=1/3画素×3倍)だけずらした位置に位置する3×3の9画素それぞれに、差異sign(D−Y)が、アップサンプリングの前後における各画素の面積比(この図16Cの例では1/9)で分配される。これによって1個の入力画像Yに対する差異の画像が生成される。この例では入力画像Yは、9個あるので、この処理が、図21に示すように、第1ないし第9入力画像Yそれぞれに対し実行され、9個の差異の画像が生成される。そして、これら9個の差異の総計が前記残差とされる。The residual process S14, which is a process for obtaining the residual, will be described in more detail with reference to FIGS. 18 to 21. First, as shown in FIGS. 18A and 18B, degradation of the input image Yk is performed. information is multiplied by the output candidate image X n, the input image Y k output candidate image (D converted to the same resolution (size) and resolution (size) of the image in accordance with the deterioration information of k H k F k Xn ) is generated (processing S22-1 to S22-9 to processing S24-1 to S24-9 in FIG. 21). In the present embodiment, n is an integer value of 0 to 199 because the number of repetitions is set to, for example, a constant value of 200 that can be normally determined to converge. Therefore, the output candidate image X 199 becomes the super-resolution image X output by the super-resolution processing of this processing S5 (X = X 199 ). In more detail, the output candidate image Xn is first filtered with an image filter having PSF information as a filter coefficient (processes S22-1 to S22-9 in FIG. 21). n of the blurred image is generated, so as to have the same resolution as the resolution of the input image Y k, fifth input image Y 5 and the input corresponding to the fifth image data ID-22 of the original output candidate image X n considering position shift amount F k of the image Y k downsampling is performed (the process of FIG. 21 S23-1~S23-9, processing S24-1~S24-9). For example, as shown in FIG. 18C, the positional shift amount F k between the fifth input image Y 5 and the input image Y k is 1/3 pixel in the X direction (horizontal direction), and the X direction (horizontal direction). In the case of downsampling to 1/3 in both the Y direction (vertical direction) (1500 × 1500 → 500 × 500), only one pixel in the X direction (= 1/3 pixel × 3 times) in the image before downsampling The average value of the pixel values of the 9 pixels of 3 × 3 located at the shifted position is the downsampled pixel value. Next, as shown in FIG. 19, the input image Y k (FIG. 19B) is subtracted from the output candidate image (D k H k F k X n ) (FIG. 19A) after downsampling, and this subtraction result (D k H k F k X n -Y k) is calculated by the sign function sign (α) (Fig. 19C, the process of FIG. 21 S25-1~S25-9)). The sign function sign (α) outputs 0 when α is 0, outputs 1 when α is positive, and outputs −1 when α is negative. It is an operator. Therefore, the calculation of the sign function sign (alpha), when the subtraction result (D k H k F k X n -Y k) is 0, 0 is output, the subtraction result (D k H k F when k X n -Y k) is positive, 1 is output, and, wherein when the subtraction result (D k H k F k X n -Y k) is negative, -1 output Is done. Next, as shown in FIGS. 20A and 20B, sign function sign (alpha) the calculated result of the subtraction in (D k H k F k X n -Y k) ( difference) super-resolution image X which affect n pixels are examined (processing S26-1 to S26-9 to processing S28-1 to S28-9 in FIG. 21). When the above process is defined by the matrix D k H k F k described above, this process is defined by a matrix F k T H k T D k T using a transposed matrix. That is, this process is carried out upsampling taking into account the positional shift amount F k of the fifth input image Y 5 and the input image Y k corresponding to the fifth image data ID-22 original output candidate image X n (F k T D k T, the process of FIG. 21 S26-1~S26-9) after the, the process of returning to the original effect of the blur (H k T) (F k T H k T D k T sign ( D k H k F k X n -Y k), the process of FIG. 21 S27-1~S27-9, processing S28-1~S28-9). For example, as illustrated in FIG. 20C, in the above example, the positional deviation amount F k between the fifth input image Y 5 and the input image Y k is 1/3 pixel in the X direction (horizontal direction), and X When upsampling is performed three times in both the direction (horizontal direction) and the Y direction (vertical direction) (500 × 500 → 1500 × 1500), one pixel in the X direction (= 1/3 pixel × three times) by each 9 pixels of 3 × 3 located at a position shifted, the difference sign (D k H k F k X n -Y k) is, the area ratio of each pixel before and after upsampling (FIG 16C In the example shown in FIG. As a result, a difference image for one input image Yk is generated. In this example, since there are nine input images Y k , this processing is executed for each of the first to ninth input images Y k as shown in FIG. 21, and nine difference images are generated. . The total of these nine differences is the residual.

図16に戻って、次に、処理S15では、超解像処理部15によって、式2に示すように、上述の処理S13および処理S14それぞれで求めたBTV量および残差を、出力候補画像Xから減算することによって、次の出力候補画像Xn+1が生成される。そして、この出力候補画像Xn+1が処理S12の出力候補画像Xとされ、処理がS12に戻される。Returning to FIG. 16, next, in process S15, the super-resolution processing unit 15 calculates the BTV amount and the residual obtained in the above-described processes S13 and S14, respectively, as shown in Expression 2, by using the output candidate image X. By subtracting from n , the next output candidate image Xn + 1 is generated. Then, this output candidate image Xn + 1 is set as the output candidate image Xn of the process S12, and the process returns to S12.

Figure 2015083502
Figure 2015083502

なお、λは、BTV量の影響度を調整するパラメータであり、βは、残差およびλ×BTV量の影響度を調整するパラメータであり、これらλ、βは、適宜に設定される。   Note that λ is a parameter for adjusting the degree of influence of the BTV amount, β is a parameter for adjusting the degree of influence of the residual and λ × BTV amount, and these λ and β are appropriately set.

そして、このような処理S12ないし処理15の各処理が、出力候補画像Xが通常収束すると考えられる所定回数、例えば、上述したように200回繰り返される。処理S12ないし処理S15の各処理を200回繰り返すと、処理S5の超解像処理が終了し、出力候補画像X199が超解像画像Xとされる。Then, each of the processes S12 to S15 is repeated a predetermined number of times that the output candidate image Xn is normally converged, for example, 200 times as described above. When each of the processes S12 to S15 is repeated 200 times, the super-resolution process of process S5 is completed, and the output candidate image X 199 is set as the super-resolution image X.

図5に戻って、このように処理S5の超解像処理が終了すると、処理S6において、この超解像画像Xが、記憶部2に記憶され、そして、出力部5に出力され、表示される。   Returning to FIG. 5, when the super-resolution process of the process S5 is completed in this way, in the process S6, the super-resolution image X is stored in the storage unit 2, and then output to the output unit 5 and displayed. The

このように本実施形態における画像処理装置Dならびにこれに実装された画像処理方法および画像処理プログラムは、相対的に低解像度な複数の画像から相対的に高解像度な1つの画像を生成する場合に生じる前記ギザギザな線をより低減できる。すなわち、前記ギザギザな線の発生は、図24を用いて上述した発生過程から分かるように、例えば、R成分の濃度データが個眼ごとに離散的に得られ、横方向には一定濃度であるという被写体本来の情報が得られないためである。しかしながら、本実施形態における画像処理装置D等では、画像FLフィルタによって単位配列の色組成比と同じ色組成比を持つデータに原画像データISを変換するように輝度成分生成処理部121によってフィルタリングするので、このフィルタリングで生成された輝度成分画像データBISにおける全ての画素のデータは、同じ色成分を持つデータとして扱うことができるようになり、全ての画素で適切に比較できる。そして、本実施形態における画像処理装置D等では、デモザイク処理の補間には前記単位配列に含まれる同色の個数および輝度成分生成処理部121で生成された輝度成分画像データBISに基づいた補間方法が用いられるので、前記画素間の相互関係を考慮した適切な補間方法の選択が可能となり、この結果、本実施形態における画像処理装置D等は、前記ギザギザな線をより低減できる。   As described above, the image processing apparatus D and the image processing method and the image processing program installed in the image processing apparatus D according to the present embodiment generate a relatively high-resolution image from a plurality of relatively low-resolution images. The generated jagged lines can be further reduced. That is, the generation of the jagged line is, for example, as shown in the generation process described above with reference to FIG. 24, in which density data of the R component is obtained discretely for each eye, and is constant in the horizontal direction. This is because the original information of the subject cannot be obtained. However, in the image processing apparatus D and the like in the present embodiment, the luminance component generation processing unit 121 performs filtering so that the original image data IS is converted into data having the same color composition ratio as the unit composition by the image FL filter. Therefore, the data of all pixels in the luminance component image data BIS generated by this filtering can be handled as data having the same color component, and can be appropriately compared with all the pixels. In the image processing apparatus D and the like in the present embodiment, the interpolation method based on the number of the same color included in the unit array and the luminance component image data BIS generated by the luminance component generation processing unit 121 is used for the interpolation of the demosaic process. Therefore, it is possible to select an appropriate interpolation method in consideration of the mutual relationship between the pixels. As a result, the image processing apparatus D and the like in the present embodiment can further reduce the jagged lines.

単位配列に含まれる同色の個数が1つである色の色度成分データをバイリニア補間法で補間しても前記ギザギザな線を生じないので、本実施形態における画像処理装置D等は、比較的情報処理の容易なバイリニア補間法をこのような場合に用いることで、前記ギザギザな線をより低減しつつ、簡易に補間処理できる。   Even if the chromaticity component data of the same color included in the unit array is interpolated by the bilinear interpolation method, the jagged line is not generated. Therefore, the image processing apparatus D or the like in this embodiment is relatively By using a bilinear interpolation method that facilitates information processing in such a case, it is possible to easily perform interpolation processing while further reducing the jagged lines.

単位配列に含まれる同色の個数が複数である色の色度成分データをバイリニア補間法で補間すると前記ギザギザな線を生じてしまうが、本実施形態における画像処理装置D等は、前記単位配列に含まれる同色の個数が複数である色の色度成分データを前記輝度成分画像データに基づいた補間方法で補間するので、前記ギザギザな線をより適切に低減できる。そして、前記補間方法は、前記相関の有無に応じて選択されるので、より適切な補間方法を選択できる。上述では、前記単位配列に含まれる同色の個数が複数である色の色度成分データを補間する場合でも、周辺画素と相関関係に無ければ、高解像化に用いる高周波のモアレ成分である可能性が高い。このため、前記補間方法としてバイリニア補間法が選択され、バイリニア補間法でギザギザを残し、これを高解像化で解像力を上げるために用いることができる。一方、周辺画素と相関が有れば、前記補間方法として、その相関に応じた重み付け補間法が選択され、ギザギザを低減できる。したがって、本実施形態における画像処理装置D等は、前記単位配列に含まれる同色の個数が複数である色の色度成分データを補間する場合に、前記ギザギザな線をより適切に低減できる。   When the chromaticity component data of the same color included in the unit array is interpolated by the bilinear interpolation method, the jagged line is generated. However, the image processing apparatus D or the like in this embodiment has the unit array. Since the chromaticity component data of a plurality of colors that are included are interpolated by an interpolation method based on the luminance component image data, the jagged lines can be reduced more appropriately. Since the interpolation method is selected according to the presence or absence of the correlation, a more appropriate interpolation method can be selected. In the above description, even when interpolating chromaticity component data of a plurality of the same colors included in the unit array, if there is no correlation with surrounding pixels, it is possible to be a high-frequency moire component used for high resolution. High nature. For this reason, the bilinear interpolation method is selected as the interpolation method, and the jaggedness is left by the bilinear interpolation method, which can be used to increase the resolution with high resolution. On the other hand, if there is a correlation with surrounding pixels, a weighted interpolation method corresponding to the correlation is selected as the interpolation method, and jaggedness can be reduced. Therefore, the image processing apparatus D or the like in the present embodiment can more appropriately reduce the jagged lines when interpolating chromaticity component data of a color having a plurality of the same colors included in the unit array.

本実施形態における画像処理装置D等は、フィルタ係数の各値が中心位置に対し対称に配置されているので、全ての画素のデータを同等な色成分を持つデータとして扱うことができるから、前記ギザギザな線をより低減できる。   In the image processing apparatus D and the like in the present embodiment, since each value of the filter coefficient is arranged symmetrically with respect to the center position, the data of all pixels can be handled as data having an equivalent color component. Jagged lines can be further reduced.

本実施形態における画像処理装置D等は、画像フィルタサイズおよび高周波成分の除去率の異なる画像フィルタFLa、FLbを用いて輝度成分画像データBISを生成するので、画像の鮮鋭度を保持しつつ、前記ギザギザな線の少ない輝度成分画像データBISを生成できる。   The image processing apparatus D and the like in the present embodiment generates the luminance component image data BIS using the image filters FLa and FLb having different image filter sizes and high-frequency component removal rates, so that the image sharpness is maintained while maintaining the image sharpness. Luminance component image data BIS with less jagged lines can be generated.

本実施形態における画像処理装置D等は、3眼以上のアレイカメラ3bbを用いるので、複数の原画像データISを同時に得ることができる。このため、同一の被写体を同時刻で写した複数の画像間で高解像度な画像を生成することになるので、本実施形態における画像処理装置D等は、前記ギザギザな線をより低減できる。   Since the image processing apparatus D and the like in the present embodiment uses an array camera 3bb having three or more eyes, a plurality of original image data IS can be obtained simultaneously. For this reason, since a high-resolution image is generated between a plurality of images obtained by copying the same subject at the same time, the image processing apparatus D and the like in this embodiment can further reduce the jagged lines.

次に、本実施形態における画像処理装置Dの効果について、一実施例と一比較例とを対比しながら以下に説明する。図22は、実施例の画像処理結果と比較例の画像処理結果とを説明するための図である。図22Aは、単位配列がベイヤー配列である原画像データISに基づいて生成した画像データIDの画像PIDを示す。この一実施例および一比較例では、被写体としていわゆる楔チャートを例えば上述の9眼のアレイカメラ3bbで撮像することによって9個の第1ないし第5原画像データIS−11〜IS−33が生成された。図22Aは、その中央に位置する第5原画像データIS−22に基づいて生成した画像データIDの画像PID(超解像前)である。図22Bは、輝度成分生成処理部121によって図22Aに対応する原画像データISに基づいて第1および第2態様の画像フィルタFLa、FLbを用いて生成した輝度成分画像データBISの輝度成分画像PBISを示し、図22Cは、色度成分補間処理部123によって図22Aに対応する原画像データISから生成したG色別色度成分画像データICISのG色別色度成分画像PICISを示し、図22Dは、図22Aに関する前記複数の原画像データISに基づいて超解像処理で生成した超解像画像PHIDabを示し、図22Eは、輝度成分画像生成処理で第2態様の画像フィルタFLbのみを用いて輝度成分画像データBISを生成した場合における超解像画像PHIDbを示し、そして、図22Fは、比較例として、補間処理において、輝度成分画像データを用いることなく、いわゆるバイリニア補間法で補間することによって生成したG色別色度成分画像データICISr−GのG色別色度成分画像PICISr−Gを示す。   Next, the effect of the image processing apparatus D in the present embodiment will be described below while comparing an example and a comparative example. FIG. 22 is a diagram for explaining the image processing result of the example and the image processing result of the comparative example. FIG. 22A shows an image PID of the image data ID generated based on the original image data IS whose unit array is a Bayer array. In the embodiment and the comparative example, nine first to fifth original image data IS-11 to IS-33 are generated by imaging a so-called wedge chart as a subject with, for example, the nine-lens array camera 3bb. It was done. FIG. 22A is an image PID (before super-resolution) of the image data ID generated based on the fifth original image data IS-22 located in the center. 22B shows a luminance component image PBIS of the luminance component image data BIS generated by the luminance component generation processing unit 121 using the image filters FLa and FLb of the first and second modes based on the original image data IS corresponding to FIG. 22A. 22C shows a chromaticity component image PICIS for each G color of the chromaticity component image data for each G color ICIS generated from the original image data IS corresponding to FIG. 22A by the chromaticity component interpolation processing unit 123, and FIG. Shows the super-resolution image PHIDab generated by the super-resolution processing based on the plurality of original image data IS related to FIG. 22A, and FIG. 22E uses only the image filter FLb of the second mode in the luminance component image generation processing. FIG. 22F shows a super-resolution image PHIDb when the luminance component image data BIS is generated. In, without using the brightness component image data, showing a G color-by-color chromaticity component image PICISr-G of the G color-coded chroma component image data ICISr-G produced by interpolating the so-called bilinear interpolation.

画像には、一方向(横方向)に延び、前記一方向に略直交する他方向(縦方向)に比較的密集して互いに並置されている複数の線が写されている。これら複数の線に対し、識別可能に計数できる本数は、図22Aでは、473TV本である。なお、9眼の各画像での平均値は、483TV本である。このような画像の原画像データISに対し、本実施形態の画像処理装置Dによって処理すると、デモザイク処理の輝度成分生成処理後には、図22Bに示す全体的にボケた輝度成分画像PBISとなり、色度成分補間処理後には、図22Cに示すG色別色度成分画像ICIS−Gとなる。この図22Cに示すG色別色度成分画像ICIS−Gは、バイリニア補間の補間で生成した図22Fに示す比較例のG色別色度成分画像PICISr−Gに較べ、破線の○で示す部分は、変化が無く、高周波の折り返し歪み(モアレ)が残っており、破線の○以外(例えば紙面左側)が滑らかになっていることが分かる。このため、超解像処理後には、図22Dに示す超解像画像PHIDabが得られ、識別可能に計数できる本数は、図22Dでは、615TV本であり、ギザギザを抑えつつ元の個眼の画像より飛躍的に解像度が向上している。また、輝度成分画像データBISを第2態様の画像フィルタFLbのみを用いて生成しても、識別可能に計数できる本数は、図22Eでは、613TV本であり、ギザギザを抑えつつ元の個眼の画像より飛躍的に解像度が向上している。   In the image, a plurality of lines extending in one direction (horizontal direction) and relatively densely arranged in the other direction (vertical direction) substantially orthogonal to the one direction are juxtaposed. In FIG. 22A, the number of lines that can be discriminated with respect to the plurality of lines is 473 TV lines. Note that the average value for each image of 9 eyes is 483 TV lines. When the original image data IS of such an image is processed by the image processing apparatus D of the present embodiment, after the luminance component generation processing of the demosaic processing, the overall luminance component image PBIS shown in FIG. After the degree component interpolation processing, the G color-specific chromaticity component image ICIS-G shown in FIG. The G-color-specific chromaticity component image ICIS-G shown in FIG. 22C is a portion indicated by a broken circle as compared with the G-color-specific chromaticity component image PICISr-G shown in FIG. 22F generated by bilinear interpolation. It can be seen that there is no change, high-frequency aliasing distortion (moire) remains, and the areas other than the broken line ○ (for example, the left side of the drawing) are smooth. For this reason, after the super-resolution processing, the super-resolution image PHIDab shown in FIG. 22D is obtained, and the number that can be discriminated is 615 TV in FIG. 22D, and the original single-eye image while suppressing the jaggedness. The resolution has improved dramatically. In addition, even if the luminance component image data BIS is generated using only the image filter FLb of the second mode, the number that can be discriminated is 613 TV lines in FIG. The resolution is dramatically improved over the image.

なお、上述では、前記論文に開示された超解像処理について概説したが、超解像処理は、この手法に限定されるものではなく、位置ズレ量を用いて相対的に低解像度な複数の画像から相対的に高解像度な1個の超解像画像を生成する再構成型超解像処理を用いることができる。例えば、図23に示す再構成型超解像処理を用いることができる。図23は、実施形態の画像処理装置における第2態様の超解像処理を示すフローチャートである。   In the above description, the super-resolution processing disclosed in the paper has been outlined. However, the super-resolution processing is not limited to this method, and a plurality of relatively low resolutions using a positional shift amount are used. A reconfigurable super-resolution process that generates one super-resolution image having a relatively high resolution from the image can be used. For example, the reconfiguration super-resolution processing shown in FIG. 23 can be used. FIG. 23 is a flowchart illustrating the super-resolution processing of the second aspect in the image processing apparatus of the embodiment.

この超解像処理は、式3によって示される処理であり、式3の右辺第2項は、残差(F (D−Y)であり、式3の右辺第3項は、正則化項Cである。この正則化項Cでは、例えば4近傍ラプラシアンの画像フィルタが用いられる。この4近傍ラプラシアンの画像フィルタは、例えば、1行1列、1行3列、3行1列および3行3列の各位置のフィルタ係数が0であり、1行2列、2行1列、2行3列および3行2列の各位置のフィルタ係数が1であり、そして、2行2列の位置のフィルタ係数が−4である。The super-resolution process is a process to be represented by the formula 3, the second term on the right side of the equation 3, the residual (F k T H k T D k T (D k H k F k X n -Y k) The third term on the right-hand side of Equation 3 is a regularization term C. In this regularization term C, for example, a 4-neighbor Laplacian image filter is used. The filter coefficient at each position of 1st column, 1st row, 3rd column, 3rd row, 1st column and 3rd row and 3rd column is 0, and each position of 1st row, 2nd column, 2nd row, 1st column, 2nd row, 3rd column and 3rd row, 2nd column And the filter coefficient at the position of 2 rows and 2 columns is -4.

Figure 2015083502
Figure 2015083502

なお、λは、正則化項の影響度を調整するパラメータであり、βは、残差およびλ×正則化項の影響度を調整するパラメータであり、これらλ、βは、適宜に設定される。   Note that λ is a parameter for adjusting the degree of influence of the regularization term, β is a parameter for adjusting the degree of influence of the residual and λ × regularization term, and these λ and β are appropriately set. .

この図23に示す再構成型超解像処理では、図16に示す上述の超解像処理と略同様に処理でされ、まず、処理S31では、超解像処理部15に複数の画像およびその劣化情報が記憶部2から読み込まれる。次に、処理S32では、初期画像の出力候補画像Xが生成される。次に、処理S33では、4近傍ラプラシアンの画像フィルタで正則化項が求められる。次に、処理S34では、残差(F (D−Y)が求められる。次に、処理S35では、式3に示すように、上述の処理S33および処理S34それぞれで求めた正則化項および残差を、出力候補画像Xから減算することによって、次の出力候補画像Xn+1が生成される。そして、この出力候補画像Xn+1が処理S32の出力候補画像Xとされ、処理がS32に戻される。そして、このような処理S32ないし処理35の各処理が、出力候補画像Xが通常収束すると考えられる所定回数、例えば、40回繰り返される。処理S32ないし処理S35の各処理を40回繰り返すと、処理S5の超解像処理が終了し、出力候補画像X39が超解像画像Xとされる。The reconstruction-type super-resolution process shown in FIG. 23 is performed in substantially the same manner as the above-described super-resolution process shown in FIG. 16. First, in process S31, a plurality of images and their images are displayed in the super-resolution processing unit 15. The deterioration information is read from the storage unit 2. Then, the processing S32, the output candidate image X 0 of the initial image is generated. Next, in process S33, a regularization term is obtained by an image filter of 4 neighborhood Laplacian. Then, the processing S34, the residual (F k T H k T D k T (D k H k F k X n -Y k) is calculated. Then, the processing S35, as shown in Equation 3, the regularization term and the residual obtained in process S33 and the processing S34, respectively described above, by subtracting from the output candidate image X n, the next output candidate image X n + 1 is generated. Then, the output candidate image X n + 1 Is the output candidate image Xn of the process S32, and the process is returned to S32. Then, each process of the processes S32 to 35 is performed a predetermined number of times that the output candidate image Xn is normally converged, for example, Repeated 40 times When each of the processes S32 to S35 is repeated 40 times, the super-resolution process of process S5 is completed, and the output candidate image X39 is set as the super-resolution image X.

また、上述では、原画像データISは、9眼のアレイカメラ3bbによって取得された9個のデータIS−11〜IS−33であるが、少なくとも1個のカメラ3baで異なる9つの時刻で撮像された9個のデータであっても良い。このような画像処理装置Dは、異なる時刻で撮像された複数の原画像データを得ることができる。   In the above description, the original image data IS is nine pieces of data IS-11 to IS-33 acquired by the nine-lens array camera 3bb. The original image data IS is picked up at nine different times by at least one camera 3ba. Nine data may be sufficient. Such an image processing apparatus D can obtain a plurality of original image data captured at different times.

本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。   The present specification discloses various aspects of the technology as described above, and the main technologies are summarized below.

一態様にかかる画像処理装置は、原画像データをデモザイクすることによって各色成分データを各画素ごとに持つ画像データの少なくとも1色を生成するデモザイク処理部と、複数の原画像データから前記デモザイク処理部によって生成された複数の画像データに基づいて、前記複数の画像データに対応する複数の画像における解像度より高い高解像度な画像の高解像画像データを生成する高解像処理部とを備える。前記原画像データは、2次元アレイ状に配列された複数の画素それぞれに対応する複数のデータであって、互いに異なる複数色の複数の濃度データを所定のパターンで配列した単位配列を、複数、さらに2次元アレイ状に配列した前記複数のデータを備える。前記デモザイク処理部は、前記原画像データを画像フィルタでフィルタリングすることによって輝度成分画像データを生成する輝度成分生成処理部と、前記原画像データから、前記輝度成分生成処理部で生成された輝度成分画像データを、各画素ごとに、減算することによって、色度成分画像データを生成する色度成分生成処理部と、前記色度成分生成処理部で生成された色度成分画像データにおいて、前記複数色ごとに、欠落する画素の色度成分データを、前記単位配列に含まれる同色の個数および前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法で補間することによって、前記複数色ごとの各色別色度成分画像データを生成する色度成分補間処理部と、前記色度成分補間処理部で生成された前記複数色ごとの各色別色度成分画像データそれぞれに、前記輝度成分生成処理部で生成された輝度成分画像データを、各画素ごとに、それぞれ加算することによって、前記画像データを生成する画像生成処理部とを備える。前記画像フィルタは、フィルタリングするデータである対象データに対応する画素の周辺に位置する画素に対応するデータに基づいて、前記対象データを、前記単位配列の色組成比と同じ色組成比を持つデータに変換するフィルタ係数を備える。   An image processing apparatus according to an aspect includes a demosaic processing unit that generates at least one color of image data having each color component data for each pixel by demosaicing original image data, and the demosaic processing unit from a plurality of original image data And a high-resolution processing unit that generates high-resolution image data of a high-resolution image higher than the resolution of a plurality of images corresponding to the plurality of image data based on the plurality of image data generated by. The original image data is a plurality of data corresponding to each of a plurality of pixels arranged in a two-dimensional array, and a plurality of unit arrays in which a plurality of density data of a plurality of different colors are arranged in a predetermined pattern, Furthermore, the plurality of data arranged in a two-dimensional array is provided. The demosaic processing unit includes a luminance component generation processing unit that generates luminance component image data by filtering the original image data with an image filter, and a luminance component generated by the luminance component generation processing unit from the original image data In the chromaticity component generation processing unit that generates chromaticity component image data by subtracting image data for each pixel, and in the chromaticity component image data generated by the chromaticity component generation processing unit, By interpolating the chromaticity component data of the missing pixels for each color by an interpolation method based on the number of the same color included in the unit array and the luminance component image data generated by the luminance component generation processing unit, A chromaticity component interpolation processing unit that generates chromaticity component image data for each color for each of a plurality of colors, and for each of the plurality of colors generated by the chromaticity component interpolation processing unit. An image generation processing unit that generates the image data by adding the luminance component image data generated by the luminance component generation processing unit to each pixel for each color chromaticity component image data. . The image filter is data having the same color composition ratio as the color composition ratio of the unit array based on data corresponding to pixels located around a pixel corresponding to target data that is data to be filtered. Filter coefficients to be converted into

前記ギザギザな線の発生は、上述した発生過程から分かるように、例えば、R成分の濃度データが個眼ごとに離散的に得られ、横方向には一定濃度であるという被写体本来の情報が得られないためである。しかしながら、上記画像処理装置では、前記画像フィルタによって単位配列の色組成比と同じ色組成比を持つデータに原画像データを変換するように前記輝度成分生成処理部によってフィルタリングするので、このフィルタリングで生成された輝度成分画像データにおける全ての画素のデータは、同じ色成分を持つデータとして扱うことができるようになり、全ての画素で適切に比較できる。そして、上記画像処理装置では、デモザイク処理の補間には前記単位配列に含まれる同色の個数および前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法が用いられるので、前記画素間の相互関係を考慮した適切な補間方法の選択が可能となり、この結果、上記画像処理装置は、前記ギザギザな線をより低減できる。   As can be seen from the generation process described above, for example, the generation of the jagged lines is obtained by discretely obtaining R component density data for each eye and obtaining original information on the subject that the density is constant in the horizontal direction. It is because it is not possible. However, in the image processing apparatus, since the original image data is filtered by the image filter so as to convert the original image data into data having the same color composition ratio as that of the unit array, it is generated by this filtering. Data of all pixels in the luminance component image data thus obtained can be handled as data having the same color component, and can be appropriately compared with all pixels. In the image processing apparatus, the interpolation method based on the number of the same color included in the unit array and the luminance component image data generated by the luminance component generation processing unit is used for the interpolation of the demosaic process. Thus, it is possible to select an appropriate interpolation method in consideration of the interrelation between them, and as a result, the image processing apparatus can further reduce the jagged lines.

他の一態様では、上述の画像処理装置において、前記色度成分補間処理部は、前記単位配列に含まれる同色の個数が1つである色の色度成分データを補間する場合には、バイリニア補間法を前記補間方法として用いる。   In another aspect, in the above-described image processing device, the chromaticity component interpolation processing unit bilinearly interpolates chromaticity component data of a color having the same number of colors included in the unit array. An interpolation method is used as the interpolation method.

単位配列に含まれる同色の個数が1つである色の色度成分データをバイリニア補間法で補間しても前記ギザギザな線を生じないので、このような画像処理装置は、比較的情報処理の容易なバイリニア補間法を前記場合に用いることで、前記ギザギザな線をより低減しつつ、簡易に補間処理できる。   Even if the chromaticity component data of the same color included in the unit array is interpolated by the bilinear interpolation method, the jagged line is not generated. By using an easy bilinear interpolation method in the above case, it is possible to easily perform interpolation processing while further reducing the jagged lines.

他の一態様では、これら上述の画像処理装置において、前記色度成分補間処理部は、前記単位配列に含まれる同色の個数が複数である色の色度成分データを補間する場合には、前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法を前記補間方法として用いる。   In another aspect, in the above-described image processing devices, when the chromaticity component interpolation processing unit interpolates chromaticity component data of a color having a plurality of the same colors included in the unit array, An interpolation method based on the luminance component image data generated by the luminance component generation processing unit is used as the interpolation method.

単位配列に含まれる同色の個数が複数である色の色度成分データをバイリニア補間法で補間すると前記ギザギザな線を生じてしまうが、このような画像処理装置は、前記単位配列に含まれる同色の個数が複数である色の色度成分データを前記輝度成分画像データに基づいた補間方法で補間するので、前記ギザギザな線をより適切に低減できる。   Interpolation of chromaticity component data of a plurality of colors of the same color included in the unit array by the bilinear interpolation method generates the jagged lines. Since the chromaticity component data of a plurality of colors is interpolated by an interpolation method based on the luminance component image data, the jagged lines can be reduced more appropriately.

他の一態様では、上述の画像処理装置において、前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法は、前記色度成分データが欠落する画素を注目画素とし、前記色度成分データ上における前記注目画素の第1画素位置に対応する前記輝度成分画像データ上における第2画素位置の第1輝度成分データと、前記第2画素位置の周辺に位置する周辺画素位置の第2輝度成分データとの相関の有無に応じて選択される補間方法である。   In another aspect, in the above-described image processing device, the interpolation method based on the luminance component image data generated by the luminance component generation processing unit uses a pixel lacking the chromaticity component data as a target pixel, and the color First luminance component data at the second pixel position on the luminance component image data corresponding to the first pixel position of the target pixel on the degree component data, and the first of the peripheral pixel positions positioned around the second pixel position. This is an interpolation method selected in accordance with the presence or absence of correlation with the two luminance component data.

このような画像処理装置は、前記単位配列に含まれる同色の個数が複数である色の色度成分データを補間する場合に、前記相関の有無に応じて補間方法を選択するので、より適切な補間方法を選択できる。   Such an image processing apparatus selects an interpolation method according to the presence or absence of the correlation when interpolating chromaticity component data of a plurality of colors of the same color included in the unit array. Interpolation method can be selected.

また、他の一態様では、上述の画像処理装置において、前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法は、前記相関の有る場合には、前記第1画素位置の周辺に位置する周辺画素位置の色度成分データを前記相関の程度に応じた重みで重みを付けて平均する重み付け補間法であり、前記相関の無い場合には、バイリニア補間法である。   According to another aspect, in the above-described image processing apparatus, the interpolation method based on the luminance component image data generated by the luminance component generation processing unit is the first pixel position when there is a correlation. This is a weighted interpolation method in which chromaticity component data at peripheral pixel positions located in the periphery is weighted with a weight corresponding to the degree of correlation and averaged, and when there is no correlation, a bilinear interpolation method is used.

前記単位配列に含まれる同色の個数が複数である色の色度成分データを補間する場合でも、周辺画素と相関関係に無ければ、高解像化に用いる高周波のモアレ成分である可能性が高い。このため、前記補間方法としてバイリニア補間法が選択され、バイリニア補間法でギザギザを残し、これを高解像化で解像力を上げるために用いることができる。一方、周辺画素と相関が有れば、前記補間方法として、その相関に応じた重み付け補間法が選択され、ギザギザを低減できる。したがって、このような画像処理装置は、前記単位配列に含まれる同色の個数が複数である色の色度成分データを補間する場合に、前記ギザギザな線をより適切に低減できる。   Even when interpolating chromaticity component data of a plurality of colors of the same color included in the unit array, if there is no correlation with surrounding pixels, there is a high possibility that it is a high-frequency moire component used for high resolution. . For this reason, the bilinear interpolation method is selected as the interpolation method, and the jaggedness is left by the bilinear interpolation method, which can be used to increase the resolution with high resolution. On the other hand, if there is a correlation with surrounding pixels, a weighted interpolation method corresponding to the correlation is selected as the interpolation method, and jaggedness can be reduced. Therefore, such an image processing apparatus can more appropriately reduce the jagged lines when interpolating chromaticity component data of a plurality of colors having the same color included in the unit array.

他の一態様では、これら上述の画像処理装置において、前記画像フィルタの各フィルタ係数は、中心位置に対し対称である。また、他の一態様では、これら上述の画像処理装置において、前記画像フィルタの各フィルタ係数は、前記画像フィルタ全域に前記単位配列を重ねた場合に、前記単位配列の同じ配列位置におけるフィルタ係数の和が全ての配列位置で同じ値になるように、設定されている。   In another aspect, in each of the above-described image processing apparatuses, each filter coefficient of the image filter is symmetric with respect to a center position. Further, in another aspect, in each of the above-described image processing devices, each filter coefficient of the image filter is a filter coefficient at the same arrangement position of the unit array when the unit array is overlapped over the entire image filter. The sum is set to be the same value at all array positions.

このような画像処理装置は、全ての画素のデータをより同等な色成分を持つデータとして扱うことができるから、前記ギザギザな線を低減できる。   Such an image processing apparatus can handle the data of all the pixels as data having more equivalent color components, and therefore can reduce the jagged lines.

他の一態様では、これら上述の画像処理装置において、前記輝度成分生成処理部は、前記原画像データを複数の画像フィルタそれぞれでフィルタリングすることによって複数の素輝度成分画像データを生成し、前記複数の素輝度成分画像データを所定の合成比で合成することで前記輝度成分画像データを生成し、前記複数の画像フィルタは、サイズが互いに異なるとともに、前記フィルタリングによって高周波成分を除去する除去率が互いに異なる画像フィルタを含む。   In another aspect, in the above-described image processing devices, the luminance component generation processing unit generates a plurality of elementary luminance component image data by filtering the original image data with a plurality of image filters, respectively. The luminance component image data is generated at a predetermined composition ratio to generate the luminance component image data, and the plurality of image filters have different sizes and have a removal rate for removing high frequency components by the filtering. Includes different image filters.

このような画像処理装置は、前記サイズおよび前記除去率の異なる画像フィルタを用いて前記輝度成分画像データを生成するので、画像の鮮鋭度を保持しつつ、前記ギザギザな線の少ない輝度成分画像データを生成できる。   Since such an image processing device generates the luminance component image data using image filters having different sizes and removal rates, the luminance component image data with less jagged lines while maintaining image sharpness. Can be generated.

他の一態様では、これら上述の画像処理装置において、前記複数の原画像データは、3個以上の複数の撮像光学系と、前記複数の撮像光学系に対応し、前記複数の撮像光学系それぞれによって結像された被写体の光学像をそれぞれ撮像する複数の撮像部とを備える3眼以上のアレイカメラで撮像されたデータである。   In another aspect, in the above-described image processing devices, the plurality of original image data correspond to a plurality of three or more imaging optical systems and the plurality of imaging optical systems, and each of the plurality of imaging optical systems. Is an image captured by an array camera having three or more eyes, each of which includes a plurality of imaging units that respectively capture optical images of the subject imaged by the above.

このような画像処理装置は、3眼以上のアレイカメラを用いるので、複数の原画像データを同時に得ることができる。このため、同一の被写体を同時刻で写した複数の画像間で高解像度な画像を生成することになるので、このような画像処理装置は、前記ギザギザな線をより低減できる。   Since such an image processing apparatus uses an array camera with three or more eyes, a plurality of original image data can be obtained simultaneously. For this reason, since a high-resolution image is generated between a plurality of images obtained by copying the same subject at the same time, such an image processing apparatus can further reduce the jagged lines.

他の一態様では、これら上述の画像処理装置において、前記複数の原画像データは、撮像光学系と、前記撮像光学系によって結像された被写体の光学像を撮像する撮像部とを備える少なくとも1個のカメラで異なる時刻で撮像されたデータである。   In another aspect, in the above-described image processing devices, the plurality of original image data includes at least one of an imaging optical system and an imaging unit that captures an optical image of a subject imaged by the imaging optical system. Data captured at different times by a single camera.

このような画像処理装置は、異なる時刻で撮像された複数の原画像データを得ることができる。   Such an image processing apparatus can obtain a plurality of original image data captured at different times.

そして、本発明の他の一態様にかかる画像処理方法は、原画像データをデモザイクすることによって各色成分データを各画素ごとに持つ画像データの少なくとも1色を生成するデモザイク処理工程と、複数の原画像データから前記デモザイク処理工程によって生成された複数の画像データに基づいて、前記複数の画像データに対応する複数の画像における解像度より高い高解像度な画像の高解像画像データを生成する高解像処理工程とを備える。前記原画像データは、2次元アレイ状に配列された複数の画素それぞれに対応する複数のデータであって、互いに異なる複数色の複数の濃度データを所定のパターンで配列した単位配列を、複数、さらに2次元アレイ状に配列した前記複数のデータを備える。前記デモザイク処理工程は、前記原画像データを画像フィルタでフィルタリングすることによって輝度成分画像データを生成する輝度成分生成処理工程と、前記原画像データから、前記輝度成分生成処理工程で生成された輝度成分画像データを、各画素ごとに、減算することによって、色度成分画像データを生成する色度成分生成処理工程と、前記色度成分生成処理工程で生成された色度成分画像データにおいて、前記複数色ごとに、欠落する画素の色度成分データを、前記単位配列に含まれる同色の個数および前記輝度成分生成処理工程で生成された輝度成分画像データに基づいた補間方法で補間することによって、前記複数色ごとの各色別色度成分画像データを生成する色度成分補間処理工程と、前記色度成分補間処理工程で生成された前記複数色ごとの各色別色度成分画像データそれぞれに、前記輝度成分生成処理工程で生成された輝度成分画像データを、各画素ごとに、それぞれ加算することによって、前記画像データを生成する画像生成処理工程とを備える。前記画像フィルタは、フィルタリングするデータである対象データに対応する画素の周辺に位置する画素に対応するデータに基づいて、前記対象データを、前記単位配列の色組成比と同じ色組成比を持つデータに変換するフィルタ係数を備える。   An image processing method according to another aspect of the present invention includes a demosaicing process that generates at least one color of image data having each color component data for each pixel by demosaicing the original image data, and a plurality of original images. High resolution that generates high-resolution image data of a high-resolution image higher than the resolution of a plurality of images corresponding to the plurality of image data based on the plurality of image data generated by the demosaic processing step from the image data A processing step. The original image data is a plurality of data corresponding to each of a plurality of pixels arranged in a two-dimensional array, and a plurality of unit arrays in which a plurality of density data of a plurality of different colors are arranged in a predetermined pattern, Furthermore, the plurality of data arranged in a two-dimensional array is provided. The demosaic processing step includes a luminance component generation processing step for generating luminance component image data by filtering the original image data with an image filter, and a luminance component generated in the luminance component generation processing step from the original image data. In the chromaticity component generation processing step of generating chromaticity component image data by subtracting image data for each pixel, and in the chromaticity component image data generated in the chromaticity component generation processing step, the plurality of By interpolating the chromaticity component data of the missing pixels for each color by an interpolation method based on the number of the same color included in the unit array and the luminance component image data generated in the luminance component generation processing step, The chromaticity component interpolation processing step for generating chromaticity component image data for each color for each of a plurality of colors and the chromaticity component interpolation processing step Image generation for generating the image data by adding the luminance component image data generated in the luminance component generation processing step for each pixel to the chromaticity component image data for each color for each color A processing step. The image filter is data having the same color composition ratio as the color composition ratio of the unit array based on data corresponding to pixels located around a pixel corresponding to target data that is data to be filtered. Filter coefficients to be converted into

そして、他の一態様にかかる画像処理プログラムは、コンピュータに、原画像データをデモザイクすることによって各色成分データを各画素ごとに持つ画像データの少なくとも1色を生成するデモザイク処理部と、複数の原画像データから前記デモザイク処理部によって生成された複数の画像データに基づいて、前記複数の画像データに対応する複数の画像における解像度より高い高解像度な画像の高解像画像データを生成する高解像処理部とを実現させるための画像処理プログラムである。前記原画像データは、2次元アレイ状に配列された複数の画素それぞれに対応する複数のデータであって、互いに異なる複数色の複数の濃度データを所定のパターンで配列した単位配列を、複数、さらに2次元アレイ状に配列した前記複数のデータを備える。前記デモザイク処理部は、前記原画像データを画像フィルタでフィルタリングすることによって輝度成分画像データを生成する輝度成分生成処理部と、前記原画像データから、前記輝度成分生成処理部で生成された輝度成分画像データを、各画素ごとに、減算することによって、色度成分画像データを生成する色度成分生成処理部と、前記色度成分生成処理部で生成された色度成分画像データにおいて、前記複数色ごとに、欠落する画素の色度成分データを、前記単位配列に含まれる同色の個数および前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法で補間することによって、前記複数色ごとの各色別色度成分画像データを生成する色度成分補間処理部と、前記色度成分補間処理部で生成された前記複数色ごとの各色別色度成分画像データそれぞれに、前記輝度成分生成処理部で生成された輝度成分画像データを、各画素ごとに、それぞれ加算することによって、前記画像データを生成する画像生成処理部とを備える。前記画像フィルタは、フィルタリングするデータである対象データに対応する画素の周辺に位置する画素に対応するデータに基づいて、前記対象データを、前記単位配列の色組成比と同じ色組成比を持つデータに変換するフィルタ係数を備える。   An image processing program according to another aspect includes a demosaic processing unit that generates at least one color of image data having each color component data for each pixel by demosaicing the original image data on a computer, and a plurality of original images. High resolution that generates high-resolution image data of a high-resolution image higher than the resolution of a plurality of images corresponding to the plurality of image data based on the plurality of image data generated by the demosaic processing unit from the image data An image processing program for realizing a processing unit. The original image data is a plurality of data corresponding to each of a plurality of pixels arranged in a two-dimensional array, and a plurality of unit arrays in which a plurality of density data of a plurality of different colors are arranged in a predetermined pattern, Furthermore, the plurality of data arranged in a two-dimensional array is provided. The demosaic processing unit includes a luminance component generation processing unit that generates luminance component image data by filtering the original image data with an image filter, and a luminance component generated by the luminance component generation processing unit from the original image data In the chromaticity component generation processing unit that generates chromaticity component image data by subtracting image data for each pixel, and in the chromaticity component image data generated by the chromaticity component generation processing unit, By interpolating the chromaticity component data of the missing pixels for each color by an interpolation method based on the number of the same color included in the unit array and the luminance component image data generated by the luminance component generation processing unit, A chromaticity component interpolation processing unit that generates chromaticity component image data for each color for each of a plurality of colors, and for each of the plurality of colors generated by the chromaticity component interpolation processing unit. An image generation processing unit that generates the image data by adding the luminance component image data generated by the luminance component generation processing unit to each pixel for each color chromaticity component image data. . The image filter is data having the same color composition ratio as the color composition ratio of the unit array based on data corresponding to pixels located around a pixel corresponding to target data that is data to be filtered. Filter coefficients to be converted into

このような画像処理方法および画像処理プログラムでは、デモザイク処理の補間には前記単位配列に含まれる同色の個数および前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法が用いられるので、前記画素間の相互関係を考慮した適切な補間方法の選択が可能となり、この結果、上記像処理方法および画像処理プログラムは、前記ギザギザな線をより低減できる。   In such an image processing method and image processing program, an interpolation method based on the number of the same color included in the unit array and the luminance component image data generated by the luminance component generation processing unit is used for the interpolation of the demosaic processing. Therefore, it is possible to select an appropriate interpolation method in consideration of the mutual relationship between the pixels. As a result, the image processing method and the image processing program can further reduce the jagged lines.

この出願は、2013年12月2日に出願された日本国特許出願特願2013−249608を基礎とするものであり、その内容は、本願に含まれるものである。   This application is based on Japanese Patent Application No. 2013-249608 filed on Dec. 2, 2013, the contents of which are included in the present application.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。   In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Therefore, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. To be construed as inclusive.

本発明によれば、画像を処理する画像処理技術、画像処理方法および画像処理プログラムを提供できる。
According to the present invention, it is possible to provide an image processing technique, an image processing method, and an image processing program for processing an image.

Claims (12)

原画像データをデモザイクすることによって各色成分データを各画素ごとに持つ画像データの少なくとも1色を生成するデモザイク処理部と、
複数の原画像データから前記デモザイク処理部によって生成された複数の画像データに基づいて、前記複数の画像データに対応する複数の画像における解像度より高い高解像度な画像の高解像画像データを生成する高解像処理部とを備え、
前記原画像データは、2次元アレイ状に配列された複数の画素それぞれに対応する複数のデータであって、互いに異なる複数色の複数の濃度データを所定のパターンで配列した単位配列を、複数、さらに2次元アレイ状に配列した前記複数のデータを備え、
前記デモザイク処理部は、
前記原画像データを画像フィルタでフィルタリングすることによって輝度成分画像データを生成する輝度成分生成処理部と、
前記原画像データから、前記輝度成分生成処理部で生成された輝度成分画像データを、各画素ごとに、減算することによって、色度成分画像データを生成する色度成分生成処理部と、
前記色度成分生成処理部で生成された色度成分画像データにおいて、前記複数色ごとに、欠落する画素の色度成分データを、前記単位配列に含まれる同色の個数および前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法で補間することによって、前記複数色ごとの各色別色度成分画像データを生成する色度成分補間処理部と、
前記色度成分補間処理部で生成された前記複数色ごとの各色別色度成分画像データそれぞれに、前記輝度成分生成処理部で生成された輝度成分画像データを、各画素ごとに、それぞれ加算することによって、前記画像データを生成する画像生成処理部とを備え、
前記画像フィルタは、フィルタリングするデータである対象データに対応する画素の周辺に位置する画素に対応するデータに基づいて、前記対象データを、前記単位配列の色組成比と同じ色組成比を持つデータに変換するフィルタ係数を備えること
を特徴とする画像処理装置。
A demosaic processing unit that generates at least one color of image data having each color component data for each pixel by demosaicing the original image data;
Based on a plurality of image data generated by the demosaic processing unit from a plurality of original image data, high resolution image data of a higher resolution image than a resolution of a plurality of images corresponding to the plurality of image data is generated. A high resolution processing unit,
The original image data is a plurality of data corresponding to each of a plurality of pixels arranged in a two-dimensional array, and a plurality of unit arrays in which a plurality of density data of a plurality of different colors are arranged in a predetermined pattern, The data further comprises a plurality of data arranged in a two-dimensional array,
The demosaic processing unit
A luminance component generation processing unit that generates luminance component image data by filtering the original image data with an image filter;
A chromaticity component generation processing unit that generates chromaticity component image data by subtracting the luminance component image data generated by the luminance component generation processing unit from the original image data for each pixel;
In the chromaticity component image data generated by the chromaticity component generation processing unit, for each of the plurality of colors, the chromaticity component data of the missing pixel is set to the number of the same color included in the unit array and the luminance component generation processing unit. A chromaticity component interpolation processing unit that generates chromaticity component image data for each color for each of the plurality of colors by performing interpolation using an interpolation method based on the luminance component image data generated in
The luminance component image data generated by the luminance component generation processing unit is added to each pixel for each of the chromaticity component image data for each color generated by the chromaticity component interpolation processing unit for each pixel. An image generation processing unit for generating the image data,
The image filter is data having the same color composition ratio as the color composition ratio of the unit array based on data corresponding to pixels located around a pixel corresponding to target data that is data to be filtered. An image processing apparatus comprising a filter coefficient for conversion into
前記色度成分補間処理部は、前記単位配列に含まれる同色の個数が1つである色の色度成分データを補間する場合には、バイリニア補間法を前記補間方法として用いること
を特徴とする請求項1に記載の画像処理装置。
The chromaticity component interpolation processing unit uses a bilinear interpolation method as the interpolation method when interpolating chromaticity component data of a color having the same number of colors included in the unit array. The image processing apparatus according to claim 1.
前記色度成分補間処理部は、前記単位配列に含まれる同色の個数が複数である色の色度成分データを補間する場合には、前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法を前記補間方法として用いること
を特徴とする請求項1または請求項2に記載の画像処理装置。
The chromaticity component interpolation processing unit, when interpolating chromaticity component data of a color having a plurality of the same color included in the unit array, adds to the luminance component image data generated by the luminance component generation processing unit. The image processing apparatus according to claim 1, wherein an interpolation method based on the interpolation method is used as the interpolation method.
前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法は、前記色度成分データが欠落する画素を注目画素とし、前記色度成分データ上における前記注目画素の第1画素位置に対応する前記輝度成分画像データ上における第2画素位置の第1輝度成分データと、前記第2画素位置の周辺に位置する周辺画素位置の第2輝度成分データとの相関の有無に応じて選択される補間方法であること
を特徴とする請求項3に記載の画像処理装置。
The interpolation method based on the luminance component image data generated by the luminance component generation processing unit uses a pixel lacking the chromaticity component data as a target pixel, and a first pixel position of the target pixel on the chromaticity component data Is selected according to the presence or absence of correlation between the first luminance component data at the second pixel position on the luminance component image data corresponding to and the second luminance component data at the peripheral pixel position located around the second pixel position. The image processing apparatus according to claim 3, wherein the image processing apparatus is an interpolation method.
前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法は、前記相関の有る場合には、前記第1画素位置の周辺に位置する周辺画素位置の色度成分データを前記相関の程度に応じた重みで重みを付けて平均する重み付け補間法であり、前記相関の無い場合には、バイリニア補間法であること
を特徴とする請求項4に記載の画像処理装置。
In the interpolation method based on the luminance component image data generated by the luminance component generation processing unit, when there is a correlation, the chromaticity component data at the peripheral pixel position located around the first pixel position is correlated with the correlation. The image processing apparatus according to claim 4, wherein a weighting interpolation method that weights and averages with a weight according to a degree of the bilinear interpolation method when there is no correlation.
前記画像フィルタの各フィルタ係数は、中心位置に対し対称であること
を特徴とする請求項1ないし請求項5のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein each filter coefficient of the image filter is symmetric with respect to a center position.
前記画像フィルタの各フィルタ係数は、前記画像フィルタ全域に前記単位配列を重ねた場合に、前記単位配列の同じ配列位置におけるフィルタ係数の和が全ての配列位置で同じ値になるように、設定されていること
を特徴とする請求項1ないし請求項5のいずれか1項に記載の画像処理装置。
Each filter coefficient of the image filter is set so that the sum of the filter coefficients at the same array position of the unit array becomes the same value at all array positions when the unit array is overlapped over the entire image filter. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記輝度成分生成処理部は、前記原画像データを複数の画像フィルタそれぞれでフィルタリングすることによって複数の素輝度成分画像データを生成し、前記複数の素輝度成分画像データを所定の合成比で合成することで前記輝度成分生成画像データを生成し、
前記複数の画像フィルタは、サイズが互いに異なるとともに、前記フィルタリングによって高周波成分を除去する除去率が互いに異なる画像フィルタを含むこと
を特徴とする請求項1ないし請求項7のいずれか1項に記載の画像処理装置。
The luminance component generation processing unit generates a plurality of elementary luminance component image data by filtering the original image data with a plurality of image filters, and synthesizes the plurality of elementary luminance component image data at a predetermined synthesis ratio. To generate the luminance component generation image data,
8. The image filter according to claim 1, wherein the plurality of image filters include image filters having different sizes and different removal rates for removing high-frequency components by the filtering. Image processing device.
前記複数の原画像データは、3個以上の複数の撮像光学系と、前記複数の撮像光学系に対応し、前記複数の撮像光学系それぞれによって結像された被写体の光学像をそれぞれ撮像する複数の撮像部とを備える3眼以上のアレイカメラで撮像されたデータであること
を特徴とする請求項1ないし請求項8のいずれか1項に記載の画像処理装置。
The plurality of original image data corresponds to the plurality of image pickup optical systems of three or more and the plurality of image pickup optical systems, and each of the plurality of image pickup optical systems picks up an optical image of a subject formed by each of the plurality of image pickup optical systems. The image processing apparatus according to any one of claims 1 to 8, wherein the image processing apparatus is data captured by an array camera having three or more eyes.
前記複数の原画像データは、撮像光学系と、前記撮像光学系によって結像された被写体の光学像を撮像する撮像部とを備える少なくとも1個のカメラで異なる時刻で撮像されたデータであること
を特徴とする請求項1ないし請求項8のいずれか1項に記載の画像処理装置。
The plurality of original image data is data captured at different times by at least one camera including an imaging optical system and an imaging unit that captures an optical image of a subject formed by the imaging optical system. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
原画像データをデモザイクすることによって各色成分データを各画素ごとに持つ画像データの少なくとも1色を生成するデモザイク処理工程と、
複数の原画像データから前記デモザイク処理工程によって生成された複数の画像データに基づいて、前記複数の画像データに対応する複数の画像における解像度より高い高解像度な画像の高解像画像データを生成する高解像処理工程とを備え、
前記原画像データは、2次元アレイ状に配列された複数の画素それぞれに対応する複数のデータであって、互いに異なる複数色の複数の濃度データを所定のパターンで配列した単位配列を、複数、さらに2次元アレイ状に配列した前記複数のデータを備え、
前記デモザイク処理工程は、
前記原画像データを画像フィルタでフィルタリングすることによって輝度成分画像データを生成する輝度成分生成処理工程と、
前記原画像データから、前記輝度成分生成処理工程で生成された輝度成分画像データを、各画素ごとに、減算することによって、色度成分画像データを生成する色度成分生成処理工程と、
前記色度成分生成処理工程で生成された色度成分画像データにおいて、前記複数色ごとに、欠落する画素の色度成分データを、前記単位配列に含まれる同色の個数および前記輝度成分生成処理工程で生成された輝度成分画像データに基づいた補間方法で補間することによって、前記複数色ごとの各色別色度成分画像データを生成する色度成分補間処理工程と、
前記色度成分補間処理工程で生成された前記複数色ごとの各色別色度成分画像データそれぞれに、前記輝度成分生成処理工程で生成された輝度成分画像データを、各画素ごとに、それぞれ加算することによって、前記画像データを生成する画像生成処理工程とを備え、
前記画像フィルタは、フィルタリングするデータである対象データに対応する画素の周辺に位置する画素に対応するデータに基づいて、前記対象データを、前記単位配列の色組成比と同じ色組成比を持つデータに変換するフィルタ係数を備えること
を特徴とする画像処理方法。
Demosaicing process for generating at least one color of image data having each color component data for each pixel by demosaicing the original image data;
Based on a plurality of image data generated by the demosaic processing step from a plurality of original image data, high resolution image data of a high resolution image higher than the resolution of a plurality of images corresponding to the plurality of image data is generated. A high-resolution processing step,
The original image data is a plurality of data corresponding to each of a plurality of pixels arranged in a two-dimensional array, and a plurality of unit arrays in which a plurality of density data of a plurality of different colors are arranged in a predetermined pattern, The data further comprises a plurality of data arranged in a two-dimensional array,
The demosaicing process includes
A luminance component generation processing step of generating luminance component image data by filtering the original image data with an image filter;
A chromaticity component generation processing step of generating chromaticity component image data by subtracting the luminance component image data generated in the luminance component generation processing step from the original image data for each pixel;
In the chromaticity component image data generated in the chromaticity component generation processing step, for each of the plurality of colors, the chromaticity component data of the missing pixel, the number of the same color included in the unit array, and the luminance component generation processing step A chromaticity component interpolation processing step of generating chromaticity component image data for each color for each of the plurality of colors by interpolating with an interpolation method based on the luminance component image data generated in
The luminance component image data generated in the luminance component generation processing step is added to each pixel for each of the plurality of colors generated in the chromaticity component interpolation processing step for each pixel. And an image generation processing step for generating the image data.
The image filter is data having the same color composition ratio as the color composition ratio of the unit array based on data corresponding to pixels located around a pixel corresponding to target data that is data to be filtered. An image processing method comprising: a filter coefficient to be converted into
コンピュータに、原画像データをデモザイクすることによって各色成分データを各画素ごとに持つ画像データの少なくとも1色を生成するデモザイク処理部と、複数の原画像データから前記デモザイク処理部によって生成された複数の画像データに基づいて、前記複数の画像データに対応する複数の画像における解像度より高い高解像度な画像の高解像画像データを生成する高解像処理部とを実現させるための画像処理プログラムであって、
前記原画像データは、2次元アレイ状に配列された複数の画素それぞれに対応する複数のデータであって、互いに異なる複数色の複数の濃度データを所定のパターンで配列した単位配列を、複数、さらに2次元アレイ状に配列した前記複数のデータを備え、
前記デモザイク処理部は、
前記原画像データを画像フィルタでフィルタリングすることによって輝度成分画像データを生成する輝度成分生成処理部と、
前記原画像データから、前記輝度成分生成処理部で生成された輝度成分画像データを、各画素ごとに、減算することによって、色度成分画像データを生成する色度成分生成処理部と、
前記色度成分生成処理部で生成された色度成分画像データにおいて、前記複数色ごとに、欠落する画素の色度成分データを、前記単位配列に含まれる同色の個数および前記輝度成分生成処理部で生成された輝度成分画像データに基づいた補間方法で補間することによって、前記複数色ごとの各色別色度成分画像データを生成する色度成分補間処理部と、
前記色度成分補間処理部で生成された前記複数色ごとの各色別色度成分画像データそれぞれに、前記輝度成分生成処理部で生成された輝度成分画像データを、各画素ごとに、それぞれ加算することによって、前記画像データを生成する画像生成処理部とを備え、
前記画像フィルタは、フィルタリングするデータである対象データに対応する画素の周辺に位置する画素に対応するデータに基づいて、前記対象データを、前記単位配列の色組成比と同じ色組成比を持つデータに変換するフィルタ係数を備えること
を特徴とする画像処理プログラム。
A demosaic processing unit that generates at least one color of image data having each color component data for each pixel by demosaicing the original image data on a computer, and a plurality of demosaic processing units generated from the plurality of original image data by the demosaic processing unit An image processing program for realizing, based on image data, a high-resolution processing unit that generates high-resolution image data of a high-resolution image higher than the resolution of a plurality of images corresponding to the plurality of image data. And
The original image data is a plurality of data corresponding to each of a plurality of pixels arranged in a two-dimensional array, and a plurality of unit arrays in which a plurality of density data of a plurality of different colors are arranged in a predetermined pattern, The data further comprises a plurality of data arranged in a two-dimensional array,
The demosaic processing unit
A luminance component generation processing unit that generates luminance component image data by filtering the original image data with an image filter;
A chromaticity component generation processing unit that generates chromaticity component image data by subtracting the luminance component image data generated by the luminance component generation processing unit from the original image data for each pixel;
In the chromaticity component image data generated by the chromaticity component generation processing unit, for each of the plurality of colors, the chromaticity component data of the missing pixel is set to the number of the same color included in the unit array and the luminance component generation processing unit. A chromaticity component interpolation processing unit that generates chromaticity component image data for each color for each of the plurality of colors by performing interpolation using an interpolation method based on the luminance component image data generated in
The luminance component image data generated by the luminance component generation processing unit is added to each pixel for each of the chromaticity component image data for each color generated by the chromaticity component interpolation processing unit for each pixel. An image generation processing unit for generating the image data,
The image filter is data having the same color composition ratio as the color composition ratio of the unit array based on data corresponding to pixels located around a pixel corresponding to target data that is data to be filtered. An image processing program comprising a filter coefficient to be converted into
JP2015551441A 2013-12-02 2014-11-10 Image processing apparatus, method, and program Pending JPWO2015083502A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013249608 2013-12-02
JP2013249608 2013-12-02
PCT/JP2014/079771 WO2015083502A1 (en) 2013-12-02 2014-11-10 Image processing device, method and program

Publications (1)

Publication Number Publication Date
JPWO2015083502A1 true JPWO2015083502A1 (en) 2017-03-16

Family

ID=53273273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015551441A Pending JPWO2015083502A1 (en) 2013-12-02 2014-11-10 Image processing apparatus, method, and program

Country Status (2)

Country Link
JP (1) JPWO2015083502A1 (en)
WO (1) WO2015083502A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3044449B1 (en) * 2015-12-01 2017-11-24 E2V Semiconductors METHOD FOR PROCESSING SIGNALS FROM A COLOR IMAGE TAKING ARRAY, AND CORRESPONDING SENSOR
EP3462724A1 (en) * 2017-09-29 2019-04-03 Thomson Licensing Reduced optical crosstalk plenoptic imaging device, corresponding method, computer program product, computer-readable carrier medium and apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064193A (en) * 2007-09-05 2009-03-26 Toshiba Corp Resolution converter and method
JP2012191465A (en) * 2011-03-11 2012-10-04 Sony Corp Image processing apparatus, image processing method, and program
JP2012208553A (en) * 2011-03-29 2012-10-25 Sony Corp Image processing device, image processing method, and program
WO2013008517A1 (en) * 2011-07-08 2013-01-17 オリンパス株式会社 Image pickup apparatus and image generating method

Also Published As

Publication number Publication date
WO2015083502A1 (en) 2015-06-11

Similar Documents

Publication Publication Date Title
JP5451782B2 (en) Image processing apparatus and image processing method
US9509978B2 (en) Image processing method, image processing apparatus, image-capturing apparatus, and image processing program
JP5128207B2 (en) Image processing apparatus, image processing method, and image processing program
KR101356286B1 (en) Image processing device, image processing method, program, and imaging device
US9338364B2 (en) Imaging device and image generation method
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
CN111510691B (en) Color interpolation method and device, equipment and storage medium
US8520099B2 (en) Imaging apparatus, integrated circuit, and image processing method
WO2011148760A1 (en) Image processing device, image capturing device, program and image processing method
WO2006048962A1 (en) Pixel signal processor and pixel signal processing method
KR20180118790A (en) Image processing apparatus, image processing method, recording medium, program and image capturing apparatus
JP5709131B2 (en) Image processing system
JP2010034964A (en) Image composition apparatus, image composition method and image composition program
JP2013017142A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4649171B2 (en) Magnification Chromatic Aberration Correction Device, Magnification Chromatic Aberration Correction Method, and Magnification Chromatic Aberration Correction Program
JP2013055623A (en) Image processing apparatus, image processing method, information recording medium, and program
JP2014042176A (en) Image processing device and method, program and solid image pickup device
WO2015083502A1 (en) Image processing device, method and program
JP6274744B2 (en) Image processing apparatus and image processing method
WO2015083499A1 (en) Image processing device, method and program
JP5036524B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP7183015B2 (en) Image processing device, image processing method, and program
JP3711402B2 (en) Imaging apparatus and color imaging signal processing method
JP2012142676A (en) Imaging device and image generation method
JP2013055622A (en) Image processing apparatus, image processing method, information recording medium, and program