JP2006135744A - Image processing apparatus, image processing method, and computer program - Google Patents

Image processing apparatus, image processing method, and computer program Download PDF

Info

Publication number
JP2006135744A
JP2006135744A JP2004323591A JP2004323591A JP2006135744A JP 2006135744 A JP2006135744 A JP 2006135744A JP 2004323591 A JP2004323591 A JP 2004323591A JP 2004323591 A JP2004323591 A JP 2004323591A JP 2006135744 A JP2006135744 A JP 2006135744A
Authority
JP
Japan
Prior art keywords
pixel
image
false
processing
whiteout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004323591A
Other languages
Japanese (ja)
Other versions
JP4539299B2 (en
Inventor
Tomotsune Masuno
智経 増野
Mitsuharu Oki
光晴 大木
Rui Yamada
類 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004323591A priority Critical patent/JP4539299B2/en
Publication of JP2006135744A publication Critical patent/JP2006135744A/en
Application granted granted Critical
Publication of JP4539299B2 publication Critical patent/JP4539299B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and method for realizing correction of a false color in real time by carrying out parameter calculation adopting a reduced image in the correction processing of the false color such as a purple fringe. <P>SOLUTION: The image processing apparatus calculates a degree of false color corresponding to pixels and executes saturation reduction processing of each pixel on the basis of the calculated degree of the false color. The image processing apparatus generates the reduced image in calculation processing of a degree of the false color as a correction parameter, and executes white jump detection processing on the basis of the reduced image. Through the configuration above, the reduction in the computation amount and the reduction in the processing time is realized. Since the image processing apparatus adopts a configuration wherein a degree of purple color applied to the calculation of the degree of the false color is acquired on the basis of a present frame (n) and a degree of white jump is acquired on the basis of a preceding frame (n-1), the image processing apparatus prevents a delay in the processing time, realizes the correction of moving picture data entered at a prescribed frame in real time, and also realizes high speed production of image data with high quality by the saturation reduction processing and a blurring processing applied to the false color such as the purple fringe. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。さらに詳細には、例えばレンズの収差による偽色の発生した画像データを補正し、高品質な画像データを生成する画像処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a computer program. More specifically, the present invention relates to an image processing apparatus, an image processing method, and a computer program that correct image data in which false color due to lens aberration occurs and generate high-quality image data.

カメラで画像撮影を行なう際には、レンズの収差によりさまざまな問題が引き起こされる。特に、倍率の高いレンズや、製造コストの安いレンズを使用してカメラ撮影を行う際に、その撮影した画像に、レンズの収差を起因とした偽色が生じる場合がある。この偽色の中でも、輝度差が著しく大きいようなシーン(例えば木漏れ日)を撮影した際に、低輝度部分のエッジ付近に、紫色の非常に彩度の強い偽色が生じることがある。これはパープルフリンジ(PF)と呼ばれていて、画質に悪影響をおよぼしている。   When photographing images with a camera, various problems are caused by the aberration of the lens. In particular, when a camera is photographed using a lens with a high magnification or a lens with low manufacturing cost, a false color due to the aberration of the lens may occur in the photographed image. Among these false colors, when shooting a scene where the brightness difference is extremely large (for example, a sunlight through a tree), a purple false color with very high saturation may occur near the edge of the low brightness portion. This is called purple fringe (PF) and has an adverse effect on image quality.

これは、光の波長により点像分布が異なっているために、画像中のエッジ部分に偽色が発生する現象である。通常の画素ではそれほど目立たない場合でも、輝度レベルにおける飽和状態としての白とびが起こっているハイコントラストのエッジ部分があれば、その周辺に紫色の偽色が発生し、不自然な像が結像されてしまう。一般に、白とびの近傍に発生する偽色は紫系の色が多く発生するためパープルフリンジと呼ばれる。ただし、レンズ、撮影条件などに応じて、偽色の色は緑がかった色となる場合など様々である。以下、パープルフリンジとは、発生する色に関わらず白とびが起こっているハイコントラストのエッジ部分における偽色発生現象を指すものとする。   This is a phenomenon in which a false color is generated at an edge portion in an image because the point image distribution differs depending on the wavelength of light. Even if it is not so conspicuous with normal pixels, if there is a high-contrast edge part where whiteout occurs as a saturated state at the luminance level, a purple false color occurs around it and an unnatural image is formed Will be. In general, false colors that occur in the vicinity of whiteout are called purple fringes because many purple colors are generated. However, the false color varies depending on the lens, shooting conditions, and the like, such as when the color becomes greenish. Hereinafter, the purple fringe refers to a false color generation phenomenon at an edge portion of high contrast where whiteout occurs regardless of the generated color.

色収差を軽減するための技術としては、蛍石など特殊な素材で出来たガラスを用いたレンズを適用する構成がある。しかし、このようなレンズを製造するのはコストがかるため価格も高く、レンズ交換式のカメラ用など一部の高級なカメラで用いられているが、一般に広く普及しているとは言えない。   As a technique for reducing chromatic aberration, there is a configuration in which a lens using glass made of a special material such as fluorite is applied. However, manufacturing such a lens is expensive and expensive, and is used in some high-end cameras such as interchangeable lens cameras. However, it cannot be said that it is generally widely used.

また、特許文献1には、色収差によって発生する偽色を画像処理により軽減する方法が示されている。これは、緑チャンネルの高周波成分が高い部分に関して、色を抑制、つまり彩度を低下させる処理を行うものである。また、白とびが起こっている場合の対策として、露出を変えて2枚の画像を撮像し白とび部分の本来の輝度を推定し、彩度を低下させる処理を行う構成を開示している。   Patent Document 1 discloses a method for reducing false colors caused by chromatic aberration by image processing. This is a process for suppressing the color, that is, reducing the saturation, in a portion where the high frequency component of the green channel is high. Also, as a countermeasure against overexposure, a configuration is disclosed in which two images are captured with different exposures, the original brightness of the overexposed portion is estimated, and the saturation is reduced.

しかし、特許文献1に記載の処理では、白とび部分の輝度の推定結果からどの程度彩度を落とせるか判定しているため、仮に推定が間違ってしまった場合、本来の被写体の色が過度に落ちてしまう可能性があり、その結果、不自然な結果画像を生じる場合がある。また、白とび部分の輝度推定のために露出を変えて2回撮影を行う必要があり、手ぶれや被写体ぶれなどが起こった場合、正しい結果を得ることは困難になるという問題がある。さらに、露出を変えて撮影しなければならないので、ビデオカメラなどで動画撮影を行う場合、この方法は適用できないという問題がある。
特開2003−60983号公報
However, in the process described in Patent Document 1, since it is determined how much saturation can be reduced from the estimation result of the brightness of the overexposed portion, if the estimation is wrong, the color of the original subject is excessive. May fall, resulting in an unnatural result image. In addition, it is necessary to change the exposure for photographing twice in order to estimate the brightness of the overexposed portion, and there is a problem that it is difficult to obtain a correct result when camera shake or subject shake occurs. Furthermore, since it is necessary to shoot while changing the exposure, there is a problem that this method cannot be applied when taking a moving picture with a video camera or the like.
JP 2003-60983 A

本発明は、上述の問題点に鑑みてなされたものであり、ビデオカメラなどで撮影された動画像に対する効率的な画像補正処理を可能としたものであり、撮像手段から入力される一定のフレームレートの画像データに対してリアルタイムの画像処理を施してメモリに格納、あるいは出力する処理を実行する画像処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and enables efficient image correction processing on a moving image shot by a video camera or the like, and is a fixed frame input from an imaging unit. An object of the present invention is to provide an image processing apparatus, an image processing method, and a computer program for executing processing for performing real-time image processing on rate image data and storing or outputting the data in a memory.

本発明は、具体的には、白とび周辺に発生するパープルフリンジ等の偽色に注目し、この偽色領域を効率的に検出し、偽色に対する補正を中心とした画像処理を実行することにより、高品質な画像データを生成することを可能とした画像処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。   Specifically, the present invention pays attention to false colors such as purple fringes that occur in the vicinity of overexposure, efficiently detects the false color area, and executes image processing centering on correction for the false color. An object of the present invention is to provide an image processing apparatus, an image processing method, and a computer program that can generate high-quality image data.

本発明は、特に、画像データの構成画素から選択された注目画素について、偽色である可能性を示すパラメータとしての偽色度合いを算出し、偽色度合いに基づく彩度削減処理により、高品質な画像データを生成することを可能とした画像処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。   In particular, the present invention calculates a false color degree as a parameter indicating the possibility of a false color for a target pixel selected from constituent pixels of image data, and achieves high quality by performing a saturation reduction process based on the false color degree. An object of the present invention is to provide an image processing apparatus, an image processing method, and a computer program that can generate various image data.

本発明は、さらに、偽色である可能性を示すパラメータとしての偽色度合いを算出する際に、画像データの縮小処理を実行し、縮小画像データに基づいて、飽和レベルの高輝度画素としての白とび画素の検出を実行し、白とび検出データを用いて偽色度合いを算出する構成とすることで、パラメータ算出時の計算量を削減し、効率的な画素補正を可能とした画像処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。   The present invention further performs image data reduction processing when calculating the false color degree as a parameter indicating the possibility of false color, and based on the reduced image data, An image processing device that performs the detection of overexposed pixels and calculates the false color degree using overexposed detection data, thereby reducing the amount of calculation at the time of parameter calculation and enabling efficient pixel correction And an image processing method and a computer program.

本発明の第1の側面は、
画像処理装置であり、
処理画像の構成画素の補正パラメータとして、画素の偽色に対する類似性情報である画素対応の偽色度を算出する補正パラメータ算出部と、
前記偽色度を適用して、処理画像の構成画素の彩度削減処理を含む画素値補正処理を実行する補正処理部とを有し、
前記補正パラメータ算出部は、
処理画像に基づく縮小画像データを生成する縮小画像生成部と、
前記縮小画像生成部の生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行する白とび検出部とを有し、
前記白とび検出部の縮小画像に基づく白とび検出情報を適用して各画素に対応する偽色度を算出する構成であることを特徴とする画像処理装置にある。
The first aspect of the present invention is:
An image processing device,
A correction parameter calculation unit that calculates a false chromaticity corresponding to a pixel, which is similarity information with respect to a false color of a pixel, as a correction parameter of a constituent pixel of a processed image;
A correction processing unit that applies the false chromaticity and executes a pixel value correction process including a saturation reduction process of the constituent pixels of the processed image;
The correction parameter calculation unit
A reduced image generation unit that generates reduced image data based on the processed image;
A whiteout detection unit that performs whiteout pixel detection as high-intensity pixels based on the reduced image data generated by the reduced image generation unit;
An image processing apparatus is characterized in that it is configured to apply a whiteout detection information based on a reduced image of the whiteout detection unit to calculate a false chromaticity corresponding to each pixel.

さらに、本発明の画像処理装置の一実施態様において、前記補正パラメータ算出部は、処理画像から選択された注目画素についての、注目画素の色相と偽色の色相との類似性情報としての紫度を算出する紫度計算部と、注目画素の白とび画素からの距離情報としての白とび度を算出する白とび度計算部と、前記紫度および白とび度とに基づいて注目画素の偽色度を算出する偽色度算出部とを有する構成であることを特徴とする。   Furthermore, in an embodiment of the image processing apparatus of the present invention, the correction parameter calculation unit includes a purpleness as similarity information between the hue of the target pixel and the false color hue for the target pixel selected from the processed image. A purpleness calculation unit for calculating the whiteness degree, a whiteness degree calculation unit for calculating a whiteness degree as distance information from the whiteout pixel of the target pixel, and a false color of the target pixel based on the purpleness and whiteout degree And a false chromaticity calculating unit for calculating the degree.

さらに、本発明の画像処理装置の一実施態様において、前記白とび検出部は、前記縮小画像生成部の生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行し、縮小画像における構成画素が白とび画素であるか否かを示すフラグ情報を持つ縮小白とび検出マップを生成しメモリに格納する構成であり、前記補正パラメータ算出部は、前記メモリに格納された縮小白とび検出マップの拡大処理を実行する白とびマップ拡大部を有し、前記白とび度計算部は、前記白とびマップ拡大部の拡大したマップに基づいて前記白とび度を算出する構成であることを特徴とする。   Furthermore, in an embodiment of the image processing apparatus of the present invention, the overexposure detection unit performs overextraction pixel detection as a high-intensity pixel based on the reduced image data generated by the reduced image generation unit, and A reduced white skip detection map having flag information indicating whether or not a constituent pixel is a white skip pixel is generated and stored in a memory, and the correction parameter calculation unit detects the reduced white skip detection stored in the memory. A whiteout map enlargement unit that executes map enlargement processing, wherein the whiteout degree calculation unit is configured to calculate the whiteout degree based on an enlarged map of the whiteout map enlargement unit; And

さらに、本発明の画像処理装置の一実施態様において、前記白とび度計算部は、前記紫度計算部の処理対象画像フレームの前フレームに対する白とび検出処理の結果データとしてメモリに格納された白とび検出マップに基づいて白とび度を算出する構成であり、前記偽色度算出部は、フレームnの画像データに基づいて算出された紫度、およびフレームn−1の画像データに基づいて算出された白とび度とに基づいて注目画素の偽色度を算出する構成であることを特徴とする。   Furthermore, in an embodiment of the image processing apparatus of the present invention, the whiteout degree calculation unit includes a whiteness stored in a memory as result data of a whiteout detection process for a previous frame of a processing target image frame of the purpleness calculation unit. The degree of whiteout is calculated based on a skip detection map, and the false chromaticity calculation unit calculates based on the purpleness calculated based on the image data of frame n and the image data of frame n-1. It is characterized in that the false chromaticity of the target pixel is calculated based on the whiteout degree.

さらに、本発明の画像処理装置の一実施態様において、前記補正パラメータ算出部は、
(a)入力画像データに基づく縮小画像の生成および白とび検出処理、
(b)入力画像データに基づく紫度の計算処理、
(c)メモリに格納された前フレームの画像に基づく縮小白とび検出マップの拡大処理および該拡大結果としてのマップに基づく白とび度計算処理、
上記(a),(b),(c)の各処理を並列に実行する構成であることを特徴とする。
Furthermore, in one embodiment of the image processing apparatus of the present invention, the correction parameter calculation unit includes:
(A) Generation of reduced image based on input image data and overexposure detection processing;
(B) Purpleness calculation processing based on input image data;
(C) enlargement processing of a reduced whiteout detection map based on the image of the previous frame stored in the memory, and whiteout degree calculation processing based on the map as a result of the enlargement,
The above-described processes (a), (b), and (c) are executed in parallel.

さらに、本発明の画像処理装置の一実施態様において、前記補正処理部は、前記補正パラメータ算出部の算出する偽色度に基づいて各画素の彩度削減処理を実行する画素彩度削減処理部と、画素彩度削減処理部の出力データに対して、彩度削減処理を施した画素と周囲画素の色相の差分を減少させるぼかし処理を実行するぼかし処理部を有する構成であることを特徴とする。   Furthermore, in an embodiment of the image processing apparatus of the present invention, the correction processing unit performs a pixel saturation reduction processing unit that executes a saturation reduction process for each pixel based on the false chromaticity calculated by the correction parameter calculation unit. And a blur processing unit that executes a blur process for reducing a difference in hue between a pixel subjected to the chroma reduction process and a surrounding pixel with respect to output data of the pixel saturation reduction process unit, To do.

さらに、本発明の画像処理装置の一実施態様において、前記偽色はパープルフリンジであり、前記補正パラメータ算出部は、処理画像の構成画素の補正パラメータとして、画素のパープルフリンジに対する類似性情報である画素対応の偽色度を算出する構成であることを特徴とする。   Furthermore, in one embodiment of the image processing apparatus of the present invention, the false color is a purple fringe, and the correction parameter calculation unit is similarity information of the pixel to the purple fringe as a correction parameter of a constituent pixel of the processed image. A feature is that the false chromaticity corresponding to a pixel is calculated.

さらに、本発明の第2の側面は、
画像処理方法であり、
処理画像の構成画素の補正パラメータとして、画素の偽色に対する類似性情報である画素対応の偽色度を算出する補正パラメータ算出ステップと、
前記偽色度を適用して、処理画像の構成画素の彩度削減処理を含む画素値補正処理を実行する補正処理ステップとを有し、
前記補正パラメータ算出ステップは、
処理画像に基づく縮小画像データを生成する縮小画像生成ステップと、
前記縮小画像生成ステップにおいて生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行する白とび検出ステップと、
前記白とび検出ステップにおいて生成した縮小画像に基づく白とび検出情報を適用して各画素に対応する偽色度を算出する偽色度算出ステップと、
を有することを特徴とする画像処理方法にある。
Furthermore, the second aspect of the present invention provides
An image processing method,
A correction parameter calculating step for calculating a false chromaticity corresponding to a pixel, which is similarity information with respect to a false color of a pixel, as a correction parameter of a constituent pixel of a processed image;
A correction process step of applying a false chromaticity and executing a pixel value correction process including a saturation reduction process of the constituent pixels of the processed image,
The correction parameter calculation step includes:
A reduced image generation step for generating reduced image data based on the processed image;
An overexposure detecting step for detecting overexposed pixels as high luminance pixels based on the reduced image data generated in the reduced image generation step;
A false chromaticity calculating step of calculating false chromaticity corresponding to each pixel by applying whiteout detection information based on the reduced image generated in the whiteout detection step;
An image processing method characterized by comprising:

さらに、本発明の画像処理方法の一実施態様において、前記補正パラメータ算出ステップは、処理画像から選択された注目画素の色相と偽色の色相との類似性情報としての紫度を算出する紫度計算ステップと、注目画素の白とび画素からの距離情報としての白とび度を算出する白とび度計算ステップと、前記紫度および白とび度とに基づいて注目画素の偽色度を算出する偽色度算出ステップとを有することを特徴とする。   Furthermore, in one embodiment of the image processing method of the present invention, the correction parameter calculating step calculates a purpleness as a similarity information between a hue of a target pixel selected from the processed image and a hue of a false color. A calculation step, a whiteness calculation step for calculating a whiteness degree as distance information from the whiteout pixel of the target pixel, and a false for calculating a false chromaticity of the target pixel based on the purpleness and the whiteness degree And a chromaticity calculation step.

さらに、本発明の画像処理方法の一実施態様において、前記白とび検出ステップは、前記縮小画像生成ステップにおいて生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行し、縮小画像における構成画素が白とび画素であるか否かを示すフラグ情報を持つ縮小白とび検出マップを生成しメモリに格納する処理を実行するステップであり、前記補正パラメータ算出ステップは、さらに、前記メモリに格納された縮小白とび検出マップの拡大処理を実行する白とびマップ拡大ステップを有し、前記白とび度計算ステップは、前記白とびマップ拡大ステップの拡大したマップに基づいて前記白とび度を算出するステップであることを特徴とする。   Furthermore, in an embodiment of the image processing method of the present invention, the overexposure detection step performs overextraction pixel detection as a high luminance pixel based on the reduced image data generated in the reduced image generation step, and This is a step of executing a process of generating a reduced whiteout detection map having flag information indicating whether or not a constituent pixel is a whiteout pixel and storing it in a memory, and the correction parameter calculating step is further stored in the memory. A whiteout map enlargement step for executing the enlarged process of the reduced whiteout detection map, wherein the whiteout degree calculation step calculates the whiteout degree based on the enlarged map of the whiteout map enlargement step. It is a step.

さらに、本発明の画像処理方法の一実施態様において、前記白とび度計算ステップは、前記紫度計算ステップにおける処理対象画像フレームの前フレームに対する白とび検出処理の結果データとしてメモリに格納された白とび検出マップに基づいて白とび度を算出するステップであり、前記偽色度算出ステップは、フレームnの画像データに基づいて算出された紫度、およびフレームn−1の画像データに基づいて算出された白とび度とに基づいて注目画素の偽色度を算出するステップであることを特徴とする。   Furthermore, in one embodiment of the image processing method of the present invention, the whiteout degree calculating step includes a whiteout stored in a memory as result data of a whiteout detection process for a previous frame of the processing target image frame in the purple degree calculating step. A step of calculating a whiteout degree based on a jump detection map, wherein the false chromaticity calculating step is calculated based on a purpleness calculated based on the image data of the frame n and the image data of the frame n−1. In this step, the false chromaticity of the target pixel is calculated based on the whiteout degree.

さらに、本発明の画像処理方法の一実施態様において、前記補正パラメータ算出ステップは、
(a)入力画像データに基づく縮小画像の生成および白とび検出処理、
(b)入力画像データに基づく紫度の計算処理、
(c)メモリに格納された前フレームの画像に基づく縮小白とび検出マップの拡大処理および該拡大結果としてのマップに基づく白とび度計算処理、
上記(a),(b),(c)の各処理を並列に実行することを特徴とする。
Furthermore, in one embodiment of the image processing method of the present invention, the correction parameter calculation step includes:
(A) Generation of reduced image based on input image data and overexposure detection processing;
(B) Purpleness calculation processing based on input image data;
(C) enlargement processing of a reduced whiteout detection map based on the image of the previous frame stored in the memory, and whiteout degree calculation processing based on the map as a result of the enlargement,
The processes (a), (b), and (c) are executed in parallel.

さらに、本発明の画像処理方法の一実施態様において、前記補正処理ステップは、前記補正パラメータ算出ステップにおいて算出する偽色度に基づいて各画素の彩度削減処理を実行する画素彩度削減処理ステップと、画素彩度削減処理ステップにおける処理結果としての出力データに対して、彩度削減処理を施した画素と周囲画素の色相の差分を減少させるぼかし処理を実行するぼかし処理ステップとを有することを特徴とする。   Furthermore, in an embodiment of the image processing method of the present invention, the correction processing step includes a pixel saturation reduction processing step for executing saturation reduction processing of each pixel based on the false chromaticity calculated in the correction parameter calculation step. And a blurring process step for performing a blurring process for reducing the difference in hue between the pixel subjected to the chroma reduction process and the surrounding pixels with respect to the output data as a processing result in the pixel saturation reduction process step. Features.

さらに、本発明の画像処理方法の一実施態様において、前記偽色はパープルフリンジであり、前記補正パラメータ算出ステップは、処理画像の構成画素の補正パラメータとして、画素のパープルフリンジに対する類似性情報である画素対応の偽色度を算出するステップであることを特徴とする。   Furthermore, in an embodiment of the image processing method of the present invention, the false color is a purple fringe, and the correction parameter calculation step is similarity information of the pixel to the purple fringe as a correction parameter of a constituent pixel of the processed image. It is a step of calculating a false chromaticity corresponding to a pixel.

さらに、本発明の第3の側面は、
画像処理をコンピュータ上において実行させるコンピュータ・プログラムであり、
処理画像の構成画素の補正パラメータとして、画素の偽色に対する類似性情報である画素対応の偽色度を算出する補正パラメータ算出ステップと、
前記偽色度を適用して、処理画像の構成画素の彩度削減処理を含む画素値補正処理を実行する補正処理ステップとを有し、
前記補正パラメータ算出ステップは、
処理画像に基づく縮小画像データを生成する縮小画像生成ステップと、
前記縮小画像生成ステップにおいて生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行する白とび検出ステップと、
前記白とび検出ステップにおいて生成した縮小画像に基づく白とび検出情報を適用して各画素に対応する偽色度を算出する偽色度算出ステップと、
を有することを特徴とするコンピュータ・プログラムにある。
Furthermore, the third aspect of the present invention provides
A computer program for executing image processing on a computer;
A correction parameter calculating step for calculating a false chromaticity corresponding to a pixel, which is similarity information with respect to a false color of a pixel, as a correction parameter of a constituent pixel of a processed image;
A correction process step of applying a false chromaticity and executing a pixel value correction process including a saturation reduction process of the constituent pixels of the processed image,
The correction parameter calculation step includes:
A reduced image generation step for generating reduced image data based on the processed image;
An overexposure detecting step for detecting overexposed pixels as high luminance pixels based on the reduced image data generated in the reduced image generation step;
A false chromaticity calculating step of calculating false chromaticity corresponding to each pixel by applying whiteout detection information based on the reduced image generated in the whiteout detection step;
There is a computer program characterized by comprising:

なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、CDやFD、MOなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。   The computer program of the present invention is, for example, a storage medium or communication medium provided in a computer-readable format to a general-purpose computer system capable of executing various program codes, such as a CD, FD, MO, etc. Or a computer program that can be provided by a communication medium such as a network. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づく、より詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本発明の構成によれば、処理画像の構成画素の補正パラメータとして、各画素に対応する偽色度を算出し、算出した偽色度に基づいて各画素の彩度削減処理を実行する構成とし、補正パラメータとしての偽色度の算出処理においては、縮小画像を生成し、時間の要する白とび検出処理を縮小画像に基づいて実行する構成としたので、計算量の削減により処理時間の短縮が可能となる。また、偽色度算出に適用する紫度を現フレーム(n)に基づいて取得し、白とび度を前フレーム(n−1)に基づいて取得する構成としたので、処理時間の遅延の防止が可能となり、所定のフレームレートで入力する動画像データのリアルタイムでの補正処理が可能となり、パープルフリンジ等の偽色の彩度削減処理およびぼかし処理を実行することで高品質な補正画像データの高速生成処理が実現される。   According to the configuration of the present invention, the false chromaticity corresponding to each pixel is calculated as the correction parameter of the constituent pixels of the processed image, and the saturation reduction processing of each pixel is executed based on the calculated false chromaticity. In the calculation process of false chromaticity as a correction parameter, a reduced image is generated, and a time-consuming overexposure detection process is executed based on the reduced image, so that the processing time can be shortened by reducing the amount of calculation. It becomes possible. Further, since the purple degree applied to the false chromaticity calculation is acquired based on the current frame (n) and the overexposure degree is acquired based on the previous frame (n−1), the processing time is prevented from being delayed. Real-time correction processing of moving image data input at a predetermined frame rate is possible, and high-quality corrected image data can be corrected by executing false color saturation reduction processing such as purple fringe and blurring processing. High-speed generation processing is realized.

さらに、本発明の構成によれば、補正パラメータとしての偽色度の算出において、注目画素の色相が偽色色相と類似し、白とび画素からの距離が近いほど、大きな値の偽色度を算出する構成とし、画素彩度削減処理においては、この偽色度に基づいて各画素の彩度削減処理を実行する構成としたので、偽色度のレベルに応じた最適な彩度削減処理が実現され、パープルフリンジ等の偽色画素の存在する画像データから偽色画素を効率的に抽出した補正手処理が可能となり、効率的な高品質補正画像データの生成が可能となる。   Furthermore, according to the configuration of the present invention, in the calculation of the false chromaticity as the correction parameter, the larger the false chromaticity is as the hue of the target pixel is similar to the false hue and the distance from the overexposed pixel is shorter. In the pixel saturation reduction process, the saturation reduction process for each pixel is executed based on this false chromaticity, so that the optimal saturation reduction process according to the false chromaticity level is performed. Realized, it is possible to perform manual correction processing that efficiently extracts false color pixels from image data in which false color pixels such as purple fringes exist, and it is possible to efficiently generate high-quality corrected image data.

以下、図面を参照しながら、本発明の画像処理装置、および画像処理方法、並びにコンピュータ・プログラムの詳細について説明する。   Hereinafter, an image processing apparatus, an image processing method, and a computer program according to the present invention will be described in detail with reference to the drawings.

まず、画像処理装置の構成例について図1を参照して説明する。なお、図1に示す画像処理装置は、撮像部を備え、撮像部において撮影した画像データの補正処理を実行する装置例として示してあるが、本発明の画像処理装置は、たとえばハードディスクなどの記憶部に格納された画像データを入力して入力画像の補正を実行することも可能であり、補正処理対象の画像データは、撮像部を介して入力されるデータのみならず、記憶手段、あるいはネットワークを介して入力する画像データなどあらゆる入力画像データに対応可能である。図1は本発明の画像処理装置の一構成例を示すものである。   First, a configuration example of the image processing apparatus will be described with reference to FIG. The image processing apparatus illustrated in FIG. 1 includes an imaging unit and is illustrated as an example of an apparatus that performs correction processing on image data captured by the imaging unit. However, the image processing apparatus of the present invention is a storage device such as a hard disk. It is also possible to execute correction of the input image by inputting the image data stored in the unit, and the image data to be corrected is not only data input via the imaging unit, but also storage means or network It is possible to cope with any input image data such as image data input via the. FIG. 1 shows a configuration example of an image processing apparatus according to the present invention.

図1に示す画像処理装置の詳細構成について説明する。図1に示すように、画像処理装置は、レンズ101、絞り102、固体撮像素子(CCD)103、相関2重サンプリング回路104、A/Dコンバータ105、DSPブロック106、タイミングジェネレータ107、D/Aコンバータ108、ビデオエンコーダ109、ビデオモニタ110、コーデック(CODEC)111、メモリ112、CPU113、入力デバイス114から構成される。   A detailed configuration of the image processing apparatus shown in FIG. 1 will be described. As shown in FIG. 1, the image processing apparatus includes a lens 101, a diaphragm 102, a solid-state image sensor (CCD) 103, a correlated double sampling circuit 104, an A / D converter 105, a DSP block 106, a timing generator 107, and a D / A. It comprises a converter 108, a video encoder 109, a video monitor 110, a codec (CODEC) 111, a memory 112, a CPU 113, and an input device 114.

入力デバイス114はカメラ本体にある録画ボタンなどの操作ボタン類を含む。また、DSPブロック106は信号処理用プロセッサと画像用RAMを持つブロックで、信号処理用プロセッサが画像用RAMに格納された画像データに対してあらかじめプログラムされた画像処理をおこなうことができるようになっている。以下DSPブロックを単にDSPと呼ぶ。   The input device 114 includes operation buttons such as a recording button on the camera body. The DSP block 106 is a block having a signal processing processor and an image RAM. The signal processing processor can perform pre-programmed image processing on image data stored in the image RAM. ing. Hereinafter, the DSP block is simply referred to as a DSP.

本実施例の全体的な動作を以下に説明する。
光学系を通過して固体撮像素子(CCD)103に到達した入射光は、まず撮像面上の各受光素子に到達し、受光素子での光電変換によって電気信号に変換され、相関2重サンプリング回路104によってノイズ除去され、A/Dコンバータ105によってデジタ。信号に変換された後、デジタル信号処理部(DSP)106中の画像メモリに一時格納される。
The overall operation of this embodiment will be described below.
Incident light that passes through the optical system and reaches the solid-state imaging device (CCD) 103 first reaches each light receiving device on the imaging surface, and is converted into an electrical signal by photoelectric conversion at the light receiving device, and a correlated double sampling circuit. Noise is removed by 104, and digitized by A / D converter 105. After being converted into a signal, it is temporarily stored in an image memory in the digital signal processing unit (DSP) 106.

撮像中の状態においては、一定のフレームレートによる画像取り込みを維持するようにタイミングジェネレータ107が信号処理系を制御する。デジタル信号処理部(DSP)106へも一定のレートで画素のストリームが送られ、そこで適切な画像処理がおこなわれた後、画像データはD/Aコンバータ108もしくはコーデック(CODEC)111あるいはその両方に送られる。D/Aコンバータ108はデジタル信号処理部(DSP)106から送られる画像データをアナログ信号に変換し、それをビデオエンコーダ109がビデオ信号に変換し、そのビデオ信号をビデオモニタ110でモニタできるようになっていて、このビデオモニタ110は本実施例においてカメラのファインダの役割を担っている。また、コーデック(CODEC)111はデジタル信号処理部(DSP)106から送られる画像データに対する符号化をおこない、符号化された画像データはメモリ112に記録される。ここで、メモリ112は半導体、磁気記録媒体、光磁気記録媒体、光記録媒体などを用いた記録装置などであってよい。   In the state during imaging, the timing generator 107 controls the signal processing system so as to maintain image capture at a constant frame rate. A stream of pixels is also sent to the digital signal processing unit (DSP) 106 at a constant rate, and after appropriate image processing is performed there, the image data is sent to the D / A converter 108 and / or the codec (CODEC) 111 or both. Sent. The D / A converter 108 converts the image data sent from the digital signal processing unit (DSP) 106 into an analog signal, which is converted into a video signal by the video encoder 109 so that the video signal can be monitored by the video monitor 110. In this embodiment, the video monitor 110 serves as a camera finder. The codec (CODEC) 111 encodes image data sent from the digital signal processing unit (DSP) 106, and the encoded image data is recorded in the memory 112. Here, the memory 112 may be a recording device using a semiconductor, a magnetic recording medium, a magneto-optical recording medium, an optical recording medium, or the like.

以上が本実施例の画像処理装置の一例としてのデジタルビデオカメラのシステム全体の説明であるが、本発明に係る画像処理、すなわち画像データの補正処理はデジタル信号処理部(DSP)106において実行される。   The above is the description of the entire system of the digital video camera as an example of the image processing apparatus of the present embodiment. Image processing according to the present invention, that is, image data correction processing is executed by the digital signal processing unit (DSP) 106. The

以下、本発明の画像処理装置のデジタル信号処理部(DSP)106において実行する画像データ補正処理の詳細について説明する。本発明の画像処理装置において実行する画像処理は、主として白とび周辺に発生するパープルフリンジ等の偽色を検出して各画素の偽色度合いを算出し、算出した偽色度合いに対応する適切な補正を実行するものであり、この補正処理により高品質な画像データを生成する。   Details of the image data correction processing executed in the digital signal processing unit (DSP) 106 of the image processing apparatus of the present invention will be described below. The image processing executed in the image processing apparatus according to the present invention detects false colors such as purple fringes mainly occurring in the vicinity of white spots, calculates the false color degree of each pixel, and calculates an appropriate color corresponding to the calculated false color degree. Correction is executed, and high-quality image data is generated by this correction processing.

偽色(パープルフリンジ)は、色収差による色ずれが、白とび画素部分周辺で目立って現れる現象である。白とび画素とは、輝度レベルが飽和レベルに近い高輝度の画素である。このような高輝度画素である白とび画素の周辺の画素に、本来の被写体の色相とは異なる例えば紫色の偽色を生ずる。この偽色画素がパープルフリンジ(PF)と呼ばれる。   The false color (purple fringe) is a phenomenon in which a color shift due to chromatic aberration appears conspicuously around the overexposed pixel portion. An overexposed pixel is a pixel with high luminance whose luminance level is close to the saturation level. For example, a purple false color that is different from the original hue of the subject is generated in the peripheral pixels of such a high-brightness pixel. This false color pixel is called purple fringe (PF).

偽色(PF:パープルフリンジ)が発生する白とびの周り範囲大きさは、光学系の絞り、焦点距離に連動しており、また、光学中心からの距離にも依存し、大きさが変わる。また、偽色が出る方向も、光学中心から白とび画素の外側に向かう方向、白とび画素から光学中心に向かう方向それぞれに発生し、その傾向は、撮像する光学系により異なる。   The size of the area around the whiteout where false color (PF: purple fringe) occurs is linked to the aperture and focal length of the optical system, and also depends on the distance from the optical center. In addition, the direction in which the false color is generated also occurs in the direction from the optical center toward the outside of the pixel and from the highlight pixel to the optical center, and the tendency varies depending on the optical system to be imaged.

本発明の画像処理においては、撮影画像として入力される画像フレームの構成画素を順次、注目画素として選択し、注目画素の近傍に白とび画素が存在するかを判定し、さらに、その注目画素が紫色でかつ彩度が非常に強いかを判定する。すなわち、
(a)注目画素近傍に白とび画素が存在する。
(b)注目画素が紫色
これらの条件を満足する画素は、偽色(PF:パープルフリンジ)画素であると判定して、補正処理を実行する。
In the image processing according to the present invention, the constituent pixels of the image frame input as the photographed image are sequentially selected as the target pixel, it is determined whether or not the overexposed pixel exists in the vicinity of the target pixel. Judge whether it is purple and the saturation is very strong. That is,
(A) An overexposed pixel exists in the vicinity of the target pixel.
(B) The pixel of interest is purple A pixel that satisfies these conditions is determined to be a false color (PF: purple fringe) pixel, and correction processing is executed.

補正処理の態様としては、例えば、検出された偽色画素の周辺にある偽色(PF)でない画素の画素値を取得し、取得した画素値の平均値を偽色画素の画素値とするなど、いわゆる周辺画素に基づく補間処理を実行することで偽色(PF)画素の補正処理を行うことも1つの方法ではあるが、このような周辺画素の画素値を取得し、取得した画素値に基づいて偽色画素に設定する画素値を算出し、算出画素値を偽色画素の画素値に再設定する補間処理は処理負荷として大きくなるという問題がある。   As an aspect of the correction processing, for example, pixel values of pixels that are not false colors (PF) around the detected false color pixel are acquired, and an average value of the acquired pixel values is used as the pixel value of the false color pixel. Although it is one method to perform correction processing of false color (PF) pixels by executing interpolation processing based on so-called peripheral pixels, the pixel values of such peripheral pixels are acquired, and the acquired pixel values are There is a problem that the interpolation processing for calculating the pixel value to be set to the false color pixel and resetting the calculated pixel value to the pixel value of the false color pixel becomes a large processing load.

例えばビデオカメラによる撮影画像で一定のフレームレートで入力される画像に対して上述の補間処理を実行した場合、補正処理がビデオフレームレートに追いつかない可能性が高く、ビデオカメラによる撮影画像に対する処理とすることは現実的でない。   For example, when the above-described interpolation processing is executed on an image input by a video camera at a constant frame rate, the correction processing is likely not to catch up with the video frame rate. It is not realistic to do.

本発明の画像処理では、上述の周囲画素の画素値を適用した補間処理ではなく、画素の彩度の低下処理を行なう構成としている。偽色である可能性を示すパラメータとしての偽色度を算出し、算出した偽色度に基づいて各画素の彩度削減処理を実行する。さらに、パラメータ算出処理において、画像データの縮小処理を実行し、縮小画像データに基づいて、飽和レベルの高輝度画素としての白とび画素の検出を実行し、白とび検出データを用いて偽色度を算出する構成とすることで、パラメータ算出時の計算量を削減し、効率的な画素補正を可能としている。   The image processing according to the present invention is configured to perform pixel saturation reduction processing instead of the above-described interpolation processing using pixel values of surrounding pixels. False chromaticity as a parameter indicating the possibility of false color is calculated, and saturation reduction processing of each pixel is executed based on the calculated false chromaticity. Further, in the parameter calculation process, a reduction process of the image data is executed, and overexposed pixels are detected as high brightness pixels at a saturation level based on the reduced image data, and the false chromaticity is detected using the overexposure detection data. By adopting a configuration for calculating, the amount of calculation at the time of parameter calculation is reduced, and efficient pixel correction is possible.

本発明の画像処理では、例えば図1に示す画像処理装置の撮像部において撮影され、デジタル信号処理部(DSP)106に入力される各画像フレームの構成画素について、後述する偽色度合い(PF度合い)を算出し、算出した各画素対応の偽色度合い(PF度合い)に基づく補正処理を行なう。PFはパープルフリンジ(Purple Fringe)を意味する。   In the image processing of the present invention, for example, a false color degree (PF degree) to be described later with respect to the constituent pixels of each image frame captured by the imaging unit of the image processing apparatus shown in FIG. 1 and input to the digital signal processing unit (DSP) 106. ) And a correction process based on the calculated false color degree (PF degree) corresponding to each pixel is performed. PF means purple fringe (Purple Fringe).

なお、前述したように、輝度レベルにおける飽和状態としての白とびが起こっているハイコントラストのエッジ部分に発生するレンズ収差による偽色の代表的な現象をパープルフリンジと呼ぶが、偽色の色は紫に限定されるものではなく、例えば緑がかった色となる場合などもある。以下の実施例では、紫色の偽色を生じた例として説明するが、本発明は、紫色に限らず、白とび近傍に発生する任意の色を有する偽色の補正処理に適用可能である。   As described above, a typical phenomenon of false color due to lens aberration occurring at the edge portion of high contrast where whiteout occurs as a saturated state at the luminance level is called purple fringe. The color is not limited to purple. For example, the color may be greenish. In the following embodiments, an example in which a purple false color is generated will be described. However, the present invention is not limited to purple, but can be applied to a false color correction process having an arbitrary color generated in the vicinity of overexposure.

図2を参照して、本発明の画像処理装置におけるデジタル信号処理部(DSP)106において実行する画像処理の全体シーケンスについて説明する。デジタル信号処理部(DSP)106では例えばコンピュータ・プログラムに従ったデータ処理が実行される。図2は、デジタル信号処理部(DSP)106において実行される処理を説明するため、機能別のブロックとして示したブロック図である。   With reference to FIG. 2, the entire sequence of image processing executed in the digital signal processing unit (DSP) 106 in the image processing apparatus of the present invention will be described. In the digital signal processing unit (DSP) 106, for example, data processing according to a computer program is executed. FIG. 2 is a block diagram shown as functional blocks for explaining the processing executed in the digital signal processing unit (DSP) 106.

デジタル信号処理部(DSP)106は、図2に示すように、ホワイトバランス調整手段201、ガンマ補正処理手段202、デモザイク処理手段203、YcbCr変換手段204、エッジ強調処理手段205、偽色(PF)補正処理手段206から構成されている。   As shown in FIG. 2, the digital signal processing unit (DSP) 106 includes a white balance adjustment unit 201, a gamma correction processing unit 202, a demosaic processing unit 203, a YcbCr conversion unit 204, an edge enhancement processing unit 205, a false color (PF). The correction processing unit 206 is configured.

図1に示した画像処理装置の固体撮像素子(CCD)103で取得された画像信号は色のモザイク画像251である。例えば原色系の色配列(例えばベイヤー配列)などの色配列を持つカラーフィルタを介した撮像を行なうと、各画素に対して特定の波長の信号、すなわち特定波長の色成分データだけを取得する。例えばベイヤー配列の単板カラー方式の固体撮像素子を用いた場合、固体撮像素子の出力画像は、各画素にR,G,Bいずれかの情報のみを持つ色モザイク画像データ251となる。   An image signal acquired by the solid-state imaging device (CCD) 103 of the image processing apparatus shown in FIG. 1 is a color mosaic image 251. For example, when imaging is performed through a color filter having a color arrangement such as a primary color arrangement (for example, Bayer arrangement), only a signal of a specific wavelength, that is, color component data of a specific wavelength is acquired for each pixel. For example, when a single-plate color solid-state image sensor with a Bayer array is used, the output image of the solid-state image sensor is color mosaic image data 251 having only R, G, or B information in each pixel.

デジタル信号処理部(DSP)106は、この色モザイク画像データ251を入力し、まずホワイトバランス調整手段201でホワイトバランスを調整を実行し、ついでガンマ補正処理手段202でガンマ補正処理を行い、デモザイク手段203において色モザイク画像からRGBデータがすべての画素に設定されたデータ生成処理としてのデモザイク処理を実行する。   The digital signal processing unit (DSP) 106 inputs the color mosaic image data 251, first adjusts the white balance by the white balance adjusting unit 201, then performs gamma correction processing by the gamma correction processing unit 202, and performs demosaic unit In 203, a demosaic process is executed as a data generation process in which RGB data is set for all pixels from the color mosaic image.

その後、RGBデータがすべての画素に設定されたデモザイク画像データをYCbCr変換手段204に入力し、YCbCr変換手段204において、RGB信号のYcbCr色空間への変換処理を実行し、輝度信号(Y)と、色信号(Cb,Cr)とに分離し、輝度信号(Y)をエッジ強調処理手段205に入力して、輝度信号(Y)に基づくエッジ強調処理を実行する。   Thereafter, the demosaic image data in which the RGB data is set for all pixels is input to the YCbCr conversion unit 204, and the YCbCr conversion unit 204 executes a conversion process of the RGB signal to the YcbCr color space, and the luminance signal (Y) The color signal (Cb, Cr) is separated, the luminance signal (Y) is input to the edge enhancement processing means 205, and the edge enhancement processing based on the luminance signal (Y) is executed.

次に、偽色(PF)補正処理手段206において、エッジ強調処理後の輝度信号(Y)と、色信号(Cb,Cr)を入力し、偽色(PF)補正処理を実行し、補正された輝度信号(Y)と、色信号(Cb,Cr)とからなるYCbCr画像データ252を出力する。YCbCr画像データ252に基づく画像データが画像処理装置内のメモリに格納され、またモニタ手段などの出力部に出力される。   Next, the false color (PF) correction processing means 206 inputs the luminance signal (Y) after the edge enhancement process and the color signal (Cb, Cr), executes the false color (PF) correction process, and is corrected. YCbCr image data 252 composed of the luminance signal (Y) and the color signals (Cb, Cr) is output. Image data based on the YCbCr image data 252 is stored in a memory in the image processing apparatus, and is output to an output unit such as a monitor.

図2に示す処理構成中、ホワイトバランス調整手段201〜エッジ強調処理手段205における処理は、従来のデジタルビデオカメラ等の画像処理装置において実行される処理と同様の処理であり、詳細な説明は省略する。偽色(PF)補正処理手段206における処理は、本発明に特有の処理であり、以下、偽色(PF)補正処理手段206において実行する処理の詳細について説明する。   In the processing configuration shown in FIG. 2, the processing in the white balance adjustment unit 201 to the edge enhancement processing unit 205 is the same as the processing executed in the conventional image processing apparatus such as a digital video camera, and detailed description thereof is omitted. To do. The process in the false color (PF) correction processing unit 206 is a process unique to the present invention, and the details of the process executed in the false color (PF) correction processing unit 206 will be described below.

図3に、偽色(PF)補正処理手段206の処理を説明するブロック図を示す。前述したように、デジタル信号処理部(DSP)106では例えばコンピュータ・プログラムに従ったデータ処理が実行される。図3は、図2と同様、デジタル信号処理部(DSP)106において実行される処理を説明するため、機能別のブロックとして示したブロック図である。図3に示す各ブロックは、偽色(PF)補正処理手段206で実行する個々の処理機能に対応し、各処理機能間で受け渡しされるデータを、上下の線によって挟まれたデータとして示してある。   FIG. 3 is a block diagram for explaining the processing of the false color (PF) correction processing means 206. As described above, the digital signal processing unit (DSP) 106 executes data processing according to, for example, a computer program. FIG. 3 is a block diagram shown as functional blocks for explaining the processing executed in the digital signal processing unit (DSP) 106 as in FIG. Each block shown in FIG. 3 corresponds to an individual processing function executed by the false color (PF) correction processing unit 206, and data passed between the processing functions is shown as data sandwiched between upper and lower lines. is there.

偽色(PF)補正処理手段206は、図3に示すように、大きく2つの処理部に分割される。1つは、補正パラメータ(偽色度)算出部300であり、もう1つは補正処理部310である。補正パラメータ(偽色度)算出部300では、入力画像データであるYCbCr入力画像351に基づいて、入力画像の構成画素各々について、どれだけ偽色(PF)に近いかという指標値である偽色度を算出する。偽色度[R]359は、画像データの構成画素各々についての画素対応値として順次、算出される。   As shown in FIG. 3, the false color (PF) correction processing unit 206 is roughly divided into two processing units. One is a correction parameter (false chromaticity) calculation unit 300, and the other is a correction processing unit 310. In the correction parameter (false chromaticity) calculation unit 300, based on the YCbCr input image 351 that is input image data, the false color that is an index value indicating how close to the false color (PF) is to each of the constituent pixels of the input image. Calculate the degree. The false chromaticity [R] 359 is sequentially calculated as a pixel corresponding value for each of the constituent pixels of the image data.

補正処理部310は、補正パラメータ(偽色度)算出部300の算出した画素対応の偽色度[R]359を入力し、入力した偽色度に基づいて、入力画像データであるYCbCr入力画像351の構成画素の画素値補正、具体的には、彩度削減処理、ぼかし処理の各処理を実行する。補正処理部310における補正処理の結果が、補正結果画像、すなわちYCbCr出力画像371として出力され、YCbCr出力画像371に基づく画像データがメモリに格納あるいはモニタに出力される。   The correction processing unit 310 inputs the false chromaticity [R] 359 corresponding to the pixel calculated by the correction parameter (pseudo chromaticity) calculation unit 300, and based on the input pseudo chromaticity, the YCbCr input image that is input image data The pixel value correction of 351 constituent pixels, specifically, the saturation reduction process and the blurring process are executed. The result of the correction processing in the correction processing unit 310 is output as a correction result image, that is, a YCbCr output image 371, and image data based on the YCbCr output image 371 is stored in a memory or output to a monitor.

まず、図3に示す偽色(PF)補正処理手段206において実行する一連の処理の概要について説明する。各構成部の処理の詳細については後段で説明する。図2のYCbCr変換手段204とエッジ強調処理手段205からエッジ強調処理の施されたYCbCr画像351が、輝度成分[Y]352と色差成分[C]353とに分けて偽色(PF)補正処理手段206に入力される。入力は、たとえばスキャンラインに沿った各画素毎に、輝度成分[Y]352と色差成分[C]353とが順次入力される。   First, an outline of a series of processes executed in the false color (PF) correction processing unit 206 shown in FIG. 3 will be described. Details of processing of each component will be described later. The YCbCr image 351 subjected to the edge enhancement processing from the YCbCr conversion unit 204 and the edge enhancement processing unit 205 of FIG. 2 is divided into a luminance component [Y] 352 and a color difference component [C] 353, and a false color (PF) correction process. Input to means 206. For example, the luminance component [Y] 352 and the color difference component [C] 353 are sequentially input for each pixel along the scan line.

まず、補正パラメータ(偽色度)算出部300の縮小画像生成部301は、輝度成分[Y]352の縮小処理を実行する。輝度成分[Y]352は、YCbCr入力画像351の輝度成分情報のみを抽出したデータであり、フレーム画像データの構成画素各々の輝度[Y]情報のみから構成されるデータである。縮小画像生成部301は、この輝度成分画像の縮小処理を実行して、[縮小画像Yp]354を生成し、白とび検出部302に出力する。   First, the reduced image generation unit 301 of the correction parameter (false chromaticity) calculation unit 300 executes a reduction process of the luminance component [Y] 352. The luminance component [Y] 352 is data obtained by extracting only the luminance component information of the YCbCr input image 351, and is data including only luminance [Y] information of each constituent pixel of the frame image data. The reduced image generation unit 301 executes the reduction process of the luminance component image to generate [reduced image Yp] 354 and outputs it to the overexposure detection unit 302.

白とび検出部302は、[縮小画像Yp]354に基づいて、縮小画像における輝度レベルがほぼ飽和レベルである白とび画素の検出、すなわち白とび検出処理を行い、縮小白とび検出マップ[Wp]354を出力する。縮小白とび検出マップ[Wp]354は、縮小画像における構成画素が白とび画素であるか否かを示すフラグが各画素毎に設定されたマップである。   Based on the [reduced image Yp] 354, the whiteout detection unit 302 performs detection of a whiteout pixel in which the luminance level in the reduced image is substantially saturated, that is, a whiteout detection process, and a reduced whiteout detection map [Wp]. 354 is output. The reduced whiteout detection map [Wp] 354 is a map in which a flag indicating whether or not the constituent pixels in the reduced image are whiteout pixels is set for each pixel.

白とび検出部302は、縮小画像に基づいて生成した縮小白とび検出マップ[Wp]354をメモリ303へ格納する。メモリ303に格納された縮小白とび検出マップ[Wp]354は、次の画像フレームの画像補正処理の際に読み出されて補正パラメータとしての偽色度を算出する際に使用される。   The whiteout detection unit 302 stores the reduced whiteout detection map [Wp] 354 generated based on the reduced image in the memory 303. The reduced whiteout detection map [Wp] 354 stored in the memory 303 is read out during the image correction process of the next image frame and used when calculating the false chromaticity as a correction parameter.

縮小白とび検出マップ拡大部304は、メモリ303に格納された前フレームの縮小白とび検出マップ[Wp]を読み出して、撮像した画像と同じサイズに拡大する拡大処理を実行する。   The reduced whiteout detection map enlargement unit 304 reads out the reduced whiteout detection map [Wp] of the previous frame stored in the memory 303, and executes enlargement processing to enlarge the captured image to the same size.

ここで縮小画像に基づいて生成した縮小白とび検出マップ[Wp]354をメモリ303に格納し、格納データを直接拡大せず、次フレームの処理において使用する理由は、白とび検出部302における白とびの検出処理が時間を要する処理であり、同じフレームにおける白とび検出完了を待ってそれ以降の処理を行った場合、次のフレームの処理開始タイミングまでに全ての処理を終わらせることができなくなってしまうためである。   Here, the reason why the reduced whiteout detection map [Wp] 354 generated based on the reduced image is stored in the memory 303 and the stored data is not directly enlarged and used in the processing of the next frame is that the whiteout detection unit 302 uses Skip detection is a time-consuming process, and when processing for the next frame is completed after waiting for the completion of white-out detection in the same frame, it is not possible to finish all processing by the start timing of the next frame. It is because it ends up.

すなわち、nフレームにおける画像補正パラメータとしての偽色(PF)度の算出は、現フレーム(nフレーム)のデータと、前フレーム(n−1フレーム)のデータを用いて実行される。具体的には、
(a)すでにメモリ303に格納済みの前フレーム(n−1フレーム)の縮小白とび検出マップ[Wp]355'を読み出して、縮小白とび検出マップ拡大部304において拡大処理を実行して生成した白とび検出マップに基づいて、注目画素(x,y)と最近接白とび画素までの距離に対応する値としての距離値[Wi]356を取得し、取得した距離値[Wi]356に基づいて、白とび度計算部305で算出した白とび度[Wr]357と、
(b)現フレーム(nフレーム)の色差成分[C]353に基づいて、紫度計算部306で算出した紫度[Pr]358と、
上記の(a)前フレームデータに基づく白とび度[Wr]357と、(b)現フレームデータに基づく紫度[Pr]358とに基づいて、偽色度計算部307において偽色度[R]359を算出する。算出した偽色度[R]359を適用して補正処理部310において、現フレーム(nフレーム)の画像データに対する補正処理が実行される。
That is, the calculation of the false color (PF) degree as the image correction parameter in the n frame is executed using the data of the current frame (n frame) and the data of the previous frame (n-1 frame). In particular,
(A) A reduced whiteout detection map [Wp] 355 ′ of the previous frame (n−1 frame) that has already been stored in the memory 303 is read out and generated by executing an enlargement process in the reduced whiteout detection map enlargement unit 304. Based on the whiteout detection map, a distance value [Wi] 356 as a value corresponding to the distance from the target pixel (x, y) to the nearest whiteout pixel is acquired, and based on the acquired distance value [Wi] 356. The whiteness degree [Wr] 357 calculated by the whiteness degree calculation unit 305,
(B) Based on the color difference component [C] 353 of the current frame (n frame), the purpleness [Pr] 358 calculated by the purpleness calculation unit 306;
Based on (a) the whiteness degree [Wr] 357 based on the previous frame data and (b) the purpleness [Pr] 358 based on the current frame data, the pseudo chromaticity [R] 359 is calculated. Applying the calculated false chromaticity [R] 359, the correction processing unit 310 executes correction processing on the image data of the current frame (n frames).

補正処理部310では、画素彩度削減処理部311において、入力画像351の色差成分[C]353を入力し、補正パラメータ(偽色度)算出部300から入力する偽色度[R]359に基づいて偽色(PF)画素部分の彩度削減処理を行い、彩度削減画像[Cs]361を画素色差成分ぼかし処理部312に出力する。画素色差成分ぼかし処理部312は、彩度削減画像[Cs]361における色差成分に対してBlurを掛ける処理、すなわち、ぼかし処理を実行する。ぼかし処理については全ての画素について実行するのではなく、彩度削減処理の実行された画素を含む領域が処理対象として選択されぼかし処理が実行される。画素色差成分ぼかし処理部312は、この処理対象領域の選択のために偽色度[R]359を入力し、偽色度[R]359≠0の画素を選択し、ぼかし処理の処理対象領域を決定してぼかし処理を行なう。   In the correction processing unit 310, the pixel saturation reduction processing unit 311 inputs the color difference component [C] 353 of the input image 351, and the false chromaticity [R] 359 input from the correction parameter (pseudo chromaticity) calculation unit 300. Based on this, the saturation reduction processing of the false color (PF) pixel portion is performed, and the saturation reduction image [Cs] 361 is output to the pixel color difference component blurring processing unit 312. The pixel color difference component blurring processing unit 312 executes a process of multiplying the color difference component in the saturation-reduced image [Cs] 361 by Blur, that is, a blurring process. The blurring process is not performed for all the pixels, but the area including the pixels for which the saturation reduction process has been performed is selected as a processing target and the blurring process is performed. The pixel chrominance component blurring processing unit 312 receives the false chromaticity [R] 359 for selecting the processing target area, selects a pixel with the false chromaticity [R] 359 ≠ 0, and performs the blurring processing target area. And blur processing is performed.

画素色差成分ぼかし処理部312は、ぼかし処理を実行して、補正結果としての補正色差成分画像[Ctemp]362を生成し出力する。補正色差成分画像[Ctemp]362は、輝度成分[Y]365と合成されて、最終的な[YCbCr出力画像]371として出力される。この補正処理の結果としての出力[YCbCr出力画像]371が画像処理装置内のメモリに格納され、またモニタ手段などの出力部に出力される。   The pixel color difference component blurring processing unit 312 executes blurring processing to generate and output a corrected color difference component image [Ctemp] 362 as a correction result. The corrected color difference component image [Ctemp] 362 is combined with the luminance component [Y] 365 and output as the final [YCbCr output image] 371. An output [YCbCr output image] 371 as a result of the correction processing is stored in a memory in the image processing apparatus and is output to an output unit such as a monitor unit.

図4を参照して、補正パラメータ(偽色度)算出部300の各処理部において実行する処理タイミングについて説明する。図4は、図4下部に示す矢印に示すように、時間軸(t)に沿って左から右に時間が経過することを示している。   With reference to FIG. 4, processing timing executed in each processing unit of the correction parameter (false chromaticity) calculation unit 300 will be described. FIG. 4 shows that time passes from the left to the right along the time axis (t), as indicated by the arrow shown at the bottom of FIG.

時間t1〜t3では、フレーム(n)に対する処理、時間t4〜t6ではフレーム(n+1)に対する処理が実行されることを示している。例えば、時間t1では、入力画像として撮影画像フレーム(n)381を入力し、縮小画像生成部301におけるフレーム(n)の画像縮小処理と、縮小白とび検出マップ拡大部304において、メモリ303から読み出した前フレームであるフレーム(n−1)の縮小白とび検出マップに対する拡大処理が並列して実行される。   The time t1 to t3 indicates that the process for the frame (n) is executed, and the time t4 to t6 indicates that the process for the frame (n + 1) is executed. For example, at time t1, a captured image frame (n) 381 is input as an input image, and is read out from the memory 303 by the image reduction processing of the frame (n) in the reduced image generation unit 301 and the reduced whiteout detection map enlargement unit 304. The enlargement process for the reduced whiteout detection map of the previous frame (n-1) is executed in parallel.

次に、時間t2では、紫度計算部306におけるフレーム(n)のデータに基づく紫度算出と、白とび検出部302におけるフレーム(n)の縮小データに基づく白とび検出処理、さらに、白とび度計算部305におけるフレーム(n−1)のデータに基づく白とび度計算処理が実行される。   Next, at time t2, purpleness calculation based on the data of frame (n) in the purpleness calculation unit 306, overexposure detection processing based on the reduced data of frame (n) in the overexposure detection unit 302, and overexposure. The degree calculation unit 305 performs the overexposure degree calculation process based on the data of the frame (n−1).

次の時間t3では、偽色度計算部307において、フレーム(n−1)のデータに基づいて算出された白とび度と、フレーム(n)のデータに基づいて算出された紫度とに基づいて、偽色度が算出され、その後、算出された偽色度が補正処理部に出力され、補正処理部における画素彩度削減処理部311において、フレーム(n)のデータに対する画素彩度削減処理が実行され、その後、図示していないが、画素色差成分ぼかし処理部312において、フレーム(n)のデータに対するぼかし処理が実行される。   At the next time t3, the false chromaticity calculation unit 307 is based on the whiteness calculated based on the data of the frame (n−1) and the purpleness calculated based on the data of the frame (n). The false chromaticity is calculated, and then the calculated false chromaticity is output to the correction processing unit. In the pixel saturation reduction processing unit 311 in the correction processing unit, the pixel saturation reduction processing for the data of the frame (n) is performed. After that, although not shown, the pixel color difference component blurring processing unit 312 executes a blurring process on the data of the frame (n).

時間t4〜t6ではフレーム(n+1)に対して、同様のシーケンスで処理が実行される。時間t4では、入力画像として撮影画像フレーム(n+1)382を入力し、縮小画像生成部301におけるフレーム(n+1)の画像縮小処理と、縮小白とび検出マップ拡大部304において、メモリ303から読み出した前フレームであるフレーム(n)の縮小白とび検出マップに対する拡大処理が並列して実行される。   From time t4 to t6, processing is executed in the same sequence for frame (n + 1). At time t4, a captured image frame (n + 1) 382 is input as an input image, and the image (n + 1) image reduction processing in the reduced image generation unit 301 and the reduced whiteout detection map enlargement unit 304 before reading from the memory 303 The enlargement process for the reduced whiteout detection map of frame (n), which is a frame, is executed in parallel.

次に、時間t5では、紫度計算部306におけるフレーム(n+1)のデータに基づく紫度算出と、白とび検出部302におけるフレーム(n+1)の縮小データに基づく白とび検出処理、さらに、白とび度計算部305におけるフレーム(n)のデータに基づく白とび度計算処理が実行される。   Next, at time t5, purpleness calculation based on the data of frame (n + 1) in the purpleness calculation unit 306, overexposure detection processing based on the reduced data of frame (n + 1) in the whiteout detection unit 302, and further, overexposure is performed. The degree of whiteness calculation processing based on the data of frame (n) in the degree calculation unit 305 is executed.

次の時間t6では、偽色度計算部307において、フレーム(n)のデータに基づいて算出された白とび度と、フレーム(n+1)のデータに基づいて算出された紫度とに基づいて、偽色度が算出され、その後、算出された偽色度が補正処理部に出力され、補正処理部における画素彩度削減処理部311において、フレーム(n+1)のデータに対する画素彩度削減処理が実行され、その後、図示していないが、画素色差成分ぼかし処理部312において、フレーム(n+1)のデータに対するぼかし処理が実行される。なお、時間t1〜t6は、処理シーケンスを説明するために設定した時間であり、明確な処理時間の間隔に必ずしも対応しているものではない。   At the next time t6, the false chromaticity calculation unit 307, based on the whiteness calculated based on the data of the frame (n) and the purpleness calculated based on the data of the frame (n + 1), The false chromaticity is calculated, and then the calculated false chromaticity is output to the correction processing unit, and the pixel saturation reduction processing unit 311 in the correction processing unit executes the pixel saturation reduction processing for the data of the frame (n + 1). Thereafter, although not shown, the pixel color difference component blurring processing unit 312 executes blurring processing on the data of the frame (n + 1). Note that the times t1 to t6 are times set for explaining the processing sequence, and do not necessarily correspond to clear processing time intervals.

図4に示すように、各処理部での処理を並列に実行し、また前フレームのデータを活用した処理を実行することにより、各画像フレームに対応する補正パラメータ(偽色度)算出処理を短時間で効率的に行なうことが可能となり、撮影データとして入力するフレームデータの補正を、撮影速度に遅れることなく実行でき、リアルタイムでの画像処理が実現される。   As shown in FIG. 4, the correction parameter (false chromaticity) calculation processing corresponding to each image frame is performed by executing the processing in each processing unit in parallel and executing the processing using the data of the previous frame. It is possible to efficiently perform in a short time, correction of frame data input as shooting data can be executed without delay in shooting speed, and real-time image processing is realized.

図5に、上述した偽色(PF)補正処理手段206の実行する一連の処理の処理手順を説明するフローチャートを示す。ステップS101〜S107の処理は、補正パラメータ(偽色度)算出部300の処理に相当し、ステップS108〜S109の処理は、補正処理部310の処理に相当する。ステップS101〜S103の処理と、ステップS104〜S105の処理、およびステップS106の処理は並列に実行することが可能である。また、ステップS101〜S103の処理およびステップS106の処理は、現フレーム(n)に対する処理として実行され、ステップS104〜S105の処理は、前レーム(n−1)に対する処理として実行される。   FIG. 5 is a flowchart for explaining a processing procedure of a series of processes executed by the false color (PF) correction processing unit 206 described above. The processing of steps S101 to S107 corresponds to the processing of the correction parameter (false chromaticity) calculation unit 300, and the processing of steps S108 to S109 corresponds to the processing of the correction processing unit 310. The processing of steps S101 to S103, the processing of steps S104 to S105, and the processing of step S106 can be executed in parallel. Further, the processes of steps S101 to S103 and the process of step S106 are executed as processes for the current frame (n), and the processes of steps S104 to S105 are executed as processes for the previous frame (n−1).

ステップS101は、補正パラメータ(偽色度)算出部300の縮小画像生成部301における画像縮小処理による[縮小画像Yp]354の生成処理、ステップS102は、白とび検出部302における[縮小画像Yp]354に基づく白とび検出処理による宿所白とび検出マップ[Wp]355の生成処理、ステップS103は、縮小白とび検出マップ[Wp]355のメモリ303に対する格納処理である。これらの処理は、入力現フレームに対する処理として実行される。   Step S101 is processing for generating [reduced image Yp] 354 by image reduction processing in the reduced image generating unit 301 of the correction parameter (false chromaticity) calculating unit 300, and step S102 is [reduced image Yp] in the overexposure detecting unit 302. The generation processing of the lodging whiteout detection map [Wp] 355 by the whiteout detection processing based on 354, step S103 is the storage processing of the reduced whiteout detection map [Wp] 355 in the memory 303. These processes are executed as processes for the input current frame.

ステップS104は、縮小白とび検出マップ拡大部304における処理であり、メモリ303から読み出した前フレームの縮小白とび検出マップ[Wp']355を拡大し、注目画素(x,y)から最も近い白とび画素までの距離に対応する距離値[Wi]を算出する処理である。ステップS105は、白とび度計算部305の処理であり、前フレーム拡大データから算出した距離値[Wi]に基づいて、白とび度[Wr]を算出する処理である。これらの処理は、前フレームに対する処理として実行される。   Step S104 is a process in the reduced white skip detection map enlargement unit 304, which enlarges the reduced white skip detection map [Wp ′] 355 of the previous frame read from the memory 303 and closes the white closest to the target pixel (x, y). This is a process of calculating a distance value [Wi] corresponding to the distance to the skipped pixel. Step S105 is a process of the whiteout degree calculation unit 305, which calculates the whiteout degree [Wr] based on the distance value [Wi] calculated from the previous frame enlarged data. These processes are executed as processes for the previous frame.

ステップS106は、紫度計算部306における処理であり、現フレームの色差成分[C]353に基づいて、紫度計算部306で紫度[Pr]358を算出する。   Step S106 is processing in the purple degree calculation unit 306, and the purple degree calculation unit 306 calculates the purple degree [Pr] 358 based on the color difference component [C] 353 of the current frame.

ステップS107は、偽色度計算部307において実行する偽色度[R]359算出処理であり、ステップS104〜S105において、算出した前フレームデータに基づく白とび度[Wr]357と、ステップS106において算出した現フレームデータに基づく紫度[Pr]358とに基づいて偽色度[R]359を算出する。   Step S107 is a false chromaticity [R] 359 calculation process executed in the false chromaticity calculation unit 307. In steps S104 to S105, the overexposure degree [Wr] 357 based on the calculated previous frame data and in step S106. The false chromaticity [R] 359 is calculated based on the purpleness [Pr] 358 based on the calculated current frame data.

ステップS108は、補正処理部310の画素彩度削減処理部311における偽色(PF)画素彩度削減処理、ステップS109は、画素色差成分ぼかし処理部312における偽色(PF)画素色差成分ぼかし処理である。以上の処理ステップが実行されて、最終的な補正画像データであるYCbCr出力画像371が生成、出力される。   Step S108 is a false color (PF) pixel saturation reduction process in the pixel saturation reduction processing unit 311 of the correction processing unit 310, and step S109 is a false color (PF) pixel color difference component blurring process in the pixel color difference component blurring processing unit 312. It is. The above processing steps are executed, and the final corrected image data YCbCr output image 371 is generated and output.

以下、偽色(PF)補正処理手段206の各構成部の処理の詳細について説明する。なお、本実施例において、処理対象とする画像データは、画像の横幅=width、画像の縦幅=heightの画像フレームデータであり、縮小画像生成部301における画像縮小処理によって生成する[縮小画像Yp]354は、画像の横幅=swidth、画像の縦幅=sheightの縮小画像データであるとする。   Details of processing of each component of the false color (PF) correction processing unit 206 will be described below. In this embodiment, the image data to be processed is image frame data with the horizontal width of the image = width and the vertical width of the image = height, which is generated by the image reduction processing in the reduced image generation unit 301 [reduced image Yp 354 is reduced image data with the horizontal width of the image = width and the vertical width of the image = weight.

まず、補正パラメータ(偽色度)算出部300の処理について説明する。前述したように、補正パラメータ(偽色度)算出部300では、現フレームデータと前フレームデータとに基づいて補正パラメータ(偽色(PF)度)を算出する。本実施例では、白とび画素から近い位置にあり、紫色である画素を偽色(PF:パープルフリンジ)画素であると推定する。従って偽色(PF)度は、白とび画素からの距離が近く、紫色に近いものほど高くなる。   First, the processing of the correction parameter (false chromaticity) calculation unit 300 will be described. As described above, the correction parameter (false color degree) calculation unit 300 calculates the correction parameter (false color (PF) degree) based on the current frame data and the previous frame data. In the present embodiment, it is estimated that a pixel that is in a position close to a whiteout pixel and is purple is a false color (PF: purple fringe) pixel. Therefore, the false color (PF) degree becomes higher as the distance from the overexposed pixel is closer and nearer to purple.

縮小画像生成部301
補正パラメータ(偽色度)算出部300の縮小画像生成部301は、輝度成分[Y]352の縮小処理を実行する。輝度成分[Y]352は、YCbCr入力画像351の輝度成分情報のみを抽出したデータであり、フレーム画像データの構成画素各々の輝度[Y]情報のみから構成されるデータである。縮小画像生成部301は、この輝度成分画像の縮小処理を実行して、[縮小画像Yp]354を生成し、白とび検出部302に出力する。
Reduced image generation unit 301
The reduced image generation unit 301 of the correction parameter (false chromaticity) calculation unit 300 executes a reduction process of the luminance component [Y] 352. The luminance component [Y] 352 is data obtained by extracting only the luminance component information of the YCbCr input image 351, and is data including only luminance [Y] information of each constituent pixel of the frame image data. The reduced image generation unit 301 executes the reduction process of the luminance component image to generate [reduced image Yp] 354 and outputs it to the overexposure detection unit 302.

図6に縮小画像生成部301の実行する処理手順を説明するフローチャートを示す。フローチャートに従って縮小画像生成部301の実行する処理について説明する。図6に示すフローは、図5のフローチャートのステップS101の処理に対応する処理である。   FIG. 6 is a flowchart for explaining a processing procedure executed by the reduced image generation unit 301. Processing executed by the reduced image generation unit 301 will be described with reference to the flowchart. The flow shown in FIG. 6 is a process corresponding to the process of step S101 in the flowchart of FIG.

なお、図6に示す処理フロー中、ステップS201〜S204の処理は、処理対象画像データである画像、すなわち、画像の横幅=width、画像の縦幅=heightの画像フレームデータの解析処理であり、ステップS211〜S213の処理は、縮小ガゾウデータ、すなわち画像の横幅=swidth、画像の縦幅=sheightの縮小画像データの生成処理である。   In the processing flow shown in FIG. 6, the processing in steps S201 to S204 is an analysis process of an image that is processing target image data, that is, image frame data in which the horizontal width of the image = width and the vertical width of the image = height. The processing in steps S211 to S213 is generation processing of reduced gazing data, that is, reduced image data with the horizontal width of the image = width and the vertical width of the image = weight.

図6において、ステップS201〜S204の処理部分には、2つの枠を示し、
外枠に、For(y=0;y<height;y=y+1)と示し、
内枠に、For(x=0;x<width;x=x+1)として示してあるが、
ステップS201〜S204を示す内枠は、
For(x=0;x<width;x=x+1)
に対する処理、すなわち画像データの1つのスキャンラインであるx軸に沿った処理として実行され、x軸に沿って0〜widthの各画素毎にステップS201〜S204の処理を実行することを意味している。1つのスキャンラインが終了すると、次のスキャンラインの処理が同様に実行される。これは、外枠に示すように、
For(y=0;y<height;y=y+1)
に対する処理として実行され、スキャンラインに垂直なy軸に沿って、1つずつスキャンラインを移動させて、For(x=0;x<width;x=x+1)の処理、すなわち、x軸に沿って0〜widthの各画素毎にステップS201〜S204の処理を実行することを意味している。結果として、画像フレームにおける(x=0〜width,y=0〜height)の全構成画素について、順次ステップS201〜S204の処理が実行されることになる。
In FIG. 6, the processing part of steps S201 to S204 shows two frames,
In the outer frame, For (y = 0; y <height; y = y + 1) is indicated,
The inner frame shows For (x = 0; x <width; x = x + 1).
The inner frame indicating steps S201 to S204 is
For (x = 0; x <width; x = x + 1)
, I.e., the process along the x-axis that is one scan line of the image data, and the process of steps S201 to S204 is executed for each pixel of 0 to width along the x-axis. Yes. When one scan line is completed, the process for the next scan line is similarly executed. As shown in the outer frame,
For (y = 0; y <height; y = y + 1)
Is executed as a process for the above, and the scan line is moved one by one along the y-axis perpendicular to the scan line, and the process of For (x = 0; x <width; x = x + 1), that is, along the x-axis This means that the processing of steps S201 to S204 is executed for each pixel of 0 to width. As a result, the processing of steps S201 to S204 is sequentially executed for all the constituent pixels of (x = 0 to width, y = 0 to height) in the image frame.

同様に、ステップS211〜S213の処理部分には、2つの枠を示し、
外枠に、For(t=0;t<sheight;t=t+1)と示し、
内枠に、For(s=0;s<swidth;s=s+1)として示してあるが、
ステップS211〜S213を示す内枠は、
For(s=0;s<swidth;s=s+1)
に対する処理、すなわち縮小画像データの1つのスキャンラインであるs軸に沿った処理として実行され、s軸に沿って0〜swidthの各画素毎にステップS211〜S213の処理を実行することを意味している。1つのスキャンラインが終了すると、次のスキャンラインの処理が同様に実行される。これは、外枠に示すように、
For(t=0;t<sheight;t=y+1)
に対する処理として実行され、スキャンラインに垂直なt軸に沿って、1つずつスキャンラインを移動させて、For(s=0;s<swidth;s=s+1)の処理、すなわち、s軸に沿って0〜swidthの各画素毎にステップS211〜S213の処理を実行することを意味している。結果として、縮小画像における(s=0〜swidth,t=0〜theight)の全構成画素について、順次ステップS211〜S213の処理が実行されることになる。
Similarly, the processing part of steps S211 to S213 shows two frames,
In the outer frame, For (t = 0; t <weight; t = t + 1)
The inner frame shows For (s = 0; s <width; s = s + 1).
The inner frame showing steps S211 to S213 is
For (s = 0; s <width; s = s + 1)
, I.e., the process along the s-axis that is one scan line of the reduced image data, and the process of steps S211 to S213 is executed for each pixel of 0 to width along the s-axis. ing. When one scan line is completed, the process for the next scan line is similarly executed. As shown in the outer frame,
For (t = 0; t <weight; t = y + 1)
Is performed as a process for the above, and the scan line is moved one by one along the t-axis perpendicular to the scan line, and the process of For (s = 0; s <swidth; s = s + 1), that is, along the s-axis This means that the processing of steps S211 to S213 is executed for each pixel of 0 to width. As a result, the processing of steps S211 to S213 is sequentially performed on all the constituent pixels of (s = 0 to 0width, t = 0 to height) in the reduced image.

図6のフローに示す各ステップの処理について説明する。ステップS201において、画像の横幅=width、画像の縦幅=heightの画像フレームデータの構成画素(x,y)を1つ選択し、選択画素の輝度Y(x,y)を取得する。なお、図3を参照して説明したように、縮小画像生成部301は、YCbCr入力画像データ351に基づく輝度成分[Y]352を入力して処理を行なう。   The process of each step shown in the flow of FIG. 6 will be described. In step S201, one constituent pixel (x, y) of the image frame data with the horizontal width of the image = width and the vertical width of the image = height is selected, and the luminance Y (x, y) of the selected pixel is acquired. As described with reference to FIG. 3, the reduced image generation unit 301 inputs the luminance component [Y] 352 based on the YCbCr input image data 351 and performs processing.

ステップS202、S203では、縮小画像の座標位置(j,k)を設定する処理を実行する。ステップS202,S203に示す[blockwidth]、[blockheight]は、縮小画像の1画素に対応するオリジナル画像の横画素数と縦画素数に対応する。すなわち、
[blockwidth]=オリジナル画像の横画素数
[blockheight]=オリジナル画像の縦画素数
であり、この[blockwidth]×[blockheight]のオリジナル画像の画素に基づいて、縮小画像の1画素の輝度が決定する。
In steps S202 and S203, processing for setting the coordinate position (j, k) of the reduced image is executed. [Blockwidth] and [blockheight] shown in steps S202 and S203 correspond to the number of horizontal pixels and the number of vertical pixels of the original image corresponding to one pixel of the reduced image. That is,
[Blockwidth] = the number of horizontal pixels of the original image [blockheight] = the number of vertical pixels of the original image The brightness of one pixel of the reduced image is determined based on the pixels of the original image of [blockwidth] × [blockheight]. .

オリジナル画像と縮小画像の対応について図7を参照して説明する。図7には、縮小処理を施すオリジナル画像410と、縮小処理によって生成される縮小画像420を示している。オリジナル画像410はwidth×heightであり、これを縮小してswidth×sheightの縮小画像420を生成する。オリジナル画像410に基づいて縮小画像420を生成する処理において、縮小画像410の構成画素の輝度を順次算出する処理が図6に示す処理フローにおいて実行する処理である。   The correspondence between the original image and the reduced image will be described with reference to FIG. FIG. 7 shows an original image 410 subjected to a reduction process and a reduced image 420 generated by the reduction process. The original image 410 is width × height, and is reduced to generate a reduced image 420 of width × height. In the process of generating the reduced image 420 based on the original image 410, the process of sequentially calculating the luminance of the constituent pixels of the reduced image 410 is the process executed in the process flow shown in FIG.

図7において、オリジナル画像410の部分画像データ411は、[blockwidth]×[blockheight]の画像データであり、この部分画像データ411を構成する画素、例えば図に示す画素412他の部分画像データ411を構成する複数画素の輝度値に基づいて、縮小画像420の1つの画素(s,t)421の輝度Yp(s,t)を決定する。   In FIG. 7, partial image data 411 of the original image 410 is [blockwidth] × [blockheight] image data. Pixels constituting the partial image data 411, for example, the pixel 412 shown in the figure and other partial image data 411 are displayed. Based on the luminance values of a plurality of pixels that constitute the luminance Yp (s, t) of one pixel (s, t) 421 of the reduced image 420 is determined.

図6のステップS202、S203の処理は、オリジナル画像における注目画素(x,y)の、縮小画像の対応画素位置(j,k)を算出する処理である。ステップS204の処理[Yp(j,k)+=value]は、縮小画像の画素位置(j,k)に対応する輝度値Yp(j,k)を、オリジナル画像の画素領域、すなわち、図7における部分画像データ411の各画素の輝度を加算した値に設定する処理である。   The processing in steps S202 and S203 in FIG. 6 is processing for calculating the corresponding pixel position (j, k) of the reduced image of the target pixel (x, y) in the original image. The process [Yp (j, k) + = value] in step S204 determines the luminance value Yp (j, k) corresponding to the pixel position (j, k) of the reduced image as the pixel area of the original image, that is, FIG. Is a process of setting the luminance of each pixel of the partial image data 411 to a value added.

ステップS201〜S204の処理によって、縮小画像の1つの画素(j,k)に対応する輝度値データ[Yp(j,k)+]として、オリジナル画像の画素領域、すなわち、図7における部分画像データ411の構成画素の輝度値の積算値が算出される。   As a result of the processing in steps S201 to S204, the luminance value data [Yp (j, k) +] corresponding to one pixel (j, k) of the reduced image is used as the pixel area of the original image, that is, the partial image data in FIG. An integrated value of the luminance values of the constituent pixels 411 is calculated.

ステップS211〜S213は、縮小画像の構成画素(s,t)について、順次、輝度値Yp(s,t)を設定する処理である。まず、ステップS211において、縮小画像の構成画素(s,t)の輝度値をステップS204で算出した[value]、すなわち縮小画像の1つの画素に対応する輝度値データ[Yp(s,t)+]として、オリジナル画像の画素領域、すなわち、図7における部分画像データ411の構成画素の輝度値積算値を設定する。   Steps S211 to S213 are processes for sequentially setting the luminance value Yp (s, t) for the constituent pixels (s, t) of the reduced image. First, in step S211, the luminance value of the constituent pixel (s, t) of the reduced image is calculated as [value] in step S204, that is, the luminance value data [Yp (s, t) + corresponding to one pixel of the reduced image. ], The luminance value integrated value of the pixel area of the original image, that is, the constituent pixels of the partial image data 411 in FIG. 7 is set.

次に、ステップS212において、以下の式に従って、値[value]の更新を実行する。
value=value/(blockwidth×blockheight)
上記式は、縮小画像の1つの画素に対応するオリジナル画像データの部分画像、すなわち、図7の例における部分画像データ411の構成画素の画素数で、ステップS204で算出した積算値データ[Yp(s,t)+]を除算する処理である。すなわち、縮小画像の1つの画素に対応するオリジナル画像データの部分画像の構成画素の輝度値の平均値を[value]の新たな値として設定する。
Next, in step S212, the value [value] is updated according to the following equation.
value = value / (blockwidth × blockheight)
The above formula is the partial image of the original image data corresponding to one pixel of the reduced image, that is, the number of pixels of the constituent pixels of the partial image data 411 in the example of FIG. 7, and the integrated value data [Yp ( s, t) +]. That is, the average value of the luminance values of the constituent pixels of the partial image of the original image data corresponding to one pixel of the reduced image is set as a new value of [value].

次に、ステップS213において、ステップS212で算出した縮小画像の1つの画素(s,t)に対応するオリジナル画像データの部分画像の構成画素の輝度値の平均値を縮小画像の画素(s,t)に対応する輝度Yp(s,t)として決定する。これらの処理を縮小画像の構成画素、すべてについて実行し、縮小画像(swidth×sheight)の全構成画素(s=0〜swidth,t=0〜sheight)の輝度値Yp(s,t)を決定する。   Next, in step S213, the average value of the luminance values of the constituent pixels of the partial image of the original image data corresponding to one pixel (s, t) of the reduced image calculated in step S212 is calculated as the reduced image pixel (s, t). ) Corresponding to the luminance Yp (s, t). These processes are executed for all the constituent pixels of the reduced image, and the luminance values Yp (s, t) of all the constituent pixels (s = 0 to width, t = 0 to height) of the reduced image (swith × height) are determined. To do.

上述の処理が、図3に示す補正パラメータ(偽色度)算出部300の縮小画像生成部301における画像縮小処理であり、この処理によって[縮小画像Yp]354が生成される。上述した説明から明らかなように、[縮小画像Yp]354は、縮小画像(swidth×sheight)の全構成画素(s=0〜swidth,t=0〜sheight)についての輝度値Yp(s,t)データのみからなるデータである。縮小画像生成部301は、このように、輝度成分画像の縮小処理を実行して、[縮小画像Yp]354を生成し、白とび検出部302に出力する。   The above-described processing is the image reduction processing in the reduced image generation unit 301 of the correction parameter (false chromaticity) calculation unit 300 shown in FIG. 3, and [reduced image Yp] 354 is generated by this processing. As is clear from the above description, the [reduced image Yp] 354 is a luminance value Yp (s, t) for all the constituent pixels (s = 0 to width, t = 0 to height) of the reduced image (width × weight). ) Data consisting only of data. In this way, the reduced image generation unit 301 executes the reduction process of the luminance component image, generates [reduced image Yp] 354, and outputs it to the overexposure detection unit 302.

白とび検出部302
次に、図3に示す補正パラメータ(偽色度)算出部300の白とび検出部302の実行する処理の詳細について説明する。白とび検出部302は、[縮小画像Yp]354に基づいて、縮小画像における輝度レベルがほぼ飽和レベルである白とび画素の検出、すなわち白とび検出処理を行い、縮小白とび検出マップ[Wp]354を出力する。縮小白とび検出マップ[Wp]354は、縮小画像における構成画素が白とび画素であるか否かを示すフラグが各画素毎に設定されたマップである。白とび検出部302は、縮小画像に基づいて生成した縮小白とび検出マップ[Wp]354をメモリ303へ格納する。
White spot detection unit 302
Next, details of processing executed by the overexposure detection unit 302 of the correction parameter (false chromaticity) calculation unit 300 illustrated in FIG. 3 will be described. Based on the [reduced image Yp] 354, the whiteout detection unit 302 performs detection of a whiteout pixel in which the luminance level in the reduced image is substantially saturated, that is, a whiteout detection process, and a reduced whiteout detection map [Wp]. 354 is output. The reduced whiteout detection map [Wp] 354 is a map in which a flag indicating whether or not the constituent pixels in the reduced image are whiteout pixels is set for each pixel. The whiteout detection unit 302 stores the reduced whiteout detection map [Wp] 354 generated based on the reduced image in the memory 303.

図8に白とび検出部302の実行する処理手順を説明するフローチャートを示す。フローチャートに従って白とび検出部302の実行する処理について説明する。図8に示すフローは、図5のフローチャートのステップS102の処理に対応する処理である。   FIG. 8 is a flowchart for explaining a processing procedure executed by the overexposure detection unit 302. The processing executed by the overexposure detection unit 302 will be described according to the flowchart. The flow shown in FIG. 8 is a process corresponding to the process of step S102 in the flowchart of FIG.

図8に示す処理フローは、2つの枠を示し、
外枠に、For(y=0;y<sheight;y=y+1)と示し、
内枠に、For(x=0;x<swidth;x=x+1)として示してある。
これは、ステップS301〜S305の処理を、縮小画像生成部301の生成した[縮小画像Yp]354(swidth×sheight)の全構成画素(s=0〜swidth,t=0〜sheight)について、順次実行することを意味している。
The processing flow shown in FIG. 8 shows two frames,
In the outer frame, For (y = 0; y <weight; y = y + 1) is indicated,
In the inner frame, For (x = 0; x <width; x = x + 1) is shown.
This is because the processes in steps S301 to S305 are sequentially performed on all the constituent pixels (s = 0 to width, t = 0 to height) of [reduced image Yp] 354 (width × weight) generated by the reduced image generation unit 301. It means to execute.

各ステップの処理について説明する。ステップS301において、白とび検出部302は、[縮小画像Yp]354の構成画素から選択された注目画素(x,y)の輝度値Yp(x,y)を取得する。注目画素は画素(x,y)であり、注目画素(x,y)の輝度値をYp(x,y)とする。ステップS302において、注目画素の輝度値Yp(x,y)と、予め設定した閾値と比較する。   The process of each step will be described. In step S <b> 301, the overexposure detection unit 302 acquires the luminance value Yp (x, y) of the target pixel (x, y) selected from the constituent pixels of the [reduced image Yp] 354. The target pixel is the pixel (x, y), and the luminance value of the target pixel (x, y) is Yp (x, y). In step S302, the luminance value Yp (x, y) of the target pixel is compared with a preset threshold value.

白とび画素は、画素の輝度レベルがほぼ飽和レベルである画素であり、閾値は、白とび画素として判定する輝度レベルに相当する値が設定される。ステップS303〜S305では、注目画素(x,y)の輝度値Yp(x,y)=valueが閾値よりも大きければ、注目画素(x,y)のフラグ(flag)=[true]、そうでなければフラグ(flag)=[false]とし、白とび検出マップ[Wp(x,y)]354を設定する。これを横幅=width、縦幅=heightの画像を構成する全ての画素(x=0〜width,y=0〜height)について判定し、各画素対応のフラグ(trueまたはfalse)を設定した縮小白とび検出マップ[Wp(x,y)]354を完成させて、メモリ303へ格納する。   The overexposed pixel is a pixel in which the luminance level of the pixel is almost saturated, and a value corresponding to the luminance level determined as an overexposed pixel is set as the threshold value. In steps S303 to S305, if the luminance value Yp (x, y) = value of the target pixel (x, y) is larger than the threshold value, the flag (flag) of the target pixel (x, y) = [true], and so on. If not, a flag (flag) = [false] is set, and an overexposure detection map [Wp (x, y)] 354 is set. This is determined for all pixels (x = 0 to width, y = 0 to height) constituting an image having a horizontal width = width and a vertical width = height, and a reduced white in which a flag (true or false) corresponding to each pixel is set. The jump detection map [Wp (x, y)] 354 is completed and stored in the memory 303.

この処理によって、メモリ303に格納された縮小白とび検出マップ[Wp(x,y)]354は、次の画像フレームの処理、すなわち次のフレームに対応する補正パラメータとしての偽色度算出処理において利用される。   By this processing, the reduced whiteout detection map [Wp (x, y)] 354 stored in the memory 303 is used in the next image frame processing, that is, the false chromaticity calculation processing as the correction parameter corresponding to the next frame. Used.

縮小白とび検出マップ拡大部304
次に、縮小白とび検出マップ拡大部304の処理の詳細について説明する。縮小白とび検出マップ拡大部304は、メモリ303に格納された前フレームの縮小白とび検出マップ[Wp]を読み出して、撮像した画像と同じサイズに拡大する拡大処理を実行する。さらに、拡大処理を実行して生成した白とび検出マップから注目画素(x,y)と最近接白とび画素までの距離に対応する値としての距離値[Wi]356を取得し、取得した距離値[Wi]356を白とび度計算部305に出力する。
Reduced whiteout detection map enlargement unit 304
Next, details of the processing of the reduced whiteout detection map enlargement unit 304 will be described. The reduced whiteout detection map enlargement unit 304 reads out the reduced whiteout detection map [Wp] of the previous frame stored in the memory 303, and executes enlargement processing to enlarge the captured image to the same size. Furthermore, a distance value [Wi] 356 is acquired as a value corresponding to the distance from the target pixel (x, y) to the closest whiteout pixel from the whiteout detection map generated by executing the enlargement process, and the acquired distance The value [Wi] 356 is output to the whiteness calculation unit 305.

図9に縮小白とび検出マップ拡大部304の実行する処理手順を説明するフローチャートを示す。フローチャートに従って縮小白とび検出マップ拡大部304の実行する処理について説明する。図9に示すフローは、図5のフローチャートのステップS104の処理に対応する処理である。   FIG. 9 shows a flowchart for explaining the processing procedure executed by the reduced whiteout detection map enlargement unit 304. Processing executed by the reduced whiteout detection map enlargement unit 304 will be described with reference to the flowchart. The flow shown in FIG. 9 is a process corresponding to the process of step S104 in the flowchart of FIG.

図9に示す処理フローにも、2つの枠が示され、
外枠に、For(y=0;y<height;y=y+1)と示し、
内枠に、For(x=0;x<width;x=x+1)として示してある。
これは、ステップS401〜S404の処理を、オリジナル画像と同一の大きさを持つ拡大画像(width×height)の全構成画素(x=0〜width,y=0〜height)について、順次実行することを意味している。
The processing flow shown in FIG. 9 also shows two frames.
In the outer frame, For (y = 0; y <height; y = y + 1) is indicated,
In the inner frame, For (x = 0; x <width; x = x + 1) is shown.
This is to sequentially execute the processing of steps S401 to S404 for all the constituent pixels (x = 0 to width, y = 0 to height) of the enlarged image (width × height) having the same size as the original image. Means.

各ステップの処理について説明する。ステップS401、S402の処理は、オリジナル画像と同一の大きさを持つ拡大処理画像の1つの画素(x,y)の、縮小画像の対応画素位置(j,k)を算出する処理である。次に、ステップS403において、拡大補間において必要な縮小画像の対応画素(j,k)の画素情報を取得する。なお、ここでは縮小画像は、輝度情報のみを有しており、対応画素の輝度情報Wp(j,k)を取得する。ステップS403では、取得した縮小画像の画素情報、すなわち対応画素(j,k)の輝度情報Wp(j,k)をAとおく。   The process of each step will be described. The processing in steps S401 and S402 is processing for calculating the corresponding pixel position (j, k) of the reduced image of one pixel (x, y) of the enlarged processed image having the same size as the original image. Next, in step S403, pixel information of the corresponding pixel (j, k) of the reduced image necessary for the enlargement interpolation is acquired. Here, the reduced image has only luminance information, and acquires luminance information Wp (j, k) of the corresponding pixel. In step S403, the pixel information of the acquired reduced image, that is, the luminance information Wp (j, k) of the corresponding pixel (j, k) is set to A.

次に、ステップS404において、取得した輝度情報Wp(j,k)=Aに基づいて、縮小画像の対応画素位置(j,k)に対応するオリジナル画像と同一の大きさを持つ画像の対応領域に含まれる複数画素の輝度値を補間値Wi(x,y)として算出する。ステップS404では、補間値Wi=Bicubic(A)として示してあるが、これは、縮小画像における1つの対応画素の輝度情報Wp(j,k)=Aに基づいて、双三次補間処理を実行して、拡大処理画像における各画素の画素値としての補間値(輝度値)を設定する処理を行なうことを意味している。   Next, in step S404, based on the acquired luminance information Wp (j, k) = A, the corresponding region of the image having the same size as the original image corresponding to the corresponding pixel position (j, k) of the reduced image Are calculated as interpolation values Wi (x, y). In step S404, the interpolation value Wi = Bicubic (A) is shown. This is based on the luminance information Wp (j, k) = A of one corresponding pixel in the reduced image, and executes bicubic interpolation processing. This means that an interpolation value (luminance value) is set as the pixel value of each pixel in the enlarged processed image.

図10を参照して、双三次補間処理について説明する。拡大補間に双三次補間を使用する場合、縮小画像で対応する画素位置の周囲16点を拡大補間に必要とする。画像データ450は、縮小白とび検出マップ拡大部304において、メモリ303に格納された前フレームの縮小白とび検出マップ[Wp]であり、サイズ(swidth×sheight)を持つ。これを元に拡大画像データ、すなわちオリジナル画像データと同様のサイズ(width×height)を持つ画像データを生成する。   The bicubic interpolation process will be described with reference to FIG. When bicubic interpolation is used for enlargement interpolation, 16 points around the corresponding pixel position in the reduced image are required for enlargement interpolation. The image data 450 is a reduced whiteout detection map [Wp] of the previous frame stored in the memory 303 in the reduced whiteout detection map enlargement unit 304, and has a size (width × height). Based on this, enlarged image data, that is, image data having the same size (width × height) as the original image data is generated.

画像データ450の各矩形領域、例えば領域452が縮小画像における1画素である。この各画素には輝度値Yp(s,t)が設定されている。また、図に示す点q451は、拡大した画像データにおける1画素を示す。この点q451の画素値(輝度値)を補間処理により算出する。   Each rectangular area of the image data 450, for example, the area 452, is one pixel in the reduced image. A luminance value Yp (s, t) is set for each pixel. A point q451 shown in the figure represents one pixel in the enlarged image data. The pixel value (luminance value) at this point q451 is calculated by interpolation processing.

点q451の含まれる拡大画像の領域は、縮小画像における画素A[1,1]に対応する。双三次補間処理では、例えば、点q451の画素値(輝度値)を決定するのに、縮小画像における画素A[1,1]を含む複数画素、すなわち、A[0,0]〜A[3,3]の16画素の画素情報(輝度値)を適用する。拡大画像の画素値、すなわちここでは輝度値に対応する補間値は、以下の式(式1)によって算出する。

Figure 2006135744
・・・(式1)
上記式において、A[i,j]は、縮小画像における16画素、すなわち、A[0,0]〜A[3,3]の画素値(輝度値)であり、k[j],k[i]は、以下の算出式によって算出される値である。
Figure 2006135744
ただし、
sは、点qから画素[i,j]までのx方向の距離、
tは、点sから画素[i,j]までのy方向の距離、
である。 The area of the enlarged image including the point q451 corresponds to the pixel A [1,1] in the reduced image. In the bicubic interpolation processing, for example, in order to determine the pixel value (luminance value) of the point q451, a plurality of pixels including the pixel A [1,1] in the reduced image, that is, A [0,0] to A [3 , 3] of 16 pixel information (luminance value) is applied. The pixel value of the enlarged image, that is, the interpolation value corresponding to the luminance value here is calculated by the following equation (Equation 1).
Figure 2006135744
... (Formula 1)
In the above formula, A [i, j] is 16 pixels in the reduced image, that is, pixel values (luminance values) of A [0,0] to A [3,3], and k [j], k [ i] is a value calculated by the following calculation formula.
Figure 2006135744
However,
s is the distance in the x direction from point q to pixel [i, j],
t is the distance in the y direction from the point s to the pixel [i, j],
It is.

縮小白とび検出マップ拡大部304は、上記式(式1)によって算出される補間値Wi(x,y)を白とびまでの近さをあらわす値としての距離値[Wi]として、距離値[Wi]356を白とび度計算部305に出力する。なお、本実施例では、本実施例では双三次補間を使用しているが、滑らかに拡大を行うことができれば、他の補間方法であっても構わない。   The reduced overexposure detection map enlargement unit 304 uses the interpolation value Wi (x, y) calculated by the above equation (Equation 1) as the distance value [Wi] as the value representing the proximity to overexposure, and the distance value [ Wi] 356 is output to the whiteness calculation unit 305. In this embodiment, bicubic interpolation is used in this embodiment, but other interpolation methods may be used as long as the enlargement can be performed smoothly.

白とび度計算部305
次に、白とび度計算部305の処理の詳細について説明する。白とび度計算部305は、注目画素と注目画素に最も近接した最寄の白とび画素との距離情報として、縮小白とび検出マップ拡大部304から入力する距離値[Wi]356を入力として白とび度計算処理を行い、白とび度[Wr]357を算出して偽色度計算部307に出力する。
Whiteness calculation unit 305
Next, details of the processing of the whiteout degree calculation unit 305 will be described. The whiteout degree calculation unit 305 receives the distance value [Wi] 356 input from the reduced whiteout detection map enlargement unit 304 as the distance information between the target pixel and the nearest whiteout pixel closest to the target pixel. A jump degree calculation process is performed, and a white jump degree [Wr] 357 is calculated and output to the false chromaticity calculation unit 307.

白とび度計算部305は、注目画素(x,y)と白とび画素との距離に対応する距離値[Wi]356を入力し、入力距離値[Wi]に基づいてルックアップテーブル(LUT)を適用したデータ変換を行い、白とび度[Wr]357を算出して偽色度計算部307に出力する。図5のフローチャートのステップS105の処理に対応する処理である。白とび度計算部305の適用するルックアップテーブル(LUT)をグラフ化した例を図11に示す。   The whiteout degree calculation unit 305 inputs a distance value [Wi] 356 corresponding to the distance between the target pixel (x, y) and the whiteout pixel, and a lookup table (LUT) based on the input distance value [Wi]. Is converted, and a whiteness degree [Wr] 357 is calculated and output to the false chromaticity calculation unit 307. This is a process corresponding to the process of step S105 in the flowchart of FIG. An example in which a look-up table (LUT) applied by the whiteness calculation unit 305 is graphed is shown in FIG.

図11は、横軸が、縮小白とび検出マップ拡大部304から入力する最寄の白とび画素との距離[Wi]データであり、縦軸が、偽色度計算部307に出力する白とび度[Wr]を示す。距離[Wi]データと白とび度[Wr]は1対1に対応しており、白とび度計算部305は白とびからの距離・方向ベクトル計算部302から入力する最寄の白とび画素との距離[Wi]データに基づいて、対応する白とび度[Wr]の値を取得して偽色度計算部307に出力する。例えば、図11に示すルックアップテーブル(LUT)を適用した場合、
白とび画素との距離[Wi]=0の場合、白とび度[Wr]=0
白とび画素との距離[Wi]=025の場合、白とび度[Wr]=0.5
白とび画素との距離[Wi]=0.5の場合、白とび度[Wr]=0.65
白とび画素との距離[Wi]=1.0の場合、白とび度[Wr]=1.0
の白とび度[Wr]の各値を取得して、偽色度計算部307に出力する。
In FIG. 11, the horizontal axis represents the distance [Wi] data from the nearest whiteout pixel input from the reduced whiteout detection map enlargement unit 304, and the vertical axis represents the whiteout output to the false chromaticity calculation unit 307. Degree [Wr]. The distance [Wi] data and the whiteout degree [Wr] have a one-to-one correspondence, and the whiteout degree calculating unit 305 is the nearest whiteout pixel input from the distance / direction vector calculating unit 302 from the whiteout. Based on the distance [Wi] data, the corresponding whiteness [Wr] value is acquired and output to the false chromaticity calculation unit 307. For example, when the lookup table (LUT) shown in FIG. 11 is applied,
When the distance [Wi] = 0 from the whiteout pixel, the whiteout degree [Wr] = 0
When distance [Wi] = 025 from the whiteout pixel, whiteout degree [Wr] = 0.5
When the distance [Wi] = 0.5 from the whiteout pixel, the whiteout degree [Wr] = 0.65
When the distance [Wi] = 1.0 from the whiteout pixel, the whiteout degree [Wr] = 1.0
Each value of the white skip degree [Wr] is acquired and output to the false chromaticity calculation unit 307.

この処理は、各画素毎に実行され、各画素対応の白とび度[Wr]が算出されて偽色度計算部307に出力される。なお、図11に示すルックアップテーブル(LUT)は一例であり、これは偽色(PF)の発生態様を考慮して設定されたもので、特にこの形に限定されるものではない。   This process is performed for each pixel, and the whiteness [Wr] corresponding to each pixel is calculated and output to the false chromaticity calculation unit 307. Note that the look-up table (LUT) shown in FIG. 11 is an example, which is set in consideration of the generation mode of false colors (PF), and is not particularly limited to this form.

紫度計算部306
次に、図3に示す紫度計算部306の処理の詳細について説明する。紫度計算部306は、図3に示すように、入力画像351の色差成分[C]353を入力し、色差成分[C]353に基づく紫度[Pr]358を算出し、算出した紫度[Pr]358を偽色度計算部307に出力する処理を実行する。紫度計算部306の処理について説明する。
Purpleness calculator 306
Next, details of the processing of the purpleness calculation unit 306 shown in FIG. 3 will be described. As shown in FIG. 3, the purpleness calculation unit 306 inputs the color difference component [C] 353 of the input image 351, calculates the purpleness [Pr] 358 based on the color difference component [C] 353, and calculates the calculated purpleness A process of outputting [Pr] 358 to the false chromaticity calculation unit 307 is executed. The processing of the purple degree calculation unit 306 will be described.

紫度計算部306において処理を実行する注目画素(x,y)の色差成分[C]データを(Cr,Cb)とする。本実施例では、YCbCr色空間に展開したデータに対して処理を実行する例であり、色情報としてはCbCr色差平面において、各画素の色情報が定義される。紫度計算部306は、注目画素(x,y)の色差データ(Cb,Cr)を入力として、偽色(PF)の色相への近さ情報としての紫度[Pr(x,y)]を各注目画素毎に算出して偽色度計算部307に出力する。   The color difference component [C] data of the pixel of interest (x, y) to be processed in the purpleness calculation unit 306 is defined as (Cr, Cb). The present embodiment is an example in which processing is executed on data developed in the YCbCr color space. As color information, color information of each pixel is defined in the CbCr color difference plane. The purple degree calculation unit 306 receives the color difference data (Cb, Cr) of the target pixel (x, y) as an input, and the purple degree [Pr (x, y)] as the proximity information to the hue of the false color (PF). Is calculated for each pixel of interest and output to the false chromaticity calculator 307.

紫度[Pr(x,y)]は、0.0〜1.0の値で表され、Pr=0.0は、偽色(PF)色相から遠い色であることを表し、Pr=1.0は、最も偽色(PF)色相に近い色であることを表す。   Purple degree [Pr (x, y)] is represented by a value of 0.0 to 1.0, and Pr = 0.0 represents a color far from a false color (PF) hue, and Pr = 1. .0 indicates that the color is closest to the false color (PF) hue.

図12を用いて、CbCr色差平面における偽色(PF)色相と、紫度[Pr]の設定例について説明する。図12に示すグラフは、CbCr色差平面を示し、図中のライン601(Fθ)は、CbCr色差平面における偽色(PF)の色相に対応する偽色(PF)色相ライン601である。典型的なパープルフリンジは、この偽色(PF)色相ライン601上の色相を持つ。 An example of setting the false color (PF) hue and purpleness [Pr] on the CbCr color difference plane will be described with reference to FIG. The graph shown in FIG. 12 shows the CbCr color difference plane, and the line 601 (F θ ) in the figure is a false color (PF) hue line 601 corresponding to the hue of the false color (PF) in the CbCr color difference plane. A typical purple fringe has a hue on this false color (PF) hue line 601.

図中のライン602は、一例として示す注目画素(x,y)の色相に対応する注目画素色相ライン602である。注目画素色相ライン602が、偽色(PF)色相ライン601に近いほど、注目画素(x,y)の色相は偽色(PF)色相に近い色相であり、注目画素色相ライン602が、偽色(PF)色相ライン601から遠いほど、注目画素(x,y)の色相は偽色(PF)色相から遠い色相である。   A line 602 in the drawing is a target pixel hue line 602 corresponding to the hue of the target pixel (x, y) shown as an example. The closer the target pixel hue line 602 is to the false color (PF) hue line 601, the closer the hue of the target pixel (x, y) is to the false color (PF) hue, and the target pixel hue line 602 is the false color. The farther from the (PF) hue line 601, the hue of the target pixel (x, y) is the farther from the false color (PF) hue.

図中のライン611,612は、偽色(PF)色相ライン601から角度:θmax回転させた色相ラインであり、紫度[Pr]0ライン611,612である。θmaxは予設定される角度であり、例えば30°に設定される。紫度[Pr]0ライン611,612から、偽色(PF)色相ライン601に近づくほど、紫度[Pr]の値は大きくなり、偽色(PF)色相ライン601上で、紫度[Pr]は1となる。すなわち、注目画素色相ライン602が、紫度[Pr]0ライン611,612の間にある場合、注目画素(x,y)の紫度[Pr]は0〜1の間に設定される。注目画素色相ライン602が、紫度[Pr]0ライン611,612の間にない場合、注目画素(x,y)の紫度[Pr]は0に設定される。 Lines 611 and 612 in the figure are hue lines rotated by an angle: θ max from the false color (PF) hue line 601, and are purpleness [Pr] 0 lines 611 and 612. θ max is a preset angle, for example, 30 °. The closer to the false color (PF) hue line 601 from the purple degree [Pr] 0 line 611, 612, the greater the value of purpleness [Pr], and the purple degree [Pr] on the false color (PF) hue line 601. ] Is 1. That is, when the target pixel hue line 602 is between the purple [Pr] 0 lines 611 and 612, the purple [Pr] of the target pixel (x, y) is set between 0 and 1. If the target pixel hue line 602 is not between the purple [Pr] 0 lines 611 and 612, the purple [Pr] of the target pixel (x, y) is set to zero.

注目画素(x,y)紫度[Pr(x,y)]は、以下の算出式によって求められる。

Figure 2006135744
・・・(式2)
上記式において、
θ:CbCr平面において、軸Cbと偽色(PF)色相ラインとのなす角
θ(x,y):CbCr平面において、軸Cbと注目画素色相ラインとのなす角
θmax:CbCr平面において、偽色(PF)色相ラインと紫度[Pr]0ラインのなす角、予設定される角度であり、例えば30°に設定される The pixel of interest (x, y) purpleness [Pr (x, y)] is obtained by the following calculation formula.
Figure 2006135744
... (Formula 2)
In the above formula,
F θ : Angle formed between the axis Cb and the false color (PF) hue line in the CbCr plane θ (x, y): Angle formed between the axis Cb and the target pixel hue line in the CbCr plane θ max : In the CbCr plane The angle formed by the false color (PF) hue line and the purple [Pr] 0 line is a preset angle, for example, set to 30 °.

このように、紫度計算部306は、入力画像351の色差成分[C]353を入力し、色差成分[C]353に基づく紫度[Pr]358を、上記算出式(式2)に従って算出し、算出した紫度[Pr]358を偽色度計算部307に出力する処理を実行する。   As described above, the purple degree calculation unit 306 receives the color difference component [C] 353 of the input image 351, and calculates the purple degree [Pr] 358 based on the color difference component [C] 353 according to the above calculation formula (Formula 2). Then, a process of outputting the calculated purpleness [Pr] 358 to the false chromaticity calculation unit 307 is executed.

偽色度計算部307
次に、偽色度計算部307の処理の詳細について説明する。偽色度計算部307は、図3に示すように、紫度計算部306から入力する紫度[Pr]358と、白とび度計算部305から入力する白とび度[Wr]356とに基づいて、偽色度[R]358を算出し、算出した偽色度[R]358を補正処理部310の各処理部、すなわち、画素彩度削減処理部311、画素色差成分ぼかし処理部312に出力する。
False chromaticity calculation unit 307
Next, details of the processing of the false chromaticity calculation unit 307 will be described. As illustrated in FIG. 3, the false chromaticity calculation unit 307 is based on the purpleness [Pr] 358 input from the purpleness calculation unit 306 and the whiteness degree [Wr] 356 input from the whiteness degree calculation unit 305. The false chromaticity [R] 358 is calculated, and the calculated false chromaticity [R] 358 is supplied to each processing unit of the correction processing unit 310, that is, the pixel saturation reduction processing unit 311 and the pixel color difference component blurring processing unit 312. Output.

偽色度計算部307は、以下の算出式に従って、注目画素(x,y)の偽色度[PFr(x,y)]を、注目画素(x,y)の紫度[Pr(x,y)]と、注目画素(x,y)の白とび度[Wr(x,y)]とに基づいて算出する。
PFr(x,y)=Pr(x,y)×Wr(x,y) ・・・(式3)
The false chromaticity calculation unit 307 calculates the false chromaticity [PFr (x, y)] of the target pixel (x, y) and the purpleness [Pr (x, y) of the target pixel (x, y) according to the following calculation formula. y)] and the overexposure degree [Wr (x, y)] of the target pixel (x, y).
PFr (x, y) = Pr (x, y) × Wr (x, y) (Formula 3)

上記式(式3)は、注目画素(x,y)の偽色度[PFr(x,y)]を、注目画素(x,y)の紫度[Pr(x,y)]と、注目画素(x,y)の白とび度[Wr(x,y)]との乗算によって算出することを示している。   The above formula (formula 3) is obtained by changing the false chromaticity [PFr (x, y)] of the target pixel (x, y) and the purple degree [Pr (x, y)] of the target pixel (x, y) The calculation is performed by multiplying the whiteness [Wr (x, y)] of the pixel (x, y).

上記式(式3)において、紫度[Pr(x,y)]は0〜1の値であり、白とび度[Wr(x,y)]も0〜1の値であるので、偽色度[PFr(x,y)]も0〜1の範囲で設定されることになる。偽色度[R]=1.0が偽色度が最も高い、すなわち注目画素が偽色(PF)である可能性が最も高いことを示し、偽色度[R]=0.0が偽色度が最も低い、すなわち注目画素が偽色(PF)である可能性が最も低いことを示す。   In the above formula (formula 3), the purpleness [Pr (x, y)] is a value from 0 to 1, and the whiteness [Wr (x, y)] is also a value from 0 to 1. The degree [PFr (x, y)] is also set in the range of 0-1. False chromaticity [R] = 1.0 indicates the highest false chromaticity, that is, indicates that the pixel of interest is most likely a false color (PF), and false chromaticity [R] = 0.0 is false. It indicates that the chromaticity is the lowest, that is, the possibility that the target pixel is a false color (PF) is the lowest.

以上の処理が、図3に示す補正パラメータ(偽色度)算出部300の処理の詳細であり、この処理によって、注目画素(x,y)に対応する偽色度R(x,y)が設定されて、補正処理部310の、画素彩度削減処理部311画素色差成分ぼかし処理部312において、偽色度R(x,y)を適用した画素値補正処理が実行される。   The above processing is the details of the processing of the correction parameter (false chromaticity) calculation unit 300 shown in FIG. 3, and the false chromaticity R (x, y) corresponding to the target pixel (x, y) is obtained by this processing. The pixel value correction process to which the false chromaticity R (x, y) is applied is executed in the pixel saturation reduction processing unit 311 and the pixel color difference component blurring processing unit 312 of the correction processing unit 310.

以下、補正処理部310の画素彩度削減処理部311画素色差成分ぼかし処理部312において実行する処理の詳細について、順次説明する。   Hereinafter, details of processing executed in the pixel saturation reduction processing unit 311 and pixel color difference component blur processing unit 312 of the correction processing unit 310 will be sequentially described.

画素彩度削減処理部311
画素彩度削減処理部311は、図3に示すように、入力画像351の色差成分[C]353を入力し、補正パラメータ(偽色度)算出部300から入力する偽色度[R]359に基づいて偽色(PF)画素部分の彩度削減処理を行い、偽色(PF)部分彩度削減結果画像[Cs]361を画素色差成分ぼかし処理部312に出力する。
Pixel saturation reduction processing unit 311
As illustrated in FIG. 3, the pixel saturation reduction processing unit 311 receives the color difference component [C] 353 of the input image 351 and inputs the false chromaticity [R] 359 input from the correction parameter (false chromaticity) calculation unit 300. The false color (PF) pixel portion saturation reduction process is performed based on the above, and the false color (PF) partial saturation reduction result image [Cs] 361 is output to the pixel color difference component blur processing unit 312.

画素彩度削減処理部311の具体的な処理について説明する。画素彩度削減処理部311は、入力画像351の色差成分[C]353に基づいて取得される注目画素(x,y)のCrCb各成分のオリジナル彩度C(x,y)CrとC(x,y)Cbと、補正パラメータ(偽色度)算出部300から入力する注目画素(x,y)偽色度[R(x,y)]とに基づいて、下式(式4)に従って、彩度削減後の注目画素(x,y)のCrCb各成分の削減彩度Cs(x,y)CrとCs(x,y)Cbを算出する。
Cs(x,y)Cr=C(x,y)Cr×{1.0−R(x,y)}
Cs(x,y)Cb=C(x,y)Cb×{1.0−R(x,y)}
・・・(式4)
A specific process of the pixel saturation reduction processing unit 311 will be described. The pixel saturation reduction processing unit 311 performs original saturation C (x, y) Cr and C () of each component of CrCb of the target pixel (x, y) acquired based on the color difference component [C] 353 of the input image 351. x, y) Cb and the target pixel (x, y) false chromaticity [R (x, y)] input from the correction parameter (false chromaticity) calculation unit 300 according to the following equation (equation 4). Then, the reduced saturation Cs (x, y) Cr and Cs (x, y) Cb of each component of CrCb of the target pixel (x, y) after saturation reduction are calculated.
Cs (x, y) Cr = C (x, y) Cr * {1.0-R (x, y)}
Cs (x, y) Cb = C (x, y) Cb × {1.0−R (x, y)}
... (Formula 4)

上記式(式4)において、注目画素(x,y)の偽色度[R(x,y)]は0〜1の範囲の値であり、注目画素(x,y)の偽色度が高いほど1に近い値をとる。上記式において、
{1.0−R(x,y)}
は、注目画素(x,y)の偽色度が高いほど値が小さく0に近くなり、上記式(式4)は、オリジナル彩度C(x,y)に対して、{1.0−R(x,y)}の値を乗算する処理であるので、注目画素(x,y)の偽色度が高いほど彩度の削減される度合いが高くなる。
In the above formula (formula 4), the false chromaticity [R (x, y)] of the target pixel (x, y) is a value in the range of 0 to 1, and the false chromaticity of the target pixel (x, y) is The higher the value, the closer to 1. In the above formula,
{1.0-R (x, y)}
Is smaller and close to 0 as the false chromaticity of the pixel of interest (x, y) is higher, and the above equation (Equation 4) becomes {1.0− for the original saturation C (x, y). Since it is a process of multiplying the value of R (x, y)}, the higher the false chromaticity of the target pixel (x, y), the higher the degree of reduction in saturation.

すなわち、上記式(式4)は、注目画素(x,y)の偽色度が高い(1に近い)ほど、彩度を落とし、注目画素(x,y)の偽色度が低い(0に近い)ほど、彩度の落としかたを弱める処理を実行することを意味している。画素彩度削減処理部311は、上記処理によって生成した彩度削減結果画像[Cs]361を画素色差成分ぼかし処理部312に出力する。   That is, in the above formula (formula 4), the higher the false chromaticity of the target pixel (x, y) (closer to 1), the lower the saturation and the lower the false chromaticity of the target pixel (x, y) (0). Means that the processing to weaken the saturation reduction is executed. The pixel saturation reduction processing unit 311 outputs the saturation reduction result image [Cs] 361 generated by the above processing to the pixel color difference component blur processing unit 312.

画素色差成分ぼかし処理部312
次に、画素色差成分ぼかし処理部312の処理について説明する。画素色差成分ぼかし処理部312は、画素彩度削減処理部311から入力する彩度削減結果画像[Cs]361における色差成分に対してBlurを掛ける処理、すなわち、ぼかし処理を実行する。画素色差成分ぼかし処理部312は、彩度削減処理を施した画素と周囲画素の色相の差分を減少させる処理を実行する。
Pixel color difference component blur processing unit 312
Next, processing of the pixel color difference component blur processing unit 312 will be described. The pixel color difference component blurring processing unit 312 executes a process of multiplying the color difference component in the saturation reduction result image [Cs] 361 input from the pixel saturation reduction processing unit 311, that is, a blurring process. The pixel color difference component blurring processing unit 312 executes a process of reducing the hue difference between the pixel subjected to the saturation reduction process and the surrounding pixels.

なお、画素色差成分ぼかし処理部312において実行するぼかし処理は全ての画素について行なうのではなく、彩度削減処理の実行された画素を含む画素領域が処理対象として選択されぼかし処理が実行される。画素色差成分ぼかし処理部312は、この処理対象領域の選択のために偽色度[R]359を入力し、偽色度[R]359≠0の画素を選択し、ぼかし処理の処理対象領域を決定してぼかし処理を行なう。画素色差成分ぼかし処理部312の処理の詳細について、図13に示す処理フローを参照して説明する。なお、図13に示す処理フローは、図5のフローチャートのステップS109の偽色(PF)画素色差成分ぼかし処理の詳細処理に対応する。   Note that the blurring process executed in the pixel color difference component blurring processing unit 312 is not performed for all the pixels, but a pixel region including a pixel on which the saturation reduction process has been performed is selected as a processing target and the blurring process is performed. The pixel chrominance component blurring processing unit 312 receives the false chromaticity [R] 359 for selecting the processing target area, selects a pixel with the false chromaticity [R] 359 ≠ 0, and performs the blurring processing target area. And blur processing is performed. Details of the processing of the pixel color difference component blur processing unit 312 will be described with reference to the processing flow shown in FIG. The process flow shown in FIG. 13 corresponds to the detailed process of the false color (PF) pixel color difference component blurring process in step S109 of the flowchart of FIG.

画素色差成分ぼかし処理部312における処理は、彩度補正を行った部分の彩度変化を平滑にすると共に、彩度を落とした部分と、そうでない通常画素部分の境界部をなじませるためにBlur(ぼかし)を掛ける処理である。このBlur処理に関しても、処理の軽量化および回路規模の削減の観点から、注目画素の左右に存在するスキャンラインに沿った画素の画素情報のみを用いて処理を行う。   The processing in the pixel color difference component blurring processing unit 312 smoothes the saturation change in the portion where the saturation correction has been performed, and blends the portion where the saturation is reduced with the boundary portion between the normal pixel portion which is not so. (Blurring) is applied. The Blur process is also performed using only pixel information of pixels along the scan line existing on the left and right of the target pixel from the viewpoint of reducing the processing weight and reducing the circuit scale.

なお、図13に示す処理フローも、前述の他のフローと同様、2つの枠、すなわち、For(y=0;y<height;y=y+1)と示す外枠と、For(x=0;x<width;x=x+1)として示す内枠とを有し、処理対象画像フレームにおける(x=0〜width,y=0〜height)の構成画素について、順次各ステップの処理が実行される。ただし、画素色差成分ぼかし処理部312は、偽色度[R]≠0の画素を選択し、ぼかし処理の処理対象領域を決定してぼかし処理を行なう。従って、ステップS501の前段階として、入力画素が、偽色度[R]≠0の画素であるか否かを判定した後、偽色度[R]≠0の画素である場合にのみ、これを注目画素(x,y)として選択して、ステップS501以下の処理を実行することになる。   Note that the processing flow shown in FIG. 13 is also similar to the above-described other flows, that is, two frames, that is, an outer frame indicated as For (y = 0; y <height; y = y + 1), and For (x = 0; x <width; x = x + 1), and the processing of each step is sequentially performed on the constituent pixels of (x = 0 to width, y = 0 to height) in the processing target image frame. However, the pixel color difference component blurring processing unit 312 selects a pixel with false chromaticity [R] ≠ 0, determines a processing target area for blurring processing, and performs blurring processing. Therefore, as a step before step S501, after determining whether or not the input pixel is a pixel with false chromaticity [R] ≠ 0, only when this is a pixel with false chromaticity [R] ≠ 0. Is selected as the target pixel (x, y), and the processing in step S501 and subsequent steps is executed.

図13に示すフローチャートの各ステップの処理について説明する。ステップS501は初期設定であり、注目画素(x,y)に対して、ぼかし処理を実行するか否かを示すフラグ[flag]である[execBlur]=falseとして、ぼかしをかけない設定のフラグに初期設定する。   The process of each step of the flowchart shown in FIG. 13 will be described. Step S501 is an initial setting, and the flag [flag] that indicates whether or not to perform the blurring process on the pixel of interest (x, y) is set as [execBlue] = false. Initial setting.

その後、ステップS502では、注目画素(x,y)周辺の取得可能な参照画素の画素情報として、周辺画素(s,y)の偽色度R(s,y)を取得し、周辺画素(s,y)の偽色度R(s,y)が0より大の画素が検出された場合(ステップS503:Yes)に、ステップS504において、ぼかし処理を実行するか否かを示すフラグ[flag]である[execBlur]=trueとして、ぼかしを実行する設定のフラグに更新する。なお、注目画素の近傍領域から取得可能な参照画素情報は、スキャンラインに沿って注目画素に近接する画素の画素情報である。例えば、注目画素を中心として、左右j(例えばj=7)画素を探索範囲として画素情報[偽色度R(s,y)]を取得して、ステップS502(S503〜S504)の処理を実行する。   Thereafter, in step S502, the false chromaticity R (s, y) of the peripheral pixel (s, y) is acquired as the pixel information of the reference pixels that can be acquired around the target pixel (x, y), and the peripheral pixel (s , Y) When a pixel having a false chromaticity R (s, y) greater than 0 is detected (step S503: Yes), a flag [flag] indicating whether or not to perform blurring processing in step S504. [ExecBlur] = true, the flag is updated to a setting for performing blurring. Note that the reference pixel information that can be acquired from the region near the target pixel is pixel information of a pixel that is close to the target pixel along the scan line. For example, pixel information [false chromaticity R (s, y)] is acquired using the left and right j (for example, j = 7) pixels as a search range centering on the target pixel, and the processing of steps S502 (S503 to S504) is executed. To do.

次に、ステップS505において、フラグ[execBlur]が[true]に設定されていると判定した場合は、ステップS507に進み、注目画素(x,y)を中心にぼかし(Blur)フィルタを掛ける処理を実行する。ぼかし(Blur)フィルタによる注目画素(x,y)のぼかし処理後の色成分[Blur(Cs(x,y))]は、以下の式(式5)で算出される。

Figure 2006135744
・・・(式5) Next, in step S505, if it is determined that the flag [execBlur] is set to [true], the process proceeds to step S507, and processing for applying a blur filter around the pixel of interest (x, y) is performed. Execute. The color component [Blur (Cs (x, y))] after the blurring process of the pixel of interest (x, y) by the blur filter is calculated by the following formula (Formula 5).
Figure 2006135744
... (Formula 5)

上記式に従って、注目画素(x,y)のCr,Cbに対して行い、それぞれのぼかし処理後の色成分[Blur(Cs(x,y))]を算出する。なお、上記式において、
Cs(x,y)は、注目画素(x,y)の彩度削減後の色成分[Cs(x,y)]
Cs(x+i,y)、Cs(x−i,y)は、注目画素(x,y)のスキャンライン上の±i画素移動した画素における彩度削減後の色成分[Cs]
を示している。
According to the above formula, the process is performed on Cr and Cb of the target pixel (x, y), and the color component [Blur (Cs (x, y))] after each blurring process is calculated. In the above formula,
Cs (x, y) is a color component [Cs (x, y)] after saturation reduction of the pixel of interest (x, y).
Cs (x + i, y) and Cs (x−i, y) are color components [Cs] after saturation reduction in a pixel moved ± i pixels on the scan line of the pixel of interest (x, y).
Is shown.

上記式では、注目画素の±7画素の色成分を適用したぼかし処理を実行した例である。なお、ぼかし処理の態様は、上記式(式5)を適用したものに限定されるものではなく、彩度を落とした部分と、そうでない通常画素部分の境界部をなじませる効果のある処理であれば、その他の態様によるぼかし処理でもよい。   The above formula is an example in which the blurring process is performed by applying the color component of ± 7 pixels of the target pixel. Note that the mode of the blurring process is not limited to the one to which the above formula (Formula 5) is applied, but is a process having an effect of blending the boundary portion between the desaturated portion and the other normal pixel portion. If it exists, the blurring process according to another aspect may be performed.

画素色差成分ぼかし処理部312では、上述の処理を実行して、図3に示すように、補正結果としての補正色差成分画像[Ctemp]362を生成し出力する。補正色差成分画像[Ctemp]362は、輝度成分[Y]365と合成されて、最終的なYCbCr出力画像371として出力される。この補正処理の結果としての出力YCbCr出力画像371が画像処理装置内のメモリに格納され、またモニタ手段などの出力部に出力される。   The pixel color difference component blurring processing unit 312 executes the above-described processing, and generates and outputs a corrected color difference component image [Ctemp] 362 as a correction result, as shown in FIG. The corrected color difference component image [Ctemp] 362 is combined with the luminance component [Y] 365 and output as a final YCbCr output image 371. An output YCbCr output image 371 as a result of this correction processing is stored in a memory in the image processing apparatus, and is output to an output unit such as a monitor unit.

なお、上述した実施例の処理はYcbCr色空間を適用した処理として説明したが、その他の色空間、例えばCIEL*a*b*空間など、輝度情報と色相情報とが分かれている情報であれば、上述した本発明に従った処理が適用可能である。   Note that the processing of the above-described embodiment has been described as processing using the YcbCr color space. However, in other color spaces, for example, a CIEL * a * b * space, any information in which luminance information and hue information are separated can be used. The processing according to the present invention described above can be applied.

上述した本発明の処理により、時間の要する白とび検出処理を縮小画像に基づいて実行することで処理時間を短縮することが可能となり、また、偽色度算出に適用する紫度を現フレームに基づいて取得し、白とび度を前フレームに基づいて取得する構成とすることで、処理時間の遅延を防止することが可能となり、所定のフレームレートで入力する動画像データをリアルタイムで補正することが可能であり、パープルフリンジ等の偽色の彩度削減処理およびぼかし処理により高品質な補正画像データを生成することができる。   With the above-described processing of the present invention, it is possible to shorten the processing time by executing the time-consuming whiteout detection processing based on the reduced image, and the purpleness applied to the false chromaticity calculation is set to the current frame. It is possible to prevent the processing time from being delayed, and to correct moving image data input at a predetermined frame rate in real time. Therefore, it is possible to generate high-quality corrected image data through a false color saturation reduction process such as purple fringe and a blurring process.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.

また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   The series of processes described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and executed.

例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。   For example, the program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a recording medium. Alternatively, the program is temporarily or permanently stored on a removable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored (recorded). Such a removable recording medium can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The program is installed on the computer from the removable recording medium as described above, or is wirelessly transferred from the download site to the computer, or is wired to the computer via a network such as a LAN (Local Area Network) or the Internet. The computer can receive the program transferred in this manner and install it on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   The various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本発明の構成によれば、処理画像の構成画素の補正パラメータとして、各画素に対応する偽色度を算出し、算出した偽色度に基づいて各画素の彩度削減処理を実行する構成とし、補正パラメータとしての偽色度の算出処理においては、縮小画像を生成し、時間の要する白とび検出処理を縮小画像に基づいて実行する構成としたので、計算量の削減により処理時間の短縮が可能となる。また、偽色度算出に適用する紫度を現フレーム(n)に基づいて取得し、白とび度を前フレーム(n−1)に基づいて取得する構成としたので、処理時間の遅延の防止が可能となり、所定のフレームレートで入力する動画像データのリアルタイムでの補正処理が可能となり、パープルフリンジ等の偽色の彩度削減処理およびぼかし処理を実行することで高品質な補正画像データの高速生成処理が実現される。   As described above, according to the configuration of the present invention, the false chromaticity corresponding to each pixel is calculated as the correction parameter of the constituent pixel of the processed image, and the saturation of each pixel is calculated based on the calculated false chromaticity. In the calculation process of the false chromaticity as the correction parameter, the reduced image is generated, and the time-consuming whiteout detection process is executed based on the reduced image. The processing time can be shortened by the reduction. Further, since the purple degree applied to the false chromaticity calculation is acquired based on the current frame (n) and the overexposure degree is acquired based on the previous frame (n−1), the processing time is prevented from being delayed. Real-time correction processing of moving image data input at a predetermined frame rate is possible, and high-quality corrected image data can be corrected by executing false color saturation reduction processing such as purple fringe and blurring processing. High-speed generation processing is realized.

さらに、本発明の構成によれば、補正パラメータとしての偽色度の算出において、注目画素の色相が偽色色相と類似し、白とび画素からの距離が近いほど、大きな値の偽色度を算出する構成とし、画素彩度削減処理においては、この偽色度に基づいて各画素の彩度削減処理を実行する構成としたので、偽色度のレベルに応じた最適な彩度削減処理が実現され、パープルフリンジ等の偽色画素の存在する画像データから偽色画素を効率的に抽出した補正手処理が可能となり、効率的な高品質補正画像データの生成が可能となる。   Furthermore, according to the configuration of the present invention, in the calculation of the false chromaticity as the correction parameter, the larger the false chromaticity is as the hue of the target pixel is similar to the false hue and the distance from the overexposed pixel is shorter. In the pixel saturation reduction process, the saturation reduction process for each pixel is executed based on this false chromaticity, so that the optimal saturation reduction process according to the false chromaticity level is performed. Realized, it is possible to perform manual correction processing that efficiently extracts false color pixels from image data in which false color pixels such as purple fringes exist, and it is possible to efficiently generate high-quality corrected image data.

本発明の画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus of this invention. 本発明の画像処理装置のデジタル信号処理部(DSP)の処理構成について説明する図である。It is a figure explaining the processing structure of the digital signal processing part (DSP) of the image processing apparatus of this invention. 本発明の画像処理装置のデジタル信号処理部(DSP)の偽色(PF)補正処理手段の処理構成について説明する図である。It is a figure explaining the processing structure of the false color (PF) correction | amendment process means of the digital signal processing part (DSP) of the image processing apparatus of this invention. 本発明の画像処理装置のデジタル信号処理部(DSP)の偽色(PF)補正処理手段の処理シーケンスについて説明する図である。It is a figure explaining the processing sequence of the false color (PF) correction | amendment process means of the digital signal processing part (DSP) of the image processing apparatus of this invention. 本発明の画像処理装置のデジタル信号処理部(DSP)の偽色(PF)補正処理手段の処理手順について説明するフロー図である。It is a flowchart explaining the process sequence of the false color (PF) correction | amendment process means of the digital signal processing part (DSP) of the image processing apparatus of this invention. 偽色(PF)補正処理手段の実行する縮小画像生成処理の処理手順について説明するフロー図である。It is a flowchart explaining the process sequence of the reduced image generation process which a false color (PF) correction process means performs. 偽色(PF)補正処理手段の実行する縮小画像生成処理の処理について説明する図である。It is a figure explaining the process of the reduced image generation process which a false color (PF) correction process means performs. 偽色(PF)補正処理手段の実行する白とび検出処理の処理手順について説明するフロー図である。It is a flowchart explaining the process sequence of the overexposure detection process which a false color (PF) correction process means performs. 偽色(PF)補正処理手段の実行する白とび検出マップの拡大処理の処理手順について説明するフロー図である。It is a flowchart explaining the process sequence of the expansion process of the overexposure detection map which a false color (PF) correction process means performs. 偽色(PF)補正処理手段の実行する白とび検出マップの拡大処理の処理について説明する図である。It is a figure explaining the process of the expansion process of the overexposure detection map which a false color (PF) correction process means performs. 白とび度計算部の適用するルックアップテーブル(LUT)について説明する図である。It is a figure explaining the look-up table (LUT) which a white spot degree calculation part applies. CbCr色差平面における偽色(PF)色相と、紫度[Pr]の設定例について説明する図である。It is a figure explaining the example of a setting of the false color (PF) hue and purple degree [Pr] in a CbCr color difference plane. 画素色差成分ぼかし処理部の処理の詳細について説明するフロー図である。It is a flowchart explaining the detail of a process of a pixel color difference component blurring process part.

符号の説明Explanation of symbols

101 レンズ
102 絞り
103 固体撮像素子
104 相関2重サンプリング回路
105 A/Dコンバータ
106 DSPブロック
107 タイミングジェネレータ
108 D/Aコンバータ
109 ビデオエンコーダ
110 ビデオモニタ
111 コーデック(CODEC)
112 メモリ
113 CPU
114 入力デバイス
201 ホワイトバランス調整手段
202 ガンマ補正処理手段
203 デモザイク処理手段
204 YcbCr変換手段
205 エッジ強調処理手段
206 偽色(PF)補正処理手段
251 モザイク画像データ
252 YCbCr画像
300 補正パラメータ(偽色度)算出部
301 縮小処理部
302 白とび検出部
303 メモリ
304 縮小白とび検出マップ拡大部
305 白とび度計算部
306 紫度計算部
307 偽色度計算部
310 補正処理部
311 画素彩度削減処理部
312 画素色差成分ぼかし処理部
351 YCbCr入力画像
371 YCbCr出力画像
381 撮影画像n
382 撮影画像n+1
410 オリジナル画像
411 部分画像データ
412 画素
420 縮小画像
421 画素
450 画像データ
451 点q
452 領域
601 偽色(PF)色相ライン
602 注目画素色相ライン
611,612 紫度[Pr]0ライン
DESCRIPTION OF SYMBOLS 101 Lens 102 Diaphragm 103 Solid-state image sensor 104 Correlated double sampling circuit 105 A / D converter 106 DSP block 107 Timing generator 108 D / A converter 109 Video encoder 110 Video monitor 111 Codec (CODEC)
112 memory 113 CPU
114 Input Device 201 White Balance Adjustment Unit 202 Gamma Correction Processing Unit 203 Demosaicing Processing Unit 204 YcbCr Conversion Unit 205 Edge Enhancement Processing Unit 206 False Color (PF) Correction Processing Unit 251 Mosaic Image Data 252 YCbCr Image 300 Correction Parameter (Pseudo Chromaticity) Calculation unit 301 Reduction processing unit 302 Whiteout detection unit 303 Memory 304 Reduction whiteout detection map enlargement unit 305 Whiteness calculation unit 306 Purpleness calculation unit 307 False chromaticity calculation unit 310 Correction processing unit 311 Pixel saturation reduction processing unit 312 Pixel color difference component blurring processing unit 351 YCbCr input image 371 YCbCr output image 381 Captured image n
382 Captured image n + 1
410 Original image 411 Partial image data 412 pixels 420 Reduced image 421 pixels 450 Image data 451 Point q
452 area 601 false color (PF) hue line 602 pixel of interest hue line 611,612 purple [Pr] 0 line

Claims (15)

画像処理装置であり、
処理画像の構成画素の補正パラメータとして、画素の偽色に対する類似性情報である画素対応の偽色度を算出する補正パラメータ算出部と、
前記偽色度を適用して、処理画像の構成画素の彩度削減処理を含む画素値補正処理を実行する補正処理部とを有し、
前記補正パラメータ算出部は、
処理画像に基づく縮小画像データを生成する縮小画像生成部と、
前記縮小画像生成部の生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行する白とび検出部とを有し、
前記白とび検出部の縮小画像に基づく白とび検出情報を適用して各画素に対応する偽色度を算出する構成であることを特徴とする画像処理装置。
An image processing device,
A correction parameter calculation unit that calculates a false chromaticity corresponding to a pixel, which is similarity information with respect to a false color of a pixel, as a correction parameter of a constituent pixel of a processed image;
A correction processing unit that applies the false chromaticity and executes a pixel value correction process including a saturation reduction process of the constituent pixels of the processed image;
The correction parameter calculation unit
A reduced image generation unit that generates reduced image data based on the processed image;
A whiteout detection unit that performs whiteout pixel detection as high-intensity pixels based on the reduced image data generated by the reduced image generation unit;
An image processing apparatus having a configuration for calculating false chromaticity corresponding to each pixel by applying whiteout detection information based on a reduced image of the whiteout detection unit.
前記補正パラメータ算出部は、
処理画像から選択された注目画素についての、
注目画素の色相と偽色の色相との類似性情報としての紫度を算出する紫度計算部と、
注目画素の白とび画素からの距離情報としての白とび度を算出する白とび度計算部と、
前記紫度および白とび度とに基づいて注目画素の偽色度を算出する偽色度算出部と、
を有する構成であることを特徴とする請求項1に記載の画像処理装置。
The correction parameter calculation unit
For the pixel of interest selected from the processed image
A purpleness calculator that calculates purpleness as similarity information between the hue of the target pixel and the false color;
A whiteness calculation unit that calculates a whiteness degree as distance information from a whiteout pixel of the target pixel;
A false chromaticity calculating unit that calculates the false chromaticity of the pixel of interest based on the purpleness and the whiteout degree;
The image processing apparatus according to claim 1, wherein the image processing apparatus includes:
前記白とび検出部は、
前記縮小画像生成部の生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行し、縮小画像における構成画素が白とび画素であるか否かを示すフラグ情報を持つ縮小白とび検出マップを生成しメモリに格納する構成であり、
前記補正パラメータ算出部は、
前記メモリに格納された縮小白とび検出マップの拡大処理を実行する白とびマップ拡大部を有し、
前記白とび度計算部は、
前記白とびマップ拡大部の拡大したマップに基づいて前記白とび度を算出する構成であることを特徴とする請求項2に記載の画像処理装置。
The overexposure detector is
Reduced overexposure detection having flag information indicating whether or not a constituent pixel in the reduced image is an overexposed pixel by executing overexposed pixel detection as a high-intensity pixel based on the reduced image data generated by the reduced image generation unit A configuration that generates a map and stores it in memory.
The correction parameter calculation unit
A whiteout map enlargement unit that executes enlargement processing of the reduced whiteout detection map stored in the memory;
The white jump calculation unit is
The image processing apparatus according to claim 2, wherein the overexposure degree is calculated based on an enlarged map of the overexposure map enlargement unit.
前記白とび度計算部は、
前記紫度計算部の処理対象画像フレームの前フレームに対する白とび検出処理の結果データとしてメモリに格納された白とび検出マップに基づいて白とび度を算出する構成であり、
前記偽色度算出部は、
フレームnの画像データに基づいて算出された紫度、およびフレームn−1の画像データに基づいて算出された白とび度とに基づいて注目画素の偽色度を算出する構成であることを特徴とする請求項2に記載の画像処理装置。
The white jump calculation unit is
The purpleness calculation unit is configured to calculate a whiteout degree based on a whiteout detection map stored in a memory as result data of a whiteout detection process with respect to a previous frame of a processing target image frame.
The false chromaticity calculation unit
The false chromaticity of the pixel of interest is calculated based on the purpleness calculated based on the image data of frame n and the whiteness calculated based on the image data of frame n-1. The image processing apparatus according to claim 2.
前記補正パラメータ算出部は、
(a)入力画像データに基づく縮小画像の生成および白とび検出処理、
(b)入力画像データに基づく紫度の計算処理、
(c)メモリに格納された前フレームの画像に基づく縮小白とび検出マップの拡大処理および該拡大結果としてのマップに基づく白とび度計算処理、
上記(a),(b),(c)の各処理を並列に実行する構成であることを特徴とする請求項2に記載の画像処理装置。
The correction parameter calculation unit
(A) Generation of reduced image based on input image data and overexposure detection processing;
(B) Purpleness calculation processing based on input image data;
(C) enlargement processing of a reduced whiteout detection map based on the image of the previous frame stored in the memory, and whiteout degree calculation processing based on the map as a result of the enlargement,
The image processing apparatus according to claim 2, wherein the processes (a), (b), and (c) are executed in parallel.
前記補正処理部は、
前記補正パラメータ算出部の算出する偽色度に基づいて各画素の彩度削減処理を実行する画素彩度削減処理部と、
画素彩度削減処理部の出力データに対して、彩度削減処理を施した画素と周囲画素の色相の差分を減少させるぼかし処理を実行するぼかし処理部を有する構成であることを特徴とする請求項1に記載の画像処理装置。
The correction processing unit
A pixel saturation reduction processing unit that executes saturation reduction processing of each pixel based on the false chromaticity calculated by the correction parameter calculation unit;
It is a configuration having a blurring processing unit that executes a blurring process for reducing a difference in hue between a pixel subjected to the saturation reduction process and a surrounding pixel with respect to output data of the pixel saturation reduction processing unit. Item 8. The image processing apparatus according to Item 1.
前記偽色はパープルフリンジであり、
前記補正パラメータ算出部は、
処理画像の構成画素の補正パラメータとして、画素のパープルフリンジに対する類似性情報である画素対応の偽色度を算出する構成であることを特徴とする請求項1乃至6いずれかに記載の画像処理装置。
The false color is purple fringe,
The correction parameter calculation unit
The image processing apparatus according to claim 1, wherein a false chromaticity corresponding to a pixel, which is similarity information with respect to a purple fringe of a pixel, is calculated as a correction parameter of a constituent pixel of the processed image. .
画像処理方法であり、
処理画像の構成画素の補正パラメータとして、画素の偽色に対する類似性情報である画素対応の偽色度を算出する補正パラメータ算出ステップと、
前記偽色度を適用して、処理画像の構成画素の彩度削減処理を含む画素値補正処理を実行する補正処理ステップとを有し、
前記補正パラメータ算出ステップは、
処理画像に基づく縮小画像データを生成する縮小画像生成ステップと、
前記縮小画像生成ステップにおいて生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行する白とび検出ステップと、
前記白とび検出ステップにおいて生成した縮小画像に基づく白とび検出情報を適用して各画素に対応する偽色度を算出する偽色度算出ステップと、
を有することを特徴とする画像処理方法。
An image processing method,
A correction parameter calculating step for calculating a false chromaticity corresponding to a pixel, which is similarity information with respect to a false color of a pixel, as a correction parameter of a constituent pixel of a processed image;
A correction process step of applying a false chromaticity and executing a pixel value correction process including a saturation reduction process of the constituent pixels of the processed image,
The correction parameter calculation step includes:
A reduced image generation step for generating reduced image data based on the processed image;
An overexposure detecting step for detecting overexposed pixels as high luminance pixels based on the reduced image data generated in the reduced image generation step;
A false chromaticity calculating step of calculating false chromaticity corresponding to each pixel by applying whiteout detection information based on the reduced image generated in the whiteout detection step;
An image processing method comprising:
前記補正パラメータ算出ステップは、
処理画像から選択された注目画素の色相と偽色の色相との類似性情報としての紫度を算出する紫度計算ステップと、
注目画素の白とび画素からの距離情報としての白とび度を算出する白とび度計算ステップと、
前記紫度および白とび度とに基づいて注目画素の偽色度を算出する偽色度算出ステップと、
を有することを特徴とする請求項8に記載の画像処理方法。
The correction parameter calculation step includes:
A purpleness calculating step for calculating purpleness as similarity information between the hue of the target pixel selected from the processed image and the hue of the false color;
A whiteness calculation step for calculating a whiteness degree as distance information from a whiteout pixel of the target pixel;
A false chromaticity calculating step of calculating a false chromaticity of the pixel of interest based on the purpleness and the whiteout degree;
The image processing method according to claim 8, further comprising:
前記白とび検出ステップは、
前記縮小画像生成ステップにおいて生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行し、縮小画像における構成画素が白とび画素であるか否かを示すフラグ情報を持つ縮小白とび検出マップを生成しメモリに格納する処理を実行するステップであり、
前記補正パラメータ算出ステップは、さらに、
前記メモリに格納された縮小白とび検出マップの拡大処理を実行する白とびマップ拡大ステップを有し、
前記白とび度計算ステップは、
前記白とびマップ拡大ステップの拡大したマップに基づいて前記白とび度を算出するステップであることを特徴とする請求項9に記載の画像処理方法。
The overexposure detecting step includes
Reduced whiteout detection having flag information indicating whether or not a constituent pixel in the reduced image is a whiteout pixel by executing whiteout pixel detection as a high luminance pixel based on the reduced image data generated in the reduced image generation step A step of executing a process of generating a map and storing it in a memory.
The correction parameter calculation step further includes:
A whiteout map enlargement step for executing enlargement processing of the reduced whiteout detection map stored in the memory;
The whiteout degree calculation step includes:
The image processing method according to claim 9, wherein the whiteout degree is calculated based on the enlarged map in the whiteout map enlargement step.
前記白とび度計算ステップは、
前記紫度計算ステップにおける処理対象画像フレームの前フレームに対する白とび検出処理の結果データとしてメモリに格納された白とび検出マップに基づいて白とび度を算出するステップであり、
前記偽色度算出ステップは、
フレームnの画像データに基づいて算出された紫度、およびフレームn−1の画像データに基づいて算出された白とび度とに基づいて注目画素の偽色度を算出するステップであることを特徴とする請求項9に記載の画像処理方法。
The whiteout degree calculation step includes:
A step of calculating a whiteout degree based on a whiteout detection map stored in a memory as result data of a whiteout detection process with respect to a previous frame of a processing target image frame in the purple degree calculating step;
The false chromaticity calculating step includes
It is a step of calculating the false chromaticity of the pixel of interest based on the purpleness calculated based on the image data of frame n and the whiteness calculated based on the image data of frame n-1. The image processing method according to claim 9.
前記補正パラメータ算出ステップは、
(a)入力画像データに基づく縮小画像の生成および白とび検出処理、
(b)入力画像データに基づく紫度の計算処理、
(c)メモリに格納された前フレームの画像に基づく縮小白とび検出マップの拡大処理および該拡大結果としてのマップに基づく白とび度計算処理、
上記(a),(b),(c)の各処理を並列に実行することを特徴とする請求項9に記載の画像処理方法。
The correction parameter calculation step includes:
(A) Generation of reduced image based on input image data and overexposure detection processing;
(B) Purpleness calculation processing based on input image data;
(C) enlargement processing of a reduced whiteout detection map based on the image of the previous frame stored in the memory, and whiteout degree calculation processing based on the map as a result of the enlargement,
The image processing method according to claim 9, wherein the processes (a), (b), and (c) are executed in parallel.
前記補正処理ステップは、
前記補正パラメータ算出ステップにおいて算出する偽色度に基づいて各画素の彩度削減処理を実行する画素彩度削減処理ステップと、
画素彩度削減処理ステップにおける処理結果としての出力データに対して、彩度削減処理を施した画素と周囲画素の色相の差分を減少させるぼかし処理を実行するぼかし処理ステップと、
を有することを特徴とする請求項8に記載の画像処理方法。
The correction processing step includes
A pixel saturation reduction processing step for performing saturation reduction processing of each pixel based on the false chromaticity calculated in the correction parameter calculation step;
A blurring process step for performing a blurring process for reducing a difference in hue between a pixel subjected to the saturation reduction process and a surrounding pixel with respect to output data as a processing result in the pixel saturation reduction process step;
The image processing method according to claim 8, further comprising:
前記偽色はパープルフリンジであり、
前記補正パラメータ算出ステップは、
処理画像の構成画素の補正パラメータとして、画素のパープルフリンジに対する類似性情報である画素対応の偽色度を算出するステップであることを特徴とする請求項8に記載の画像処理方法。
The false color is purple fringe,
The correction parameter calculation step includes:
9. The image processing method according to claim 8, which is a step of calculating a false chromaticity corresponding to a pixel, which is similarity information with respect to a purple fringe of a pixel, as a correction parameter of a constituent pixel of the processed image.
画像処理をコンピュータ上において実行させるコンピュータ・プログラムであり、
処理画像の構成画素の補正パラメータとして、画素の偽色に対する類似性情報である画素対応の偽色度を算出する補正パラメータ算出ステップと、
前記偽色度を適用して、処理画像の構成画素の彩度削減処理を含む画素値補正処理を実行する補正処理ステップとを有し、
前記補正パラメータ算出ステップは、
処理画像に基づく縮小画像データを生成する縮小画像生成ステップと、
前記縮小画像生成ステップにおいて生成した縮小画像データに基づく高輝度画素としての白とび画素検出を実行する白とび検出ステップと、
前記白とび検出ステップにおいて生成した縮小画像に基づく白とび検出情報を適用して各画素に対応する偽色度を算出する偽色度算出ステップと、
を有することを特徴とするコンピュータ・プログラム。
A computer program for executing image processing on a computer;
A correction parameter calculating step for calculating a false chromaticity corresponding to a pixel, which is similarity information with respect to a false color of a pixel, as a correction parameter of a constituent pixel of a processed image;
A correction process step of applying a false chromaticity and executing a pixel value correction process including a saturation reduction process of the constituent pixels of the processed image,
The correction parameter calculation step includes:
A reduced image generation step for generating reduced image data based on the processed image;
An overexposure detecting step for detecting overexposed pixels as high luminance pixels based on the reduced image data generated in the reduced image generation step;
A false chromaticity calculating step of calculating false chromaticity corresponding to each pixel by applying whiteout detection information based on the reduced image generated in the whiteout detection step;
A computer program characterized by comprising:
JP2004323591A 2004-11-08 2004-11-08 Image processing apparatus, image processing method, and computer program Expired - Fee Related JP4539299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004323591A JP4539299B2 (en) 2004-11-08 2004-11-08 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004323591A JP4539299B2 (en) 2004-11-08 2004-11-08 Image processing apparatus, image processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2006135744A true JP2006135744A (en) 2006-05-25
JP4539299B2 JP4539299B2 (en) 2010-09-08

Family

ID=36728855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004323591A Expired - Fee Related JP4539299B2 (en) 2004-11-08 2004-11-08 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP4539299B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006135745A (en) * 2004-11-08 2006-05-25 Sony Corp Image processing apparatus and image processing method, and computer program
JP2011086275A (en) * 2009-09-18 2011-04-28 Sony Corp Image processing device, imaging apparatus and imaging processing method, and program
US8115820B2 (en) 2007-11-16 2012-02-14 Canon Kabushiki Kaisha Image processing apparatus and image processing method
KR101257946B1 (en) 2011-08-08 2013-04-23 연세대학교 산학협력단 Device for removing chromatic aberration in image and method thereof
JP2014209689A (en) * 2013-04-16 2014-11-06 リコーイメージング株式会社 Imaging device and method
WO2016169205A1 (en) * 2015-04-20 2016-10-27 京东方科技集团股份有限公司 Display method and display device
CN111199524A (en) * 2019-12-26 2020-05-26 浙江大学 Purple edge correction method for image of adjustable aperture optical system
CN112887693A (en) * 2021-01-12 2021-06-01 浙江大华技术股份有限公司 Image purple border elimination method, equipment and storage medium

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032482A (en) * 1998-07-14 2000-01-28 Canon Inc Signal processing unit, signal processing method and storage medium thereof
JP2000244939A (en) * 1999-02-19 2000-09-08 Canon Inc Image processing unit, its method and computer-readable storage medium
JP2000261816A (en) * 1999-03-05 2000-09-22 Sharp Corp Solid-state image pickup device
JP2000354250A (en) * 1999-06-11 2000-12-19 Ricoh Co Ltd Image pickup device
JP2002095009A (en) * 2000-09-14 2002-03-29 Olympus Optical Co Ltd Electronic camera and printer
JP2002262299A (en) * 2001-02-28 2002-09-13 Seiko Epson Corp False color elimination device, false color elimination program, false color elimination method and digital camera
JP2004226272A (en) * 2003-01-23 2004-08-12 Seiko Epson Corp Method and apparatus for detecting stain defect
JP2004272578A (en) * 2003-03-07 2004-09-30 Minolta Co Ltd Image pickup unit and distortion correction method
JP2006115039A (en) * 2004-10-13 2006-04-27 Sony Corp Image processor, image processing method and computer program
JP2006121138A (en) * 2004-10-19 2006-05-11 Sony Corp Image processor, image processing method and computer program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032482A (en) * 1998-07-14 2000-01-28 Canon Inc Signal processing unit, signal processing method and storage medium thereof
JP2000244939A (en) * 1999-02-19 2000-09-08 Canon Inc Image processing unit, its method and computer-readable storage medium
JP2000261816A (en) * 1999-03-05 2000-09-22 Sharp Corp Solid-state image pickup device
JP2000354250A (en) * 1999-06-11 2000-12-19 Ricoh Co Ltd Image pickup device
JP2002095009A (en) * 2000-09-14 2002-03-29 Olympus Optical Co Ltd Electronic camera and printer
JP2002262299A (en) * 2001-02-28 2002-09-13 Seiko Epson Corp False color elimination device, false color elimination program, false color elimination method and digital camera
JP2004226272A (en) * 2003-01-23 2004-08-12 Seiko Epson Corp Method and apparatus for detecting stain defect
JP2004272578A (en) * 2003-03-07 2004-09-30 Minolta Co Ltd Image pickup unit and distortion correction method
JP2006115039A (en) * 2004-10-13 2006-04-27 Sony Corp Image processor, image processing method and computer program
JP2006121138A (en) * 2004-10-19 2006-05-11 Sony Corp Image processor, image processing method and computer program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006135745A (en) * 2004-11-08 2006-05-25 Sony Corp Image processing apparatus and image processing method, and computer program
US8115820B2 (en) 2007-11-16 2012-02-14 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2011086275A (en) * 2009-09-18 2011-04-28 Sony Corp Image processing device, imaging apparatus and imaging processing method, and program
KR101257946B1 (en) 2011-08-08 2013-04-23 연세대학교 산학협력단 Device for removing chromatic aberration in image and method thereof
JP2014209689A (en) * 2013-04-16 2014-11-06 リコーイメージング株式会社 Imaging device and method
WO2016169205A1 (en) * 2015-04-20 2016-10-27 京东方科技集团股份有限公司 Display method and display device
US10192518B2 (en) 2015-04-20 2019-01-29 Boe Technology Group Co., Ltd. Display method and display device
CN111199524A (en) * 2019-12-26 2020-05-26 浙江大学 Purple edge correction method for image of adjustable aperture optical system
CN111199524B (en) * 2019-12-26 2023-03-17 浙江大学 Purple edge correction method for image of adjustable aperture optical system
CN112887693A (en) * 2021-01-12 2021-06-01 浙江大华技术股份有限公司 Image purple border elimination method, equipment and storage medium

Also Published As

Publication number Publication date
JP4539299B2 (en) 2010-09-08

Similar Documents

Publication Publication Date Title
JP4770154B2 (en) Image processing apparatus, image processing method, and computer program
JP4479457B2 (en) Image processing apparatus, image processing method, and computer program
JP2004088149A (en) Imaging system and image processing program
JP2009124598A (en) Image processor, and image processing method
JP2014123809A (en) Imaging apparatus, imaging system, and imaging apparatus control method
JP2009268033A (en) Image processing device, imaging device, control method, program, and memory medium
KR20120025414A (en) Image processing apparatus, image processing method, and recording medium
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP2015186247A (en) Image processing system, control method, and program
JP2013038770A (en) Image processing device and control method for image processing device
JP4539278B2 (en) Image processing apparatus, image processing method, and computer program
JP5430379B2 (en) Imaging apparatus, control method thereof, and program
JP4539299B2 (en) Image processing apparatus, image processing method, and computer program
JP2009284009A (en) Image processor, imaging device, and image processing method
JP5291788B2 (en) Imaging device
EP3474532B1 (en) Image processing apparatus, image processing method, and program
JP2010178226A (en) Imaging apparatus, chromatic aberration suppressing method, and chromatic aberration suppressing circuit, and program
JP2009055415A (en) Camera
JP4960597B2 (en) White balance correction apparatus and method, and imaging apparatus
JP2009022044A (en) Image processing apparatus and image processing program
JP2009065691A (en) Image processing apparatus, recording medium and image processing program
JP4021306B2 (en) False color reduction device
JP2017183813A (en) Image processing device, image processing method, and program
JP2008079301A (en) Image capture device
JP2015076685A (en) Image processing device, photographing device, photographing system, image processing method, image processing program and memorizing medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees