JP2001167263A - Image processor - Google Patents

Image processor

Info

Publication number
JP2001167263A
JP2001167263A JP35084499A JP35084499A JP2001167263A JP 2001167263 A JP2001167263 A JP 2001167263A JP 35084499 A JP35084499 A JP 35084499A JP 35084499 A JP35084499 A JP 35084499A JP 2001167263 A JP2001167263 A JP 2001167263A
Authority
JP
Japan
Prior art keywords
shading correction
image processing
processing apparatus
aperture
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP35084499A
Other languages
Japanese (ja)
Other versions
JP4212741B2 (en
Inventor
Toshiaki Nakahira
寿昭 中平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP35084499A priority Critical patent/JP4212741B2/en
Publication of JP2001167263A publication Critical patent/JP2001167263A/en
Application granted granted Critical
Publication of JP4212741B2 publication Critical patent/JP4212741B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of suppressing an S/N from being lowered by a high frequency noise such as random noise when executing contour emphasizing processing together with shading correcting processing. SOLUTION: This device has an image pickup lens 1 for forming the image of incident light from an object at a focal position, a shading correcting means 13 for performing shading correction to input image data for the respective areas of one screen divided into plural areas and a contour emphasizing means 21 for setting a contour emphasizing quantity for each area. The contour emphasizing means 21 sets the contour emphasizing quantity corresponding to a gain quantity in the case of performing the shading correction from the shading correcting means 13 to the input image data for each area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタルカメラ等
の画像処理装置における画像データ入力時にシェーディ
ング補正を行うと共に輪郭を強調する画像処理装置に関
し、特に、シェーディング補正処理と輪郭強調処理とを
共に実行する場合の画質劣化を改善することができる画
像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus which performs shading correction and enhances an outline when inputting image data in an image processing apparatus such as a digital camera, and more particularly, executes both a shading correction processing and an outline enhancement processing. The present invention relates to an image processing apparatus capable of improving image quality degradation when performing image processing.

【0002】[0002]

【従来の技術】画像処理装置の入力画像には、被写体を
照らす太陽光あるいは照明装置の配光によりシェーディ
ング(輝度むら)が発生する。シェーディングは、照明
装置等により被写体を均一に照らすことにより除去でき
るが、そのためには特殊な照明装置を使用したり補助装
置を使用する必要があり、しかも、その照明装置や補助
装置の調整は非常に難しかった。したがって、一般的な
デジタルカメラ等の画像処理装置により被写体を撮影す
る場合には、シェーディングは必ず発生している。この
シェーディングを補正するためにデジタルカメラ等で
は、撮影した画像データに対してシェーディング補正処
理を行っている。シェーディング補正処理の方法につい
ては既に数多くの方法が知られている。例えば、差分法
は、以下のようにしてシェーディング補正を行う。無彩
色のサンプル板を撮影して得られた基準画像データに基
づいて各画素についての輝度目標値との差の値を演算
し、演算結果の値を各画素毎の補正データとして記憶す
る。次に通常の被写体を撮影した各画素毎の輝度情報に
対して、前記各画素毎の補正データを加減算することに
よりシェーディング補正を行う。また、濃度変換法で
は、無彩色のサンプル板を撮影して得られた基準画像デ
ータに基づいて、各画素についての基準画像データから
輝度目標値を得るための変換率を演算し、基準画像デー
タと演算結果の変換率とから濃度変換テーブルを作成し
て記憶する。次に通常の被写体を撮影した各画素毎の輝
度情報に対して、濃度変換テーブルから選出した変換率
に基づいて前記各画素毎の輝度情報を変換(乗算)する
ことによりシェーディング補正を行う。また、シェーデ
ィング補正の内容は、大きく分類して、輝度が高すぎる
部分を低下させる黒シェーディング補正と、逆に、輝度
が低すぎる部分を上昇させる白シェーディング補正とに
分類される。白シェーディング補正は、主にデジタルカ
メラのレンズ特性によって発生する「レンズの中心部分
に比べ周辺部分の画像データ出力が低下する」という現
象を例えば乗算機(主にゲインアップ)を用いて補正す
る。上記の白シェーディング補正をより精度良く実施す
るために、例えば、特開平6−319042号公報で
は、被写体の画像データを記録する前に、複数のエリア
に分割した校正板の基準画像データから各エリア毎の画
素の輝度平均値を求めておき、その輝度平均値により被
写体の画像データをシェーディング補正してから記録し
ている。この公報の例では、被写体の画像データを複数
のエリアに分割して各エリア毎の輝度平均値を求めてお
き、輝度平均値により被写体の画像データをシェーディ
ング補正して記録しているので、基準画像データに混入
するランダムノイズや校正板の表面テクスチャーの影響
を受けず、シェーディング補正が容易になる。
2. Description of the Related Art Shading (luminance unevenness) occurs in an input image of an image processing apparatus due to sunlight illuminating a subject or light distribution of a lighting device. Shading can be removed by illuminating the subject evenly with a lighting device or the like, but this requires the use of a special lighting device or an auxiliary device, and the adjustment of the lighting device and the auxiliary device is extremely difficult. It was difficult. Therefore, shading always occurs when a subject is photographed by a general image processing device such as a digital camera. In order to correct this shading, a digital camera or the like performs shading correction processing on captured image data. Many methods are already known for the shading correction method. For example, the difference method performs shading correction as follows. A value of a difference from a luminance target value for each pixel is calculated based on reference image data obtained by photographing an achromatic sample plate, and a value of the calculation result is stored as correction data for each pixel. Next, shading correction is performed by adding / subtracting the correction data for each pixel with respect to the luminance information for each pixel obtained by photographing a normal subject. In the density conversion method, a conversion rate for obtaining a luminance target value from the reference image data for each pixel is calculated based on reference image data obtained by photographing an achromatic sample plate, and the reference image data A density conversion table is created and stored based on the conversion rate of the calculation result. Next, shading correction is performed by converting (multiplying) the luminance information for each pixel with respect to the luminance information for each pixel obtained by photographing a normal subject based on the conversion rate selected from the density conversion table. The contents of the shading correction are broadly classified into black shading correction for lowering a portion where luminance is too high, and conversely, white shading correction for raising a portion where luminance is too low. The white shading correction corrects a phenomenon that the image data output in the peripheral portion is lower than that in the central portion of the lens, which is caused mainly by the lens characteristics of the digital camera, by using, for example, a multiplier (mainly gain up). In order to perform the white shading correction more accurately, for example, in Japanese Patent Application Laid-Open No. 6-319042, before recording image data of a subject, each area is obtained from the reference image data of the calibration plate divided into a plurality of areas. The average luminance value of each pixel is obtained, and the image data of the subject is subjected to shading correction based on the average luminance value before recording. In the example of this publication, the image data of the subject is divided into a plurality of areas to obtain an average luminance value for each area, and the image data of the subject is subjected to shading correction based on the average luminance value and recorded. Shading correction is facilitated without being affected by random noise mixed in the image data or the surface texture of the calibration plate.

【0003】一方、画像処理装置の出力画像において
は、細かい文字や細かい模様等の線が途切れたり、かす
れたりすることがある。この問題を解決するためには、
線や文字等の輪郭(エッジ)を強調する輪郭強調処理が
行われる。輪郭強調処理では、文字のシャープさやコン
トラストを改善するために、白から黒に変わる画素間の
濃度変化を急峻にすることにより、線や文字の輪郭を強
調する。すなわち、例えば、輪郭部(白から黒に変化す
る部分)の白側画素部分のゲインを増加させ、黒側画素
部分との濃度差を大きくする。ところが、例えば、特開
平6−319042号公報に記載された技術のように複
数のエリア毎にシェーディング補正処理を実施した後に
上記の輪郭補正処理を実施する場合、複数のエリア毎に
ゲインが切り替わるため各エリアの境界線がエッジ(輪
郭)状になって強調される。この各エリアの境界線部分
が強調される場合、再生画像上に線状のノイズとして現
れることになる。上記のシェーディング補正処理後の輪
郭強調処理によるノイズを除去する画像処理装置として
は、例えば、特公平7−40299号公報に記載された
画像処理装置がある。この公報の画像処理装置は、シェ
ーディング補正手段と輪郭強調処理を行なう処理手段と
を備え、輪郭強調処理をシェーディング補正処理の前に
行なうようにしている。また、輪郭強調処理後のシェー
ディング補正処理では、予め主走査方向に複数の画素か
らなるブロックを設けてブロック毎の輝度平均値を算出
し、その輝度平均値を用いてシェーディング補正を実行
している。したがって、この公報の例では、輪郭強調処
理をシェーディング補正処理の前に行うようにすること
で、シェーディング補正用のエリア境界に起因して再生
画像上に線状ノイズが発生することを防止することによ
り画質が劣化しないようにしている。
On the other hand, in an output image of an image processing apparatus, lines such as fine characters and fine patterns may be interrupted or blurred. To solve this problem,
An outline emphasis process is performed to emphasize the outline (edge) of a line or a character. In the contour emphasizing process, in order to improve the sharpness and contrast of a character, the contour of a line or a character is emphasized by sharply changing the density between pixels that change from white to black. That is, for example, the gain of the white side pixel portion of the contour portion (the portion that changes from white to black) is increased, and the density difference from the black side pixel portion is increased. However, for example, when performing the above-described contour correction processing after performing the shading correction processing for each of a plurality of areas as in the technique described in Japanese Patent Application Laid-Open No. 6-319042, the gain is switched for each of the plurality of areas. The boundary line of each area is emphasized in an edge (contour) shape. If the boundary between these areas is emphasized, it will appear as linear noise on the reproduced image. As an image processing apparatus for removing noise by the contour enhancement processing after the shading correction processing, there is an image processing apparatus described in Japanese Patent Publication No. 7-40299, for example. The image processing apparatus disclosed in this publication includes a shading correction unit and a processing unit that performs an outline emphasis process, and performs the outline emphasis process before the shading correction process. In the shading correction processing after the contour emphasis processing, a block including a plurality of pixels is provided in the main scanning direction in advance, an average luminance value for each block is calculated, and shading correction is performed using the average luminance value. . Therefore, in the example of this publication, by performing the outline emphasis processing before the shading correction processing, it is possible to prevent the occurrence of linear noise on the reproduced image due to the shading correction area boundary. To prevent image quality from deteriorating.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、特公平
7−40299号公報に記載された画像処理装置では、
シェーディング補正用のエリア境界に起因する固定パタ
ーンノイズ(Fixed Pattern Noise:以下FPNと記載
する)を防止しているだけであり、例えば、不規則に発
生するランダムノイズを防止する技術については開示さ
れていない。また、本公報の画像処理装置を用いてFP
Nを防止する技術は、上記した差分法等により各エリア
毎の補正データを加減算することによりシェーディング
補正を行う場合に限られている。もし、上記した濃度変
換法等により乗算機を用いてシェーディング補正を実施
する場合には、上記公報に記載されたようにシェーディ
ング補正手段と輪郭強調処理手段の構成順番を変えても
FPNは発生してしまうからである。更に、上記公報の
画像処理装置を用いて加減算機により白シェーディング
補正をした場合は、ホワイトバランスが崩れたり、色の
飽和度が補正を施さないブロックに比べ下がる等の問題
が発生する。また、上記公報の画像処理装置にて濃度変
換法等により乗算機を用いてシェーディング補正を実施
する場合には、ランダムノイズ成分が強調されてしま
う。また、上記した特開平6−319042号公報の画
像処理装置では、シェーディング補正値を算出する際の
精度を上げているのみであるので、シェーディング補正
処理後の画像に対するノイズを防止する技術については
何ら開示されていない。従って、ランダムノイズ等の高
周波ノイズに対するシグナル(S)/ノイズ(N)比を
向上させる技術については全く示唆も開示もされていな
い。ところが、一般的に、上記したようなシェーディン
グ補正処理や輪郭強調処理等のために入力画像データに
対するゲインを増加させると、ランダムノイズ成分もゲ
インが増加されてノイズレベルが上昇する。ランダムノ
イズがシェーディング補正が実行されるエリアに発生
し、そのランダムノイズに対して輪郭強調処理が実施さ
れると、ランダムノイズのレベルが再生画像上の線にな
って現れ、S/N比が低下する。また、デジタルカメラ
等の画像処理装置には、入射光量を調節できる絞りや、
倍率を調整できるズーム等を有しているものがあり、そ
のような画像処理装置では、絞り量やズーミング倍率等
の撮影条件によりシェーディング補正を実施するための
係数が変わる。例えば、1個のデジタルカメラを用いて
絞りを絞って撮影した場合には、各エリア毎のシェーデ
ィングはあまり顕著に発生しないことから、補正する為
のゲインも少なくなり、画質の劣化が発生することはな
いが、同じデジタルカメラを用いて絞りを開放して撮影
した場合には、シェーディングが非常に顕著に発生し、
補正する為のゲインも大きくなる結果、輪郭強調処理に
より画質の劣化が発生することがある。本発明は、上述
した如き従来の問題を解決するためになされたものであ
って、シェーディング補正処理と共に輪郭強調処理を実
行する場合であっても、ランダムノイズ等の高周波ノイ
ズに対してS/N比の低下を抑えることができる画像処
理装置を提供することを目的とする。
However, in the image processing apparatus described in Japanese Patent Publication No. 7-40299,
It merely prevents fixed pattern noise (hereinafter referred to as FPN) caused by shading correction area boundaries, and discloses, for example, a technique for preventing random noise that occurs irregularly. Absent. In addition, using the image processing apparatus of this publication,
The technique for preventing N is limited to the case where shading correction is performed by adding and subtracting correction data for each area by the above-described difference method or the like. If shading correction is performed using a multiplier by the above-described density conversion method or the like, FPN occurs even if the configuration order of the shading correction means and the contour emphasis processing means is changed as described in the above publication. It is because. Further, when white shading correction is performed by an adder / subtractor using the image processing apparatus disclosed in the above publication, problems such as a loss of white balance and a decrease in color saturation as compared with a block that is not corrected occur. Further, when the image processing apparatus of the above publication performs shading correction using a multiplier by a density conversion method or the like, a random noise component is emphasized. Also, in the image processing apparatus disclosed in Japanese Patent Application Laid-Open No. 6-319042, only the accuracy in calculating the shading correction value is increased, and there is no technique for preventing noise in the image after the shading correction processing. Not disclosed. Therefore, there is no suggestion or disclosure of a technique for improving the signal (S) / noise (N) ratio with respect to high-frequency noise such as random noise. However, generally, when the gain for the input image data is increased for the above-described shading correction processing, contour enhancement processing, and the like, the gain of the random noise component is also increased, and the noise level is increased. When random noise is generated in an area where shading correction is performed, and contour enhancement processing is performed on the random noise, the level of the random noise appears as a line on a reproduced image, and the S / N ratio decreases. I do. Also, image processing devices such as digital cameras have a diaphragm that can adjust the amount of incident light,
Some image processing apparatuses have a zoom or the like that can adjust the magnification. In such an image processing apparatus, a coefficient for performing shading correction varies depending on shooting conditions such as an aperture amount and a zooming magnification. For example, when a picture is taken with a narrow aperture using one digital camera, shading in each area does not occur so remarkably, so that the gain for correction is reduced and image quality is deteriorated. However, when shooting with the same digital camera with the aperture open, shading occurs very noticeably,
As a result of an increase in the gain for correction, the image quality may be degraded due to the outline emphasis processing. The present invention has been made to solve the conventional problem as described above. Even when the contour enhancement processing is performed together with the shading correction processing, the S / N ratio for high-frequency noise such as random noise is reduced. It is an object of the present invention to provide an image processing device capable of suppressing a decrease in the ratio.

【0005】[0005]

【課題を解決するための手段】上述の目的を達成するた
め、請求項1の本発明の画像処理装置は、被写体からの
入射光を焦点位置に結像させる撮像レンズと、入射光を
入力画像データに変換する受光手段と、1画面を複数エ
リアに分割した各エリア分の入力画像データに対してシ
ェーディング補正を行なうシェーディング補正手段と、
前記各エリア毎に輪郭強調量を設定する輪郭強調手段
と、を有する画像処理装置において、前記輪郭強調手段
は、前記シェーディング補正手段が入力画像データを前
記各エリア毎にシェーディング補正する際のゲイン量に
対応させて、輪郭強調量を設定することを特徴とする。
請求項2の本発明は、請求項1に記載した画像処理装置
において、被写体からの入射光の倍率を変更させるため
に撮像レンズの配置位置を変更可能なズーム手段と、前
記撮像レンズの配置位置の違いに応じて異なるシェーデ
ィング補正係数を予め記憶する記憶手段と、を備え、前
記シェーディング補正手段は、前記撮像レンズの配置位
置の違いに応じて異なるシェーディング補正係数を用い
て前記ゲイン量を決定することを特徴とする。請求項3
の本発明は、請求項1に記載した画像処理装置におい
て、入射光が通過可能な開口面積を変更することにより
入射光の光量を調整する絞り手段と、絞り手段の開口面
積に対応する絞り値の違いに応じて異なるシェーディン
グ補正係数を予め記憶する記憶手段と、を備え、前記シ
ェーディング補正手段は、前記絞り手段の絞り値の違い
に応じて異なるシェーディング補正係数を用いて前記ゲ
イン量を決定することを特徴とする。請求項4の本発明
は、請求項1に記載した画像処理装置において、被写体
までの距離に対応して撮像レンズの配置位置を変更可能
な合焦手段と、前記撮像レンズの配置位置の違いに応じ
て異なるシェーディング補正係数を予め記憶する記憶手
段と、を備え、前記シェーディング補正手段は、前記撮
像レンズの配置位置の違いに応じて異なるシェーディン
グ補正係数を用いて前記ゲイン量を決定することを特徴
とする。請求項5の本発明は、請求項1に記載した画像
処理装置において、被写体画像に向けて補助光を照射す
る補助光照射手段と、前記補助光照射手段の配光特性の
違いに応じて異なるシェーディング補正係数を予め記憶
する記憶手段と、を備え、前記補助光照射手段を用いる
場合に、前記シェーディング補正手段は、前記配光特性
の違いに応じて異なるシェーディング補正係数を用いて
前記ゲイン量を決定することを特徴とする。
In order to achieve the above object, an image processing apparatus according to the present invention comprises: an image pickup lens for forming an image of incident light from a subject at a focal position; Light receiving means for converting data into data, shading correction means for performing shading correction on input image data for each area obtained by dividing one screen into a plurality of areas,
And an outline emphasis unit for setting an outline emphasis amount for each area, wherein the outline emphasis unit comprises a gain amount when the shading correction unit performs shading correction on the input image data for each area. The feature is that an outline emphasis amount is set in correspondence with.
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, zoom means capable of changing an arrangement position of an imaging lens in order to change a magnification of incident light from a subject, and an arrangement position of the imaging lens Storage means for preliminarily storing different shading correction coefficients according to the difference between the image pickup lenses, wherein the shading correction means determines the gain amount using different shading correction coefficients according to the difference in the arrangement position of the imaging lens. It is characterized by the following. Claim 3
According to the present invention, in the image processing apparatus according to claim 1, a diaphragm means for adjusting the amount of incident light by changing an aperture area through which the incident light can pass, and a diaphragm value corresponding to the aperture area of the diaphragm means Storage means for preliminarily storing different shading correction coefficients in accordance with the difference in the aperture value, wherein the shading correction means determines the gain amount using different shading correction coefficients in accordance with the difference in the aperture value of the aperture means. It is characterized by the following. According to a fourth aspect of the present invention, in the image processing apparatus according to the first aspect, a focusing unit capable of changing an arrangement position of an imaging lens corresponding to a distance to a subject and a difference in arrangement position of the imaging lens are provided. Storage means for preliminarily storing different shading correction coefficients in accordance with each other, wherein the shading correction means determines the gain amount using a different shading correction coefficient in accordance with a difference in the arrangement position of the imaging lens. And According to a fifth aspect of the present invention, in the image processing apparatus according to the first aspect, an auxiliary light irradiating unit that irradiates an auxiliary light toward a subject image differs according to a difference in light distribution characteristics of the auxiliary light irradiating unit. Storage means for storing a shading correction coefficient in advance, wherein when the auxiliary light irradiation means is used, the shading correction means uses a different shading correction coefficient according to the difference in the light distribution characteristics to adjust the gain amount. It is characterized in that it is determined.

【0006】請求項6の本発明は、請求項1に記載した
画像処理装置において、前記輪郭強調手段は、前記各エ
リア内を更に周波数領域毎に複数の領域に分割した各領
域毎に輪郭強調量を設定可能であり、前記シェーディン
グ補正手段のゲイン量に対応させた輪郭強調量を、各周
波数領域毎に異なる画像の空間的周波数に基づいて変化
させることを特徴とする。請求項7の本発明は、請求項
1に記載した画像処理装置において、被写体画像からの
入射倍率を変更させるために撮像レンズの配置位置を変
更可能なズーム手段と、入射光が通過可能な開口面積を
変更することにより入射光の光量を調整する絞り手段
と、被写体までの距離に対応して撮像レンズの配置位置
を変更可能な合焦手段と、請求項2乃至4に記載した各
シェーディング補正係数を各々独立した状態にて格納す
る記憶手段と、を備え、前記シェーディング補正手段
は、前記ズーム手段、絞り手段、合焦手段の各状態に基
づいて前記各シェーディング補正係数を掛け合わせて前
記ゲイン量を決定することを特徴とする。請求項8の本
発明は、請求項1に記載した画像処理装置において、前
記輪郭強調手段は、輪郭強調量を可変制御することを特
徴とする。請求項9の本発明は、請求項1に記載した画
像処理装置において、前記輪郭強調手段は、輪郭強調処
理が実行されない入力信号のレベル幅を可変制御するこ
とにより、前記輪郭強調量を可変制御することを特徴と
する。請求項10の本発明は、請求項1に記載した画像
処理装置において、前記輪郭強調手段は、輪郭強調信号
の出力レベルが一定である入力レベル範囲を可変制御す
ることにより、前記輪郭強調量を可変制御することを特
徴とする。
According to a sixth aspect of the present invention, in the image processing apparatus according to the first aspect, the outline emphasizing means further includes an outline emphasis for each of the plurality of regions each of which is further divided into frequency regions. The amount of contour enhancement can be set, and the amount of contour enhancement corresponding to the amount of gain of the shading correction means is changed based on the spatial frequency of an image that differs for each frequency region. According to a seventh aspect of the present invention, in the image processing apparatus according to the first aspect, a zoom unit capable of changing an arrangement position of an imaging lens to change an incident magnification from a subject image, and an aperture through which incident light can pass. 5. A shading correction device according to claim 2, wherein: a stop means for adjusting an amount of incident light by changing an area; a focusing means capable of changing an arrangement position of an imaging lens in accordance with a distance to a subject; Storage means for storing the coefficients in an independent state, wherein the shading correction means multiplies the shading correction coefficients based on the states of the zooming means, the aperture means, and the focusing means by multiplying the gain by the gain. Determining the amount. According to an eighth aspect of the present invention, in the image processing apparatus according to the first aspect, the outline emphasis means variably controls an outline emphasis amount. According to a ninth aspect of the present invention, in the image processing apparatus according to the first aspect, the outline emphasis means variably controls the level emphasis amount by variably controlling a level width of an input signal on which no outline emphasis processing is performed. It is characterized by doing. According to a tenth aspect of the present invention, in the image processing apparatus according to the first aspect, the contour emphasizing means variably controls an input level range in which the output level of the contour emphasizing signal is constant, thereby reducing the contour emphasis amount. It is characterized by variable control.

【0007】[0007]

【発明の実施の形態】以下、本発明を図示した実施形態
に基づいて説明する。図1は、本発明の一実施形態の画
像処理装置の全体構成を示すブロック図である。図1に
示す様に、本実施形態の画像処理装置50は、例えば、
デジタルカメラ等であり、被写体からの入射光を焦点位
置に結像させる撮像レンズ1と、入射光の光量を調節す
る絞り手段であると共に撮影画像を決定するシャッタ機
能を備える絞り・シャッタ2と、入射光に含まれる被写
体画像の光信号を電気信号(入力画像データ)に変換す
る受光手段であるCCD(電荷結合素子)3と、撮像レ
ンズ1を移動させることにより入射光の倍率を変更する
ズーミングを行うズーム手段であるズームモータ4と、
絞り・シャッタ2を駆動する絞り・シャッタモータ5
と、撮像レンズ1を移動させることにより合焦させる合
焦手段であるフォーカスモータ6と、タイミング信号を
発生するTG回路7と、ズームモータ4、絞り・シャッ
タモータ5、および、フォーカスモータ6を駆動するモ
ータドライバ8と、CCD3から入力した電気信号(画
像信号)を相関二重サンプリングするCDS回路9と、
画像信号のゲイン(増幅度)を自動調整するAGC回路
10と、アナログ信号の画像信号をデジタル信号に変換
するA/D回路11と、入力した画像信号に対して様々
な画像処理を施す信号処理部24と、信号処理部24に
て画像処理された画像信号を一時的に格納するフレーム
バッファ25と、モータドライバ8、AGC回路10、
信号処理部24等を制御するマイクロプロセッサ等から
なるCPU29と、画像処理が施された画像信号に対し
て信号圧縮等の処理を実施して格納する記憶媒体30
と、各種設定値等を格納する記憶手段であるフラッシュ
ROM31と、被写体に対する補助光照射手段であるス
トロボ装置40と、から構成される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described based on illustrated embodiments. FIG. 1 is a block diagram illustrating an overall configuration of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing device 50 of the present embodiment includes, for example,
An imaging lens 1 which is a digital camera or the like and forms an image of incident light from a subject at a focal position; an aperture / shutter 2 which is an aperture means for adjusting the amount of incident light and has a shutter function for determining a captured image; CCD (Charge Coupled Device) 3 which is a light receiving means for converting an optical signal of a subject image included in the incident light into an electric signal (input image data) and zooming for changing the magnification of the incident light by moving the imaging lens 1 A zoom motor 4 as zoom means for performing
Aperture / shutter motor 5 for driving aperture / shutter 2
A focus motor 6 which is a focusing means for focusing by moving the imaging lens 1, a TG circuit 7 for generating a timing signal, a zoom motor 4, an aperture / shutter motor 5, and a focus motor 6 A motor driver 8, a CDS circuit 9 for correlated double sampling of an electric signal (image signal) input from the CCD 3,
AGC circuit 10 that automatically adjusts the gain (amplification degree) of an image signal, A / D circuit 11 that converts an analog image signal into a digital signal, and signal processing that performs various image processing on the input image signal Unit 24, a frame buffer 25 for temporarily storing the image signal processed by the signal processing unit 24, the motor driver 8, the AGC circuit 10,
A CPU 29 including a microprocessor or the like for controlling the signal processing unit 24 and the like, and a storage medium 30 for performing processing such as signal compression on the image signal subjected to image processing and storing the image signal
And a flash ROM 31 as storage means for storing various set values and the like, and a strobe device 40 as auxiliary light irradiation means for the subject.

【0008】また、CDS回路9、AGC回路10、及
び、A/D回路11としては、一般的に、1個のIC内
に一体化されたCDS・A/D12と呼ばれるICが使
用される。信号処理部24中には、入力した画像信号に
対してシェーディング補正処理を実施するシェーディン
グ補正手段であるシェーディング補正回路13と、現信
号と合わせて5水平(H)ライン分の画像信号を格納で
きるバッファである4Hメモリ14と、R、G、Bの3
色の色信号に分離する色分離回路15と、色信号が不十
分なアドレスの信号を周囲の色信号量を参照して補完す
る信号補間回路16と、画像信号に対して白色補正を実
施するホワイトバランス(WB)補正回路17と、画像
信号に対してγ補正を実施するγ補正回路18と、RG
Bの色信号パラメータを輝度信号と色差信号に変換する
色差マトリックス回路19と、画像信号に対して信号圧
縮を実施するJPEG回路20と、文字あるいは線等の
画像の輪郭を強調する輪郭強調手段であるアパーチャー
補正回路21と、同期信号を発生するSSG回路22
と、フレームバッファ25及び記憶媒体30への画像信
号の書き込み及び読み出しを制御するメモリコントロー
ラ23と、を備えている。CPU29中には、内蔵され
た揮発性の記憶装置であるRAM28を有しており、R
AM28中には、シェーディング補正回路13にて用い
られる1画面中の各エリアにて使用されるシェーディン
グ補正係数を含むシェーディング補正ルックアップテー
ブル26とアパーチャー設定ルックアップテーブル27
が格納される。
As the CDS circuit 9, the AGC circuit 10, and the A / D circuit 11, an IC generally called a CDS A / D 12 integrated in one IC is used. The signal processing unit 24 can store a shading correction circuit 13 that is a shading correction unit that performs shading correction processing on an input image signal, and image signals for five horizontal (H) lines together with the current signal. 4H memory 14 which is a buffer, and R, G, B 3
A color separation circuit 15 for separating color signals into color signals, a signal interpolation circuit 16 for complementing a signal of an address having an insufficient color signal with reference to the amount of surrounding color signals, and performing white correction on the image signal A white balance (WB) correction circuit 17; a gamma correction circuit 18 for performing gamma correction on the image signal;
A color difference matrix circuit 19 for converting the color signal parameters of B into a luminance signal and a color difference signal, a JPEG circuit 20 for performing signal compression on the image signal, and an outline emphasis means for emphasizing the outline of an image such as a character or a line. An aperture correction circuit 21 and an SSG circuit 22 for generating a synchronization signal
And a memory controller 23 that controls writing and reading of image signals to and from the frame buffer 25 and the storage medium 30. The CPU 29 has a built-in RAM 28 which is a volatile storage device.
The AM 28 includes a shading correction look-up table 26 and an aperture setting look-up table 27 including shading correction coefficients used in each area in one screen used by the shading correction circuit 13.
Is stored.

【0009】また、図1に示した画像処理装置50は以
下のように動作する。撮像レンズ1と、絞り・シャッタ
2とを通過した光は、CCD3によって光電変換されて
電気信号(画像信号)になり、CDS回路9に送出され
る。CDS回路9では、CCD3から受信した画像信号
を順次サンプルホールドし、AGC回路10は、画像信
号に一定のゲインを与える。AGC回路10を通過した
画像信号は、順次、A/D回路11に送出されて10b
itのデジタルデータに変換された後、信号処理部24
に送出される。信号処理部24に入力した画像信号は、
シェーディング補正回路13にて、シェーディング補正
ルックアップテーブル26から読み込まれたエリア毎に
予め定められているシェーディング補正係数が乗算され
る。CPU29内のRAM28に格納されたシェーディ
ング補正ルックアップテーブル26は、例えば、フラッ
シュROM31から電源投入時等に読み出されてRAM
28内に格納される。シェーディング補正ルックアップ
テーブル26の書き込み/読み出しのタイミングはSS
G回路22からの同期信号に基づいて実施される。シェ
ーディング補正が実施された画像信号は、メモリーコン
トローラー23を経由してフレームバッファー25に書
き込まれる。
The image processing apparatus 50 shown in FIG. 1 operates as follows. Light that has passed through the imaging lens 1 and the aperture / shutter 2 is photoelectrically converted by the CCD 3 into an electric signal (image signal), which is sent to the CDS circuit 9. The CDS circuit 9 sequentially samples and holds the image signal received from the CCD 3, and the AGC circuit 10 gives a constant gain to the image signal. The image signals passing through the AGC circuit 10 are sequentially sent to the A / D circuit 11 to
It is converted to digital data of the
Sent to The image signal input to the signal processing unit 24 is
In the shading correction circuit 13, a predetermined shading correction coefficient is multiplied for each area read from the shading correction lookup table. The shading correction look-up table 26 stored in the RAM 28 in the CPU 29 is read from the flash ROM 31 when the power is turned on, for example.
28. The timing of writing / reading of the shading correction lookup table 26 is SS
This is performed based on the synchronization signal from the G circuit 22. The image signal subjected to the shading correction is written to the frame buffer 25 via the memory controller 23.

【0010】ここで、予め定められているシェーディン
グ補正係数について説明する。図2は、図1に示したシ
ェーディング補正ルックアップテーブル26の一例を示
す図である。シェーディング補正係数とは、例えば、図
2のシェーディング補正ルックアップテーブル26中の
各エリアに示すような値であり、シェーディング補正の
ために画像信号に乗算するエリア毎の係数である。つま
りn×m画素からなる1エリア(ブロック)ごとにシェ
ーディング補正するための係数を定め、更に、そのブロ
ックを縦横に並べ(本実施形態では8ブロック×6ブロ
ック)、1画面分のシェーディング補正データとしたテ
ーブルである。このシェーディング補正係数は、1画面
全体の輝度が均一な被写体を撮影し、その被写体の輝度
分布を中心を1とした時の各エリアの比の値の逆数から
求めたものである。シェーディング補正係数は、ズーム
付きのカメラにおける撮像レンズ1のズーム位置により
変わり、多段階の絞りを有するカメラにおいてはその絞
り・シャッタ2の絞り値により変わり、焦点調節機能付
きのカメラにおいてはその焦点位置により変わり、更
に、ストロボ装置40付きのカメラにおいてはそのスト
ロボ装置の発光の有無及び発光時の配光特性により変わ
る。従って、シェーディング補正ルックアップテーブル
26は、上記の撮像レンズ1のズーム位置毎、絞り・シ
ャッタ2の絞り値毎、撮像レンズ1の焦点位置毎、スト
ロボ装置40の配光特性を含んで発光の有無毎、に独立
したテーブルとしてフラッシュROM31に予め格納し
ておく。このシェーディング補正ルックアップテーブル
26中のデータの形態としては、上記したズーム位置、
絞り値、焦点位置、発光の有無等の各記録状態の全ての
組み合わせ結果について補正値(シェーディング補正係
数)を予め格納しておく方法も考えられるが、本実施形
態では、ズーム位置、絞り値、焦点位置、発光の有無等
に対して個別の状態毎に補正値を演算してシェーディン
グ補正ルックアップテーブル26を作成し、フラッシュ
ROM31に格納した。従って、本実施形態では、画像
信号を記録する時に、カメラの上記各記録状態によって
それぞれ必要なテーブルをフラッシュROM31から読
み出し、それぞれの記録状態に対応する係数を掛け合わ
せて、CPU29内蔵のRAM28に掛け合わせた結果
を、図1中のシェーディング補正ルックアップテーブル
26に書き込む方法を用いる。
Here, a predetermined shading correction coefficient will be described. FIG. 2 is a diagram showing an example of the shading correction lookup table 26 shown in FIG. The shading correction coefficient is, for example, a value as shown in each area in the shading correction lookup table 26 in FIG. 2, and is a coefficient for each area by which an image signal is multiplied for shading correction. That is, a coefficient for shading correction is determined for each area (block) composed of n × m pixels, and the blocks are arranged vertically and horizontally (8 blocks × 6 blocks in the present embodiment), and shading correction data for one screen is used. It is a table with. The shading correction coefficient is obtained by taking an image of a subject having a uniform luminance over one screen and calculating the reciprocal of a ratio value of each area when the luminance distribution of the subject is set to 1 at the center. The shading correction coefficient varies depending on the zoom position of the imaging lens 1 in a camera with a zoom, and varies depending on the aperture value of the aperture / shutter 2 in a camera having a multi-stage aperture, and the focal position in a camera with a focus adjustment function. Further, in a camera with a strobe device 40, it varies depending on whether or not the strobe device emits light and the light distribution characteristics at the time of light emission. Accordingly, the shading correction look-up table 26 includes the presence or absence of light emission including the above-described zoom position of the imaging lens 1, each aperture value of the aperture / shutter 2, each focal position of the imaging lens 1, and the light distribution characteristics of the strobe device 40. Each time, an independent table is stored in the flash ROM 31 in advance. The form of the data in the shading correction lookup table 26 includes the zoom position described above,
A method of preliminarily storing a correction value (shading correction coefficient) for all combinations of recording states such as an aperture value, a focus position, and presence / absence of light emission may be considered. In the present embodiment, the zoom position, the aperture value, The shading correction lookup table 26 is created by calculating a correction value for each state with respect to the focal position, the presence or absence of light emission, and the like, and stored in the flash ROM 31. Therefore, in the present embodiment, when recording an image signal, a necessary table is read out from the flash ROM 31 according to each recording state of the camera, multiplied by a coefficient corresponding to each recording state, and multiplied by the RAM 28 in the CPU 29. A method of writing the combined result into the shading correction look-up table 26 in FIG. 1 is used.

【0011】各記録状態の全ての組み合わせ結果につい
て補正値をフラッシュROM31に予め格納しておく方
法では、画像信号が入力された場合に、それぞれの記録
状態に対応する係数(パラメータ)を掛け合わせる手間
が無い為、高速でシェーディング用の補正係数を導き出
すことができるが、ズーム倍率のステップ数が多いカメ
ラや合焦のステップ数が多いカメラの場合は、全てのパ
ラメータを掛け合わせた数のシェーディング補正ルック
アップテーブル26が必要になる為、フラッシュROM
31に予め格納するシェーディング補正ルックアップテ
ーブル26が多数になってしまう。従って、シェーディ
ング補正ルックアップテーブル26を格納するためのフ
ラッシュROM31のメモリー量も大きくなってしま
う。一方、本実施形態のようにズーム位置、絞り値、焦
点位置、発光の有無等の各記録状態毎に個別のシェーデ
ィング補正ルックアップテーブル26を作成する場合に
は、ズーム倍率のステップ数や合焦のステップ数がのみ
をフラッシュROM31に格納するので、シェーディン
グ補正ルックアップテーブル26を格納する為のメモリ
ー量を小さくすることができる。その結果、本実施形態
では、使用するメモリー素子を減らせるため、カメラの
小型化およびメモリーコストが減少することによるコス
トダウンが可能となる。このシェーディング補正係数を
導き出した際、そのシェーディング補正値に対応したア
パーチャーの補正値(輪郭強調量)を、アパーチャー設
定ルックアップテーブル27に格納する。格納する輪郭
強調量の設定方法については、図5を用いて後述する。
In the method in which correction values for all the combinations of the respective recording states are stored in the flash ROM 31 in advance, when an image signal is input, it is troublesome to multiply by a coefficient (parameter) corresponding to each recording state. Since there is no camera, it is possible to derive the correction coefficient for shading at high speed.However, in the case of a camera with many steps of zoom magnification or a camera with many steps of focusing, the number of shading corrections multiplied by all parameters Since a lookup table 26 is required, a flash ROM
The number of shading correction look-up tables 26 stored in advance in the number 31 increases. Therefore, the memory amount of the flash ROM 31 for storing the shading correction look-up table 26 also increases. On the other hand, when an individual shading correction look-up table 26 is created for each recording state such as a zoom position, an aperture value, a focus position, and presence or absence of light emission as in the present embodiment, the number of steps of the zoom magnification and the focusing Is stored in the flash ROM 31, so that the amount of memory for storing the shading correction lookup table 26 can be reduced. As a result, in the present embodiment, since the number of memory elements to be used can be reduced, it is possible to reduce the size of the camera and the cost by reducing the memory cost. When the shading correction coefficient is derived, the aperture correction value (the amount of contour enhancement) corresponding to the shading correction value is stored in the aperture setting lookup table 27. A method of setting the stored outline enhancement amount will be described later with reference to FIG.

【0012】また、CPU29に内蔵されたRAM28
では、信号処理部24内のSSG回路22から画像信号
に対する水平方向および垂直方向の同期信号を受信し、
各エリア毎に必要となるシェーディング補正係数、及
び、アパーチャー補正係数を各々の係数が対応する補正
回路13、21に送出する。本実施形態では、上記のシ
ェーディング補正ルックアップテーブル26を用いて画
像信号に対するシェーディング補正を実施する。メモリ
ーコントローラー23から読み出されたデータは4Hメ
モリー14に送られる。4Hメモリー14とは、現信号
と合せて5水平ライン分の画像信号のデータを蓄えるこ
とのできるバッファーメモリのことある。4Hメモリー
14では、蓄えたデータを、3ラインによる高周波成分
と、5ラインによる低周波成分とに分けて、アパーチャ
ー(輪郭)成分の抽出を行う。本実施形態では、以下、
3ラインによる高周波成分を高域アパーチャー成分と呼
び、5ラインによる低周波成分を低域アパーチャー成分
と呼ぶこととする。なお、1ライン分のバッファーメモ
リの記憶容量を拡大することにより、低周波と高周波の
2領域よりも細かい周波数領域に分けることも可能であ
る。4Hメモリー14により分けられた高域および低域
のアパーチャー成分は、アパーチャー補正回路21に送
出され、ここで予め定められたアパーチャー設定ルック
アップテーブル27中の各補正値(アパーチャー補正係
数)に基づいて補正される。
A RAM 28 built in a CPU 29
Then, horizontal and vertical synchronization signals for the image signal are received from the SSG circuit 22 in the signal processing unit 24,
The shading correction coefficient and the aperture correction coefficient required for each area are sent to the correction circuits 13 and 21 corresponding to the respective coefficients. In the present embodiment, the shading correction is performed on the image signal using the above-described shading correction lookup table 26. The data read from the memory controller 23 is sent to the 4H memory 14. The 4H memory 14 is a buffer memory capable of storing image signal data for five horizontal lines together with the current signal. The 4H memory 14 extracts the aperture (contour) component by dividing the stored data into a high-frequency component of three lines and a low-frequency component of five lines. In the present embodiment,
A high-frequency component of three lines is called a high-frequency aperture component, and a low-frequency component of five lines is called a low-frequency aperture component. Note that by expanding the storage capacity of the buffer memory for one line, it is possible to divide the buffer memory into frequency regions smaller than the two regions of low frequency and high frequency. The high-frequency and low-frequency aperture components divided by the 4H memory 14 are sent to an aperture correction circuit 21, where they are corrected based on each correction value (aperture correction coefficient) in an aperture setting look-up table 27. Will be corrected.

【0013】ここで、予め定められているアパーチャー
補正係数について説明する。図3は、図1に示したアパ
ーチャー補正ルックアップテーブル27の一例を示す図
である。なお、実際の図3のテーブル中の空白部分には
所定のアパーチャー補正係数が格納されるが、本実施形
態では空白部分のアパーチャー補正係数については用い
ないため、図面が煩雑にならないよう空白部分の記載を
省略した。アパーチャー補正係数とは、例えば、図3の
アパーチャー補正ルックアップテーブル27中の各エリ
アに示すような値であり、アパーチャー補正のために画
像信号に乗算するエリア毎の係数である。また、エリア
の設定は上記したシェーディング補正ルックアップテー
ブル26の場合と同様である。このアパーチャー補正係
数は、例えば、輝度信号(Y)から連続する画素間の濃
度差が一定値以上である場合を検出してその部分を輪郭
部であると判断し、その部分の画像信号に対して所定の
ゲインを与えるものである。従来は、1画面の全てのエ
リアに対して均一にアパーチャー補正係数が乗算されて
いた。本実施形態では、1画面中の各エリア毎にアパー
チャー補正係数を設定できるようにした。この各エリア
毎のアパーチャー補正係数はテーブルとしてフラッシュ
ROM31に予め格納される。また、本実施形態では、
画像信号を記録する時に、アパーチャー補正ルックアッ
プテーブル27をフラッシュROM31から読み出し、
CPU29内蔵のRAM28中に書き込む。本実施形態
では、上記のアパーチャー補正ルックアップテーブル2
7を用いて画像信号に対するアパーチャー補正を実施す
る。一方、シェーディング補正回路13にてシェーディ
ング補正された後、4Hメモリー14を通過した画像信
号には、ホワイトバランス(WB)補正回路17による
ホワイトバランス補正処理やγ補正回路18によるγ補
正処理等の信号処理が施される。4Hメモリーを通過し
た画像信号は、まず、色分離回路15にて、赤(R)、
緑(G)、青(B)の3色の色信号に分離される。次
に、各色信号は、信号補間回路16において、例えば、
Rのプレーン画像であれば、現信号ではG、Bの信号が
入っていたアドレスについての情報を周りのR信号に基
づいて補間することにより、全面R信号のべたのプレー
ン画像を作成する。G、Bについても同様に補間してプ
レーン画像を作成する。このようにしてできたR、G、
Bのべたプレーン画像には、ホワイトバランス補正回路
17にて各色毎に所定のゲインが加えられ、さらに、γ
補正回路18にてγ補正され、色差マトリックス回路1
9にて、R、G、B等の色信号からY、Cb、Cr等の
輝度・色差信号への変換が実施される。輝度・色差信号
に変換された画像信号では、前述のアパーチャー補正回
路21で補正されたアパーチャー成分がY信号に付加さ
れ、メモリーコントローラー23を経由して再度フレー
ムバッファー25に書き込まれる。その後、フレームバ
ッファー25から読み出された画像信号は、所定のデー
タサイズになるようJPEG回路20にてJPEG圧縮
され、記録媒体30に記録される。本実施形態では、以
上のように画像信号が流れる。次に、本実施形態の特徴
的な動作および効果について説明する。
Here, a predetermined aperture correction coefficient will be described. FIG. 3 is a diagram illustrating an example of the aperture correction lookup table 27 illustrated in FIG. Although a predetermined aperture correction coefficient is stored in a blank portion of the actual table of FIG. 3, the aperture correction coefficient of the blank portion is not used in this embodiment. The description is omitted. The aperture correction coefficient is, for example, a value as shown in each area in the aperture correction lookup table 27 in FIG. 3, and is a coefficient for each area by which the image signal is multiplied for the aperture correction. The setting of the area is the same as that of the shading correction lookup table 26 described above. The aperture correction coefficient is determined, for example, by detecting a case where the density difference between consecutive pixels is equal to or more than a predetermined value from the luminance signal (Y), determining that the portion is a contour portion, and To give a predetermined gain. Conventionally, all areas of one screen have been uniformly multiplied by an aperture correction coefficient. In the present embodiment, the aperture correction coefficient can be set for each area in one screen. The aperture correction coefficient for each area is stored in advance in the flash ROM 31 as a table. In the present embodiment,
When recording an image signal, the aperture correction lookup table 27 is read from the flash ROM 31 and
The data is written into the RAM 28 built in the CPU 29. In this embodiment, the aperture correction lookup table 2
7, the aperture correction is performed on the image signal. On the other hand, after the shading correction by the shading correction circuit 13, the image signal that has passed through the 4H memory 14 is subjected to a signal such as a white balance correction process by a white balance (WB) correction circuit 17 and a γ correction process by a γ correction circuit 18. Processing is performed. The image signal that has passed through the 4H memory is first subjected to red (R),
It is separated into three color signals of green (G) and blue (B). Next, each color signal is, for example,
In the case of an R plane image, a solid plane image of the entire R signal is created by interpolating information on the address where the G and B signals were contained in the current signal based on the surrounding R signals. G and B are similarly interpolated to create a plane image. R, G,
A predetermined gain is added to the B solid plane image for each color by the white balance correction circuit 17, and γ
Is corrected by the correction circuit 18, and the color difference matrix circuit 1
At 9, the conversion from the color signals such as R, G, B, etc. to the luminance / color difference signals, such as Y, Cb, Cr, is performed. In the image signal converted into the luminance / color difference signal, the aperture component corrected by the above-described aperture correction circuit 21 is added to the Y signal, and written into the frame buffer 25 again via the memory controller 23. Thereafter, the image signal read from the frame buffer 25 is JPEG-compressed by the JPEG circuit 20 so as to have a predetermined data size, and is recorded on the recording medium 30. In the present embodiment, the image signal flows as described above. Next, characteristic operations and effects of the present embodiment will be described.

【0014】図4は、図2あるいは図3に示した1画面
分のテーブル中のA−A'間の1水平ラインについて、
画像信号の輝度分布を示した図であり、(イ)が補正前
の輝度分布を示し、(ロ)がシェーディング補正された
輝度分布を示し、(ハ)がシェーディング補正後更に全
エリア同一値のアパーチャー補正係数を用いてアパーチ
ャー補正された輝度分布を示している。なお、図4では
図示の簡略化のために、被写体を照射する光源は均一光
源であり、且つ、R、G、B各色の出力が1:1:1に
なるような被写体を写した場合を前提とする。また、本
実施形態では、図4(イ)に示したようにA/D回路1
1の出力(画像信号)が全体的になだらかな弧を描く弓
型になって、1画面の両端部91、92の輝度が後述す
る不感領域よりも低下する状態をシェーディングとして
いる。さらに、図4中の弓形の輝度分布中の各所にラン
ダムに発生している凸凹に突出するランダムノイズ93
等は、CCD3中の欠陥画素、或いは、CCD3の受光
面を被覆するシールガラスに付着したゴミ等により、A
/D回路11の出力が部分的に上昇、下降する状態を示
している。また、図4(イ)〜図4(ハ)中の補正目標
レベルの上下の点線により挟まれた領域は、不感領域と
称し、画像の輝度を上昇させる(明るくする)か低下さ
せる(暗くする)場合に、一般的に人が不快に感じない
輝度の領域を示している。不感領域内では、輝度の変動
があっても、人は不快に感じないが、不感領域を越えて
輝度が上昇あるいは低下すると人は不快に感じる。な
お、図4の輝度分布では、各補正段階毎の相違がわかり
やすいように、各補正による各部の輝度の変化量を誇張
して表現している。
FIG. 4 shows one horizontal line between AA 'in the table for one screen shown in FIG. 2 or FIG.
It is a figure which showed the brightness distribution of the image signal, (a) shows the brightness distribution before correction | amendment, (b) shows the brightness distribution which performed shading correction, (c) further shows the same value after shading correction in all areas. 5 shows a luminance distribution subjected to aperture correction using an aperture correction coefficient. In FIG. 4, for simplicity of illustration, a case where the light source for irradiating the subject is a uniform light source and the subject in which the output of each of R, G, and B colors is 1: 1: 1 is shown. It is assumed. Further, in the present embodiment, as shown in FIG.
Shading refers to a state in which the output (image signal) of 1 is generally in the form of a bow that draws a gentle arc, and the brightness of both ends 91 and 92 of one screen is lower than the insensitive area described later. Furthermore, random noises 93 randomly protruding randomly generated in various places in the arcuate luminance distribution in FIG.
Are caused by defective pixels in the CCD 3 or dust adhering to the sealing glass covering the light receiving surface of the CCD 3.
This shows a state where the output of the / D circuit 11 partially rises and falls. 4A to 4C, an area sandwiched by dotted lines above and below the correction target level is referred to as an insensitive area, and increases (brightens) or decreases (darkens) the luminance of the image. ), Generally indicates an area of luminance that is not unpleasant for humans. In the dead area, even if there is a change in luminance, a person does not feel uncomfortable, but if the luminance increases or decreases beyond the dead area, the person feels unpleasant. In the luminance distribution of FIG. 4, the amount of change in the luminance of each part due to each correction is exaggerated so that the difference at each correction step can be easily understood.

【0015】図4(イ)の補正が施されない輝度分布で
は、1画面中の両端部91、92については輝度分布が
不感領域以下になっており、人は画像を暗いと認知し不
快に感ずる。また、ランダムノイズ93は不感領域内で
あるので、人が不快に感じない。図4(ロ)のシェーデ
ィング補正が施された輝度分布では、シェーディング補
正されたことにより、各エリア毎の平均輝度レベルは、
中心エリア(図2中のd4及びd5)の平均輝度レベル
である図中の補正目標レベルに合せ込まれる。また、各
エリア内の輝度分布は全て不感領域内に入っている。ま
た、ランダムノイズ93aも不感領域内であるので、人
が不快に感じない。図4(ハ)のシェーディング補正後
に更に画面全体(全エリア)に同一値のアパーチャー補
正係数によりアパーチャー補正が施された輝度分布で
は、輝度分布中のランダムノイズ93b(図中左側の凸
の部分)が不感領域から突出している。これは、補正前
の図4(イ)におけるランダムノイズ93等の凸凹のレ
ベルが同程度あり、また、アパーチャー補正処理により
ランダムノイズ93bおよび他の濃度差発生部に付加さ
れる輪郭強調量は各エリア共同一であっても、アパーチ
ャー補正される前のシェーディング補正量が周辺部分の
輝度信号ほど大きいため、そのシェーディング補正用の
ゲインによりランダムノイズ93bの突出量が他のラン
ダムノイズの突出量よりも大きくなるためである。すな
わち、ランダムノイズ93bは、他のランダムノイズよ
りもシェーディング補正によるゲインが多いためランダ
ムノイズ93bの突出量も他のランダムノイズよりも大
きくなり、更に、その上に全エリアに同一レベルの輪郭
強調量が付加されたため、ランダムノイズ93bのみ不
感領域から突出してしまったものである。本実施形態で
は、図4(ハ)に示したようなランダムノイズ93bが
不感領域から突出する事態を防止するために、図3に示
したようにアパーチャー補正ルックアップテーブル27
を用いて画像信号に対するアパーチャー補正(輪郭強調
量)をエリア毎に可変制御する。また、本実施形態で
は、図3のアパーチャー補正ルックアップテーブル27
中に示したように、シェーディング補正係数が大きい場
合、即ち、シェーディング補正のゲイン量が多い場合に
は、ランダムノイズ93a等が不感領域から突出しない
ように、アパーチャー補正係数を小さくしている。図3
中のエリアd1およびエリアd8では、シェーディング
補正のゲイン量が多いため、アパーチャー補正係数が他
のエリアd2〜エリアd7の1.3に比べて1.1と小
さくなっている。このように、各エリア毎にシェーディ
ング補正する際のゲイン量に対応させてアパーチャー補
正係数(輪郭強調量)を設定することによりランダムノ
イズ93等が不感領域から突出しないように画像信号
(輝度信号)を補正することができる。
In the luminance distribution without correction shown in FIG. 4A, the luminance distribution at both ends 91 and 92 in one screen is smaller than the insensitive area, and a person perceives the image as dark and feels uncomfortable. . Also, since the random noise 93 is in the dead area, the person does not feel uncomfortable. In the luminance distribution subjected to the shading correction shown in FIG. 4B, the average luminance level of each area becomes
The average brightness level of the central area (d4 and d5 in FIG. 2) is adjusted to the correction target level in the figure. Further, the luminance distribution in each area is entirely within the dead area. In addition, since the random noise 93a is also in the dead area, a person does not feel uncomfortable. In the luminance distribution in which the aperture correction coefficient of the same value is further applied to the entire screen (all areas) after the shading correction of FIG. 4C, the random noise 93b in the luminance distribution (the convex portion on the left side in the figure) Project from the dead area. This is because the levels of irregularities such as the random noise 93 in FIG. 4A before correction are almost the same, and the amount of contour enhancement added to the random noise 93b and other density difference generating parts by the aperture correction processing is different from each other. Even if the area is the same, since the shading correction amount before the aperture correction is larger for the luminance signal in the peripheral portion, the protrusion amount of the random noise 93b is larger than the protrusion amounts of other random noises due to the shading correction gain. It is because it becomes big. That is, since the random noise 93b has a larger gain due to the shading correction than the other random noises, the protrusion amount of the random noises 93b is larger than the other random noises, and furthermore, the contour enhancement amount of the same level is provided in all areas. Is added, only the random noise 93b protrudes from the dead area. In this embodiment, in order to prevent the random noise 93b from protruding from the dead area as shown in FIG. 4C, the aperture correction look-up table 27 as shown in FIG.
To variably control the aperture correction (edge enhancement amount) for the image signal for each area. In the present embodiment, the aperture correction lookup table 27 shown in FIG.
As shown in the figure, when the shading correction coefficient is large, that is, when the shading correction gain is large, the aperture correction coefficient is reduced so that the random noise 93a and the like do not protrude from the insensitive area. FIG.
In the middle areas d1 and d8, since the amount of shading correction gain is large, the aperture correction coefficient is 1.1, which is smaller than 1.3 in the other areas d2 to d7. As described above, by setting the aperture correction coefficient (the amount of contour enhancement) in accordance with the gain amount when shading correction is performed for each area, the image signal (luminance signal) so that the random noise 93 does not protrude from the insensitive area. Can be corrected.

【0016】ここで、輪郭強調量の設定方法について図
5を用いて説明する。図5は、輪郭部の輝度信号(アパ
ーチャー信号)の入力レベルと出力レベルをの関係を示
す図であり、横軸(x軸)がアパーチャー信号の入力レ
ベルを示し、縦軸(y軸)がアパーチャー信号の出力レ
ベルを示している。コアリングレベル60は、入力アパ
ーチャー信号に対してどこから輪郭強調を施すかを決め
る範囲、逆に見れば、輪郭強調処理が実行されない入力
レベル範囲の幅を示している。本実施形態では、例え
ば、このコアリングレベル60を広げるように可変制御
することにより、輪郭強調量を可変制御して設定し、ラ
ンダムノイズ93a等が不感領域から突出しないように
そのエリアのアパーチャー補正係数を小さくするか、ラ
ンダムノイズ93が発生するエリアに輪郭強調処理が実
施されないようにすることができる。アパーチャーゲイ
ン70は、入力アパーチャー信号に対して出力アパーチ
ャー信号をどれだけ増幅(輪郭を強調)するか、すなわ
ち、輪郭強調量を示している。本実施形態では、例え
ば、このアパーチャーゲイン70を可変制御することに
より、輪郭強調量を可変制御して設定し、ランダムノイ
ズ93a等が不感領域から突出しないようにそのエリア
のアパーチャー補正係数を小さくするか、ランダムノイ
ズ93が発生するエリアに輪郭強調処理が実施されない
ようにすることができる。アパーチャーリミット81、
82は、入力アパーチャー信号に対して出力アパーチャ
ー信号の増幅度が一定となることにより入力アパーチャ
ー信号に対してどのレベルまで輪郭強調を施すかを決め
るかの範囲を示している。本実施形態では、例えば、こ
のアパーチャーリミット81、82の入力レベル範囲を
可変制御することにより、輪郭強調量を可変制御して設
定し、ランダムノイズ93a等が不感領域から突出しな
いようにそのエリアのアパーチャー補正係数を小さくす
るか、ランダムノイズ93が発生するエリアに輪郭強調
処理が実施されないようにすることができる。本実施形
態では、上記何れかの方法あるいは上記各方法の組み合
わせによりランダムノイズ93a等に対する輪郭強調量
を抑えて、ランダムノイズ93a等が不感領域から突出
しないようにできる。
Here, a method of setting the amount of contour enhancement will be described with reference to FIG. FIG. 5 is a diagram showing the relationship between the input level and the output level of the luminance signal (aperture signal) of the contour portion, where the horizontal axis (x-axis) shows the input level of the aperture signal and the vertical axis (y-axis) shows The output level of the aperture signal is shown. The coring level 60 indicates a range that determines from where the contour enhancement is applied to the input aperture signal, and conversely, indicates the width of the input level range in which the contour enhancement processing is not performed. In the present embodiment, for example, by variably controlling the coring level 60 to be widened, the contour emphasis amount is variably controlled and set, and the aperture correction of that area is performed so that the random noise 93a does not protrude from the insensitive area. The coefficient may be reduced, or the contour enhancement processing may not be performed on the area where the random noise 93 occurs. The aperture gain 70 indicates how much the output aperture signal is amplified (outline-enhanced) with respect to the input aperture signal, that is, the amount of edge enhancement. In the present embodiment, for example, by variably controlling the aperture gain 70, the contour enhancement amount is variably controlled and set, and the aperture correction coefficient of the area is reduced so that the random noise 93a and the like do not protrude from the insensitive area. Alternatively, it is possible to prevent the contour enhancement processing from being performed on an area where the random noise 93 occurs. Aperture limit 81,
Reference numeral 82 indicates a range in which the level of contour enhancement is determined for the input aperture signal by making the amplification degree of the output aperture signal constant with respect to the input aperture signal. In the present embodiment, for example, by variably controlling the input level ranges of the aperture limits 81 and 82, the contour emphasis amount is variably controlled and set, and the random noise 93a and the like are prevented from protruding from the insensitive area. It is possible to reduce the aperture correction coefficient or to prevent the outline emphasis processing from being performed on the area where the random noise 93 occurs. In the present embodiment, the contour emphasis amount for the random noise 93a and the like can be suppressed by any of the above methods or a combination of the above methods so that the random noise 93a and the like do not protrude from the insensitive area.

【0017】また、本実施形態のアパーチャー補正回路
21(輪郭強調手段)は、図2及び図3に示した各エリ
ア内を更に周波数領域毎に複数の領域に分割した各領域
毎に輪郭強調量を設定するようにできる。その場合に
は、シェーディング補正回路13に用いられるゲイン量
に対応させた輪郭強調量を、各周波数領域毎に異なる画
像の空間的周波数に基づいて変化させるようにする。こ
のように構成することにより、例えば、空間周波数に基
づいて達成される開放感を保ちつつ画質劣化を防止しS
/N比を改善することができる。また、上記したよう
に、絞り・シャッタ2の絞り値、撮像レンズ1のズーム
位置、撮像レンズ1の合焦位置、ストロボ装置40の配
光特性等の違いに応じて、画像信号に対して図4(ロ)
に示すよりも大きなシェーディング補正が実施される場
合がある。その場合には、シェーディング補正係数の変
わる各エリアの境界における輝度差が大きくなり、この
境界の輝度差が輪郭と判断される。すると、アパーチャ
ー補正回路21によりエリア境界の輝度差が強調され不
感領域から突出する場合がある。本実施形態では、絞り
・シャッタ2の絞り値、撮像レンズ1のズーム位置、撮
像レンズ1の合焦位置、ストロボ装置40の配光特性等
の違い、及び、ストロボ装置発光の有無によりエリア毎
の輪郭強調量を最適であるように設定し、エリア境界の
輝度差が強調され不感領域から突出しないようにでき
る。従って、本実施形態を用いることにより、画像情報
(画像データ)の画質劣化を防止しS/N比を改善する
ことができる。なお、本実施形態に示したエリアの分割
数、シェーディング補正係数、アパーチャー補正係数は
一例であり、本発明はこれに限られるものではないこと
はいうまでもない。
The aperture correction circuit 21 (outline emphasis means) of the present embodiment further includes an outline emphasis amount for each of the areas shown in FIGS. 2 and 3 which are further divided into a plurality of areas for each frequency area. Can be set. In this case, the contour enhancement amount corresponding to the gain amount used in the shading correction circuit 13 is changed based on the spatial frequency of the image that differs for each frequency region. With such a configuration, for example, it is possible to prevent the image quality from deteriorating while maintaining the open feeling achieved based on the spatial frequency.
/ N ratio can be improved. Further, as described above, the image signal is plotted in accordance with differences in the aperture value of the aperture / shutter 2, the zoom position of the imaging lens 1, the focusing position of the imaging lens 1, the light distribution characteristics of the strobe device 40, and the like. 4 (b)
In some cases, a larger shading correction than shown in FIG. In that case, the luminance difference at the boundary of each area where the shading correction coefficient changes becomes large, and the luminance difference at this boundary is determined to be an outline. Then, the luminance difference at the area boundary may be enhanced by the aperture correction circuit 21 and protrude from the insensitive area. In the present embodiment, the aperture value of the aperture / shutter 2, the zoom position of the imaging lens 1, the focusing position of the imaging lens 1, the light distribution characteristics of the strobe device 40, and the like, and the presence or absence of the flash device light emission are used for each area. The contour enhancement amount is set to be optimal, so that the luminance difference at the area boundary is enhanced so as not to protrude from the insensitive area. Therefore, by using the present embodiment, it is possible to prevent the image quality (image data) from deteriorating and improve the S / N ratio. The number of areas divided, the shading correction coefficient, and the aperture correction coefficient shown in the present embodiment are merely examples, and it goes without saying that the present invention is not limited to these.

【0018】[0018]

【発明の効果】上記のように請求項1の本発明では、シ
ェーディング補正処理と輪郭強調処理を共に実施するこ
とにより生ずる画質の劣化を、輪郭強調量を変化させる
ことによって減少させ、S/N比を改善することができ
る。請求項2の本発明では、撮像レンズのズーム位置に
よって変化するシェーディング補正量を予め知ることが
できるので、各々のズーム位置における最適な輪郭強調
量を得ることができ、画質の劣化を減少させ、S/N比
を改善することができる。請求項3の本発明では、絞り
値によって変化するシェーディング補正量を予め知るこ
とができるので、各々の絞り値における最適な輪郭強調
量を得ることができ、画質の劣化を減少させ、S/N比
を改善することができる。請求項4の本発明では、撮像
レンズの合焦位置によって変化するシェーディング補正
量を予め知ることができるので、各々の合焦位置におけ
る最適な輪郭強調量を得ることができ、画質の劣化を減
少させ、S/N比を改善することができる。請求項5の
本発明では、ストロボ装置の発光の有無によって変化す
るシェーディング補正量を予め知ることができるので、
ストロボ装置を発光した時、発光しない時、各々の時に
おける最適な輪郭強調量を得ることができ、画質の劣化
を減少させ、S/N比を改善することができる。請求項
6の本発明では、輪郭成分の周波数特性を知ることによ
り、周波数別に輪郭強調量を変えるので、解像感を保ち
つつ、画質の劣化を減少させ、S/N比を改善すること
ができる。請求項7の本発明では、記憶すべきシェーデ
ィング補正量のデータを少なくすることができるので、
コストダウンおよびカメラを小型化することができる。
請求項8の本発明では、輪郭強調のゲインを変えること
により、画質の劣化を減少させ、S/N比を改善するこ
とができる。請求項9の本発明では、コアリングレベル
を変えることにより、画質の劣化を減少させ、S/N比
を改善することができる。請求項10の本発明では、ア
パーチャーリミットのレベルを変えることにより、画質
の劣化を減少させ、S/N比を改善することができる。
As described above, according to the first aspect of the present invention, the deterioration of the image quality caused by performing both the shading correction processing and the contour enhancement processing is reduced by changing the contour enhancement amount, and the S / N ratio is reduced. The ratio can be improved. According to the second aspect of the present invention, since the shading correction amount that changes according to the zoom position of the imaging lens can be known in advance, it is possible to obtain the optimal contour enhancement amount at each zoom position, reduce the deterioration of image quality, The S / N ratio can be improved. According to the third aspect of the present invention, since the shading correction amount that changes according to the aperture value can be known in advance, it is possible to obtain an optimal edge enhancement amount at each aperture value, reduce image quality degradation, and reduce S / N. The ratio can be improved. According to the fourth aspect of the present invention, since the shading correction amount that changes depending on the focusing position of the imaging lens can be known in advance, it is possible to obtain the optimal contour enhancement amount at each focusing position, and reduce the deterioration of image quality. As a result, the S / N ratio can be improved. According to the fifth aspect of the present invention, since the shading correction amount that changes depending on the presence or absence of light emission of the strobe device can be known in advance,
When the strobe device emits light or when it does not emit light, an optimum amount of contour enhancement can be obtained at each time, and deterioration in image quality can be reduced and the S / N ratio can be improved. According to the sixth aspect of the present invention, since the contour enhancement amount is changed for each frequency by knowing the frequency characteristics of the contour components, it is possible to reduce the deterioration of the image quality and improve the S / N ratio while maintaining the resolution. it can. According to the seventh aspect of the present invention, since the data of the shading correction amount to be stored can be reduced,
The cost can be reduced and the size of the camera can be reduced.
According to the present invention, by changing the gain of the contour enhancement, it is possible to reduce the deterioration of the image quality and to improve the S / N ratio. According to the ninth aspect of the present invention, by changing the coring level, it is possible to reduce the deterioration of the image quality and improve the S / N ratio. According to the tenth aspect of the present invention, by changing the level of the aperture limit, it is possible to reduce the deterioration of the image quality and improve the S / N ratio.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の画像処理装置の全体構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating an overall configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】図1に示したシェーディング補正ルックアップ
テーブルの一例を示す図である。
FIG. 2 is a diagram illustrating an example of a shading correction lookup table illustrated in FIG. 1;

【図3】図1に示したアパーチャー補正ルックアップテ
ーブルの一例を示す図である。
FIG. 3 is a diagram illustrating an example of an aperture correction look-up table illustrated in FIG. 1;

【図4】図2あるいは図3に示した1画面分のテーブル
中のA−A'間の1水平ラインについて画像信号の輝度
分布を示した図であり、(イ)が補正前の輝度分布を示
し、(ロ)がシェーディング補正された輝度分布を示
し、(ハ)がシェーディング補正後更に全エリア同一値
のアパーチャー補正係数を用いてアパーチャー補正され
た輝度分布を示す。
4A and 4B are diagrams showing a luminance distribution of an image signal with respect to one horizontal line between AA ′ in a table for one screen shown in FIG. 2 or FIG. 3, and FIG. (B) shows a brightness distribution subjected to shading correction, and (c) shows a brightness distribution subjected to aperture correction using an aperture correction coefficient having the same value in all areas after shading correction.

【図5】輪郭部の輝度信号(アパーチャー信号)の入力
レベルと出力レベルをの関係を示す図である。
FIG. 5 is a diagram illustrating a relationship between an input level and an output level of a luminance signal (aperture signal) of a contour portion.

【符号の説明】 1・・・撮像レンズ、2・・・絞り・シャッタ、3・・
・CCD、4・・・ズームモータ、5・・・絞り・シャ
ッタモータ、6・・・フォーカスモータ、7・・・TG
回路、8・・・モータドライバ、9・・・CDS回路、
10・・・AGC回路、11・・・A/D回路、12・
・・CDS・A/D(IC)、13・・・シェーディン
グ補正回路、14・・・4Hメモリ、15・・・色分離
回路、16・・・信号補間回路、17・・・WB(ホワ
イトバランス)回路、18・・・γ補正回路、19・・
・色差マトリックス回路、20・・・JPEG回路、2
1・・・アパーチャー補正回路、22・・・SSG回
路、23・・・メモリーコントローラー、24・・・信
号処理部、25・・・フレームバッファ、26・・・シ
ェーディング補正ルックアップテーブル、27・・・ア
パーチャー設定ルックアップテーブル、28・・・RA
M(CPU内蔵)、29・・・CPU、30・・・記録
媒体、31・・・フラッシュROM、40・・・ストロ
ボ装置、50・・・画像処理装置(デジタルカメラ)
[Description of Signs] 1 ... Imaging lens, 2 ... Aperture / shutter, 3 ...
CCD, 4 zoom motor, 5 aperture / shutter motor, 6 focus motor, 7 TG
Circuit, 8: motor driver, 9: CDS circuit,
10 AGC circuit, 11 A / D circuit, 12
.. CDS A / D (IC), 13: shading correction circuit, 14: 4H memory, 15: color separation circuit, 16: signal interpolation circuit, 17: WB (white balance) ) Circuit, 18... Γ correction circuit, 19.
・ Color difference matrix circuit, 20 ... JPEG circuit, 2
DESCRIPTION OF SYMBOLS 1 ... Aperture correction circuit, 22 ... SSG circuit, 23 ... Memory controller, 24 ... Signal processing unit, 25 ... Frame buffer, 26 ... Shading correction lookup table, 27 ...・ Aperture setting lookup table, 28 ・ ・ ・ RA
M (built-in CPU), 29 CPU, 30 recording medium, 31 flash ROM, 40 strobe device, 50 image processing device (digital camera)

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 被写体からの入射光を焦点位置に結像さ
せる撮像レンズと、入射光を入力画像データに変換する
受光手段と、1画面を複数エリアに分割した各エリア分
の入力画像データに対してシェーディング補正を行なう
シェーディング補正手段と、前記各エリア毎に輪郭強調
量を設定する輪郭強調手段と、を有する画像処理装置に
おいて、 前記輪郭強調手段は、前記シェーディング補正手段が入
力画像データを前記各エリア毎にシェーディング補正す
る際のゲイン量に対応させて、輪郭強調量を設定するこ
とを特徴とする画像処理装置。
An image pickup lens that forms an image of incident light from a subject at a focal position, a light receiving unit that converts the incident light into input image data, and an input image data for each area obtained by dividing one screen into a plurality of areas. An image processing apparatus comprising: a shading correction unit that performs shading correction for the image processing unit; and an outline emphasis unit that sets an outline emphasis amount for each of the areas. An image processing apparatus, wherein an outline emphasis amount is set corresponding to a gain amount when shading correction is performed for each area.
【請求項2】 請求項1に記載した画像処理装置におい
て、被写体からの入射光の倍率を変更させるために撮像
レンズの配置位置を変更可能なズーム手段と、前記撮像
レンズの配置位置の違いに応じて異なるシェーディング
補正係数を予め記憶する記憶手段と、を備え、 前記シェーディング補正手段は、前記撮像レンズの配置
位置の違いに応じて異なるシェーディング補正係数を用
いて前記ゲイン量を決定することを特徴とする画像処理
装置。
2. An image processing apparatus according to claim 1, wherein a zoom means capable of changing an arrangement position of an imaging lens in order to change a magnification of incident light from a subject, and a difference in an arrangement position of said imaging lens. Storage means for preliminarily storing different shading correction coefficients in accordance with each other, wherein the shading correction means determines the gain amount using a different shading correction coefficient in accordance with a difference in arrangement position of the imaging lens. Image processing apparatus.
【請求項3】 請求項1に記載した画像処理装置におい
て、入射光が通過可能な開口面積を変更することにより
入射光の光量を調整する絞り手段と、絞り手段の開口面
積に対応する絞り値の違いに応じて異なるシェーディン
グ補正係数を予め記憶する記憶手段と、を備え、 前記シェーディング補正手段は、前記絞り手段の絞り値
の違いに応じて異なるシェーディング補正係数を用いて
前記ゲイン量を決定することを特徴とする画像処理装
置。
3. An image processing apparatus according to claim 1, wherein said aperture means adjusts the amount of incident light by changing an aperture area through which incident light can pass, and an aperture value corresponding to the aperture area of said aperture means. Storage means for preliminarily storing different shading correction coefficients in accordance with the difference in the aperture value, wherein the shading correction means determines the gain amount using a different shading correction coefficient in accordance with a difference in the aperture value of the aperture means. An image processing apparatus characterized by the above-mentioned.
【請求項4】 請求項1に記載した画像処理装置におい
て、被写体までの距離に対応して撮像レンズの配置位置
を変更可能な合焦手段と、前記撮像レンズの配置位置の
違いに応じて異なるシェーディング補正係数を予め記憶
する記憶手段と、を備え、 前記シェーディング補正手段は、前記撮像レンズの配置
位置の違いに応じて異なるシェーディング補正係数を用
いて前記ゲイン量を決定することを特徴とする画像処理
装置。
4. An image processing apparatus according to claim 1, wherein said focusing means is capable of changing an arrangement position of an imaging lens corresponding to a distance to a subject, and said focusing means is different according to a difference in arrangement position of said imaging lens. Storage means for storing a shading correction coefficient in advance, wherein the shading correction means determines the gain amount using a different shading correction coefficient according to a difference in arrangement position of the imaging lens. Processing equipment.
【請求項5】 請求項1に記載した画像処理装置におい
て、被写体画像に向けて補助光を照射する補助光照射手
段と、前記補助光照射手段の配光特性の違いに応じて異
なるシェーディング補正係数を予め記憶する記憶手段
と、を備え、 前記補助光照射手段を用いる場合に、前記シェーディン
グ補正手段は、前記配光特性の違いに応じて異なるシェ
ーディング補正係数を用いて前記ゲイン量を決定するこ
とを特徴とする画像処理装置。
5. An image processing apparatus according to claim 1, wherein said auxiliary light irradiating means for irradiating auxiliary light toward a subject image and a shading correction coefficient different according to a difference in light distribution characteristics of said auxiliary light irradiating means. Storage means for storing in advance, wherein when the auxiliary light irradiation means is used, the shading correction means determines the gain amount using a different shading correction coefficient according to the difference in the light distribution characteristics. An image processing apparatus characterized by the above-mentioned.
【請求項6】 請求項1に記載した画像処理装置におい
て、前記輪郭強調手段は、前記各エリア内を更に周波数
領域毎に複数の領域に分割した各領域毎に輪郭強調量を
設定可能であり、前記シェーディング補正手段のゲイン
量に対応させた輪郭強調量を、各周波数領域毎に異なる
画像の空間的周波数に基づいて変化させることを特徴と
する画像処理装置。
6. The image processing apparatus according to claim 1, wherein the outline emphasis means is capable of setting an outline emphasis amount for each of a plurality of regions obtained by further dividing the inside of each area into a plurality of regions for each frequency region. An image processing apparatus for changing an edge enhancement amount corresponding to a gain amount of the shading correction means based on a spatial frequency of an image different for each frequency region.
【請求項7】 請求項1に記載した画像処理装置におい
て、被写体画像からの入射倍率を変更させるために撮像
レンズの配置位置を変更可能なズーム手段と、入射光が
通過可能な開口面積を変更することにより入射光の光量
を調整する絞り手段と、被写体までの距離に対応して撮
像レンズの配置位置を変更可能な合焦手段と、請求項2
乃至4に記載した各シェーディング補正係数を各々独立
した状態にて格納する記憶手段と、を備え、 前記シェーディング補正手段は、前記ズーム手段、絞り
手段、合焦手段の各状態に基づいて前記各シェーディン
グ補正係数を掛け合わせて前記ゲイン量を決定すること
を特徴とする画像処理装置。
7. The image processing apparatus according to claim 1, wherein a zoom unit that can change an arrangement position of an imaging lens to change an incident magnification from a subject image, and an opening area through which incident light can pass are changed. 3. An aperture means for adjusting the amount of incident light by performing the operation, and a focusing means capable of changing an arrangement position of the imaging lens in accordance with a distance to a subject.
And a storage unit for storing each of the shading correction coefficients described in any one of (1) to (4) in an independent state, wherein the shading correction unit performs the shading on the basis of each state of the zoom unit, the aperture unit, and the focusing unit. An image processing apparatus, wherein the gain amount is determined by multiplying a correction coefficient.
【請求項8】 請求項1に記載した画像処理装置におい
て、前記輪郭強調手段は、輪郭強調量を可変制御するこ
とを特徴とする画像処理装置。
8. The image processing apparatus according to claim 1, wherein said outline emphasis means variably controls the amount of outline emphasis.
【請求項9】 請求項1に記載した画像処理装置におい
て、前記輪郭強調手段は、輪郭強調処理が実行されない
入力信号のレベル幅を可変制御することにより、前記輪
郭強調量を可変制御することを特徴とする画像処理装
置。
9. The image processing apparatus according to claim 1, wherein the contour emphasis means variably controls the level width of an input signal on which no contour emphasis processing is performed, thereby variably controlling the contour emphasis amount. Characteristic image processing device.
【請求項10】 請求項1に記載した画像処理装置にお
いて、前記輪郭強調手段は、輪郭強調信号の出力レベル
が一定である入力レベル範囲を可変制御することによ
り、前記輪郭強調量を可変制御することを特徴とする画
像処理装置。
10. The image processing apparatus according to claim 1, wherein the contour emphasis means variably controls the contour emphasis amount by variably controlling an input level range in which the output level of the contour emphasis signal is constant. An image processing apparatus characterized by the above-mentioned.
JP35084499A 1999-12-09 1999-12-09 Image processing device Expired - Fee Related JP4212741B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35084499A JP4212741B2 (en) 1999-12-09 1999-12-09 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35084499A JP4212741B2 (en) 1999-12-09 1999-12-09 Image processing device

Publications (2)

Publication Number Publication Date
JP2001167263A true JP2001167263A (en) 2001-06-22
JP4212741B2 JP4212741B2 (en) 2009-01-21

Family

ID=18413280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35084499A Expired - Fee Related JP4212741B2 (en) 1999-12-09 1999-12-09 Image processing device

Country Status (1)

Country Link
JP (1) JP4212741B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018447A (en) * 2001-07-04 2003-01-17 Matsushita Electric Ind Co Ltd Image distortion correction device and method
JP2003087653A (en) * 2001-09-06 2003-03-20 Ricoh Co Ltd Imaging apparatus
JP2003102679A (en) * 2001-09-28 2003-04-08 Fuji Photo Optical Co Ltd Electronic endoscope apparatus having optical variable power function
JP2006270919A (en) * 2005-02-25 2006-10-05 Ricoh Co Ltd Image correcting method, photographing apparatus, image correcting apparatus, program and recording medium
KR100711671B1 (en) * 2004-01-23 2007-04-27 산요덴키가부시키가이샤 Image signal processing apparatus
JP2009037625A (en) * 2001-09-11 2009-02-19 Seiko Epson Corp Image processing using object information
JP2009201062A (en) * 2008-02-25 2009-09-03 Canon Inc Imaging device and imaging method
US7598990B2 (en) 2004-03-19 2009-10-06 Fujifilm Corporation Image signal processing system and electronic imaging device
JP2009278541A (en) * 2008-05-16 2009-11-26 Canon Inc Signal processing apparatus and signal processing method
JP2010045534A (en) * 2008-08-11 2010-02-25 Toshiba Corp Solid-state image-capturing apparatus
KR20110067550A (en) * 2009-12-14 2011-06-22 엘지이노텍 주식회사 Lens shading correction method in the auto focus camera module
JP2012147499A (en) * 2012-04-23 2012-08-02 Canon Inc Imaging apparatus and video signal processing method
WO2014046038A1 (en) * 2012-09-19 2014-03-27 富士フイルム株式会社 Imaging device and focusing-verification display method

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4583670B2 (en) * 2001-07-04 2010-11-17 パナソニック株式会社 Image distortion correction apparatus and method
JP2003018447A (en) * 2001-07-04 2003-01-17 Matsushita Electric Ind Co Ltd Image distortion correction device and method
JP2003087653A (en) * 2001-09-06 2003-03-20 Ricoh Co Ltd Imaging apparatus
JP2009037625A (en) * 2001-09-11 2009-02-19 Seiko Epson Corp Image processing using object information
JP2009141975A (en) * 2001-09-11 2009-06-25 Seiko Epson Corp Image processing using object information
JP2003102679A (en) * 2001-09-28 2003-04-08 Fuji Photo Optical Co Ltd Electronic endoscope apparatus having optical variable power function
KR100711671B1 (en) * 2004-01-23 2007-04-27 산요덴키가부시키가이샤 Image signal processing apparatus
US7598990B2 (en) 2004-03-19 2009-10-06 Fujifilm Corporation Image signal processing system and electronic imaging device
JP2006270919A (en) * 2005-02-25 2006-10-05 Ricoh Co Ltd Image correcting method, photographing apparatus, image correcting apparatus, program and recording medium
JP2009201062A (en) * 2008-02-25 2009-09-03 Canon Inc Imaging device and imaging method
JP2009278541A (en) * 2008-05-16 2009-11-26 Canon Inc Signal processing apparatus and signal processing method
JP2010045534A (en) * 2008-08-11 2010-02-25 Toshiba Corp Solid-state image-capturing apparatus
US8102445B2 (en) 2008-08-11 2012-01-24 Kabushiki Kaisha Toshiba Solid-state image-capturing apparatus, camera, and method of processing signal
KR20110067550A (en) * 2009-12-14 2011-06-22 엘지이노텍 주식회사 Lens shading correction method in the auto focus camera module
KR101672944B1 (en) 2009-12-14 2016-11-04 엘지이노텍 주식회사 Lens shading correction method in the auto focus camera module
JP2012147499A (en) * 2012-04-23 2012-08-02 Canon Inc Imaging apparatus and video signal processing method
WO2014046038A1 (en) * 2012-09-19 2014-03-27 富士フイルム株式会社 Imaging device and focusing-verification display method
CN104662886A (en) * 2012-09-19 2015-05-27 富士胶片株式会社 Imaging device and focusing-verification display method
JP5926391B2 (en) * 2012-09-19 2016-05-25 富士フイルム株式会社 Imaging apparatus and focus confirmation display method
US9479689B2 (en) 2012-09-19 2016-10-25 Fujifilm Corporation Imaging device and focusing-verification display method
CN104662886B (en) * 2012-09-19 2017-11-10 富士胶片株式会社 Camera device and focusing confirm display methods

Also Published As

Publication number Publication date
JP4212741B2 (en) 2009-01-21

Similar Documents

Publication Publication Date Title
US7057653B1 (en) Apparatus capable of image capturing
JP4163353B2 (en) Image processing device
JP5018770B2 (en) Image signal processing apparatus and image signal processing method
JP5299867B2 (en) Image signal processing device
US7995135B2 (en) Image capturing apparatus for adjusting an exposure value that is set lower than the correct exposure value
JP4683994B2 (en) Image processing apparatus, image processing method, electronic camera, scanner
US20100002104A1 (en) Image-signal processing apparatus and image-signal processing
JP2001298619A (en) Method and device for image processing
JP2001054013A (en) Image pickup signal processor and its processing method
JP4212741B2 (en) Image processing device
WO2015119271A1 (en) Image processing device, imaging device, image processing method, computer-processable non-temporary storage medium
JP3184309B2 (en) Gradation correction circuit and imaging device
JP2004363853A (en) Method and device for reducing noise of image signal
US9635331B2 (en) Image processing apparatus that performs tone correction and edge enhancement, control method therefor, and storage medium
JP3943719B2 (en) Color imaging device
JPH11112837A (en) Electronic image pickup device
JP4960597B2 (en) White balance correction apparatus and method, and imaging apparatus
JP2009022044A (en) Image processing apparatus and image processing program
JPH11164190A (en) Automatic exposure control method
JP2009065691A (en) Image processing apparatus, recording medium and image processing program
JP3433653B2 (en) Electronic still camera
JP3064961B2 (en) Electronic still camera
JP3995524B2 (en) Knee correction circuit and imaging apparatus
JP3198983B2 (en) Electronic still camera
JP3463526B2 (en) Electronic still camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050613

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080922

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081029

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees