JP3557673B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP3557673B2 JP3557673B2 JP30506794A JP30506794A JP3557673B2 JP 3557673 B2 JP3557673 B2 JP 3557673B2 JP 30506794 A JP30506794 A JP 30506794A JP 30506794 A JP30506794 A JP 30506794A JP 3557673 B2 JP3557673 B2 JP 3557673B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel value
- value
- image
- conversion function
- flatness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000006243 chemical reaction Methods 0.000 claims description 57
- 230000014509 gene expression Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000011002 quantification Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 230000000873 masking effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、ディジタル画像に対してエッジ強調を行なう画像処理装置に関するものである。
【0002】
【従来の技術】
従来、ディジタル画像に対してエッジ強調を行なう画像処理技術として、例えば、アンシャープ・マスキング、あるいは、Wallisの手法等が提案されている。これらは、William K.Pratt,”Digital Image Processing(Second Edition)”,P.303〜310などに記載されている。
【0003】
アンシャープ・マスキングとは、通常の解像度の原画像F(j,k) と、これより低い解像度の画像FL(j,k)との重み付けられた差をとることにより、エッジ強調を行なうものである。エッジ強調された画像をG(j,k) とする。アンシャープ・マスキングによるエッジ強調された画像G(j,k) は、
【数1】
のように定義される。
ここで、重み係数cは、3/5から5/6までの範囲の係数である。
【0004】
また、Wallisの手法によるエッジ強調された画像G(j,k) は、
【数2】
のように定義される。
【0005】
ここで、F(j,k) は原画像、M(j,k) はある点(j,k)における原画像の推定平均、S(j,k) はある点(j,k)における原画像の推定標準偏差、Md は期待する平均、Sd は期待する標準偏差であり、AはS(j,k) が小さいときに出力値が過剰に大きくなるのを防ぐゲイン係数、rは強調された画像の背景成分に対するエッジ成分の比率を制御する平均比例係数である。
【0006】
これらの従来技術は、いずれも、入力された原画像F(j,k) を空間周波数の低周波成分と高周波成分とに分離して処理し、その後、両者を合成してエッジ強調された画像G(j,k) を出力するものである。したがって、パラメータの調整が難しく、入力された原画像F(j,k) と出力されるエッジ強調された画像G(j,k) との関係が予測しにくいという問題があった。例えば、アンシャープ・マスキングでは、エッジの強調があまりされなかったり、逆にWallisの手法ではエッジが強調されすぎたりする欠点があった。
【0007】
【発明が解決しようとする課題】
本発明は、上述した事情に鑑みてなされたもので、ディジタル画像に対してエッジ強調を行なう画像処理装置において、パラメータを調整する必要がなく、良好なエッジの強調が施された画像を得ることができる画像処理装置を提供することを目的とするものである。
【0008】
【課題を解決するための手段】
本発明は、デジタル画像に対してエッジ強調を行なう画像処理装置において、入力画像から画像の平坦さを数量化した値を得る平坦さ数量化手段と、該平坦さ数量化手段で得られた平坦さの値に基づきエッジ強調のための画素値変換関数を発生する画素値変換関数発生手段と、該画素値変換関数発生手段で発生した画素値変換関数および前記入力画像の画素値から出力画素値を決定する画素値変換手段を有し、前記画素値変換関数はシグモイド関数から導出される関数であるとともに近傍画素から計算される近傍平均の値により形状を制御された関数であることを特徴とするものである。
【0009】
【作用】
本発明によれば、入力画像から画像の平坦さを数量化した値を得、この平坦さの値に基づき、例えば、平坦な領域の場合には、入力画像の画素値に大きな変更を加えないような画素値変換関数を生成し、エッジ領域の場合には、入力画像の画素値にエッジを強調する大きな変更を加えるような画素値変換関数を生成する。このときの画素値変換関数として、シグモイド関数から導出される関数であるとともに、近傍画素から計算される近傍平均の値により形状を制御された関数を用いる。この画素値変換関数および入力画像の画素値を用いて、画素値変換手段によりエッジが強調された画像となるような画素値を出力する。
【0010】
このように、入力画像が空間周波数によって分離・処理・合成されることなく、入力画像の画素値(輝度)が平坦さの値に基づいて決定された関数を用いて直接処理され、エッジが強調される。したがって、パラメータを調整する必要がなく、良好なエッジの強調が施された画像を得ることができる。
【0011】
平坦さの値としては、例えば、各画素の近傍標準偏差,近傍分散,近傍コントラスト等のいずれかの値を選択して用いることができる。画素値変換関数としては、例えば、シグモイド(Sigmoid)関数を領域の平坦さおよび入力画素値に応じて変形したものを生成するように構成することができる。
【0012】
【実施例】
図1は、本発明の画像処理装置の一実施例を示すブロック構成図である。図中、11は画像入力部、12は平坦さ数量化部、13は画素値変換関数発生部、14は画素値変換部、15は画像出力部である。画像入力部11は、原画像からディジタル画像データを取得する。平坦さ数量化部12は、ディジタル画像データから画像の平坦さを数量化した値を得る。画素値変換関数発生部13は、平坦さの値に基づきエッジ強調のための画素値変換関数を発生する。画素値変換部14は、画素値変換関数に基づいてディジタル画像データの画素値を変換し出力画素値を決定する。画像出力部15は、出力画素値を入力し、エッジ強調された処理画像を出力する。
【0013】
平坦さ数量化部12において得られる、平坦さの値とは、例えば、局所的な平坦さを表現する量であり、一具体例としては、近傍標準偏差の値を用いることができる。この近傍標準偏差とは、ある画素およびその近傍の画素からなる画像領域内における、各画素の輝度データの標準偏差である。この画像領域としては、例えば、ある画素およびその周囲8つの近傍画素からなる3行3列の正方形状の領域を用いることができる。なお、この画像領域の大きさおよび形状は、必要に応じて任意に設定することが可能である。
【0014】
局所的な平坦さを表現する量として、近傍分散を用いることもできる。この近傍分散とは、ある画素およびその近傍の画素からなる画像領域内における、各画素の輝度データの分散である。同様に、この画像領域として、例えば、3行3列の正方領域を用いることができる。局所的な平坦さを表現する量として、近傍コントラストを用いることもできる。この近傍コントラストとは、ある画素およびその近傍の画素からなる画像領域内における、各画素の輝度データのコントラストである。なお、このコントラストとは、ある画像領域における最大輝度値をImax、最小輝度値をIminとしたとき、
【数3】
で定義される。同様に、この画像領域として、例えば、3行3列の正方領域を用いることができる。
【0015】
これら近傍標準偏差,近傍分散,近傍コントラストの値が大きい領域は、いずれも、エッジなど局所的に輝度値の変化の大きい領域と良く一致するから、局所的な平坦さを表現するのに適している。しかし、局所的な平坦さを表現する量は、これらの値に限られるわけではなく、他の値を用いてもよい。
【0016】
以上の説明では、画像の平坦さとして、局所的な平坦さを表現する量を用いた。しかし、本発明は、これに限らず、画像領域のより広範囲における平坦さを表現する量を採用してもよい。例えば、1画面を数区画に分割し、各区画毎に平坦さを表現する量を計算してもよい。また、処理対象となる画像全体から唯一の平坦さを表現する量を計算してもよい。後者の場合は、各1画面の平坦さに適したエッジ処理を行なうことができる。
【0017】
画素値変換関数発生部13において発生される画素値変換関数の具体例を示す。まず、平坦さの値に加え近傍平均の値も用いて、画素値変換関数を生成する例を示す。この近傍平均の値は、平坦さ数量化部12の計算過程でも得られるため、平坦さ数量化部12から得ることができるが、画像入力部11の出力を入力しディジタル画像の画素の輝度値から直接計算するようにしてもよい。あるいは、画素値変換関数発生部13においてではなく、画素値変換部14において、計算するようにしてもよい。
【0018】
画素値変換関数の一具体例として次のような関数g(x,c,m)を考える。
【数4】
【0019】
式(2)から式(4)は、式(1)を導出するための関数であり、式(1)は、式(4)で定義されるシグモイド(Sigmoid)関数から導出される。この関数の形状を変化させることにより、様々な画像の平坦さに適合したエッジ強調を行なうことができる。式(4)におけるxは、原画像の任意の画素の輝度値(以下の記載では、「画像データ」という)である。ここでは、輝度値は、0から255の値をとることを前提としている。cは、その画素の平坦さの値であり、例えば、近傍標準偏差,近傍分散,近傍コントラスト等の値であるが、以下、近傍標準偏差の値を用いるものとして説明する。mは、画素値変換関数の形状を制御するための第3のパラメータであり、例えば、近傍画素から計算される近傍平均の値を用いる。
【0020】
式(4)のパラメータbの値は、ここでは0に固定して用いている。式(4)のf(x,c,b)の値は、式(4)における変数xの値が−∞のときに0,0のときに0.5、∞のときに1となり、変数xの値が0のときに変曲点となる。式(4)は、式(3)のように置き換えられ、式(3)のh(x,c)は、式(3)における変数xの値が0.5のときに変曲点となる。そして、式(3)は、式(2)のように置き換えられ、xが0から1までの値をとるときに、式(2)のy(x,c)の値は、0から1までの値をとるように正規化されるとともに、近傍標準偏差cの値が0のときには、式(2)における変数xの値をそのまま返すようにする。さらに、式(2)は、式(1)のように置き換えられ、画像データxの値が0から255までの値をとるときにg(x,c,m)も0から255までの値をとるように正規化された後、近傍平均mの値だけ横軸方向および縦軸方向に移動させる、言い換えれば、座標平面上で45度方向に移動するようにされる。
【0021】
図2は、画素値変換関数の生成処理の一例を示すフローチャートである。S21においては、図1における画像入力部11から画像データxを取得する。S22においては、S21において取得された画像データxに基づいて近傍平均mを得る。S23においては、S21において取得された画像データxおよびS22において得られた近傍平均mに基づいて近傍標準偏差cを得る。
【0022】
S24においては、S23において得られた近傍標準偏差cに基づいて、式(4)に示されるシグモイド関数を生成する。S25においては、S24において生成されたシグモイド関数を、式(2)および式(3)のように基準化する。S26においては、基準化されたシグモイド関数を式(1)のようにさらに基準化し、近傍平均mに基づいて座標平面上で45度方向に移動させる。このようにして生成されたシグモイド関数が、式(1)に相当し、画素値変換関数データとして、図1に示される画素値変換部14へ出力される。
【0023】
図3,図4,図5は、近傍標準偏差と近傍平均を変化させたときの画素値変換関数の説明図である。図3(A),図3(B)は、近傍平均mの値が64で近傍標準偏差cの値が2および10の場合の画素値変換関数を示し、図4(A),図4(B)は、近傍平均mの値が128で近傍標準偏差cの値が2および10の場合の画素値変換関数を示し、図5(A),図5(B)は、近傍平均mの値が192で近傍標準偏差cの値が2および10の場合の画素値変換関数を示すものである。図中、横軸は画像データxの値、縦軸は、画素変換関数g(x,c,m)の値である。
【0024】
図3,図4,図5に示される各曲線からわかるように、式(1)で表わされる画素値変換関数g(x,c,m)は、単調増加関数であり、画像データxの値が近傍平均mの値をとるとき、画素値変換関数g(x,c,m)の値も近傍平均mの値となり、曲線の変曲点になる。画像データxの値が近傍平均mの値より大きいとき、上に凸となり、逆に小さいとき、下に凸となる。したがって、近傍平均mの値近傍においては、画像データxの値の変化に対する画素値変換関数g(x,c,m)の値の変化が大きくなる。ただし、近傍標準偏差cの値が0のときは、変曲点がない。
【0025】
また、式(1)で表わされる画素値変換関数g(x,c,m)の値は、近傍標準偏差cの値が大きくなるほど、画像データxの値の変化に対する画素値変換関数g(x,c,m)の値の変化が大きくなる。なお、近傍標準偏差cの値が0であるときには、画素値変換関数g(x,c,m)の値は、画像データxの値そのものとなる。
【0026】
ただし、原画像の画素値xは、実際には0から255までの値をとり、また、画素値変換関数g(x,c,m)についても、実際には0から255までの値をとる。
【0027】
図6,図7,図8は、エッジ強調の効果を示すシミュレーション結果の説明図である。各図は、6種類の領域におけるエッジ強調の様子をシミュレーションしたものである。図中、横軸は、画素の位置を示し、縦軸は輝度の値を示す。曲線41は画像入力部11の出力、曲線42は近傍標準偏差、曲線43は画像出力部15の強調画像データ出力である。このシミュレーションでは、cの値は、式(1)のcの値を5倍に強調した値を用い、また、近傍平均mは、ある画素とその前後1画素との平均から計算した。
【0028】
図6(A),図6(B),図7(A)の曲線41に示されるように、エッジなどによって輝度が激しく変化する領域では、平坦さの値が大きくなり、曲線43のようにエッジが強調される。図7(B),図8(A),図8(B)における曲線41は、輝度変化がゆっくりしており、平坦さの値が小さくなり、曲線42が横軸に重なり、曲線43は曲線41とほぼ同じ値に重なる。
【0029】
画素値変換関数としては、必ずしも、式(1)のg(x,c,m)を用いる必要はなく、平坦な領域の場合には、入力画素値に大きな変更を加えないような画素値を出力し、エッジ領域の場合には、該入力画素値にエッジを強調するように大きな変更を加える画素値を出力するような関数であればよい。
【0030】
上述の説明では、画素値変換関数の一具体例として、画素の位置や画面によって変化する平坦さデータに加え、同じく画素の位置や画面によって変化する近傍平均のデータも用いて画素値変換関数を生成した。しかし、このような近傍平均のデータを用いずに画素値変換関数を生成することもできる。たとえば、以上の一具体例の構成において、近傍平均mの値を所定値に固定した上で、平坦さの値cに基づき画素値変換関数を生成すればよい。近傍平均mの値が画素の位置や画面によって大きく変わることがない場合において、計算量を減らすことができる。
【0031】
【発明の効果】
以上の説明から明らかなように、本発明によれば、原画像において、ある領域の平坦さの値を得ることにより、領域に対応して平坦な領域の場合には、入力画素値に大きな変更を加えないような画素値変換関数を生成し、エッジ領域の場合には、該入力画素値にエッジを強調する大きな変更を加えるような画素値変換関数を生成し、生成された画素値変換関数により画素値の変換を行なうようにしたので、パラメータを調整する必要がなく、良好なエッジの強調が施された画像を得ることができる。
【図面の簡単な説明】
【図1】本発明の画像処理装置の一実施例を示すブロック構成図である。
【図2】画素値変換関数の生成処理の一例を示すフローチャートである。
【図3】近傍標準偏差と近傍平均を変化させたときの画素値変換関数の第1の説明図である。
【図4】近傍標準偏差と近傍平均を変化させたときの画素値変換関数の第2の説明図である。
【図5】近傍標準偏差と近傍平均を変化させたときの画素値変換関数の第3の説明図である。
【図6】エッジ強調の効果を示すシミュレーション結果の第1の説明図である。
【図7】エッジ強調の効果を示すシミュレーション結果の第2の説明図である。
【図8】エッジ強調の効果を示すシミュレーション結果の第3の説明図である。
【符号の説明】
11…画像入力部、12…平坦さ数量化部、13…画素値変換関数発生部、14…画素値変換部、15…画像出力部、41…画像入力部11の出力、42…近傍標準偏差、43…画像出力部15の強調画像データ出力。[0001]
[Industrial applications]
The present invention relates to an image processing device that performs edge enhancement on a digital image.
[0002]
[Prior art]
Conventionally, as an image processing technique for performing edge enhancement on a digital image, for example, unsharp masking, Wallis's method, and the like have been proposed. These are described by William K. Pratt, "Digital Image Processing (Second Edition)", 303-310.
[0003]
The unsharp masking, the original image F (j, k) of the ordinary resolution as this lower resolution image F L (j, k) by taking a weighted difference between, performs edge enhancement It is. The edge-emphasized image is defined as G (j, k) . The image G (j, k) edge-emphasized by unsharp masking is
(Equation 1)
Is defined as
Here, the weight coefficient c is a coefficient in a range from 3/5 to 5/6.
[0004]
Further, an image G (j, k) edge-emphasized by the Wallis method is
(Equation 2)
Is defined as
[0005]
Here, F (j, k) is the original image, M (j, k) is the estimated average of the original image at a certain point (j, k), and S (j, k) is the original average at a certain point (j, k). The estimated standard deviation of the image, M d is the expected average, S d is the expected standard deviation, A is a gain coefficient that prevents the output value from becoming excessively large when S (j, k) is small, and r is An average proportional coefficient for controlling the ratio of the edge component to the background component of the emphasized image.
[0006]
In each of these prior arts, an input original image F (j, k) is processed by separating it into a low-frequency component and a high-frequency component of a spatial frequency, and thereafter, the two are combined and edge-emphasized. G (j, k) is output. Therefore, there is a problem that it is difficult to adjust parameters, and it is difficult to predict the relationship between the input original image F (j, k) and the output edge-enhanced image G (j, k) . For example, the unsharp masking has a disadvantage that the edge is not emphasized much, whereas the Wallis method has a disadvantage that the edge is emphasized too much.
[0007]
[Problems to be solved by the invention]
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and in an image processing apparatus that performs edge enhancement on a digital image, it is not necessary to adjust parameters, and to obtain an image with good edge enhancement. It is an object of the present invention to provide an image processing apparatus capable of performing the following.
[0008]
[Means for Solving the Problems]
The present invention provides, in an image processing apparatus for performing edge enhancement on a digital image, a flatness quantification unit that obtains a value obtained by quantifying the flatness of an image from an input image, and a flatness quantification unit obtained by the flatness quantification unit. Pixel value conversion function generating means for generating a pixel value conversion function for edge enhancement based on the value of the pixel value, and an output pixel value from the pixel value conversion function generated by the pixel value conversion function generation means and the pixel value of the input image The pixel value conversion function is a function derived from a sigmoid function and a function whose shape is controlled by a value of a neighborhood average calculated from neighboring pixels. Is what you do.
[0009]
[Action]
According to the present invention, a value obtained by quantifying the flatness of an image is obtained from an input image, and based on this flatness value, for example, in the case of a flat region, the pixel value of the input image is not significantly changed. Such a pixel value conversion function is generated, and in the case of an edge region, a pixel value conversion function that makes a large change that emphasizes edges on the pixel values of the input image is generated. As the pixel value conversion function at this time, a function derived from the sigmoid function and a function whose shape is controlled by the value of the neighborhood average calculated from the neighboring pixels is used. Using the pixel value conversion function and the pixel value of the input image, the pixel value conversion unit outputs a pixel value that results in an image whose edges are enhanced.
[0010]
As described above, the pixel value (brightness) of the input image is directly processed using the function determined based on the flatness value without separating, processing, and combining the input image according to the spatial frequency, and the edge is emphasized. Is done. Therefore, it is not necessary to adjust the parameters, and it is possible to obtain an image with good edge enhancement.
[0011]
As the value of the flatness, for example, any one of the values such as the standard deviation of the neighborhood, the variance of the neighborhood, and the contrast of the neighborhood can be selected and used. As the pixel value conversion function, for example, it can be configured to generate a sigmoid function that is modified according to the flatness of the area and the input pixel value.
[0012]
【Example】
FIG. 1 is a block diagram showing an embodiment of the image processing apparatus of the present invention. In the figure, 11 is an image input unit, 12 is a flatness quantification unit, 13 is a pixel value conversion function generation unit, 14 is a pixel value conversion unit, and 15 is an image output unit. The
[0013]
The value of the flatness obtained in the
[0014]
Neighborhood variance can also be used as an amount expressing local flatness. The neighborhood variance is the variance of the luminance data of each pixel in an image area including a certain pixel and its neighboring pixels. Similarly, a square area of three rows and three columns can be used as the image area. Neighboring contrast can also be used as an amount expressing local flatness. The neighborhood contrast is a contrast of luminance data of each pixel in an image area including a certain pixel and its neighboring pixels. Note that this contrast means that the maximum luminance value in a certain image area is Imax and the minimum luminance value is Imin.
(Equation 3)
Is defined by Similarly, a square area of three rows and three columns can be used as the image area.
[0015]
All of the regions where the values of the neighborhood standard deviation, the neighborhood variance, and the neighborhood contrast are large coincide well with the area such as an edge where the change in the luminance value is large locally, so that it is suitable for expressing local flatness. I have. However, the amount expressing local flatness is not limited to these values, and other values may be used.
[0016]
In the above description, an amount representing local flatness is used as the flatness of the image. However, the present invention is not limited to this, and may employ an amount expressing flatness over a wider range of the image area. For example, one screen may be divided into several sections, and the amount expressing flatness may be calculated for each section. Alternatively, a single amount representing flatness may be calculated from the entire image to be processed. In the latter case, edge processing suitable for the flatness of each screen can be performed.
[0017]
A specific example of the pixel value conversion function generated by the pixel value
[0018]
The following function g (x, c, m) is considered as a specific example of the pixel value conversion function.
(Equation 4)
[0019]
Expression (4) is a function for deriving Expression (1) from Expression (2), and Expression (1) is derived from a sigmoid function defined by Expression (4). By changing the shape of this function, it is possible to perform edge enhancement suitable for the flatness of various images. X in Expression (4) is a luminance value of an arbitrary pixel of the original image (hereinafter, referred to as “image data”). Here, it is assumed that the luminance value takes a value from 0 to 255. c is a value of the flatness of the pixel, for example, a value of a neighborhood standard deviation, a neighborhood variance, a neighborhood contrast, and the like. Hereinafter, description will be made assuming that a value of the neighborhood standard deviation is used. m is a third parameter for controlling the shape of the pixel value conversion function, and uses, for example, a value of a neighborhood average calculated from neighboring pixels.
[0020]
Here, the value of the parameter b in equation (4) is fixed to 0 for use. The value of f (x, c, b) in equation (4) is 0 when the value of variable x in equation (4) is −∞, 0.5 when it is 0, and 1 when it is ∞. When the value of x is 0, it becomes an inflection point. Equation (4) is replaced by equation (3), and h (x, c) in equation (3) becomes an inflection point when the value of variable x in equation (3) is 0.5. . Then, Expression (3) is replaced as Expression (2), and when x takes a value from 0 to 1, the value of y (x, c) in Expression (2) becomes from 0 to 1. , And when the value of the neighborhood standard deviation c is 0, the value of the variable x in the equation (2) is returned as it is. Further, the expression (2) is replaced by the expression (1), and when the value of the image data x takes a value from 0 to 255, g (x, c, m) also becomes a value from 0 to 255. After being normalized so as to be taken, it is moved in the horizontal axis direction and the vertical axis direction by the value of the neighborhood average m, in other words, it is moved in the direction of 45 degrees on the coordinate plane.
[0021]
FIG. 2 is a flowchart illustrating an example of a process of generating a pixel value conversion function. In S21, the image data x is obtained from the
[0022]
In S24, a sigmoid function shown in Expression (4) is generated based on the neighborhood standard deviation c obtained in S23. In S25, the sigmoid function generated in S24 is normalized as shown in Expressions (2) and (3). In S26, the standardized sigmoid function is further standardized as in equation (1), and is moved in the direction of 45 degrees on the coordinate plane based on the neighborhood average m. The sigmoid function thus generated corresponds to the equation (1) and is output to the pixel
[0023]
FIGS. 3, 4, and 5 are explanatory diagrams of the pixel value conversion function when the neighborhood standard deviation and neighborhood average are changed. FIGS. 3A and 3B show pixel value conversion functions when the value of the neighborhood average m is 64 and the values of the neighborhood standard deviation c are 2 and 10. FIGS. 5B shows a pixel value conversion function when the value of the neighborhood average m is 128 and the values of the neighborhood standard deviation c are 2 and 10. FIGS. 5A and 5B show the values of the neighborhood average m. Is a pixel value conversion function in the case where is 192 and the values of the neighborhood standard deviation c are 2 and 10. In the figure, the horizontal axis represents the value of the image data x, and the vertical axis represents the value of the pixel conversion function g (x, c, m).
[0024]
As can be seen from the curves shown in FIGS. 3, 4, and 5, the pixel value conversion function g (x, c, m) represented by Expression (1) is a monotonically increasing function, and the value of the image data x Takes the value of the neighborhood average m, the value of the pixel value conversion function g (x, c, m) also becomes the value of the neighborhood average m, and becomes the inflection point of the curve. When the value of the image data x is larger than the value of the neighborhood average m, it becomes convex upward, and when it is small, it becomes convex downward. Therefore, in the vicinity of the value of the neighborhood average m, the change in the value of the pixel value conversion function g (x, c, m) with respect to the change in the value of the image data x becomes large. However, when the value of the neighborhood standard deviation c is 0, there is no inflection point.
[0025]
Further, the value of the pixel value conversion function g (x, c, m) represented by the equation (1) is such that the pixel value conversion function g (x , C, m). When the value of the neighborhood standard deviation c is 0, the value of the pixel value conversion function g (x, c, m) is the value of the image data x itself.
[0026]
However, the pixel value x of the original image actually takes a value from 0 to 255, and the pixel value conversion function g (x, c, m) actually takes a value from 0 to 255. .
[0027]
6, 7, and 8 are explanatory diagrams of simulation results showing the effect of edge enhancement. Each figure simulates the state of edge enhancement in six types of regions. In the figure, the horizontal axis indicates the position of the pixel, and the vertical axis indicates the value of the luminance. A
[0028]
As shown by the
[0029]
It is not always necessary to use g (x, c, m) in equation (1) as the pixel value conversion function. In the case of a flat area, a pixel value that does not significantly change the input pixel value is used. In the case of an output and an edge area, any function may be used as long as it outputs a pixel value that makes a large change to the input pixel value so as to emphasize an edge.
[0030]
In the above description, as a specific example of the pixel value conversion function, in addition to the flatness data that changes according to the pixel position and the screen, the pixel value conversion function is also used using the neighborhood average data that also changes according to the pixel position and the screen. Generated. However, it is also possible to generate a pixel value conversion function without using such neighborhood average data. For example, in the configuration of the above specific example, the pixel value conversion function may be generated based on the flatness value c after fixing the value of the neighborhood average m to a predetermined value. In the case where the value of the neighborhood average m does not greatly change depending on the position of the pixel or the screen, the calculation amount can be reduced.
[0031]
【The invention's effect】
As is apparent from the above description, according to the present invention, in the original image, by obtaining the flatness value of a certain area, in the case of a flat area corresponding to the area, the input pixel value is largely changed. Is generated, and in the case of an edge region, a pixel value conversion function that makes a large change that emphasizes edges on the input pixel value is generated, and the generated pixel value conversion function is generated. , The pixel value is converted, so that it is not necessary to adjust the parameters, and it is possible to obtain an image with good edge enhancement.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a flowchart illustrating an example of a process of generating a pixel value conversion function.
FIG. 3 is a first explanatory diagram of a pixel value conversion function when a neighborhood standard deviation and a neighborhood average are changed.
FIG. 4 is a second explanatory diagram of a pixel value conversion function when a neighborhood standard deviation and a neighborhood average are changed.
FIG. 5 is a third explanatory diagram of a pixel value conversion function when a neighborhood standard deviation and a neighborhood average are changed.
FIG. 6 is a first explanatory diagram of a simulation result showing an effect of edge enhancement.
FIG. 7 is a second explanatory diagram of a simulation result showing the effect of edge enhancement.
FIG. 8 is a third explanatory diagram of a simulation result showing the effect of edge enhancement.
[Explanation of symbols]
11: image input unit, 12: flatness quantification unit, 13: pixel value conversion function generation unit, 14: pixel value conversion unit, 15: image output unit, 41: output of
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30506794A JP3557673B2 (en) | 1994-12-08 | 1994-12-08 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30506794A JP3557673B2 (en) | 1994-12-08 | 1994-12-08 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08161485A JPH08161485A (en) | 1996-06-21 |
JP3557673B2 true JP3557673B2 (en) | 2004-08-25 |
Family
ID=17940727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30506794A Expired - Fee Related JP3557673B2 (en) | 1994-12-08 | 1994-12-08 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3557673B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6370265B1 (en) * | 1999-11-24 | 2002-04-09 | Direct Radiography Corp. | Method for generating gray scale transfer functions for use in displaying a digital radiogram |
WO2012020718A1 (en) * | 2010-08-12 | 2012-02-16 | 日本電気株式会社 | Image processing apparatus, image processing method, and image processing program |
JP2018061187A (en) * | 2016-10-07 | 2018-04-12 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
1994
- 1994-12-08 JP JP30506794A patent/JP3557673B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH08161485A (en) | 1996-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2624204B1 (en) | Image processing apparatus and method of controlling the same | |
JP2004030670A (en) | Enhancement method for color tone feature of digital image | |
WO2019056549A1 (en) | Image enhancement method, and image processing device | |
JP2008109640A (en) | Prediction coefficient operation device and method, image data operation device and method, program, and recording medium | |
KR101821285B1 (en) | Apparatus and method for thermal image enhancement | |
JP2011155632A (en) | Image processing apparatus, image processing method, and computer program | |
WO2021106853A1 (en) | Image processing apparatus, image processing method, learning apparatus, learning method, imaging device, and program | |
US20200118250A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2006331172A (en) | Gradation correction apparatus | |
JPH09149241A (en) | Method and device for enlarging picture | |
JP2007180851A (en) | Gray scale transformation device, program and method for raw image, and electronic camera | |
JP3557673B2 (en) | Image processing device | |
KR100791374B1 (en) | Method and apparatus for image adaptive color adjustment of pixel in color gamut | |
JP2007336419A (en) | Luminance conversion apparatus | |
JP3696339B2 (en) | Image processing method and apparatus | |
JP2001052156A5 (en) | Engraving-style halftone image generation method / device | |
JP2006031584A (en) | Area division of image | |
JPH0793531A (en) | Picture processor | |
JP2856661B2 (en) | Density converter | |
JP7425361B2 (en) | Image adjustment device, image adjustment method and program | |
JP2000115526A (en) | Picture processor and edge processing method | |
JP3932470B2 (en) | Image processing method and apparatus | |
JP5564451B2 (en) | Image processing apparatus, image processing method, and computer program | |
EP1411472A2 (en) | Gradation conversion of an image | |
JP2018128764A (en) | Image processing device, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040510 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080528 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090528 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100528 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100528 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110528 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110528 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |