JP3252422B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3252422B2
JP3252422B2 JP35874891A JP35874891A JP3252422B2 JP 3252422 B2 JP3252422 B2 JP 3252422B2 JP 35874891 A JP35874891 A JP 35874891A JP 35874891 A JP35874891 A JP 35874891A JP 3252422 B2 JP3252422 B2 JP 3252422B2
Authority
JP
Japan
Prior art keywords
signal
image
area
edge
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35874891A
Other languages
Japanese (ja)
Other versions
JPH05183924A (en
Inventor
順彦 酒井
安弘 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP35874891A priority Critical patent/JP3252422B2/en
Publication of JPH05183924A publication Critical patent/JPH05183924A/en
Application granted granted Critical
Publication of JP3252422B2 publication Critical patent/JP3252422B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、入力された画像信号に
画像処理を施して高品質の画像信号に出力させる場合、
例えば色信号の圧縮率が高く、歪が出易い画像信号に対
して用いて好適な画像処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a case where an input image signal is subjected to image processing to output a high quality image signal.
For example, the present invention relates to an image processing apparatus suitable for an image signal having a high compression ratio of a color signal and easily causing distortion.

【0002】[0002]

【従来の技術】テレビカメラ、ビデオディスク及びスチ
ルカメラ等の映像ソースから静止画の1フレーム分の映
像信号を画像処理装置に入力し、この画像処理装置にお
いて上記入力映像信号に対して各種信号処理を施して所
望の印刷用画像信号を生成し、この印刷用画像信号をプ
リンタ等の印刷手段に供給して印刷を行うように印刷用
の静止画処理システムが開発されている。
2. Description of the Related Art A video signal for one frame of a still image is input to an image processing device from a video source such as a television camera, a video disk, and a still camera, and the image processing device performs various signal processing on the input video signal. A still image processing system for printing has been developed so as to generate a desired printing image signal by performing the printing operation and supply the printing image signal to a printing unit such as a printer to perform printing.

【0003】このような静止画は、同じ画像が長時間衆
目に曝され輝度ムラ及び色ムラ等の画質劣化が動画に比
べて目立つ傾向があるため、このような画質劣化の原因
となる映像信号のノイズを除去する必要がある。従来の
画像のノイズ除去手法としては、先ず、単なるウィンド
ウ内の平均化及び空間周波数領域における低域通過フィ
ルタ(以下LPFと略す)等による平滑化の手法があ
る。
[0003] In such a still image, the same image is exposed to the public for a long time, and the image quality degradation such as luminance unevenness and color unevenness tends to be more conspicuous than that of a moving image. Must be removed. As a conventional method for removing noise from an image, first, there is a method of simply averaging within a window and smoothing using a low-pass filter (hereinafter abbreviated as LPF) in a spatial frequency domain.

【0004】また、エッジ等画像の重要な情報を損なう
ことなく、映像信号のノイズを除去する手法として、選
択的局所平均化と微小振幅成分除去用の特殊処理が知ら
れている。上記選択的局所平均化とは、エッジまたは線
分を検出し、それらが存在しないドットだけについて平
均化を行う手法である。特に、汎用性を考慮して提案さ
れたものとしては、例えばCGIP,vol.9,No.4, pp.394-40
7, April 1979 においてエッジを保ったスムージング反
復によるノイズ除去及び局所的画素選択によるスムージ
ングがある。その他、特殊な対象物への専用オペレータ
的なものとして種々のアルゴリズムが提案されている。
As a technique for removing noise from a video signal without losing important information of an image such as an edge, a special process for selective local averaging and small amplitude component removal is known. The above-mentioned selective local averaging is a method of detecting edges or line segments and averaging only dots where they do not exist. In particular, those proposed in consideration of versatility include, for example, CGIP, vol. 9, No. 4, pp. 394-40
On 7, April 1979, there is noise removal by smoothing repetition with edge preservation and smoothing by local pixel selection. In addition, various algorithms have been proposed as a dedicated operator for a special object.

【0005】微小振幅成分除去用の特殊処理とは、エッ
ジ及び線分等の大振幅の情報を保存し細かい信号のゆら
ぎを何らかの方法で吸収してしまう方法である。例え
ば、CGIP, vol.8, No.8, pp.121-126, Augusut 1978 に
提案されている方法は、ヒステリシス特性を作り、それ
によってノイズを吸収するヒステリシススムージング、
ウィンドウ内での中間値(メジアン)を出力するメジア
ンフィルタ及び入力信号の振幅に依存した座標系におい
て低域フィルタリングを行い低振幅成分だけを除去して
しまうEフィルタ等が知られている。
The special processing for removing a minute amplitude component is a method of storing information of a large amplitude such as an edge and a line segment and absorbing a small signal fluctuation by some method. For example, the method proposed in CGIP, vol.8, No.8, pp.121-126, Augusut 1978 is a hysteresis smoothing that creates a hysteresis characteristic, thereby absorbing noise.
There are known a median filter that outputs an intermediate value (median) within a window, an E filter that performs low-pass filtering in a coordinate system depending on the amplitude of an input signal, and removes only a low-amplitude component.

【0006】[0006]

【発明が解決しようとする課題】ところで、従来のノイ
ズ除去の方法は、細かい信号のゆらぎを画像の局所領域
において除去するものである。ところが、例えば静止画
像において建物の平面部や背景のように比較的広い範囲
で、かつ色の変化が少ないところで生じる色ムラ等のノ
イズは、映像信号のノイズが原因であるが、この映像信
号のノイズを除去することができなかった。
By the way, the conventional noise removing method is to remove fine signal fluctuation in a local area of an image. However, for example, in a still image, noise such as color unevenness that occurs in a relatively wide range such as a flat part of a building or a background and where color change is small is caused by noise of a video signal. The noise could not be removed.

【0007】また、画像を圧縮、伸張した場合に生じる
複数のドットで構成するブロック的な領域に含まれるノ
イズ等は、従来のノイズ除去の方法で処理できず、出力
映像信号に残ってしまう。
[0007] Further, noise and the like included in a block-like area composed of a plurality of dots generated when an image is compressed and expanded cannot be processed by a conventional noise removal method, and remains in an output video signal.

【0008】これらの取り除けないノイズに対する画像
処理の方法として考案された方法は、上述した背景と建
物を例に説明すると、背景と建物のエッジ検出すること
で背景と建物の領域を分割し、それぞれの領域、すなわ
ち背景領域と建物領域の色信号を平均化して、平均化に
よる平均値でそれぞれの上記背景領域と上記建物領域を
塗り潰す方法がある。
In the method devised as a method of image processing for these irremovable noises, taking the above-described background and building as an example, an area of the background and the building is divided by detecting edges of the background and the building, and each of them is divided. , Ie, by averaging the color signals of the background area and the building area, and filling the background area and the building area with an average value by averaging.

【0009】しかしながら、上述したノイズ改善方法で
は、広い領域に亘って色信号が緩やかな変化を示す、例
えば色が少しずつ変化している部分を全く無視して全て
同一の一定色になってしまう。
However, in the above-described noise reduction method, the color signal shows a gradual change over a wide area. For example, all the parts become the same constant color, ignoring parts where the color changes little by little. .

【0010】そこで、本発明は上述の実情に鑑み、除去
すべき色信号のノイズがどの場所に存在していても色の
情報、すなわち色相や濃度(階調)の変化等を損なうこ
となく画像に生じているノイズだけを除去することがで
きる画像処理装置の提供を目的とするものである。
In view of the above-mentioned circumstances, the present invention provides an image processing method that does not impair color information, that is, changes in hue or density (gradation), regardless of where noise of a color signal to be removed exists. It is an object of the present invention to provide an image processing apparatus capable of removing only noise generated in the image processing apparatus.

【0011】[0011]

【課題を解決するための手段】本発明に係る画像処理装
置は、映像信号を各信号成分毎にディジタル化してノイ
ズリダクションを行う画像処理装置において、上記映像
信号における色信号のレベルを検出して画像の境界を検
出するエッジ検出手段と、該エッジ検出手段からの出力
信号で上記映像信号成分の輝度信号で形成する画像領域
に対し上記エッジ領域外の領域の輝度信号レベルに応じ
て画像の境界を分割する領域分割手段と、該領域分割手
段からの輝度信号及び画像領域内に有する色信号のノイ
ズ周期よりも大きな複数の画素からなる最小平均化領域
を設定して1画素ずつ移動させながら信号処理が施され
ていない色信号に対して平均化処理を行う領域内平均化
手段と、上記エッジ検出手段からの出力信号を反転した
信号で色信号のエッジ領域だけを選択的に抜き出すエッ
ジ領域選択手段と、上記領域内平均化手段からの出力信
号と、上記エッジ領域選択手段からの出力信号を加算し
て出力する加算手段とを有してなることにより、上述し
た課題を解決する。
According to the present invention, there is provided an image processing apparatus for performing a noise reduction by digitizing a video signal for each signal component by detecting a level of a color signal in the video signal. Edge detection means for detecting a boundary of an image; and an output signal from the edge detection means, the image signal being formed by the luminance signal of the video signal component. And a minimum averaging area consisting of a plurality of pixels larger than the noise period of the luminance signal from the area dividing means and the color signal contained in the image area, and moving the signal one pixel at a time. An in-region averaging unit that performs averaging processing on a color signal that has not been subjected to processing, and an output of the color signal by inverting the output signal from the edge detection unit. Edge area selecting means for selectively extracting only the edge area, and adding means for adding and outputting an output signal from the intra-area averaging means and an output signal from the edge area selecting means. Solves the above-described problem.

【0012】上記エッジ検出手段は、例えば差分型マス
クオペレータの一つである拡張ソーベルオペレータを用
いる。この拡張ソーベルオペレータは、S/N比が低い
画像に対して予め設定したある閾値以上の画素を検出す
ることでエッジ検出を行っている。
The edge detecting means uses, for example, an extended Sobel operator which is one of the difference type mask operators. The extended Sobel operator performs edge detection by detecting pixels having a predetermined threshold value or more for an image having a low S / N ratio.

【0013】また、上記領域分割手段は、供給された輝
度信号に対して上記エッジ検出手段から供給される出力
信号により上記エッジ検出手段で検出された領域を除い
た領域をさらに反復領域合併法で分割している。上記反
復領域合併法は、例えば基準とする画素を設定し、この
画素のレベルに対して上下左右の4方向の画素のレベル
差が0、または±1の領域を合併し一つの領域とする方
法である。
Further, the area dividing means further performs an iterative area merging method on the supplied luminance signal to remove an area other than the area detected by the edge detecting means by the output signal supplied from the edge detecting means. Divided. In the repetitive area merging method, for example, a pixel is set as a reference, and an area where the level difference between the pixels in the four directions of up, down, left, and right is 0 or ± 1 with respect to the level of this pixel is made into one area. It is.

【0014】上記領域内平均化手段は、例えば画像表示
した際に見える色ムラ等のノイズの周期を検出して供給
し、このノイズ周期に関する情報に応じて上記最小平均
化領域をノイズ周期より大きく設定して平均化を行い、
上記最小平均化領域内の全画素の色差信号の値を置換し
ている。
The intra-area averaging means detects and supplies a cycle of noise such as color unevenness which is visible when an image is displayed, and makes the minimum averaging area larger than the noise cycle in accordance with information on the noise cycle. Set and average,
The values of the color difference signals of all the pixels in the minimum averaging area are replaced.

【0015】[0015]

【作用】本発明に係る画像処理装置は、映像信号を各信
号成分毎にディジタル化した信号の色信号に対してエッ
ジ検出を行い、上記映像信号成分である輝度信号の形成
する画像領域に対して色信号で検出されたエッジ領域外
の領域を1個以上の領域に領域分割して画像領域内に有
する色信号のノイズ周期よりも大きな複数の画素からな
る最小平均化領域を設定して1画素ずつ移動させなが
ら、信号処理が施されていない色信号に対して平均化処
理を繰り返し行い、上記平均化処理された出力信号と、
色信号のエッジ領域の出力信号を加算して出力すること
により、色信号のノイズを色の階調性を損なうことなく
除去する。
An image processing apparatus according to the present invention performs edge detection on a color signal of a signal obtained by digitizing a video signal for each signal component, and detects an edge of an image area where a luminance signal as the video signal component is formed. The area outside the edge area detected by the color signal is divided into one or more areas, and a minimum averaging area including a plurality of pixels larger than the noise cycle of the color signal in the image area is set. While moving each pixel, the averaging process is repeatedly performed on the color signal that has not been subjected to the signal processing, and the output signal that has been subjected to the averaging process,
By adding and outputting the output signals of the edge region of the color signal, noise of the color signal is removed without impairing the color gradation.

【0016】[0016]

【実施例】以下、本発明に係る画像処理装置の一実施例
について図面を参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the image processing apparatus according to the present invention will be described below with reference to the drawings.

【0017】図1は色信号に含まれるノイズを低減させ
るための本発明の画像処理装置の概略的なブロック構成
を示す。映像信号を各信号成分毎にディジタル化してノ
イズリダクションを行う際に供給される映像信号は、入
力端子10、11を介してそれぞれ輝度信号Yと色信号
Cに分離した成分が供給される。
FIG. 1 shows a schematic block configuration of an image processing apparatus of the present invention for reducing noise included in a color signal. As a video signal supplied when digitizing the video signal for each signal component and performing noise reduction, components separated into a luminance signal Y and a chrominance signal C are supplied via input terminals 10 and 11, respectively.

【0018】ここで、本実施例において特に、色信号
は、色差信号(R−Y),(B−Y)を対象としてい
る。また、この輝度信号Yと色差信号Cは、この画像処
理装置による画像処理に際して前処理としてブロック単
位平滑化回路12に設けた輝度信号前置処理回路121
と色差信号前置処理回路122でそれぞれ処理対象とな
る画素を中心に予め複数の画素で構成するブロック領域
毎に各信号レベルの平滑化を行って後段の画像処理装置
の各回路に供給している。
Here, in this embodiment, particularly, the color signals are the color difference signals (RY) and (BY). The luminance signal Y and the chrominance signal C are used as a preprocessing for the luminance signal preprocessing circuit 121 provided in the block unit smoothing circuit 12 as preprocessing during image processing by the image processing apparatus.
And the color difference signal preprocessing circuit 122 performs smoothing of each signal level in advance for each block region composed of a plurality of pixels around the pixel to be processed, and supplies it to each circuit of the image processing apparatus at the subsequent stage. I have.

【0019】本発明に係る画像処理装置は、上記映像信
号における色信号のレベルを検出して画像の境界を検出
するエッジ検出手段であるエッジ検出回路13と、該エ
ッジ検出回路13からの出力信号で上記映像信号成分の
輝度信号で形成する画像領域に対し上記エッジ領域外の
領域の輝度信号レベルに応じて画像の境界を分割する領
域分割手段であるエッジ領域除去回路14及び領域分割
回路部16と、該エッジ領域除去回路14及び領域分割
回路部16からの輝度信号及び画像領域内に有する色信
号のノイズ周期よりも大きな複数の画素からなる最小平
均化領域を設定して1画素ずつ移動させながら信号処理
が施されていない色信号に対して平均化処理を行う領域
内平均化手段である領域内平均化回路部18と、上記エ
ッジ検出回路13からの出力信号を反転した信号で色信
号のエッジ領域だけを選択的に抜き出すエッジ領域選択
手段であるエッジ領域選択回路15と、上記領域内平均
化回路部18からの出力信号と、上記エッジ領域選択回
路15からの出力信号を加算して出力する加算手段であ
る加算器19とで構成している。
An image processing apparatus according to the present invention includes an edge detection circuit 13 as edge detection means for detecting a level of a color signal in the video signal to detect a boundary of an image, and an output signal from the edge detection circuit 13. The edge area removing circuit 14 and the area dividing circuit section 16 are area dividing means for dividing an image boundary formed according to the luminance signal level of an area outside the edge area with respect to an image area formed by the luminance signal of the video signal component. And a minimum averaging area consisting of a plurality of pixels larger than the noise cycle of the luminance signal from the edge area removing circuit 14 and the area dividing circuit section 16 and the color signal included in the image area is set and moved one pixel at a time. While the intra-region averaging circuit 18 is an intra-region averaging means for performing an averaging process on a color signal that has not been subjected to signal processing, and the edge detection circuit 13 An edge area selection circuit 15 which is an edge area selection means for selectively extracting only an edge area of a color signal with a signal obtained by inverting the output signals; an output signal from the intra-area averaging circuit section 18; It comprises an adder 19 which is an adding means for adding and outputting an output signal from the selection circuit 15.

【0020】上記画像処理装置の構成に基づく動作につ
いて以下に示す各種の図面や上記図1を必要に応じて参
照しながら説明する。
The operation based on the configuration of the image processing apparatus will be described with reference to various drawings shown below and FIG. 1 as necessary.

【0021】先ず、上記ブロック単位平滑化回路12
は、上述した前処理としての輝度信号Yのレベルを平滑
化する輝度信号前置処理回路121と色信号Cのレベル
を平滑化する色差信号前置処理回路122で構成してい
る。上記ブロック単位平滑化回路12は、それぞれ後段
で行われる信号処理が効果的に行われるようにするため
に予め両信号レベルをそれぞれ一様にする平滑化処理を
施す。すなわち、本実施例で例えば1フレーム分の画像
(1画面)は、図2に示すように水平方向(X方向)に
768 ドット及び垂直方向(Y方向)に480 ドットで構成
されている。
First, the block unit smoothing circuit 12
Is composed of a luminance signal preprocessing circuit 121 for smoothing the level of the luminance signal Y as the preprocessing described above and a color difference signal preprocessing circuit 122 for smoothing the level of the color signal C. The block-unit smoothing circuit 12 performs a smoothing process for equalizing both signal levels in advance in order to effectively perform signal processing performed in the subsequent stages. That is, in the present embodiment, for example, an image of one frame (one screen) is horizontally (X direction) as shown in FIG.
It is composed of 768 dots and 480 dots in the vertical direction (Y direction).

【0022】上記1画面中の任意の画素に対してX方向
の座標をi、Y方向の座標をjで表すとすると、1画面
内の座標は(i,j)で表される。このX方向の座標i
は、0≦i≦767 、Y方向の座標jは、0≦j≦479 の
範囲で表される。従って、一般的に任意の画素Pの座標
(i,j)に隣接する画素Qの座標は(i+1,j)と
表せる。上記任意の画素Pは、例えば8ビットの輝度信
号Yのデータ及びそれぞれ2個の8ビットの色差信号
(R−Y),(B−Y)のデータが割り当てられてい
る。
Assuming that the coordinates in the X direction are represented by i and the coordinates in the Y direction are represented by j with respect to an arbitrary pixel in one screen, the coordinates in one screen are represented by (i, j). This coordinate i in the X direction
Is represented by 0 ≦ i ≦ 767, and the coordinate j in the Y direction is represented by a range of 0 ≦ j ≦ 479. Therefore, the coordinates of the pixel Q adjacent to the coordinates (i, j) of an arbitrary pixel P can be generally expressed as (i + 1, j). For example, the arbitrary pixel P is assigned 8-bit luminance signal Y data and two 8-bit color difference signal (RY) and (BY) data, respectively.

【0023】上記輝度信号前置処理回路121は、図3
(A)に示すように、画像処理対象とする画素Pを中心
に3×3ドット単位のブロックに切出して、このブロッ
クを構成する9個の輝度信号Yの画素の平均値を上記画
素Pの輝度信号Yの値とする。同様に、図3(B)に示
すように、隣接する画素Qの輝度信号Yの値も画素Qを
中心に切出したブロックに含まれる3×3ドットの平均
値で表している。1画面の全画素に対して上述した平滑
化を行っている。輝度信号前置処理回路121は、この
平滑化された各画素の輝度信号の値を上記エッジ領域除
去回路14に供給している。
The above-mentioned luminance signal pre-processing circuit 121 has the configuration shown in FIG.
As shown in (A), a pixel P to be image-processed is cut into a block of 3 × 3 dots, and the average value of the nine pixels of the luminance signal Y constituting this block is calculated. The value of the luminance signal Y is used. Similarly, as shown in FIG. 3B, the value of the luminance signal Y of the adjacent pixel Q is also represented by the average value of 3 × 3 dots included in a block cut out around the pixel Q. The above-described smoothing is performed on all pixels of one screen. The luminance signal preprocessing circuit 121 supplies the smoothed luminance signal value of each pixel to the edge area removing circuit 14.

【0024】また、上記色差信号前置処理回路122
は、図4に示すように、画像処理対象とする画素Pを中
心に3(X方向)×5(Y方向)ドット単位のブロック
に切出して、このブロックを構成する15個の色差信号
(R−Y),(B−Y)の画素の平均値をそれぞれ別個
に計算して上記画素Pの色差信号(R−Y),(B−
Y)の値とする。色差信号前置処理回路122は、この
平滑化された各画素の色差信号の値を上記エッジ検出回
路13に供給している。
The color difference signal pre-processing circuit 122
Is, as shown in FIG. 4, cut out into blocks of 3 (X direction) × 5 (Y direction) dots around a pixel P to be subjected to image processing, and 15 color difference signals (R −Y) and the average value of the pixels (B−Y) are separately calculated, and the color difference signals (R−Y) and (B−
Y). The color difference signal preprocessing circuit 122 supplies the smoothed color difference signal value of each pixel to the edge detection circuit 13.

【0025】上記エッジ検出回路13は、供給される色
差信号Cに関して1画面内のエッジ部、すなわち色の変
化の大きな部分を検出する回路である。本実施例におい
てエッジ検出回路13は、主に局所的な濃度変化を検出
する目的で設計された差分型マスクオペレータの一つで
ある拡張ソーベル(Sobel)オペレータを使用する。上記
拡張ソーベルオペレータは、線形1階差分のソーベルオ
ペレータをS/N比が低い画像に適用できるように改善
したオペレータである。
The edge detecting circuit 13 is a circuit for detecting an edge portion in one screen, that is, a portion where a color change is large, with respect to the supplied color difference signal C. In the present embodiment, the edge detection circuit 13 uses an extended Sobel (Sobel) operator, which is one of the difference type mask operators designed mainly for detecting a local density change. The extended Sobel operator is an operator obtained by improving the Sobel operator of the linear first-order difference so that it can be applied to an image having a low S / N ratio.

【0026】先ず、簡単のためソーベルオペレータにつ
いて図5に示す画素毎に異なる重み係数の対応関係を参
照しながら説明する。1画面内の任意の座標(k,l)
における色差信号(R−Y),(B−Y)の値をそれぞ
れf1(k,l)及びf2(k,l)として表す。ま
た、処理対象とする画素Pの座標は(i,j)とする。
First, for the sake of simplicity, the Sobel operator will be described with reference to the correspondence relationship of different weighting factors for each pixel shown in FIG. Arbitrary coordinates (k, l) in one screen
Are represented as f1 (k, l) and f2 (k, l), respectively. The coordinates of the pixel P to be processed are (i, j).

【0027】このときソーベルオペレータによる色差信
号(R−Y)について、画素Pに関するX方向のエッジ
信号f1X (i,j)及びY方向のエッジ信号f1
Y (i,j)は、 f1X (k,l)=f1(i+1,j-1)+2f1(i+1,j)+f1(i+1,j+1) -f1(i-1,j-1)-2f1(i-1,j)-f1(i-1,j+1)・・・(1) f1Y (k,l)=f1(i-1,j+1)+2f1(i,j+1)+f1(i+1,j+1) -f1(i-1,j-1)-2f1(i,j-1)-f1(i+1,j-1)・・・(2) と表される。
At this time, with respect to the color difference signal (RY) by the Sobel operator, an X-direction edge signal f1 X (i, j) and a Y-direction edge signal f1 for the pixel P
Y (i, j) is f1 X (k, l) = f1 (i + 1, j-1) + 2f1 (i + 1, j) + f1 (i + 1, j + 1) -f1 (i -1, j-1) -2f1 (i-1, j) -f1 (i-1, j + 1) ・ ・ ・ (1) f1 Y (k, l) = f1 (i-1, j + 1 ) + 2f1 (i, j + 1) + f1 (i + 1, j + 1) -f1 (i-1, j-1) -2f1 (i, j-1) -f1 (i + 1, j- 1)... (2).

【0028】同様に、色差信号(B−Y)について画素
Pに関するX方向のエッジ信号f2X (i,j)及びf
Y (i,j)もf2(k,l)を用いて表現される。
すなわち上記ソーベルオペレータは、処理対象とする画
素Pを中心として3×3ドット毎のブロックに切出す
と、X方向及びY方向についてそれぞれ図5(A)及び
図5(B)に示す9個の重み係数(0、±1又は±2)
が座標に対応してかけて表されている。
Similarly, for the color difference signal (BY), edge signals f2 x (i, j) and f
2 Y (i, j) is also expressed using f2 (k, l).
That is, when the Sobel operator cuts out a block of 3 × 3 dots around the pixel P to be processed, the nine pixels shown in FIGS. 5A and 5B in the X direction and the Y direction are respectively obtained. Weighting factor (0, ± 1 or ± 2)
Are represented corresponding to the coordinates.

【0029】さらに、画素Pの色差信号(R−Y),
(B−Y)についてのエッジ信号f1(i,j)及びf
2(i,j)は、それぞれ f1(i,j)={f1X (i,j)2+f1Y (i,j)21/2 ・・・(3) f2(i,j)={f2X (i,j)2+f2Y (i,j)21/2 ・・・(4) と定義している。
Further, the color difference signal (RY) of the pixel P,
Edge signals f1 (i, j) and f for (BY)
2 (i, j) is f1 (i, j) = {f1 X (i, j) 2 + f1 Y (i, j) 21/2 (3) f2 (i, j) = {F2 X (i, j) 2 + f2 Y (i, j) 21/2 (4)

【0030】本実施例では、上記エッジ信号f1(i,
j)及びf2(i,j)の2乗和を計算して、上記2乗
和がある閾値以上の値を有する画素をエッジとしてみな
している。
In this embodiment, the edge signal f1 (i, i,
j) and the sum of squares of f2 (i, j) are calculated, and a pixel having a value equal to or greater than a certain threshold is regarded as an edge.

【0031】より具体的に図6に示すエッジ検出対象と
なる画像において色差信号(R−Y)を例に挙げて説明
する。図6(A)は、あるY方向のエッジラインELを
中心として左側の画素の値が1、右側の画素の値が20
0であると仮定する。前記式(1) よりf1X (i,j)
の値は、上記エッジラインELを挟む2列の画素ライン
で796となる。一方、他の画素はゼロになる。
More specifically, a color difference signal (RY) in the image to be detected as shown in FIG. 6 will be described. FIG. 6A shows that the value of the pixel on the left side is 1 and the value of the pixel on the right side is 20 with respect to a certain Y-direction edge line EL.
Assume 0. From the above equation (1), f1 X (i, j)
Is 796 for two pixel lines sandwiching the edge line EL. On the other hand, other pixels become zero.

【0032】また、前記式(2) を用いて計算すると、f
Y (i,j)の値は、どの画素についてもゼロにな
る。従って、前記式(3) によって定義されるエッジ信号
f1(i,j)の値は、f1X (i,j) の値で表されて図6
(B)に示すように図6(A)のエッジラインELを挟
む2列の画素からなるエッジ部分EP1でのみ796と
なり、他の領域はゼロになる。この場合、色差信号(B
−Y)について全画素の値が同一と仮定すると、エッジ
信号f2(i,j)の値は全画素についてゼロになる。
このため、上記エッジ信号f1(i,j)及びf2
(i,j)の2乗和を計算すると、図6(B)に示した
エッジ部分EL1の領域だけ値を有し、予め設定した閾
値を越えることになる。従って、上記閾値を越えたエッ
ジ部分EL1は、エッジとして検出されることになる。
Calculating using the above equation (2), f
The value of 1 Y (i, j) will be zero for any pixel. Accordingly, the value of the edge signal f1 (i, j) defined by the above equation (3) is represented by the value of f1 X (i, j) and is represented by FIG.
As shown in FIG. 6B, 796 is obtained only at the edge portion EP1 composed of two rows of pixels sandwiching the edge line EL in FIG. 6A, and the other regions become zero. In this case, the color difference signal (B
Assuming that the values of all pixels are the same for −Y), the value of the edge signal f2 (i, j) becomes zero for all pixels.
Therefore, the edge signals f1 (i, j) and f2
When the sum of squares of (i, j) is calculated, only the area of the edge portion EL1 shown in FIG. 6B has a value, which exceeds a preset threshold. Therefore, the edge portion EL1 exceeding the threshold value is detected as an edge.

【0033】このように図6(A)と図6(B)とを対
比して明らかなようにソーベルオペレータによるエッジ
検出する場合、上記エッジラインELを含む所定幅の領
域がエッジ部分として検出される傾向にある。
As apparent from the comparison between FIGS. 6A and 6B, when an edge is detected by the Sobel operator, a region having a predetermined width including the edge line EL is detected as an edge portion. Tend to be.

【0034】また、本実施例では、実際に上記ソーベル
オペレータに代わって拡張ソーベルオペレータを使用し
ている。この拡張ソーベルオペレータは、処理対象とな
る画素Pに関するX方向のエッジ信号を求める色差信号
(R−Y)について図7(A)に示す処理対象の画素P
を中心として5(X方向)×3(Y方向)ドットのブロ
ック単位で切出して、15個の画素についてそれぞれ重
み係数(0、±1又は±2)を対応させている。一方、
Y方向のエッジ信号を求めるために図7(B)に示す3
(X方向)×5(Y方向)ドットのブロック単位で切出
して、15個の画素についてそれぞれ重み係数(0、±
1又は±2)を対応させている。このようにして上記X
方向のエッジ信号と上記Y方向のエッジ信号との2乗和
の平方根を計算して拡張ソーベルオペレータによる色差
信号(R−Y)についてのエッジ信号が求められる。同
様にして拡張ソーベルオペレータによる色差信号(B−
Y)に関するエッジ信号も求められる。
In this embodiment, an extended sobel operator is actually used instead of the above-mentioned sobel operator. The extended Sobel operator performs processing on a pixel P to be processed shown in FIG. 7A with respect to a color difference signal (RY) for obtaining an edge signal in the X direction for the pixel P to be processed.
Is divided into blocks of 5 (X-direction) × 3 (Y-direction) dots with respect to the center, and weighting coefficients (0, ± 1, or ± 2) are associated with each of the 15 pixels. on the other hand,
In order to obtain an edge signal in the Y direction, 3 shown in FIG.
(X direction) × 5 (Y direction) The block is cut out in units of dots, and the weighting factors (0, ±
1 or ± 2). Thus, the above X
By calculating the square root of the sum of squares of the edge signal in the direction and the edge signal in the Y direction, an edge signal for the color difference signal (RY) by the extended Sobel operator is obtained. Similarly, the color difference signal (B-
An edge signal for Y) is also determined.

【0035】この拡張ソーベルオペレータによれば、演
算対象となるブロックの画素数がそれぞれの色差信号に
応じて3から5に増加していることから、エッジ検出さ
れる領域の幅が広くなる傾向がある。例えば図6(A)
に示した画像に対して拡張ソーベルオペレータを作用さ
せると、検出されるエッジ部は、ソーベルオペレータを
作用させたときの図6(A)に示すエッジラインELを
中心に挟む2列の画素より広い4列の画素よりなる部分
EL2になる。この拡張ソーベルオペレータによれば入
力画像のS/N比が低い場合でもエッジ部を確実に検出
することができる。
According to the extended Sobel operator, since the number of pixels of the block to be operated increases from 3 to 5 in accordance with the respective color difference signals, the width of the edge-detected area tends to be wide. There is. For example, FIG.
When the extended Sobel operator is applied to the image shown in FIG. 6, the detected edge portion is composed of two columns of pixels sandwiching the edge line EL shown in FIG. 6A when the Sobel operator is applied. A portion EL2 is formed of four wider rows of pixels. According to the extended Sobel operator, even when the S / N ratio of the input image is low, the edge portion can be reliably detected.

【0036】このような方法で本実施例のエッジ検出回
路13は、色差信号によってエッジ検出を行って検出し
たエッジ部の画素の座標が必要か否かを示すレベルをエ
ッジ領域除去回路14及びエッジ領域選択回路15にそ
れぞれ供給している。ここで、上記エッジ領域除去回路
14と上記エッジ領域選択回路15の制御動作は、後述
するようにエッジ領域を除去した領域を用いる場合とエ
ッジ領域を用いる場合とこれらの回路の制御動作は全く
逆であるから、この場合、上記エッジ領域選択回路15
への供給する座標データに対応するレベルは、エッジ領
域除去回路14への制御信号のレベルを反転させた信号
になる。
In this manner, the edge detection circuit 13 of the present embodiment performs the edge detection based on the color difference signal, and sets the level indicating whether or not the coordinates of the pixel of the edge portion detected are necessary. It is supplied to each of the area selection circuits 15. Here, the control operations of the edge region removing circuit 14 and the edge region selecting circuit 15 are completely opposite to the control operation of the case where the edge region is removed and the case of using the edge region as described later. Therefore, in this case, the edge region selection circuit 15
Is a signal obtained by inverting the level of the control signal to the edge area removing circuit 14.

【0037】エッジ領域除去回路14は、輝度信号前置
処理回路121から供給される平滑化された輝度信号Y
を入力している。この輝度信号Yは、供給される制御信
号に応じてエッジ領域除去回路14の動作が行われて全
画面領域内のエッジ部分を除いた輝度信号が領域分割回
路部16に供給される。
The edge area removing circuit 14 outputs the smoothed luminance signal Y supplied from the luminance signal preprocessing circuit 121.
Is entered. As for the luminance signal Y, the operation of the edge area removing circuit 14 is performed according to the supplied control signal, and the luminance signal excluding the edge portion in the entire screen area is supplied to the area dividing circuit section 16.

【0038】また、上記エッジ領域選択回路15は、入
力端子11を介して入力された何ら画像処理を施されて
いない色差信号Cを入力している。エッジ領域選択回路
15は、エッジ領域の色差信号のみを通過させる回路で
ある。このエッジ領域選択回路15からの出力信号は、
加算器19の一端側に供給する。上記エッジ部分以外の
領域の信号レベルは、全てゼロレベルにしている。
The edge area selection circuit 15 receives the color difference signal C which has been input through the input terminal 11 and has not been subjected to any image processing. The edge area selection circuit 15 is a circuit that passes only the color difference signal of the edge area. The output signal from the edge area selection circuit 15 is
It is supplied to one end of the adder 19. The signal levels in the regions other than the edge portions are all set to zero level.

【0039】ところで、上記エッジ検出回路13は上述
したように色差信号Cの変化だけでエッジ検出を行って
いるため、本来の画像中にエッジ部分が含まれているに
もかかわらずエッジとして検出されない場合がある。こ
のようにエッジとして検出されない部分は、ほとんど輝
度信号Yでの変化が明瞭な場合である。このことより上
記領域分割回路部16は、1画面の内で上記エッジ検出
回路13で検出されたエッジ領域を除く画面領域を輝度
信号Yのレベルに応じて1個または複数の領域に分割す
る。分割の方法は、例えば反復領域合併法を使用する。
Since the edge detection circuit 13 detects an edge only by a change in the color difference signal C as described above, it is not detected as an edge even though an original image contains an edge portion. There are cases. The portion that is not detected as an edge is a case where the change in the luminance signal Y is almost clear. Accordingly, the area dividing circuit section 16 divides the screen area excluding the edge area detected by the edge detecting circuit 13 in one screen into one or a plurality of areas according to the level of the luminance signal Y. As a dividing method, for example, a repetitive area merging method is used.

【0040】領域分割回路部16において行われる反復
領域合併法について図8に示す領域分割の一例を参照し
ながら具体的に説明する。分割対象となる画面は簡単に
理解されるようにするため画素を15×9ドットで1ブ
ロック単位として用いる。また、図8に示す画面の斜線
部EPは、色差信号Cで検出されたエッジ領域を示す。
図8に示す画面において上記エッジ領域を除く各画素内
に示す数値は、輝度信号Yのレベルを示している。
The repetitive area merging method performed in the area dividing circuit section 16 will be specifically described with reference to an example of area dividing shown in FIG. The screen to be divided uses pixels of 15 × 9 dots in units of one block for easy understanding. A hatched portion EP of the screen shown in FIG. 8 indicates an edge region detected by the color difference signal C.
In the screen shown in FIG. 8, the numerical values shown in each pixel excluding the edge area indicate the level of the luminance signal Y.

【0041】この場合、先ず、図8において右上端の輝
度信号レベル10の画素P1を基準に上下左右の4方向
に隣接する画素に対して相互の輝度信号Yのレベル差が
0、又は±1の画素を有する領域を合併した同一の領域
としてまとめる。図8における上記画素P1を基準にし
た合併領域R1は、領域を示す領域ラインRL1で区切
られた領域になる。次に、上記領域ラインRL1に隣接
する画素の中で最上部に位置する画素P2のレベル12
を基準にして同様に上下左右の4方向に隣接する画素に
対して相互の輝度信号Yのレベル差が0、又は±1の画
素を有する領域を合併した同一の領域をR2として求め
ている。この領域R2は、領域ラインRL1、領域RL
2及びエッジ部EPのラインで囲まれた領域になる。
In this case, first, in FIG. 8, the level difference between the luminance signals Y is 0 or ± 1 with respect to the pixels adjacent in the four directions of up, down, left and right with reference to the pixel P1 having the luminance signal level 10 at the upper right end. Are combined into the same merged region. The merged region R1 based on the pixel P1 in FIG. 8 is a region divided by a region line RL1 indicating the region. Next, the level 12 of the pixel P2 located at the uppermost position among the pixels adjacent to the region line RL1 is determined.
Similarly, the same area obtained by combining areas having pixels whose level difference of the mutual luminance signal Y is 0 or ± 1 with respect to pixels adjacent in the four directions of up, down, left, and right is obtained as R2. The region R2 includes a region line RL1 and a region RL.
2 and an area surrounded by the line of the edge portion EP.

【0042】このようにして輝度信号Yのレベルに応じ
て画面を分割すると、図8に示す画面はそれぞれ図8に
示す太い実線で領域が区切られる。図8の画面は、上述
した領域区分の関係を用いて各領域に画面分割すると、
図9に示す領域R1〜R9まで9つに分割される。
When the screen is divided in accordance with the level of the luminance signal Y in this manner, the screen shown in FIG. 8 is divided into regions by thick solid lines shown in FIG. When the screen of FIG. 8 is divided into regions using the above-described region division relationship,
The region is divided into nine regions R1 to R9 shown in FIG.

【0043】上記領域分割回路部16は、上述した手順
に従って分割した領域の情報を領域内平均化回路部18
に供給している。この領域内平均化回路部18は、入力
端子11を介して何ら信号処理を受けていない色差信号
Cと入力端子17を介して除去すべきノイズの周期情報
NRIが入力されている。
The area dividing circuit 16 converts the information of the area divided according to the above-described procedure into an intra-area averaging circuit 18.
To supply. The in-region averaging circuit 18 receives the color difference signal C that has not been subjected to any signal processing via the input terminal 11 and the period information NRI of the noise to be removed via the input terminal 17.

【0044】領域内平均化回路部18は、供給された輝
度信号Y及び色差信号Cに対して後述するノイズの周期
に応じて分割された領域内のレベルを用いて領域内のレ
ベルの平均化を行っている。より具体的な画像の領域内
平均化について図10に示す画像をを参照しながら説明
する。
The intra-region averaging circuit 18 averages the levels of the supplied luminance signal Y and color difference signal C using the levels in the region divided according to the period of noise described later. It is carried out. More specific intra-region averaging of an image will be described with reference to the image shown in FIG.

【0045】画像30は、後述するモニタ上で視覚的に
とらえたものである。この画像30は、後方の広い背景
31を設けて画面中央部に人物32を配している。本発
明の画像処理回路において、上記領域内平均化回路部1
8の平均化処理を行う以前の信号の画像は、上記領域分
割回路部16での輝度信号Yの領域分割によって先ず、
大きな領域の区分を成す背景31と人物32の領域に分
割され、さらに、人物32の領域内を分割して頭髪3
3、顔34、首35及び体36の4つに分割されてい
る。
The image 30 is visually captured on a monitor described later. This image 30 has a wide background 31 at the rear and a person 32 arranged at the center of the screen. In the image processing circuit of the present invention, the intra-region averaging circuit unit 1
The image of the signal before performing the averaging process of No. 8 is first divided by the region dividing circuit 16 into regions of the luminance signal Y.
The area is divided into a background 31 and a person 32, which form a large area, and the hair 3
3, the face 34, the neck 35, and the body 36.

【0046】次に、図10に示した画像30の要部拡大
した図11を参照しながら説明する。この図11は、要
部拡大することによって例えば上記背景31の中にノイ
ズ40が部分的に含まれているのがモニタ上で確認され
た。また、この画面30の背景31は画面上方31aか
ら画面下方31bに向かって色差信号が徐々に変化して
いる。
Next, a description will be given with reference to FIG. 11 which is an enlarged view of a main part of the image 30 shown in FIG. In FIG. 11, it has been confirmed on the monitor that the noise 40 is partially included in the background 31, for example, by enlarging the main part. The color difference signal of the background 31 of the screen 30 gradually changes from the upper part 31a of the screen toward the lower part 31b of the screen.

【0047】ここで、上記背景31の左上隅の1画素P
U と背景31の左下隅の1画素PD の色差信号の値を例
に挙げてみる。上記画素PU の色差信号は(R−Y)=
“120”、(B−Y)=“80”であった。また、上
記画素PD の色差信号はそれぞれ(R−Y)=“8
5”、(B−Y)=“80”であった。単純に、これら
の値を用いて従来から行われている上記背景31の領域
内の平均化を行うと、色差信号(R−Y)は、レベル
“120”とレベル“85”を平均してレベルは“10
2.5”になる。上記領域31の色差信号(R−Y)の
平均レベルは四捨五入するとレベル“103”になる。
Here, one pixel P at the upper left corner of the background 31
Try as an example the value of the color difference signal of the lower-left corner of the pixel P D of U and background 31. Color difference signal of the pixel P U is (R-Y) =
“120”, (BY) = “80”. Further, each of the color difference signal of the pixel P D (R-Y) = "8
5 ", (B-Y) =" 80 ". Simply averaging the above-described background 31 area using these values simply gives a color difference signal (R-Y). ) Means that the level “120” and the level “85” are averaged and the level is “10”.
The average level of the color difference signal (R-Y) in the area 31 becomes a level "103" when rounded off.

【0048】もう一方の色差信号(B−Y)は、レベル
“80”になる。このように領域内平均化回路部18
は、画素PU と画素PD に存在した色差信号(R−Y)
のレベル差35を略々半分のレベル差=“17”に減じ
てしまう。上述したようにこの画像30の背景31に含
むノイズ40は、平均化処理によってなくなるが、元来
画像30が有していた色のなだらかな階調性を失われて
しまう。
The other color difference signal (BY) becomes level "80". As described above, the intra-region averaging circuit 18
The color difference signal present in the pixel P U and the pixel P D (R-Y)
Is reduced to approximately half the level difference = “17”. As described above, the noise 40 included in the background 31 of the image 30 is eliminated by the averaging process, but the smooth gradation of the color originally included in the image 30 is lost.

【0049】上述した色差信号の階調性を損なうことな
く、上記ノイズ40を除去する方法として本発明の画像
処理装置は、上記領域内平均化回路部18で入力端子1
7を介して入力される画像内に現れるノイズの周期TN
を入力してこのノイズ周期をTN を基にノイズが占める
画素領域42を含む最小平均化領域RMAV として設定す
る。さらに、背景画面31のノイズ40の一つを要部拡
大すると図12に斜線で示す画素領域40aが現れる。
ここで、示す格子領域41は、モニタの1画素を示す。
この画素領域40aは、例えば最大縦方向に6画素、最
大横方向に8画素の48画素にノイズを有していること
が判明した。ノイズを有する画素は、最大6×8画素=
48画素の大きさをもつことから、色差信号を平均化す
るための最小平均化領域RMAV は、縦方向及び横方向共
に10画素ずつを有する100画素に設定している。
As a method for removing the noise 40 without impairing the gradation of the color difference signal, the image processing apparatus of the present invention uses the input terminal 1 at the in-region averaging circuit 18.
7, the period T N of the noise appearing in the image input through
And sets this noise cycle as the minimum averaging area RMAV including the pixel area 42 occupied by noise based on T N. Further, when one of the noises 40 on the background screen 31 is enlarged, a pixel area 40a indicated by oblique lines in FIG. 12 appears.
Here, the grid area 41 shown indicates one pixel of the monitor.
It has been found that this pixel region 40a has noise in 48 pixels, for example, 6 pixels in the maximum vertical direction and 8 pixels in the maximum horizontal direction. Pixels with noise are up to 6 × 8 pixels =
Since it has a size of 48 pixels, the minimum averaging area RMAV for averaging the color difference signals is set to 100 pixels having 10 pixels each in the vertical and horizontal directions.

【0050】上記領域内平均化回路18において、図1
3に示す画面30内の格子領域は、前記した図17の格
子領域40aと同じ1画素を示している。図13に示す
最小平均化領域RMAV は、2×2=4画素としている。
この最小平均化領域RMAV が移動する場合移動前の最小
平均化領域RMAV は破線で表し、移動後の最小平均化領
域RMAV は実線で示す。例えば最小平均化領域RMAV
左上隅を起点とする矢印Aで2×2画素の最小平均化領
域RMAV の移動方向を示すならば、横方向の移動は移動
パターン(a)、縦方向の移動は移動パターン(b)及
び斜め下方向への移動は移動パターン(c)で示す通り
1画素ずつ移動させる。
In the above intra-region averaging circuit 18, FIG.
The grid area in the screen 30 shown in FIG. 3 indicates the same one pixel as the grid area 40a in FIG. The minimum averaging area RMAV shown in FIG. 13 is 2 × 2 = 4 pixels.
When the minimum averaging area RMAV moves, the minimum averaging area RMAV before the movement is indicated by a broken line, and the minimum averaging area RMAV after the movement is indicated by a solid line. If for example, indicating the movement direction of the minimum mean region R MAV of 2 × 2 pixels in the arrow A starting from the upper left corner of the minimum mean region R MAV, lateral movement is movement pattern (a), in the longitudinal direction The movement is performed by one pixel as shown by the movement pattern (b) and the movement in the diagonally downward direction by the movement pattern (c).

【0051】上記最小平均化領域RMAV において移動の
基準位置を示す左上隅の画素に注目すると上記最小平均
化領域RMAV は、図13に示す矢印Aの軌跡が示すよう
に平均化の処理を行う際に1画素ずつ上下左右にずらし
て一度通過した画素を通らないように効率よく走査す
る。この現在の上記基準位置を含む最小平均化領域R
MAV の画素の色差信号は、各画素が有する色差信号のレ
ベルを平均化した平均値ですべて置換される。
Focusing on the pixel at the upper left corner indicating the reference position of the movement in the minimum averaging area RMAV , the minimum averaging area RMAV performs averaging processing as indicated by the locus of arrow A shown in FIG. At the time of scanning, scanning is performed efficiently so as not to pass through a pixel that has been passed once by being shifted vertically and horizontally by one pixel. The minimum averaging region R including the current reference position
The color difference signals of the pixels of the MAV are all replaced with an average value obtained by averaging the levels of the color difference signals of each pixel.

【0052】このような基準画素に基づき各画素を走査
しながら、最小平均化領域RMAV 内の画素の値で平均化
したレベル値の置換処理を1つの分割された領域全体に
対して行う。
While scanning each pixel on the basis of such a reference pixel, replacement processing of the level value averaged by the value of the pixel in the minimum averaging area RMAV is performed on the entire one divided area.

【0053】図14は、背景画像31の領域内に斜線で
示すエッジ部43を含んで基準画素を1画素ずつ走査し
た上記最小平均化領域RMAV (図14の場合5×5画素
にしている)が上記エッジ部43の領域とオーバーラッ
プした場合を示すものである。このように最小平均化領
域RMAV 内にエッジ部43を含んだ場合、この領域R
MAV の色差信号の平均値は、上記エッジ部43を除いた
最小平均化領域RMAV 内の領域44だけを用いて算出し
ている。
FIG. 14 shows the minimum averaging area RMAV (5 × 5 pixels in FIG. 14) obtained by scanning the reference pixel one pixel at a time including the edge portion 43 indicated by oblique lines in the area of the background image 31. ) Shows a case where the area overlaps with the area of the edge portion 43. As described above, when the edge portion 43 is included in the minimum averaging region RMAV , this region R
Average value of the color difference signal of the MAV is calculated using only the region 44 of minimum averaging region R MAV excluding the edge portion 43.

【0054】領域内平均化回路部18は、分割領域内に
おいて輝度信号Yを用いてエッジと判別された領域の色
差信号の値をゼロとして最小平均化領域RMAV を1画素
ずつ走査した領域毎に算出した新たな色差信号を前記加
算器19の他端側に供給している。
The intra-region averaging circuit unit 18 sets the value of the color difference signal of the region determined as an edge using the luminance signal Y in the divided region to zero, and scans the minimum averaging region RMAV one pixel at a time. Is supplied to the other end of the adder 19.

【0055】上記加算器19は、領域内平均化回路部1
8で平均化されたエッジ領域を含まない新たな色差信号
A と前述したエッジ領域選択回路15からのエッジ領
域を含む色差信号CB を加算して和信号CC を生成す
る。従って、上記和信号である色差信号CC は、例えば
上記図9に示した画面においてエッジ部EPを除く各領
域R1〜R9毎に平均化された色差信号と検出されたエ
ッジ部EPの画素の色差信号となる。
The adder 19 includes the intra-region averaging circuit 1
8 by adding the color difference signals C B including the edge region of the edge region selecting circuit 15 described above a new color-difference signal C A containing no averaged edge region to generate a sum signal C C. Therefore, the color difference signal C C is the sum signal, for example, the pixels of the averaged color difference signal and the detected edge portion EP in each region R1~R9 except the edge portion EP in the screen shown in Figure 9 It becomes a color difference signal.

【0056】図1に示す画像処理装置において入力端子
10を介して供給された輝度信号Yは出力端子20を介
してそのまま出力される。また、入力端子11を介して
供給された色差信号Cは出力端子21を介して色差信号
C を出力する。
In the image processing apparatus shown in FIG. 1, the luminance signal Y supplied via the input terminal 10 is output as it is via the output terminal 20. The color difference signal C supplied via the input terminal 11 outputs a color difference signal C C via the output terminal 21.

【0057】なお、本実施例において色信号Cは、色差
信号(R−Y)、(B−Y)としてこの画像処理に伴う
信号処理を行う説明を行ったが、色信号Cは上記色差信
号(R−Y)、(B−Y)に限定されるものでなく、例
えば色の各コンポーネント信号である3原色RGBを用
いてもよく、本発明の要旨を逸脱しない範囲で種々の構
成を採り得ることは明らかである。
In this embodiment, the color signal C is described as the color difference signals (RY) and (BY) and the signal processing accompanying this image processing is performed. The present invention is not limited to (RY) and (BY). For example, three primary colors RGB as color component signals may be used, and various configurations are adopted without departing from the gist of the present invention. Obviously gaining.

【0058】このように構成することにより、本発明に
係る画像処理装置は色差信号のエッジ変化の激しい部分
を検出してこの領域の色差信号についてはそのまま用
い、この上記色差信号レベルの変化の激しいエッジ部分
を除く領域については輝度信号Yのレベルに応じて画面
をより小さな領域に分割してこの各分割領域に対して色
差信号にのっているノイズを色差信号が本来有している
色の階調性も損なうことなく平均化して確実に除去す
る。また、画像処理装置は、効率的に上記色差信号のノ
イズを除去するため、発生する周期性を有するノイズの
最大周期よりも大きく、かつ各分割領域の大きさよりも
小さい領域を最小平均化領域として設けて画面を1画素
ずつ走査して平均化を行うことによって、例えば静止画
映像信号(ビデオ信号)のノイズが階調性を損なうこと
なく除去される。このため、この画像処理装置は、画像
処理装置から出力される静止画信号を用いて印刷される
カラー静止画の画質を向上させることができる。この色
差信号のノイズが除去された静止画映像信号はこの他の
印刷以外の種々の分野の装置や用途に用いることができ
る。
With such a configuration, the image processing apparatus according to the present invention detects a portion where the edge change of the color difference signal is sharp, and uses the color difference signal in this region as it is, and the color difference signal level greatly changes. The area excluding the edge portion is divided into smaller areas in accordance with the level of the luminance signal Y, and the noise of the color difference signal originally contained in the color difference signal for each of the divided areas. The gradation is averaged without loss and the gradation is reliably removed. Further, the image processing apparatus efficiently removes the noise of the color difference signal, so that an area larger than the maximum cycle of the generated periodic noise and smaller than the size of each divided area is set as the minimum averaged area. By providing and averaging by scanning the screen one pixel at a time, for example, noise of a still image video signal (video signal) is removed without impairing the gradation. Therefore, the image processing apparatus can improve the image quality of a color still image printed using the still image signal output from the image processing apparatus. The still image video signal from which the noise of the color difference signal has been removed can be used for devices and applications in various fields other than printing.

【0059】次に、本発明の画像処理装置を用いて電送
されてきた静止画の映像信号を処理して新聞等の紙面に
掲載する写真として印刷させるための映像信号を生成す
る画像処理システムに用いたより具体的な例を挙げて参
照しながら説明する。
Next, an image processing system for processing a video signal of a still image transmitted by using the image processing apparatus of the present invention to generate a video signal for printing as a photograph to be posted on a newspaper or the like is provided. A description will be given with reference to more specific examples used.

【0060】図15は、上記画像処理システム全体のの
概略構成を示すブロック図である。この画像処理システ
ム50は、被写体を撮影して撮影した映像を電送する例
えば移動可能な撮影電送部51と、上記撮影電送部51
から電送されたデータを再生及び画像処理を行う電送先
に設置されている画像処理部52及び上記画像処理部5
2から出力される印刷用データを基にカラー印刷を行う
カラー印刷処理部55で構成している。
FIG. 15 is a block diagram showing a schematic configuration of the entire image processing system. The image processing system 50 includes, for example, a movable photographic transmission unit 51 for transmitting an image obtained by photographing a subject, and the photographic transmission unit 51.
Processing unit 52 and the image processing unit 5 installed at a transmission destination for reproducing data transmitted from the MFP and performing image processing.
2 includes a color print processing unit 55 that performs color printing based on the print data output from the printer 2.

【0061】上記画像処理システム50の各部について
順次説明すると、先ず、上記撮影電送部51は、ビデオ
カメラ等の撮影装置511、上記撮影装置511で撮影
した映像を再生する映像再生装置512及び映像再生装
置512で撮影した映像の中から1画面(1フレーム分
のカラー映像信号)を選択して電話回線、あるいは通信
衛星等の伝送路を介して送信する静止画電送装置513
で構成している。上記静止画電送装置513は、例えば
電送によって画質劣化が発生しないように映像信号をデ
ィジタルデータにし、符号処理等が施されたディジタル
データの電送を行って上記画像処理部52にディジタル
画像データを供給している。
The components of the image processing system 50 will be described in sequence. First, the photographic transmission unit 51 includes a photographic device 511 such as a video camera, a video reproduction device 512 for reproducing the video captured by the photographic device 511, and a video reproduction device. A still image transmission device 513 for selecting one screen (one frame of color video signal) from the images captured by the device 512 and transmitting the selected image via a transmission line such as a telephone line or a communication satellite.
It consists of. The still image transmission device 513 converts the video signal into digital data so as to prevent the image quality from deteriorating due to the transmission, transmits the digital data subjected to the encoding process and the like, and supplies the digital image data to the image processing unit 52. are doing.

【0062】上記画像処理部52は、少なくとも静止画
受信機521、受信画像データの表示モニタ522、本
発明の画像処理装置を含む画像処理部53及びコンソー
ル部54を有して構成され、この他に例えばビデオディ
スク装置、ビデオテープレコーダ(VTR)及びテレビ
ジョン(TV)等からの静止画信号をソースとする静止
画供給装置523も有している。
The image processing section 52 has at least a still image receiver 521, a display monitor 522 for received image data, an image processing section 53 including the image processing apparatus of the present invention, and a console section 54. In addition, a still image supply device 523 having a still image signal from a video disk device, a video tape recorder (VTR), a television (TV) or the like as a source is provided.

【0063】上記静止画受信機521は、伝送路を介し
て供給される画像データをデコードして映像信号を上記
表示モニタ522に供給すると共に、映像信号を輝度信
号Yと色差信号Cに分離したいわゆるY/C分離信号を
それぞれホストコンピュータである画像処理部53に送
っている。上記Y/C分離信号は、1フレーム分の輝度
信号Y及び色差信号C、即ち(R−Y)、(B−Y)で
ある。これらのY/C分離の信号処理は、自動的に(ま
たは手動操作によって)行われている。この色差信号
(R−Y)、(B−Y)は、共に加色混合による3原色
で表されている。また、画像処理部53は、上記静止画
供給装置523から供給される信号もまたY/C分離の
形式にされた信号を入力している。
The still image receiver 521 decodes the image data supplied via the transmission path and supplies a video signal to the display monitor 522, and separates the video signal into a luminance signal Y and a color difference signal C. The so-called Y / C separation signals are sent to the image processing unit 53 which is a host computer. The Y / C separation signal is a luminance signal Y and a color difference signal C for one frame, that is, (RY) and (BY). The signal processing of the Y / C separation is performed automatically (or manually). The color difference signals (RY) and (BY) are both represented by three primary colors obtained by additive color mixing. The image processing unit 53 also receives a signal supplied from the still image supply device 523 as a Y / C separated signal.

【0064】上記画像処理部53は、前述したように供
給された輝度信号Y及び色差信号Cを記憶、画像処理を
行い、さらに画像処理された信号を印刷用として用いる
ことのできる映像信号に信号処理して出力信号シアン
C、マゼンタM、イエローY及びブラックK(以下各色
成分をCMYKと略して表示する)を出力する機能を有
している。また、この画像処理部53は、上記静止画受
信機521、表示モニタ522、コンソール54及び静
止画供給装置523の画像処理部52の動作を管理する
ホストコンピュータの役割も担っている。
The image processing section 53 stores the supplied luminance signal Y and color difference signal C as described above, performs image processing, and further converts the image-processed signal into a video signal that can be used for printing. It has the function of processing and outputting output signals cyan C, magenta M, yellow Y and black K (each color component is abbreviated as CMYK hereinafter). The image processing unit 53 also plays a role of a host computer that manages operations of the still image receiver 521, the display monitor 522, the console 54, and the image processing unit 52 of the still image supply device 523.

【0065】上記コンソール54は、制御用ディスプレ
イ541、キーボード542、マウス543及び画像処
理した画像をモニタする処理画像モニタ544等で構成
している。オペレータは、このコンソール54内の処理
画像モニタ544を見ながら、キーボード542やマウ
ス543を介して制御用ディスプレイ541で確認作業
を行って画像処理部53内の各部の各種動作を制御す
る。
The console 54 includes a control display 541, a keyboard 542, a mouse 543, and a processed image monitor 544 for monitoring an image processed. The operator controls the various operations of each unit in the image processing unit 53 by checking on the control display 541 via the keyboard 542 and the mouse 543 while viewing the processed image monitor 544 in the console 54.

【0066】画像処理部53は、上述したように色差信
号から知られる3原色RGBのデータに対して補色関係
にある印刷に用い得るデータとしてCMY及びKの色信
号を生成してカラー印刷処理部55に供給する。
The image processing unit 53 generates CMY and K color signals as data usable for printing in a complementary color relationship with the three primary color RGB data known from the color difference signal as described above, 55.

【0067】カラー印刷処理部55は、入力された印刷
用CMYKデータに応じたカラー印刷を例えば印刷原稿
として出力させると、新聞社等のように緊急性を要求さ
れる分野での紙面編集システム等に組み込むことによっ
て有効に利用することができる。
The color print processing unit 55 outputs a color print corresponding to the input CMYK data for printing, for example, as a print manuscript. It can be used effectively by incorporating it into

【0068】さらに、この画像処理システム50で用い
られている画像処理部53の構成及びその動作について
図16に示す概略的なブロック構成を参照しながら説明
する。図16に示す画像処理部53は、各種制御プログ
ラムを記憶保持しているROM531、前記静止画受信
機521等からの供給される画像データを逐次記憶する
例えばハードディスク等の入力画像メモリ532、中央
処理ユニット(以下CPUと略す)533、印刷用画像
データを記憶する出力画像メモリ534及び入力端子6
0を介して入力される画像データや出力端子61を介し
て出力される印刷用CMYKデータ及びコンソール54
からの相互に入出力される制御信号の入出力等を行う入
出力インターフェース535で構成する。
Further, the configuration and operation of the image processing section 53 used in the image processing system 50 will be described with reference to a schematic block configuration shown in FIG. An image processing unit 53 illustrated in FIG. 16 includes a ROM 531 that stores and holds various control programs, an input image memory 532 such as a hard disk that sequentially stores image data supplied from the still image receiver 521, and the like, a central processing unit. A unit (hereinafter abbreviated as CPU) 533, an output image memory 534 for storing image data for printing, and an input terminal 6
0, CMYK data for printing output via an output terminal 61, and the console 54.
And an input / output interface 535 for inputting / outputting a control signal which is mutually input / output from / to.

【0069】上記CPU533は、ROM531に書き
込まれている動作プログラムに基づいて上記コンソール
54から供給される制御信号に応じて各構成部分の動作
制御を行うシステム制御部533a、各種演算を行う演
算処理部533b及び供給される画像データや演算処理
データ等の作業データを一時格納するワーキングメモリ
(主記憶装置)533cからなる。また、入出力信号用
のデータバス536は、上記入出力インターフェース5
35を介して各部に供給される信号線の数をなるべく少
なくするために用いている。
The CPU 533 includes a system control section 533a for controlling the operation of each component in accordance with a control signal supplied from the console 54 based on an operation program written in the ROM 531, and an arithmetic processing section for performing various calculations. 533b and a working memory (main storage device) 533c for temporarily storing work data such as supplied image data and arithmetic processing data. The data bus 536 for input / output signals is connected to the input / output interface 5.
It is used in order to minimize the number of signal lines supplied to each unit through 35.

【0070】この画像処理部53に入力された映像信号
は、通常、入力と同時に自動的に入力画像メモリ532
にデータバス536を介して供給し記憶されていく。C
PU533は、必要に応じて入力された画像データを入
力画像メモリ532から読み出して後述する図17に示
すフローチャートに沿って画像処理を行っている。
The video signal input to the image processing section 53 is usually automatically input simultaneously with the input.
Are supplied via the data bus 536 and stored. C
The PU 533 reads the input image data from the input image memory 532 as necessary, and performs image processing according to a flowchart shown in FIG. 17 described later.

【0071】この画像処理が終了した段階で輝度信号Y
とノイズ除去が施された色差信号CC より形成される映
像信号は、印刷用のCMYKよりなる画像データに変換
される。この印刷用のCMYKデータは、自動的、また
はコンソール54からの操作によって出力画像メモリ5
34から入出力インターフェース535、出力端子61
を介して出力される。
When this image processing is completed, the luminance signal Y
A video signal noise reduction is formed from the color-difference signal C C subjected is converted into image data composed of CMYK for printing. The CMYK data for printing is output to the output image memory 5 automatically or by an operation from the console 54.
34, input / output interface 535, output terminal 61
Is output via.

【0072】この画像処理における手順について図17
に示すフローチャートを参照しながら説明する。コンソ
ール54から供給される制御信号に応じてステップS1
0でROM531の動作プログラム中の画像処理プログ
ラムが起動して処理動作を開始する。ステップS11で
先ず、CPU533は、画像処理対象となる画像データ
を入力画像メモリ532から上記ワーキングメモリ53
3cにロードする。
FIG. 17 shows the procedure in this image processing.
This will be described with reference to the flowchart shown in FIG. Step S1 according to the control signal supplied from the console 54
At 0, the image processing program in the operation program of the ROM 531 is activated to start the processing operation. First, in step S11, the CPU 533 stores image data to be subjected to image processing from the input image memory 532 into the working memory 53.
Load 3c.

【0073】ステップS12でコンソール54の制御用
ディスプレイ541に各種処理内容を表示した画像処理
制御用画面を例えばメニュー形式で表示する。ステップ
S13で上記メニューの中から実行すべき処理内容を選
択してコンソール54内のキーボード542、またはマ
ウス543から選択項目を入力することにより処理内容
が決定する。このステップS13での処理選択に応じて
処理が分岐する。
In step S12, an image processing control screen displaying various processing contents is displayed on the control display 541 of the console 54, for example, in a menu format. In step S13, the processing content to be executed is selected from the above menu, and the processing content is determined by inputting a selection item from the keyboard 542 or the mouse 543 in the console 54. The process branches in accordance with the process selection in step S13.

【0074】ステップS13において画像変換処理が選
択された場合、ステップS14に進む。ステップS14
では、入力された原画像の拡大縮小、中心位置の変更、
回転及び画サイズの変更等を行う。この画像変換処理が
終了したならば、ステップS18に進む。
If the image conversion process is selected in step S13, the process proceeds to step S14. Step S14
Now you can scale the input original image, change the center position,
Rotation and change of image size are performed. When this image conversion processing has been completed, the flow proceeds to step S18.

【0075】ステップS18で処理した画像データを処
理画像モニタ544に供給して表示させる。
The image data processed in step S18 is supplied to the processed image monitor 544 and displayed.

【0076】ステップS13においてノイズリダクショ
ンが選択された場合、ステップS15に進む。ステップ
S15では、前述した色差信号の階調性を保持したま
ま、色差信号にのっているノイズ等を周囲の画素のデー
タを基に平均化することによってノイズリダクションを
画面全体に対して行う。このノイズリダクションが終了
したならば、ステップS18に進む。
If noise reduction is selected in step S13, the process proceeds to step S15. In step S15, noise reduction is performed on the entire screen by averaging noise and the like included in the color difference signal based on data of surrounding pixels while maintaining the above-described gradation of the color difference signal. When the noise reduction has been completed, the process proceeds to step S18.

【0077】ステップS18で処理した画像データを処
理画像モニタ544に供給して表示させる。
The image data processed in step S18 is supplied to the processed image monitor 544 and displayed.

【0078】ステップS13において輝度調整が選択さ
れた場合、ステップS16に進む。ステップS16で
は、例えば極端に明るい画像や極端に暗い画像に対して
適正な輝度の範囲内に抑える等の調整を画面の領域を選
択しながら行う。この輝度調整が終了したならば、ステ
ップS18に進む。ステップS18で処理した画像デー
タを処理画像モニタ544に供給して表示させる。
If the brightness adjustment is selected in step S13, the process proceeds to step S16. In step S16, for example, an extremely bright image or an extremely dark image is adjusted while keeping the luminance within an appropriate range while selecting an area on the screen. When the brightness adjustment is completed, the process proceeds to step S18. The image data processed in step S18 is supplied to the processed image monitor 544 and displayed.

【0079】ステップS13においてシャープネスコン
トロールが選択された場合、ステップS17に進む。ス
テップS17では、例えば低コントラストの画像のエッ
ジ像の立ち上がり特性を視覚的に改善する等の処理を選
択した領域に対して行う。このシャープネスコントロー
ルが終了したならば、ステップS18に進む。ステップ
S18で処理した画像データを処理画像モニタ544に
供給して表示させる。
When the sharpness control is selected in step S13, the process proceeds to step S17. In step S17, for example, processing such as visually improving the rising characteristic of the edge image of the low-contrast image is performed on the selected region. When the sharpness control has been completed, the process proceeds to step S18. The image data processed in step S18 is supplied to the processed image monitor 544 and displayed.

【0080】ステップS13の処理選択に応じた各種の
画像処理を行う。上述したように選択された画像処理に
ついてそれぞれ並列的に記したが、これらのステップの
画像処理を直列的に順次実行させてもよい。また、ステ
ップS13における画像処理の選択項目は、上記した画
像処理だけに限定されるものでないことは明らかであ
る。
Various image processes corresponding to the process selection in step S13 are performed. Although the image processing selected as described above is described in parallel, the image processing in these steps may be sequentially and sequentially executed. It is clear that the selection items of the image processing in step S13 are not limited to the above-described image processing.

【0081】ステップS18では、オペレータが確認で
きるように画像処理が施された処理画像を上記処理画像
モニタ544に表示させて、ステップS19に進む。ス
テップS19において他の画像処理をさらに行うかどう
か判断している。他の画像処理を継続する場合、オペレ
ータは画像処理が終了していないとして画像処理操作を
選択するステップS13に戻る。また、画像処理を終了
してもよいと判断した場合、ステップS20に進む。
In step S18, the processed image subjected to image processing is displayed on the processed image monitor 544 so that the operator can confirm it, and the flow advances to step S19. In step S19, it is determined whether or not to perform another image processing. When continuing another image processing, the operator determines that the image processing has not been completed and returns to step S13 for selecting an image processing operation. If it is determined that the image processing may be ended, the process proceeds to step S20.

【0082】ステップS20では、必要な画像処理をす
べて終了した段階で、輝度信号及び色差信号で形成され
る映像信号を印刷用CMYKデータに変換する。上記画
像処理が終了した映像信号は、加色混合によってカラー
表示される系であるから、印刷する場合の減色混合によ
るカラー表示系に変換しなければならない。加色混合の
表示系のコンポーネント信号に対して補色の色を出力す
る変換を行って印刷用画像データを生成する。
In step S20, when all necessary image processing is completed, the video signal formed by the luminance signal and the color difference signal is converted into CMYK data for printing. Since the image signal after the image processing is a color display system by additive color mixing, it must be converted to a color display system by subtractive color mixing when printing. The image signal for printing is generated by performing a conversion for outputting a complementary color to the component signal of the display system of the additive color mixture.

【0083】ステップS21で上記印刷用CMYKデー
タを出力画像メモリ534に供給して書き込む。また、
前述したように出力画像メモリ534内に格納した印刷
用の画像データは、ROM531に書き込まれている動
作プログラムに応じて自動的に、あるいはオペレータに
よるコンソール54の操作によって入出力インターフェ
ース535、出力端子61を介して出力する。この出力
が終了後ステップS22に進む。
In step S 21, the printing CMYK data is supplied to the output image memory 534 and written. Also,
As described above, the image data for printing stored in the output image memory 534 is input / output interface 535 and output terminal 61 automatically according to the operation program written in the ROM 531 or by operating the console 54 by the operator. Output via. After this output is completed, the process proceeds to step S22.

【0084】ステップS22でこの一連の画像処理を終
了する。画像処理システム50における画像処理部52
は、画像処理したデータを印刷用に変換して印刷用CM
YKデータをカラー印刷処理部55に供給する。上記カ
ラー印刷処理部55は供給された印刷用画像データから
必要とする1画面のカラー印刷を実行する。
In step S22, this series of image processing ends. Image processing unit 52 in image processing system 50
Converts image-processed data for printing and prints CM
The YK data is supplied to the color print processing unit 55. The color print processing unit 55 executes a required one-screen color print from the supplied print image data.

【0085】画像処理システム50は、このような構成
により遠く離れた取材地において撮影した決定的な瞬間
の映像を電話回線や衛星回線を介して迅速に印刷原稿と
して供給することができ、色差信号にのっているノイズ
だけを除去して階調性を有したままの撮影時の映像信号
に近い高品質な印刷を出力させることができる。
With such a configuration, the image processing system 50 can quickly supply a video at a crucial moment taken at a distant reporting site as a print original via a telephone line or a satellite line. Therefore, it is possible to output a high-quality print which is close to a video signal at the time of photographing while maintaining the gradation by removing only the noise on the image.

【0086】また、画像処理装置の処理速度が向上すれ
ば、上記静止画のみに停まらず、動画に対してもこの画
像処理装置は、ノイズリダクションを適用することがで
きるのことは明らかであり、動画の映像信号の画質改善
も行える利点がある。このように本発明は、上述した実
施例に限定されるものでなく、本発明の要旨を逸脱しな
い範囲で種々の構成を採ることができることは明らかで
ある。
Further, if the processing speed of the image processing apparatus is improved, it is obvious that the image processing apparatus can apply noise reduction not only to the above-described still image but also to a moving image. There is an advantage that the image quality of a video signal of a moving image can be improved. As described above, the present invention is not limited to the above-described embodiment, and it is apparent that various configurations can be adopted without departing from the gist of the present invention.

【0087】[0087]

【発明の効果】以上の説明からも明らかなように、本発
明の画像処理装置によれば、映像信号を各信号成分毎に
ディジタル化してノイズリダクションを行う画像処理装
置において、上記映像信号における色信号のレベルを検
出して画像の境界を検出するエッジ検出手段と、該エッ
ジ検出手段からの出力信号で上記映像信号成分の輝度信
号で形成する画像領域に対し上記エッジ領域外の領域の
輝度信号レベルに応じて画像の境界を分割する領域分割
手段と、該領域分割手段からの輝度信号及び画像領域内
に有する色信号のノイズ周期よりも大きな複数の画素か
らなる最小平均化領域を設定して1画素ずつ移動させな
がら信号処理が施されていない色信号に対して平均化処
理を行う領域内平均化手段と、上記エッジ検出手段から
の出力信号を反転した信号で色信号のエッジ領域だけを
選択的に抜き出すエッジ領域選択手段と、上記領域内平
均化手段からの出力信号と、上記エッジ領域選択手段か
らの出力信号を加算して出力する加算手段とを有してな
ることにより、本来有している色の階調表現を全く損な
うことなく、色差信号に含まれるノイズを除去すること
ができる。
As is apparent from the above description, according to the image processing apparatus of the present invention, in the image processing apparatus which digitizes a video signal for each signal component and performs noise reduction, Edge detecting means for detecting a signal level to detect a boundary of an image, and a luminance signal of an area outside the edge area with respect to an image area formed by the luminance signal of the video signal component with an output signal from the edge detecting means. An area dividing means for dividing an image boundary according to a level, and a minimum averaging area comprising a plurality of pixels larger than a noise cycle of a luminance signal and a color signal in the image area from the area dividing means are set. In-region averaging means for averaging color signals which have not been subjected to signal processing while moving one pixel at a time, and inverting the output signal from the edge detection means Edge area selection means for selectively extracting only the edge area of the color signal with the output signal, output means from the intra-area averaging means, and addition means for adding and outputting the output signal from the edge area selection means. , It is possible to remove the noise included in the color difference signal without impairing the gradation expression of the color originally possessed at all.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る画像処理装置における概略的なブ
ロック構成の一実施例を示す回路図である。
FIG. 1 is a circuit diagram showing one embodiment of a schematic block configuration in an image processing apparatus according to the present invention.

【図2】1フレーム分の画像(1画面)の水平方向(X
方向)及び垂直方向(Y方向)ドット構成を示す模式的
な図である。
FIG. 2 shows a horizontal direction (X) of an image (one screen) for one frame.
FIG. 2 is a schematic diagram showing a dot configuration in a direction (Y direction) and a vertical direction (Y direction).

【図3】輝度信号に対して画像処理対象の画素を中心に
ブロック単位毎に切出した画素のレベルで平均値を算出
する場合の画素の構成を示す図である。
FIG. 3 is a diagram illustrating a configuration of a pixel in a case where an average value is calculated at a level of a pixel extracted for each block with respect to a pixel to be subjected to image processing with respect to a luminance signal.

【図4】色差信号に対して画像処理対象の画素を中心に
ブロック単位毎に切出した画素のレベルで平均値を算出
する場合の画素の構成を示す図である。
FIG. 4 is a diagram illustrating a configuration of a pixel in a case where an average value is calculated at a level of a pixel cut out in units of blocks around a pixel to be image-processed with respect to a color difference signal.

【図5】エッジ検出において画素毎に異なるX方向用と
Y方向用の重み係数の対応関係を示す図である。
FIG. 5 is a diagram illustrating a correspondence relationship between X-direction and Y-direction weighting factors that are different for each pixel in edge detection.

【図6】エッジ検出対象となる画像に対してソーベルオ
ペレータを作用してエッジ検出する際の説明に用いた画
面の一部を示す図である。
FIG. 6 is a diagram illustrating a part of a screen used for explanation when performing edge detection by operating a Sobel operator on an image to be edge-detected;

【図7】エッジ検出対象となる画像に対して作用させる
拡張ソーベルオペレータの作用して画素毎に異なるX方
向用とY方向用の重み係数の対応関係エッジ検出した場
合の一例を示す図である。
FIG. 7 is a diagram showing an example of a case where an extended Sobel operator acting on an image to be subjected to edge detection is used to detect a corresponding relationship between X-direction and Y-direction weighting factors different for each pixel; is there.

【図8】画面の領域分割において画面を信号レベルに応
じて領域分割する方法を説明する図である。
FIG. 8 is a diagram illustrating a method of dividing a screen into regions according to a signal level in the region division of the screen.

【図9】図8に示した領域分割によって分割された画面
の領域を示す図である。
FIG. 9 is a diagram illustrating a region of the screen divided by the region division illustrated in FIG. 8;

【図10】より具体的な表示画面において領域分割され
る各領域を示す図である。
FIG. 10 is a diagram showing each area divided into areas on a more specific display screen.

【図11】図10に示した表示画面を要部拡大した図で
ある。
11 is an enlarged view of a main part of the display screen shown in FIG.

【図12】画面に現れるノイズに対して最小平均化領域
の設定についての説明に供する図である。
FIG. 12 is a diagram provided for describing setting of a minimum averaging area for noise appearing on a screen.

【図13】最小平均化領域の1画素ずつ移動させる場合
の一例を示す図である。
FIG. 13 is a diagram illustrating an example of a case of moving one pixel at a time in a minimum averaging region.

【図14】最小平均化領域がエッジ部分とオーバーラッ
プした状況を示す図である。
FIG. 14 is a diagram showing a situation where a minimum averaging area overlaps an edge portion.

【図15】本発明の画像処理装置を内蔵した画像処理シ
ステムの概略的なブロック構成を示す図である。
FIG. 15 is a diagram showing a schematic block configuration of an image processing system incorporating the image processing apparatus of the present invention.

【図16】図15に示した画像処理システム内の画像処
理部の構成を示す概略的なブロック図である。
16 is a schematic block diagram illustrating a configuration of an image processing unit in the image processing system illustrated in FIG.

【図17】画像処理システム内の画像処理部の動作を説
明するフローチャートである。
FIG. 17 is a flowchart illustrating an operation of an image processing unit in the image processing system.

【符号の説明】[Explanation of symbols]

10、11、17・・・・・・・入力端子 12・・・・・・・・・・・・・ブロック単位平滑化回
路 13・・・・・・・・・・・・・エッジ検出回路 14・・・・・・・・・・・・・エッジ領域除去回路 15・・・・・・・・・・・・・エッジ領域選択回路 16・・・・・・・・・・・・・領域分割回路部 18・・・・・・・・・・・・・領域内平均化回路部 19・・・・・・・・・・・・・加算器 20、21・・・・・・・・・・出力端子
10, 11, 17 ... input terminal 12 ... block unit smoothing circuit 13 ... edge detection circuit 14 Edge area removal circuit 15 Edge area selection circuit 16 Area division circuit section 18 Averaging circuit section within area 19 Adders 20, 21, ... ... Output terminals

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 9/64 H04N 9/79 H04N 1/409 G06T 5/00 G06T 5/20 ──────────────────────────────────────────────────続 き Continued on the front page (58) Fields surveyed (Int.Cl. 7 , DB name) H04N 9/64 H04N 9/79 H04N 1/409 G06T 5/00 G06T 5/20

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 映像信号を各信号成分毎にディジタル化
してノイズリダクションを行う画像処理装置において、 上記映像信号における色信号のレベルを検出して画像の
境界を検出するエッジ検出手段と、 該エッジ検出手段からの出力信号で上記映像信号成分の
輝度信号で形成する画像領域に対し上記エッジ領域外の
領域の輝度信号レベルに応じて画像の境界を分割する領
域分割手段と、 該領域分割手段からの輝度信号及び画像領域内に有する
色信号のノイズ周期よりも大きな複数の画素からなる最
小平均化領域を設定して1画素ずつ移動させながら信号
処理が施されていない色信号に対して平均化処理を行う
領域内平均化手段と、 上記エッジ検出手段からの出力信号を反転した信号で色
信号のエッジ領域だけを選択的に抜き出すエッジ領域選
択手段と、 上記領域内平均化手段からの出力信号と、上記エッジ領
域選択手段からの出力信号を加算して出力する加算手段
とを有してなることを特徴とする画像処理装置。
1. An image processing apparatus for digitizing a video signal for each signal component and performing noise reduction, comprising: edge detection means for detecting a level of a color signal in the video signal to detect a boundary of an image; Area dividing means for dividing an image boundary formed according to the luminance signal level of an area outside the edge area with respect to an image area formed by the luminance signal of the video signal component by an output signal from the detecting means; A minimum averaging area consisting of a plurality of pixels larger than the noise period of the luminance signal and the color signal in the image area is set, and the color signals that have not been subjected to signal processing are averaged while moving one pixel at a time. An area averaging means for performing processing; and an edge area for selectively extracting only an edge area of a color signal with a signal obtained by inverting an output signal from the edge detection means. The image processing apparatus of the-option means, and the output signal from the region averaging means, and characterized by having an adding means for outputting signals adding to the output from the edge area selecting means.
JP35874891A 1991-12-28 1991-12-28 Image processing device Expired - Fee Related JP3252422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35874891A JP3252422B2 (en) 1991-12-28 1991-12-28 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35874891A JP3252422B2 (en) 1991-12-28 1991-12-28 Image processing device

Publications (2)

Publication Number Publication Date
JPH05183924A JPH05183924A (en) 1993-07-23
JP3252422B2 true JP3252422B2 (en) 2002-02-04

Family

ID=18460912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35874891A Expired - Fee Related JP3252422B2 (en) 1991-12-28 1991-12-28 Image processing device

Country Status (1)

Country Link
JP (1) JP3252422B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7391903B2 (en) 2003-06-12 2008-06-24 Nikon Corporation Image processing method, image processing program and image processing processor for interpolating color components

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3664231B2 (en) 2000-08-09 2005-06-22 日本電気株式会社 Color image processing device
JP2003061105A (en) 2001-06-07 2003-02-28 Seiko Epson Corp Image processing method, image processing program, image processing apparatus, and digital still camera using the image processing apparatus
JP5029545B2 (en) * 2008-09-10 2012-09-19 大日本印刷株式会社 Image processing method and apparatus
JP6414386B2 (en) * 2014-03-20 2018-10-31 株式会社島津製作所 Image processing apparatus and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7391903B2 (en) 2003-06-12 2008-06-24 Nikon Corporation Image processing method, image processing program and image processing processor for interpolating color components
US7630546B2 (en) 2003-06-12 2009-12-08 Nikon Corporation Image processing method, image processing program and image processor

Also Published As

Publication number Publication date
JPH05183924A (en) 1993-07-23

Similar Documents

Publication Publication Date Title
JP4154847B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program
KR100745386B1 (en) Image signal processor, image signal processing method, learning device, learning method, and recorded medium
EP0398268A2 (en) Video printer device
US6262778B1 (en) Image processing system
EP1339224B1 (en) Method and apparatus for improving picture sharpness
JP3028553B2 (en) Image processing apparatus and image processing method
US7466453B2 (en) Image processing apparatus
JP3334042B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
US6031581A (en) System for removing color bleed in a television image adapted for digital printing
JPS63182988A (en) Method and apparatus for intensifying video picture
JP3252422B2 (en) Image processing device
JPS61201591A (en) Video picture processor
US6483941B1 (en) Crominance channel overshoot control in image enhancement
JPH0559633B2 (en)
US8665498B2 (en) Method and system for automatically detecting and processing halftone regions in scanned documents
JP2782766B2 (en) Video / still image conversion method
JP3093217B2 (en) Image processing apparatus and image processing method
JP4236077B2 (en) Color image processing device
JP2543857B2 (en) Color image processing device
JP2951977B2 (en) Image processing device
JP3143458B2 (en) Image processing device
JP4007849B2 (en) Image data processing apparatus, program, and recording medium
JP6794901B2 (en) Image processing equipment and computer programs
JP2941852B2 (en) Image processing method
JP2001352453A (en) Image-reproducing device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071122

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081122

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091122

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees