JP2000134511A - Device and method for converting image information - Google Patents

Device and method for converting image information

Info

Publication number
JP2000134511A
JP2000134511A JP10304059A JP30405998A JP2000134511A JP 2000134511 A JP2000134511 A JP 2000134511A JP 10304059 A JP10304059 A JP 10304059A JP 30405998 A JP30405998 A JP 30405998A JP 2000134511 A JP2000134511 A JP 2000134511A
Authority
JP
Japan
Prior art keywords
pixel
image information
image signal
class
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10304059A
Other languages
Japanese (ja)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Juichi Shiraki
寿一 白木
Hideo Nakaya
秀雄 中屋
Yuji Okumura
裕二 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10304059A priority Critical patent/JP2000134511A/en
Publication of JP2000134511A publication Critical patent/JP2000134511A/en
Pending legal-status Critical Current

Links

Landscapes

  • Picture Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately remove a noise even when an edge is included in an image signal. SOLUTION: Input image signals are supplied and stored in frame memories 11, 12, and 13. A valid pixel extracting circuit 16 selectively outputs pixels fulfilling a prescribed condition for preventing the influence of an edge from a time-spatially widely extended class tap range, and outputs the position information of the selected pixels. A feature extracting circuit 18 applies ADRC or dynamic range(DR) to valid pixels. Then, a class code generating circuit 19 generates a class code based on the processed results and the position information. An ROM 23 outputs a prediction coefficient corresponding to the class code among preliminary stored prediction coefficients. An estimation arithmetic part 24 estimates an output pixel value by performing an arithmetic operation based on the output of an area segmenting part 17 and the output of the ROM 23.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、例えば入力画像
信号のノイズを除去するために適用することが可能な画
像情報変換装置および変換方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information conversion apparatus and a conversion method which can be applied to, for example, remove noise of an input image signal.

【0002】[0002]

【従来の技術】画像信号からノイズを除去するために、
従来から、動き適応型リカーシブフィルタが使用されて
いる。但し、このような従来技術においては、静止部分
に対して、一定の重みの下で重み付け加算を行うだけな
ので、ノイズレベルの大きさと方向とが時間的に変動す
る場合に、それに的確に対応するノイズ除去がなされ
ず、特に動きを有する画像部分において的確なノイズ除
去ができないという問題があった。
2. Description of the Related Art In order to remove noise from an image signal,
Conventionally, a motion adaptive recursive filter has been used. However, in such a conventional technique, the weighted addition is performed only on a stationary portion under a constant weight, so that when the magnitude and direction of the noise level fluctuate with time, it appropriately copes with it. There is a problem that noise is not removed, and accurate noise removal cannot be performed particularly in an image portion having motion.

【0003】そこで、近年、クラス分類適応化処理を用
いてノイズ除去を行う画像信号再生方法が研究開発され
ている。この場合、原画像信号中の画素値が平坦である
部分に対して、所定の方法でノイズを付加してなるノイ
ズ画像を1ビットADRC(Adaptive Dynamic Range Co
ding) で量子化するとノイズ成分が記述でき、ノイズ成
分をクラスコードとして表現することにより、クラス分
類適応化処理によるノイズ除去が実現できる。
Therefore, in recent years, an image signal reproducing method for removing noise by using the classification adaptive processing has been researched and developed. In this case, a 1-bit ADRC (Adaptive Dynamic Range Coding) is used to add a noise image obtained by adding noise by a predetermined method to a portion where the pixel value in the original image signal is flat.
ding), the noise component can be described. By expressing the noise component as a class code, noise removal by the class classification adaptation process can be realized.

【0004】すなわち、図10に示すように、黒丸で示
した注目画素の周囲に、例えば斜線を付して示すような
位置にクラスタップを配置し、それらのクラスタップの
画素値を1ビットADRCによって'1' /'0' と量子化
することにより、ノイズ成分をクラスコードとして表現
することができる。この場合、画素値が平坦な部分で
は、本来、オール'1' またはオール'0' と量子化される
はずであるが、ノイズが付加されている場合には、ノイ
ズを反映して'1' /'0' が分布する。
That is, as shown in FIG. 10, class taps are arranged around a target pixel indicated by a black circle, for example, at positions indicated by hatching, and the pixel values of those class taps are set to 1-bit ADRC. By quantizing to '1' / '0', the noise component can be represented as a class code. In this case, the portion where the pixel value is flat should be originally quantized as all '1' or all '0', but if noise is added, the value is reflected as '1' / '0' is distributed.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、図11
に示すように、原画像信号内の例えば輝度の大きな変化
等に係るエッジを含む部分においては、ノイズ画像を1
ビットADRCで量子化しても、エッジの影響により、
ノイズ成分をクラスコードとして的確に表現することが
できないという問題があった。すなわち、図11に示す
ような、エッジの左側に位置する2個の画素の画素値が
エッジの右側に位置する他の画素の画素値よりも著しく
大きい場合等においては、1ビットADRCにより、エ
ッジの左側に位置する2個の画素について'1' 、エッジ
の右側に位置する他の画素について全て'0' と符号化さ
れてしまい、ノイズ成分の分布が表現されない。
However, FIG.
As shown in (1), in a portion including an edge related to, for example, a large change in luminance in the original image signal, the noise image
Even if quantization is performed by bit ADRC, due to the influence of edges,
There has been a problem that noise components cannot be accurately represented as class codes. That is, as shown in FIG. 11, when the pixel values of the two pixels located on the left side of the edge are significantly larger than the pixel values of the other pixels located on the right side of the edge, the 1-bit ADRC determines the edge value. Are encoded as '1' for the two pixels located on the left side of, and '0' for all the other pixels located on the right side of the edge, and the distribution of noise components is not represented.

【0006】従って、この発明の目的は、画像信号内に
エッジが含まれる場合等においても、的確なノイズ除去
を行うことが可能な画像情報変換装置および変換方法を
提供することにある。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image information conversion apparatus and a conversion method capable of accurately removing noise even when an edge is included in an image signal.

【0007】[0007]

【課題を解決するための手段】請求項1の発明は、入力
画像信号に画像情報変換を施す画像情報変換装置におい
て、入力画像信号をフレーム毎に記憶する所定個数のフ
レームメモリと、所定個数のフレームメモリが記憶して
いるフレームに対して時空間に広く張ったクラスタップ
の範囲から、注目画素と所定の関係にある画素を選択す
ると共に、選択した画素の画素位置に係る情報を出力す
る画素抽出手段と、画素抽出手段が選択した画素の画素
値を量子化し、量子化値に基づいて第1の特徴量を出力
すると共に、画素位置に係る情報に基づいて第2の特徴
量を出力する特徴抽出手段と、第1の特徴量と、第2の
特徴量とに基づいてクラスコードを生成するクラスコー
ド生成手段と、所定個数のフレームメモリが記憶してい
るフレームから、ノイズを除去するための演算処理とし
ての重み付け加算に使用されるべき領域を切出す領域切
出し手段と、クラスコード生成手段が生成するクラスコ
ードの各々に対応して予め決定された、重み付け加算に
使用されるべき重み付け係数を記憶する係数記憶手段
と、領域切出し手段の出力と係数記憶手段の記憶内容と
に基づいて、重み付け加算を行って画素値を生成する演
算処理手段とを有することを特徴とする画像情報変換装
置である。
According to a first aspect of the present invention, there is provided an image information conversion apparatus for performing image information conversion on an input image signal, comprising: a predetermined number of frame memories for storing the input image signal for each frame; A pixel that selects a pixel having a predetermined relationship with a pixel of interest from a range of class taps spread in space and time with respect to a frame stored in a frame memory, and outputs information related to a pixel position of the selected pixel. The extracting means and the pixel extracting means quantize the pixel value of the pixel selected and output a first characteristic amount based on the quantized value, and output a second characteristic amount based on information relating to the pixel position. A feature extraction unit, a class code generation unit that generates a class code based on the first feature amount and the second feature amount, and a frame stored in a predetermined number of frame memories. Area extraction means for extracting an area to be used for weighted addition as arithmetic processing for removing noise, and a weighting addition determined in advance corresponding to each of the class codes generated by the class code generation means. Coefficient storage means for storing a weighting coefficient to be performed, and arithmetic processing means for generating a pixel value by performing weighted addition based on the output of the region extracting means and the storage content of the coefficient storage means. Image information conversion device.

【0008】請求項8の発明は、入力画像信号に画像情
報変換を施す画像情報変換方法において、入力画像信号
をフレーム毎に記憶する記憶ステップと、記憶ステップ
によって記憶されるフレームに対して時空間に広く張っ
たクラスタップの範囲から、注目画素と所定の関係にあ
る画素を選択すると共に、選択した画素の画素位置に係
る情報を出力する画素抽出ステップと、画素抽出ステッ
プによって選択される画素の画素値を量子化し、量子化
値に基づいて第1の特徴量を出力すると共に、画素位置
に係る情報に基づいて第2の特徴量を出力する特徴抽出
ステップと、第1の特徴量と、第2の特徴量とに基づい
てクラスコードを生成するクラスコード生成ステップ
と、記憶ステップによって記憶されるフレームから、ノ
イズを除去するための演算処理としての重み付け加算に
使用されるべき領域を切出す領域切出しステップと、ク
ラスコード生成ステップによって生成されるクラスコー
ドの各々に対応して予め決定された、重み付け加算に使
用されるべき重み付け係数を記憶する係数記憶ステップ
と、領域切出しステップの結果と係数ステップによる記
憶内容とに基づいて、重み付け加算を行って画素値を生
成する演算処理ステップとを有することを特徴とする画
像情報変換方法である。
According to an eighth aspect of the present invention, there is provided an image information conversion method for performing image information conversion on an input image signal, wherein a storage step of storing the input image signal for each frame, A pixel extraction step of selecting a pixel having a predetermined relationship with the pixel of interest from a range of class taps widened in the pixel extraction step, and outputting information on a pixel position of the selected pixel; and A feature extraction step of quantizing the pixel value, outputting a first feature based on the quantized value, and outputting a second feature based on information on the pixel position; A class code generating step of generating a class code based on the second feature amount, and a step of removing noise from the frame stored in the storing step. An area extracting step of extracting an area to be used for weighted addition as arithmetic processing, and a weighting coefficient to be used for weighted addition, which is predetermined corresponding to each of the class codes generated by the class code generating step And a calculation processing step of performing a weighted addition to generate a pixel value based on the result of the region extraction step and the storage content of the coefficient step, and the image information conversion method characterized in that is there.

【0009】以上のような発明によれば、時空間に広く
張ったクラスタップの範囲内で、例えば注目画素の画素
値との差分の絶対値が所定のしきい値以下となるような
画素値を有する画素等の、注目画素と所定の関係にある
画素のみに基づいてクラスコードが生成される。
According to the above invention, for example, the pixel value whose absolute value of the difference from the pixel value of the pixel of interest is equal to or less than the predetermined threshold value within the range of the class tap extended in space and time. The class code is generated based only on pixels having a predetermined relationship with the pixel of interest, such as pixels having

【0010】従って、エッジの影響を受けているおそれ
のある画素がクラスコードの生成に関与しないようにす
ることができる。
Therefore, it is possible to prevent pixels that may be affected by the edge from participating in the generation of the class code.

【0011】[0011]

【発明の実施の形態】この発明は、動き量を考慮してク
ラス分類適応化処理を行うことによってノイズ除去を行
うものである。なお、クラス分類適応化処理は、入力画
像信号の信号レベルの3次元(時空間)分布に応じてク
ラス分割を行い、クラス毎に予め学習によって獲得され
た重み付け係数値を所定の記憶部に格納し、かかる重み
付け係数値を使用した重み付け加算式によって最適な推
定値を出力する処理である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the present invention, noise removal is performed by performing class classification adaptation processing in consideration of the amount of motion. In the class classification adaptation process, class division is performed according to the three-dimensional (spatio-temporal) distribution of the signal level of the input image signal, and the weighting coefficient values obtained by learning in advance for each class are stored in a predetermined storage unit. Then, this is a process of outputting an optimum estimated value by a weighted addition formula using such weighting coefficient values.

【0012】以下、この発明の一実施形態について説明
する。まず、伝送路等においてノイズが付加されている
画像信号(生徒信号と称される)からノイズを除去する
処理について図1を参照して説明する。入力画像信号
は、フレームメモリ11、12、13に供給される。フ
レームメモリ11、12、13は、ノイズ付加画像中の
現フレームと、その前後のフレームとを記憶する。フレ
ームメモリ11、12、13がそれぞれ記憶しているフ
レームは、有効画素抽出回路16、および領域切り出し
部17により、必要に応じて読出される。
Hereinafter, an embodiment of the present invention will be described. First, a process of removing noise from an image signal (referred to as a student signal) to which noise is added in a transmission path or the like will be described with reference to FIG. The input image signal is supplied to frame memories 11, 12, and 13. The frame memories 11, 12, and 13 store the current frame in the noise-added image and the frames before and after the current frame. The frames stored in the frame memories 11, 12, and 13 are read as necessary by the effective pixel extraction circuit 16 and the area cutout unit 17.

【0013】有効画素抽出回路16は、後述するように
して、フレームメモリ11、12、13に記憶されたフ
レーム上で、時空間に広く張ったクラスタップの範囲か
ら、例えば5個等の所定個数の画素をクラスコード生成
に使用する有効画素として選択する。そして、選択した
有効画素と共に、選択した有効画素のクラスタップ内で
の位置情報を特徴量として特徴抽出回路18に供給す
る。特徴抽出回路18は、供給される有効画素について
ADRCやダイナミックレンジ(DR)を行い、それら
の処理の結果と共に、上述の位置情報等を特徴量として
クラスコード発生回路19に供給する。クラスコード発
生回路19は、特徴抽出回路18の出力に基づいて、す
なわち、特徴量に応じてクラスコードを発生させ、発生
させたクラスコードをROM23に供給する。ROM2
3は、後述するような学習によって生成される重み付け
係数をクラスコード毎に予め記憶している。そして、ク
ラスコード発生回路19から供給されるクラスコードに
対応する重み付け係数を推定演算部24に供給する。
As will be described later, the effective pixel extraction circuit 16 determines a predetermined number, such as five, from the range of class taps spread widely in space and time on the frames stored in the frame memories 11, 12, and 13. Is selected as an effective pixel used for class code generation. Then, position information of the selected effective pixel in the class tap is supplied to the feature extraction circuit 18 as a feature amount together with the selected effective pixel. The feature extraction circuit 18 performs ADRC and dynamic range (DR) on the supplied effective pixels, and supplies the above-described position information and the like to the class code generation circuit 19 as feature amounts together with the results of the processing. The class code generation circuit 19 generates a class code based on the output of the feature extraction circuit 18, that is, according to the feature amount, and supplies the generated class code to the ROM 23. ROM2
Numeral 3 stores in advance a weighting coefficient generated by learning as described later for each class code. Then, the weighting coefficient corresponding to the class code supplied from the class code generation circuit 19 is supplied to the estimation calculation unit 24.

【0014】また、領域切り出し部17は、フレームメ
モリ11、12、13がそれぞれ記憶しているフレーム
から所定の画素領域を予測タップとして切り出し、切り
出した予測タップの画素値を推定演算部24に供給す
る。推定演算部24は、領域切り出し部17の出力とR
OM23から読出される重み付け係数とに基づいて、以
下の式(1)に示すような演算を行って出力画素値を予
測推定する。推定演算部24の出力としてノイズが除去
された画像信号が得られることになる。
The region cutout unit 17 cuts out a predetermined pixel region from the frames stored in the frame memories 11, 12, and 13 as prediction taps, and supplies the pixel values of the cutout prediction taps to the estimation calculation unit 24. I do. The estimation calculation unit 24 calculates the output of the region cutout unit 17 and R
Based on the weighting coefficient read from the OM 23, an operation as shown in the following equation (1) is performed to predict and estimate the output pixel value. An image signal from which noise has been removed is obtained as the output of the estimation calculation unit 24.

【0015】 y=w1 ×x1 +w2 ×x2 +‥‥+wn ×xn (1) ここで、x1 ,‥‥,xn が各予測タップであり、
1 ,‥‥,wn が各重み付け係数である。
Y = w 1 × x 1 + w 2 × x 2 + ‥‥ + w n × x n (1) where x 1 , ‥‥, x n are each prediction tap,
w 1 , ‥‥, and w n are weighting coefficients.

【0016】次に、有効画素抽出回路16、特徴抽出回
路18、およびクラスコード発生回路19の動作につい
てより詳細に説明する。入力画像信号中に例えば輝度の
大きな変化等に係るエッジが含まれる場合に、そのよう
なエッジの両側に位置するタップを選択してしまうと、
選択したタップに基づく後段の処理がエッジの影響を受
けることになり、クラスコードの生成、さらにはノイズ
除去を的確に行うことが不可能となる。そこで、有効画
素抽出回路16が有効画素を選択する基準として、例え
ば、当該画素の画素値と注目画素の画素値との差分の絶
対値が所定のしきい値以下であるという条件を用いる。
Next, the operations of the effective pixel extracting circuit 16, the feature extracting circuit 18, and the class code generating circuit 19 will be described in more detail. If, for example, an edge related to a large change in luminance is included in the input image signal, if taps located on both sides of such an edge are selected,
The subsequent processing based on the selected tap is affected by the edge, and it is impossible to generate a class code and further accurately remove noise. Therefore, as a criterion for the effective pixel extraction circuit 16 to select an effective pixel, for example, a condition that the absolute value of the difference between the pixel value of the pixel and the pixel value of the target pixel is equal to or smaller than a predetermined threshold value is used.

【0017】図2を参照してより具体的に説明する。図
2は、現フレームfr0内に、黒丸で示した注目画素の
周囲に斜線を付して示した例えば13個のクラスタップ
を配置し、また、前フレーム内、後フレーム内の、現フ
レームfr0内の注目画素に対応する画素位置に、それ
ぞれ1個のクラスタップを配置する例を示す。そして、
これら合計15個のクラスタップについて、番号順に、
注目画素の画素値と当該クラスタップの画素値差分の絶
対値が所定のしきい値以下であるという条件を満たすか
否かを判定する。かかる判定の結果として、有効画素と
して例えば5個が選択された時点で、有効画素の選択処
理を終了する。
This will be described more specifically with reference to FIG. FIG. 2 shows that, for example, 13 class taps indicated by hatching around a target pixel indicated by a black circle are arranged in the current frame fr0, and the current frame fr0 in the previous frame and the subsequent frame is arranged. An example is shown in which one class tap is arranged at each pixel position corresponding to the target pixel. And
For these 15 class taps in total, in numerical order,
It is determined whether or not the condition that the absolute value of the pixel value of the target pixel and the pixel value difference of the class tap is equal to or smaller than a predetermined threshold value is satisfied. As a result of the determination, when, for example, five effective pixels are selected, the selection processing of the effective pixels ends.

【0018】このようにして選択した例えば5個の有効
画素と共に、選択した各有効画素の位置情報が有効画素
抽出回路16から出力される。位置情報を表現するコー
ドの一例を図3に示す。ここでは、1〜15の15個の
画素位置に対し、選択された画素位置に'1' を割り当
て、それ以外の画素位置に'0' を割り当てることによ
り、位置情報を表現している。勿論、位置情報を表現す
るコードの構成はこれに限定されるものでは無い。例え
ば、選択された画素位置に'0' を割り当て、それ以外の
画素位置に'1' を割り当てるようにしても良い。
The position information of each selected effective pixel is output from the effective pixel extraction circuit 16 together with the five effective pixels thus selected. FIG. 3 shows an example of a code representing the position information. Here, the position information is expressed by assigning '1' to the selected pixel position and '0' to the other pixel positions for the 15 pixel positions 1 to 15. Of course, the configuration of the code expressing the position information is not limited to this. For example, '0' may be assigned to the selected pixel position, and '1' may be assigned to other pixel positions.

【0019】そして、特徴抽出回路18は、有効画素抽
出回路16によって選択された有効画素値を1ビットA
DRC,DRによって量子化し、特徴量とする。ここ
で、DRは適切な値で丸め、均一に量子化する。また、
有効画素抽出回路16から供給される有効画素の画素位
置情報も特徴量とする。さらに、クラスコード発生回路
19は、これらの特徴量に応じたクラスコードを生成す
る。生成されるクラスコードの一例を図4に示す。かか
る一例は、位置情報のコード、1ビットADRのコー
ド、3ビットで量子化されたDRのコードをつなげたも
のである。勿論、位置情報を表現するコードの構成はこ
れに限定されるものでは無い。
The feature extraction circuit 18 converts the effective pixel value selected by the effective pixel extraction circuit 16 into one bit A
Quantization is performed by DRC and DR to obtain a feature amount. Here, DR is rounded with an appropriate value and quantized uniformly. Also,
The pixel position information of the effective pixel supplied from the effective pixel extraction circuit 16 is also used as the feature amount. Further, the class code generation circuit 19 generates a class code according to these characteristic amounts. FIG. 4 shows an example of the generated class code. In this example, a position information code, a 1-bit ADR code, and a 3-bit quantized DR code are connected. Of course, the configuration of the code expressing the position information is not limited to this.

【0020】また、領域切り出し部17は、例えば、図
5に示すような予測タップ上の領域を切り出す。ここ
で、予測タップは、有効画素が選択される領域(例えば
図2に示した15個の画素からなる領域)を包含するよ
うな構造とされる。
The area cutout unit 17 cuts out an area on a prediction tap as shown in FIG. 5, for example. Here, the prediction tap has a structure including an area where an effective pixel is selected (for example, an area including 15 pixels shown in FIG. 2).

【0021】次に、学習すなわち、重み付け係数を得る
処理について図6を参照して説明する。ここで、図1中
の構成要素と同様な構成要素には、同一の符号を付し
た。学習を行うために用いられる所定の入力画像信号
(教師信号と称される)がノイズ付加回路10、および
正規方程式計算回路20に供給される。ノイズ付加回路
10は入力画像信号にノイズ成分を付加してノイズ付加
画像を生成し、生成したノイズ付加画像をフレームメモ
リ11、12、13に供給する。
Next, learning, that is, processing for obtaining a weighting coefficient will be described with reference to FIG. Here, the same components as those in FIG. 1 are denoted by the same reference numerals. A predetermined input image signal (referred to as a teacher signal) used for learning is supplied to the noise adding circuit 10 and the normal equation calculating circuit 20. The noise adding circuit 10 adds a noise component to the input image signal to generate a noise added image, and supplies the generated noise added image to the frame memories 11, 12, and 13.

【0022】フレームメモリ11、12、13の後段に
おいては、図1を参照して上述した処理と略同様な処理
がなされる。但し、クラスコード発生回路19が発生す
るクラスコード、および領域切り出し部17が切り出す
予測タップは、正規方程式加算回路20に供給される。
正規方程式加算回路20には、さらに、教師信号が供給
される。正規方程式加算回路20は、これら3種類の入
力に基づいて正規方程式を解くための計算処理を行い、
クラスコード毎の重み付け係数を決定する。そして、決
定した重み付け係数をメモリ22に供給する。
In the subsequent stage of the frame memories 11, 12, and 13, processing substantially similar to the processing described above with reference to FIG. 1 is performed. However, the class code generated by the class code generation circuit 19 and the prediction taps cut out by the region cutout unit 17 are supplied to the normal equation addition circuit 20.
The teacher signal is further supplied to the normal equation adding circuit 20. The normal equation adding circuit 20 performs a calculation process for solving a normal equation based on these three types of inputs.
Determine weighting factors for each class code. Then, the determined weighting coefficient is supplied to the memory 22.

【0023】正規方程式について説明する。上述の式
(1)において、学習前は予測係数w1 ,‥‥,wn
未定係数である。学習は、クラス毎に複数の教師信号を
入力することによって行う。教師信号の種類数をmと表
記する場合、式(1)から、以下の式(2)が設定され
る。
The normal equation will be described. In the above equation (1), before learning, the prediction coefficients w 1 , ‥‥, and w n are undetermined coefficients. Learning is performed by inputting a plurality of teacher signals for each class. When the number of types of the teacher signal is denoted by m, the following equation (2) is set from the equation (1).

【0024】 yk =w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn (2) (k=1,2,‥‥,m) m>nの場合、予測係数w1 ,‥‥,wn は一意に決ま
らないので、誤差ベクトルeの要素ek を以下の式
(3)で定義して、式(4)によって定義される誤差ベ
クトルeを最小とするように予測係数を定めるようにす
る。すなわち、いわゆる最小2乗法によって予測係数を
一意に定める。
Y k = w 1 × x k1 + w 2 × x k2 + ‥‥ + w n × x kn (2) (k = 1,2, ‥‥, m) When m> n, the prediction coefficients w 1 , Since ‥‥ and w n are not uniquely determined, the element e k of the error vector e is defined by the following equation (3), and the prediction coefficient is set to minimize the error vector e defined by the equation (4). To be determined. That is, the prediction coefficient is uniquely determined by the so-called least square method.

【0025】 ek =yk −{w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn} (3) (k=1,2,‥‥m)E k = y k − {w 1 × x k1 + w 2 × x k2 + Δ + w n × x kn } (3) (k = 1, 2, Δm)

【0026】[0026]

【数1】 (Equation 1)

【0027】式(4)のe2 を最小とする予測係数を求
めるための実際的な計算方法としては、e2 を予測係数
i (i=1,2‥‥)で偏微分し(式(5))、iの各値に
ついて偏微分値が0となるように各予測係数wi を定め
れば良い。
As a practical calculation method for obtaining the prediction coefficient minimizing e 2 in Equation (4), partial differentiation of e 2 with the prediction coefficient w i (i = 1, 2 ‥‥) is performed (Equation 4). (5)) Each prediction coefficient w i may be determined so that the partial differential value becomes 0 for each value of i .

【0028】[0028]

【数2】 (Equation 2)

【0029】式(5)から各予測係数wi を定める具体
的な手順について説明する。式(6)、(7)のように
ji,Yi を定義すると、式(5)は、式(8)の行列
式の形に書くことができる。
A specific procedure for determining each prediction coefficient w i from equation (5) will be described. If X ji and Y i are defined as in equations (6) and (7), equation (5) can be written in the form of a determinant of equation (8).

【0030】[0030]

【数3】 (Equation 3)

【0031】[0031]

【数4】 (Equation 4)

【0032】[0032]

【数5】 (Equation 5)

【0033】式(8)が一般に正規方程式と呼ばれるも
のである。予測係数決定回路20は、上述した3種類の
入力に基づいて正規方程式(8)中の各パラメータを算
出し、さらに、掃き出し法等の一般的な行列解法に従っ
て正規方程式(8)を解くための計算処理を行って予測
係数wi を算出する。
Equation (8) is generally called a normal equation. The prediction coefficient determination circuit 20 calculates each parameter in the normal equation (8) based on the above three types of inputs, and further solves the normal equation (8) according to a general matrix solution method such as a sweeping-out method. A calculation process is performed to calculate a prediction coefficient w i .

【0034】以上のような学習におけるノイズ付加につ
いてより詳細に説明する。ノイズ付加を行うためには、
以下の〜のような方法を用いることができる。コ
ンピュータシミュレーションと同様にランダムノイズを
発生させて入力画像信号に付加する。入力する画像信
号に対し、RF系を介してノイズを付加する。背景が
一様な画像信号と、かかる画像信号にRF系を用いた処
理を行うことによって得られる信号との間の差としてノ
イズ成分を抽出し、抽出したノイズ成分を入力画像信号
に付加する。背景が一様な画像信号にRF系を用いた
処理を行うことによって得られる信号と、かかる信号を
フレーム加算することによってノイズが除去されてなる
画像信号成分との差としてノイズ成分を抽出し、抽出し
たノイズ成分を入力画像信号に付加する。
The addition of noise in the above learning will be described in more detail. To add noise,
The following methods can be used. Like the computer simulation, random noise is generated and added to the input image signal. Noise is added to an input image signal via an RF system. A noise component is extracted as a difference between an image signal having a uniform background and a signal obtained by processing the image signal using an RF system, and the extracted noise component is added to the input image signal. Extracting a noise component as a difference between a signal obtained by performing processing using an RF system on an image signal having a uniform background and an image signal component from which noise is removed by frame addition of the signal; The extracted noise component is added to the input image signal.

【0035】の方法を行うための構成の一例を図7に
示す。入力画像信号(教師信号)は、D/A変換器31
によってD/A変換され、アナログ信号としてRF変調
器32に供給される。RF変調器32は、供給される信
号をRF変調し、RF変調した信号をアテネータ減衰器
33に供給する。アテネータ減衰器33は、供給される
信号に所定の減衰処理を施す。アテネータ減衰器33の
出力はRF復調器34に供給される。RF復調器32
は、供給される信号をRF復調し、RF復調した信号を
A/D変換器35に供給する。
FIG. 7 shows an example of a configuration for performing the above method. The input image signal (teacher signal) is supplied to the D / A converter 31.
, And is supplied to the RF modulator 32 as an analog signal. The RF modulator 32 RF-modulates the supplied signal, and supplies the RF-modulated signal to the attenuator attenuator 33. The attenuator attenuator 33 performs a predetermined attenuation process on the supplied signal. The output of the attenuator attenuator 33 is supplied to the RF demodulator 34. RF demodulator 32
Performs RF demodulation of the supplied signal, and supplies the RF demodulated signal to the A / D converter 35.

【0036】A/D変換器35は、供給される信号にA
/D変換を施す。A/D変換器35の出力として、ノイ
ズ付加画像信号が得られる。この方法によって得られる
ノイズ付加画像信号においては、入力画像信号に対して
画像全体に渡る画素位置のずれが生じる。このため、ノ
イズ付加をこの方法で行う場合には、学習の結果として
得られる重み付け係数が画素位置のずれを反映したもの
となる。そこで、ノイズ除去の対象とされる画像信号
(生徒信号)とノイズ付加画像信号との間での画素位置
のずれを検出し、検出結果に基づいて画素位置を合わせ
る処理が必要となる。
The A / D converter 35 converts the supplied signal into an A / D signal.
/ D conversion is performed. As an output of the A / D converter 35, a noise-added image signal is obtained. In the noise-added image signal obtained by this method, the pixel position shifts over the entire image with respect to the input image signal. Therefore, when noise is added by this method, the weighting coefficient obtained as a result of the learning reflects the deviation of the pixel position. Therefore, it is necessary to perform a process of detecting a pixel position shift between an image signal (student signal) to be subjected to noise removal and a noise-added image signal, and adjusting the pixel position based on the detection result.

【0037】また、の方法を行うための構成の一例を
図8に示す。背景が一様な画像信号がD/A変換器41
と、減算器46とに供給される。D/A変換器41は、
供給される信号をD/A変換してアナログ信号とし、こ
のアナログ信号をRF変調器42に供給する。RF変調
器42は、供給される信号をRF変調し、RF変調した
信号をアテネータ減衰器43に供給する。アテネータ減
衰器43は、供給される信号に所定の減衰処理を施す。
FIG. 8 shows an example of a configuration for performing the above method. A D / A converter 41 outputs an image signal having a uniform background.
And a subtractor 46. The D / A converter 41 is
The supplied signal is D / A converted into an analog signal, and the analog signal is supplied to the RF modulator 42. The RF modulator 42 performs RF modulation on the supplied signal, and supplies the RF-modulated signal to the attenuator attenuator 43. The attenuator attenuator 43 performs a predetermined attenuation process on the supplied signal.

【0038】アテネータ減衰器43の出力がRF復調器
44に供給される。RF復調器44は供給される信号を
RF復調し、RF復調した信号をA/D変換器45に供
給する。A/D変換器45は、供給される信号にA/D
変換を施す。A/D変換器45の出力として、D/A変
換器41に供給される、背景が一様な画像信号からノイ
ズが除去された画像信号が得られる。
The output of the attenuator attenuator 43 is supplied to an RF demodulator 44. The RF demodulator 44 performs RF demodulation on the supplied signal and supplies the RF demodulated signal to the A / D converter 45. The A / D converter 45 converts the supplied signal into an A / D signal.
Perform the conversion. As an output of the A / D converter 45, an image signal obtained by removing noise from an image signal having a uniform background and supplied to the D / A converter 41 is obtained.

【0039】A/D変換器45の出力が減算器46に供
給される。減算器46は、背景が一様な画像信号と、A
/D変換器35の出力との差をとることによってノイズ
成分を抽出し、抽出したノイズ成分を加算器47に供給
する。加算器47には、さらに、入力画像信号(教師信
号)が供給される。加算器47は、入力画像信号と、減
算器46の出力であるノイズ成分とを加算することによ
り、ノイズ付加画像信号を生成する。かかる方法におい
ては、教師信号として使用される入力画像信号と、実際
にノイズ除去の対象とされる画像信号(生徒信号)との
間でのRF系によるDCオフセット成分のずれを考慮す
る必要がある。
The output of the A / D converter 45 is supplied to a subtractor 46. The subtractor 46 outputs an image signal having a uniform background and A
The noise component is extracted by taking the difference from the output of the / D converter 35, and the extracted noise component is supplied to the adder 47. The input image signal (teacher signal) is further supplied to the adder 47. The adder 47 generates a noise-added image signal by adding the input image signal and the noise component output from the subtractor 46. In such a method, it is necessary to consider a shift of a DC offset component due to an RF system between an input image signal used as a teacher signal and an image signal (student signal) to be actually subjected to noise removal. .

【0040】また、の方法を行うための構成の一例を
図9に示す。背景が一様な画像信号がD/A変換器51
に供給される。D/A変換器51は、供給される信号を
D/A変換してアナログ信号とし、このアナログ信号を
RF変調器52に供給する。
FIG. 9 shows an example of a configuration for performing the above method. A D / A converter 51 outputs an image signal having a uniform background.
Supplied to The D / A converter 51 D / A converts the supplied signal to an analog signal, and supplies the analog signal to the RF modulator 52.

【0041】RF変調器52は、供給される信号をRF
変調し、RF変調した信号をアテネータ減衰器53に供
給する。アテネータ減衰器53は、供給される信号に所
定の減衰処理を施す。アテネータ減衰器53の出力がR
F復調器54に供給される。RF復調器54は、供給さ
れる信号をRF復調し、RF復調した信号をA/D変換
器55に供給する。A/D変換器55は、供給される信
号にA/D変換を施す。
The RF modulator 52 converts the supplied signal into an RF signal.
The modulated and RF-modulated signal is supplied to an attenuator attenuator 53. The attenuator attenuator 53 performs a predetermined attenuation process on the supplied signal. The output of the attenuator attenuator 53 is R
The signal is supplied to an F demodulator 54. The RF demodulator 54 performs RF demodulation on the supplied signal and supplies the RF demodulated signal to the A / D converter 55. The A / D converter 55 performs A / D conversion on the supplied signal.

【0042】A/D変換器55の出力は、加算器56と
減算器58とに供給される。加算器56は、さらに、フ
レームメモリ57の記憶内容を供給され、かかる記憶内
容に対し、A/D変換器55の出力をフレーム単位で加
算する。そして、加算結果をフレームメモリ57に供給
する。フレームメモリ57は、加算器56から供給され
る加算結果を記憶し、また、加算器56と減算器58と
に記憶内容を出力する。フレームメモリ57の出力とし
て、D/A変換器51に供給される、背景が一様な画像
信号からノイズが除去されてなる画像信号が得られる。
The output of the A / D converter 55 is supplied to an adder 56 and a subtractor 58. The adder 56 is further supplied with the contents stored in the frame memory 57, and adds the output of the A / D converter 55 to the stored contents in frame units. Then, the addition result is supplied to the frame memory 57. The frame memory 57 stores the addition result supplied from the adder 56 and outputs the stored contents to the adder 56 and the subtractor 58. As an output of the frame memory 57, an image signal obtained by removing noise from an image signal having a uniform background and supplied to the D / A converter 51 is obtained.

【0043】減算器58は、フレームメモリ57の出力
とA/D変換器55の出力との差をとることによってノ
イズ成分を抽出し、抽出したノイズ成分を加算器59に
供給する。加算器59には、さらに、入力画像信号(教
師信号)が供給される。加算器59は、入力画像信号と
減算器58の出力であるノイズ成分とを加算することに
より、ノイズ付加画像信号を生成する。
The subtractor 58 extracts a noise component by taking the difference between the output of the frame memory 57 and the output of the A / D converter 55, and supplies the extracted noise component to the adder 59. The input image signal (teacher signal) is further supplied to the adder 59. The adder 59 generates a noise-added image signal by adding the input image signal and the noise component output from the subtractor 58.

【0044】上述したこの発明の一実施形態は、現フレ
ームを含む3フレームを記憶し、それら3フレームにつ
いての動き量を推定して、推定結果に基づいてノイズを
除去するための処理を行うものである。これに対し、現
フレームを含む、3フレームより多くのフレームを記憶
するフレームメモリを備え、それらの各フレームメモリ
の記憶内容に基づいて上述したような処理を行う構成も
可能である。一般に、取扱うフレーム数が多い程ノイズ
除去効果が大きいので、3フレームより多くのフレーム
を記憶するフレームメモリを備える場合には、回路規模
が大型化するが、ノイズ除去の効果を高めることが可能
である。
According to the above-described embodiment of the present invention, three frames including the current frame are stored, a motion amount of the three frames is estimated, and a process for removing noise is performed based on the estimation result. It is. On the other hand, a configuration is also possible in which a frame memory that stores more than three frames including the current frame is provided, and the above-described processing is performed based on the storage content of each frame memory. In general, the larger the number of frames to be handled, the greater the noise removal effect. Therefore, when a frame memory that stores more than three frames is provided, the circuit scale increases, but the noise removal effect can be enhanced. is there.

【0045】この発明は、上述したのこの発明の一実施
形態に限定されるものでは無く、この発明の主旨を逸脱
しない範囲内で様々な変形や応用が可能である。
The present invention is not limited to the embodiment of the present invention described above, and various modifications and applications are possible without departing from the gist of the present invention.

【0046】[0046]

【発明の効果】上述したように、この発明は、入力画像
信号を再生する画像情報変換装置において、入力画像信
号をフレーム毎に記憶し、また、記憶したフレームに対
して時空間に広く張ったクラスタップの範囲から注目画
素と所定の関係にある画素を選択し、選択した画素の画
素値を量子化することによって第1の特徴量を生成し、
さらに、選択された画素の画素位置に係る情報に基づい
て第2の特徴量を生成し、第1の特徴量と、第2の特徴
量とに基づいてクラスコードを生成するようにしたもの
である。さらに、ノイズを除去するための処理としての
重み付け加算に使用されるべき領域を切出して、切出し
た領域と、予め決定された重み付け係数の内からクラス
コードに応じて選択される重み付け係数使用した演算処
理を行うことによって画像信号を算出するようにしたも
のである。
As described above, according to the present invention, in an image information conversion apparatus for reproducing an input image signal, the input image signal is stored for each frame, and the stored frame is extended in space and time. Selecting a pixel having a predetermined relationship with the target pixel from the range of the class tap, and generating a first feature amount by quantizing a pixel value of the selected pixel;
Further, a second feature value is generated based on information on the pixel position of the selected pixel, and a class code is generated based on the first feature value and the second feature value. is there. Further, a region to be used for weighting addition as a process for removing noise is cut out, and the cutout region and a calculation using a weighting coefficient selected according to a class code from among predetermined weighting coefficients are used. An image signal is calculated by performing processing.

【0047】このため、時空間に広く張ったクラスタッ
プの範囲内で、注目画素と所定の関係にある画素のみに
基づいてクラスコードが生成されるので、エッジの影響
を受けているおそれのある画素がクラスコードの生成に
関与しないようにすることができる。
For this reason, since the class code is generated based on only the pixels having a predetermined relationship with the target pixel within the range of the class tap spread widely in the spatiotemporal space, the influence of the edge may be caused. Pixels can be prevented from participating in the generation of the class code.

【0048】このため、入力画像信号にエッジが含まれ
る場合にも、エッジの影響によってクラス分類適応処理
によるノイズ除去が不的確に行われることを回避するこ
とができる。すなわち、エッジ部分でぼけ等が生じるこ
とを回避できる。
Therefore, even when an edge is included in the input image signal, it is possible to prevent the noise from being improperly removed by the classification adaptive processing due to the influence of the edge. That is, it is possible to avoid blurring or the like at the edge portion.

【0049】また、この発明では、時空間に広く張った
クラスタップの範囲内で、注目画素と所定の関係にある
画素のみを選択し、選択した画素を使用してクラス分類
適応処理を行うので、画像中のオブジェクトの動き/静
止等に応じてタップ構造、処理内容等を切替える必要を
無くすことができる。
Further, according to the present invention, only pixels having a predetermined relationship with the pixel of interest are selected within the range of class taps spread widely in time and space, and the class classification adaptive processing is performed using the selected pixels. In addition, it is possible to eliminate the need to switch the tap structure, processing content, and the like according to the movement / stillness of an object in an image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態におけるノイズ除去のた
めの処理について説明するためのブロック図である。
FIG. 1 is a block diagram illustrating a process for removing noise according to an embodiment of the present invention.

【図2】この発明の一実施形態におけるクラスタップ構
造の一例を示す略線図である。
FIG. 2 is a schematic diagram illustrating an example of a class tap structure according to an embodiment of the present invention.

【図3】この発明の一実施形態における有効画素の画素
位置情報を表現するコードの一例を示す略線図である。
FIG. 3 is a schematic diagram illustrating an example of a code expressing pixel position information of an effective pixel according to an embodiment of the present invention.

【図4】この発明の一実施形態におけるクラスコードの
一例を示す略線図である。
FIG. 4 is a schematic diagram illustrating an example of a class code according to an embodiment of the present invention.

【図5】この発明の一実施形態における予測タップの構
造の一例を示す略線図である。
FIG. 5 is a schematic diagram illustrating an example of a structure of a prediction tap according to an embodiment of the present invention.

【図6】この発明の一実施形態における学習について説
明するためのブロック図である。
FIG. 6 is a block diagram for describing learning in one embodiment of the present invention.

【図7】ノイズ付加を行うための構成の一例を示すブロ
ック図である。
FIG. 7 is a block diagram illustrating an example of a configuration for performing noise addition.

【図8】ノイズ付加を行うための構成の他の例を示すブ
ロック図である。
FIG. 8 is a block diagram showing another example of a configuration for performing noise addition.

【図9】ノイズ付加を行うための構成のさらに他の例を
示すブロック図である。
FIG. 9 is a block diagram showing still another example of a configuration for performing noise addition.

【図10】画像信号の平坦部分におけるクラス分類につ
いて説明するための略線図である。
FIG. 10 is a schematic diagram for explaining class classification in a flat portion of an image signal.

【図11】画像信号のエッジ部分平坦部においてクラス
分類が不的確となることを説明するための略線図であ
る。
FIG. 11 is a schematic diagram for explaining that class classification is inaccurate in an edge portion flat portion of an image signal.

【符号の説明】[Explanation of symbols]

16・・・有効画素抽出回路、18・・・特徴抽出回路 16 effective pixel extraction circuit, 18 feature extraction circuit

フロントページの続き (72)発明者 中屋 秀雄 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 奥村 裕二 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C021 PA38 PA52 PA57 PA72 PA79 RA01 RB08 YA01 YC09 Continuation of the front page (72) Inventor Hideo Nakaya 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Yuji Okumura 6-35-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony F term in reference (reference) 5C021 PA38 PA52 PA57 PA72 PA79 RA01 RB08 YA01 YC09

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力画像信号に画像情報変換を施す画像
情報変換装置において、 入力画像信号をフレーム毎に記憶する所定個数のフレー
ムメモリと、 上記所定個数のフレームメモリが記憶しているフレーム
に対して時空間に広く張ったクラスタップの範囲から、
注目画素と所定の関係にある画素を選択すると共に、選
択した画素の画素位置に係る情報を出力する画素抽出手
段と、 上記画素抽出手段が選択した画素の画素値を量子化し、
量子化値に基づいて第1の特徴量を出力すると共に、上
記画素位置に係る情報に基づいて第2の特徴量を出力す
る特徴抽出手段と、 上記第1の特徴量と、上記第2の特徴量とに基づいてク
ラスコードを生成するクラスコード生成手段と、 上記所定個数のフレームメモリが記憶しているフレーム
から、ノイズを除去するための演算処理としての重み付
け加算に使用されるべき領域を切出す領域切出し手段
と、 上記クラスコード生成手段が生成するクラスコードの各
々に対応して予め決定された、上記重み付け加算に使用
されるべき重み付け係数を記憶する係数記憶手段と、 上記領域切出し手段の出力と上記係数記憶手段の記憶内
容とに基づいて、上記重み付け加算を行って画素値を生
成する演算処理手段とを有することを特徴とする画像情
報変換装置。
1. An image information conversion apparatus for performing image information conversion on an input image signal, comprising: a predetermined number of frame memories for storing an input image signal for each frame; and a frame memory for storing the predetermined number of frame memories. From the range of class taps spread widely in time and space,
Selecting a pixel having a predetermined relationship with the pixel of interest, pixel extracting means for outputting information relating to the pixel position of the selected pixel, and quantizing the pixel value of the pixel selected by the pixel extracting means;
A feature extracting unit that outputs a first feature amount based on the quantized value and outputs a second feature amount based on the information on the pixel position; Class code generating means for generating a class code based on the feature amount; and a region to be used for weighted addition as an arithmetic process for removing noise from the frames stored in the predetermined number of frame memories. Area extracting means for extracting, coefficient storing means for storing a weighting coefficient to be used for the weighting addition, which is predetermined corresponding to each of the class codes generated by the class code generating means, and the area extracting means Image processing means for performing the weighted addition based on the output of the coefficient storage means and the storage content of the coefficient storage means to generate a pixel value. Conversion device.
【請求項2】 請求項1において、 上記重み付け係数は、 所定の入力画像信号、上記所定の入力画像信号が供給さ
れる際の上記領域切出し手段の出力、および上記クラス
コード生成手段の出力に基づいてなされる所定の演算処
理によって予め算出されることを特徴とする画像情報変
換装置。
2. The weighting coefficient according to claim 1, wherein the weighting coefficient is based on a predetermined input image signal, an output of the area extracting unit when the predetermined input image signal is supplied, and an output of the class code generating unit. An image information conversion apparatus characterized in that the image information conversion apparatus is preliminarily calculated by a predetermined arithmetic processing performed.
【請求項3】 請求項2において、 上記所定の演算処理は、 最小2乗法に基づく演算処理であることを特徴とする画
像情報変換装置。
3. The image information conversion device according to claim 2, wherein the predetermined arithmetic processing is an arithmetic processing based on a least squares method.
【請求項4】 請求項1において、 上記所定個数のフレームメモリ中には、 現フレームを記憶するものが含まれることを特徴とする
画像情報変換装置。
4. The image information conversion device according to claim 1, wherein the predetermined number of frame memories includes a memory for storing a current frame.
【請求項5】 請求項1において、 上記画素抽出手段は、 注目画素と類似する画素を出力することを特徴とする画
像情報変換装置。
5. The image information conversion device according to claim 1, wherein said pixel extracting means outputs a pixel similar to the pixel of interest.
【請求項6】 請求項5において、 上記画素抽出手段は、 注目画素との画素値との差分の絶対値が所定のしきい値
より小さくなるような画素値を有する画素を出力するこ
とを特徴とする画像情報変換装置。
6. The pixel extracting device according to claim 5, wherein the pixel extracting unit outputs a pixel having a pixel value such that an absolute value of a difference between the pixel value and a pixel value of interest becomes smaller than a predetermined threshold value. Image information conversion device.
【請求項7】 請求項1において、 上記画素抽出手段は、 上記画素抽出手段が選択した画素の画素値を、DRおよ
び/または1ビットADRCによって量子化することを
特徴とする画像情報変換装置。
7. The image information conversion device according to claim 1, wherein said pixel extracting means quantizes a pixel value of a pixel selected by said pixel extracting means by DR and / or 1-bit ADRC.
【請求項8】 入力画像信号に画像情報変換を施す画像
情報変換方法において、 入力画像信号をフレーム毎に記憶する記憶ステップと、 上記記憶ステップによって記憶されるフレームに対して
時空間に広く張ったクラスタップの範囲から、注目画素
と所定の関係にある画素を選択すると共に、選択した画
素の画素位置に係る情報を出力する画素抽出ステップ
と、 上記画素抽出ステップによって選択される画素の画素値
を量子化し、量子化値に基づいて第1の特徴量を出力す
ると共に、上記画素位置に係る情報に基づいて第2の特
徴量を出力する特徴抽出ステップと、 上記第1の特徴量と、上記第2の特徴量とに基づいてク
ラスコードを生成するクラスコード生成ステップと、 上記記憶ステップによって記憶されるフレームから、ノ
イズを除去するための演算処理としての重み付け加算に
使用されるべき領域を切出す領域切出しステップと、 上記クラスコード生成ステップによって生成されるクラ
スコードの各々に対応して予め決定された、上記重み付
け加算に使用されるべき重み付け係数を記憶する係数記
憶ステップと、 上記領域切出しステップの結果と上記係数ステップによ
る記憶内容とに基づいて、上記重み付け加算を行って画
素値を生成する演算処理ステップとを有することを特徴
とする画像情報変換方法。
8. An image information conversion method for performing image information conversion on an input image signal, comprising: a storage step of storing an input image signal for each frame; A pixel extraction step of selecting a pixel having a predetermined relationship with the target pixel from the range of the class tap and outputting information relating to the pixel position of the selected pixel; and a pixel value of the pixel selected by the pixel extraction step A feature extraction step of quantizing and outputting a first feature value based on the quantized value and outputting a second feature value based on the information on the pixel position; A class code generating step of generating a class code based on the second feature amount; and removing noise from the frame stored in the storing step. An area extracting step of extracting an area to be used for weighting addition as an arithmetic processing for performing the weighting and adding for each of the class codes generated in the class code generating step. A coefficient storing step of storing a weighting coefficient to be performed, and an arithmetic processing step of performing a weighted addition to generate a pixel value based on a result of the region extracting step and the storage content of the coefficient step. Characteristic image information conversion method.
JP10304059A 1998-10-26 1998-10-26 Device and method for converting image information Pending JP2000134511A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10304059A JP2000134511A (en) 1998-10-26 1998-10-26 Device and method for converting image information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10304059A JP2000134511A (en) 1998-10-26 1998-10-26 Device and method for converting image information

Publications (1)

Publication Number Publication Date
JP2000134511A true JP2000134511A (en) 2000-05-12

Family

ID=17928550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10304059A Pending JP2000134511A (en) 1998-10-26 1998-10-26 Device and method for converting image information

Country Status (1)

Country Link
JP (1) JP2000134511A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001298637A (en) * 2000-02-10 2001-10-26 Sony Corp Method and device for image processing and recording medium
WO2002013512A1 (en) * 2000-08-07 2002-02-14 Sony Corporation Image processing device and method, and recorded medium
JP2003348383A (en) * 2002-05-24 2003-12-05 Matsushita Electric Ind Co Ltd Image processing method and image processing apparatus
WO2014129308A1 (en) * 2013-02-25 2014-08-28 株式会社ドクターネット Image compression device, image decompression device, image compression program, image decompression program, and data structure

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001298637A (en) * 2000-02-10 2001-10-26 Sony Corp Method and device for image processing and recording medium
JP4623345B2 (en) * 2000-02-10 2011-02-02 ソニー株式会社 Image processing apparatus and method, and recording medium
WO2002013512A1 (en) * 2000-08-07 2002-02-14 Sony Corporation Image processing device and method, and recorded medium
US6987884B2 (en) 2000-08-07 2006-01-17 Sony Corporation Image processing device and method, and recorded medium
JP4725001B2 (en) * 2000-08-07 2011-07-13 ソニー株式会社 Image processing apparatus and method, and recording medium
JP2003348383A (en) * 2002-05-24 2003-12-05 Matsushita Electric Ind Co Ltd Image processing method and image processing apparatus
WO2014129308A1 (en) * 2013-02-25 2014-08-28 株式会社ドクターネット Image compression device, image decompression device, image compression program, image decompression program, and data structure

Similar Documents

Publication Publication Date Title
JP2589298B2 (en) Decoding device for encoded image data
US6301301B1 (en) Apparatus and method for coding and decoding a moving image
US6115503A (en) Method and apparatus for reducing coding artifacts of block-based image encoding and object-based image encoding
US7912277B2 (en) Data processing apparatus and data processing method
JP2009509413A (en) Adaptive motion estimation for temporal prediction filters for irregular motion vector samples
JPH07154604A (en) Method for expanding document image compressed with standardadct
KR100605746B1 (en) Motion compensation apparatus based on block, and method of the same
US6571142B1 (en) Data processing apparatus, data processing method, and medium
KR100303107B1 (en) Motion vector detection apparatus and method
JP4407015B2 (en) Noise removing apparatus and noise removing method
JP2000232384A (en) Data processor and data processing method
JP3486975B2 (en) Noise reduction apparatus and method
KR100816593B1 (en) Image processing system, image processing method, and recording medium
JP2000134511A (en) Device and method for converting image information
US7522748B2 (en) Method and apparatus for processing image data and semiconductor storage device
JP3149729B2 (en) Block distortion removal device
JP2000059652A (en) Device and method for removing noise
US7885335B2 (en) Variable shape motion estimation in video sequence
JP3362463B2 (en) Frame interpolation device
JP4078806B2 (en) Image processing apparatus, image processing method, learning apparatus, and learning method
CA2140568C (en) Reduced bit number motion vector detection
JP4096281B2 (en) Image processing apparatus, image processing method, and medium
JP2619759B2 (en) Image data compression method
JP3896635B2 (en) Image data conversion apparatus and method, prediction coefficient generation apparatus and method
EP1001372B1 (en) Data processing apparatus and data processing methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080527