JP3210264B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method

Info

Publication number
JP3210264B2
JP3210264B2 JP05019897A JP5019897A JP3210264B2 JP 3210264 B2 JP3210264 B2 JP 3210264B2 JP 05019897 A JP05019897 A JP 05019897A JP 5019897 A JP5019897 A JP 5019897A JP 3210264 B2 JP3210264 B2 JP 3210264B2
Authority
JP
Japan
Prior art keywords
value
window
information
pixel
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05019897A
Other languages
Japanese (ja)
Other versions
JPH10248012A (en
Inventor
信孝 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP05019897A priority Critical patent/JP3210264B2/en
Priority to US09/033,584 priority patent/US6157749A/en
Priority to DE69825196T priority patent/DE69825196T2/en
Priority to EP98301597A priority patent/EP0863484B1/en
Priority to ES98301597T priority patent/ES2226064T3/en
Publication of JPH10248012A publication Critical patent/JPH10248012A/en
Application granted granted Critical
Publication of JP3210264B2 publication Critical patent/JP3210264B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、入力した画像情報
を拡大変倍する又は、入力した低解像情報を高解像情報
に解像度変換する画像処理装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method for enlarging or changing input image information or converting input low-resolution information into high-resolution information.

【0002】[0002]

【従来の技術】従来より、入力した低解像情報を高解像
情報に解像度変換する方法として、様々な方法が提案さ
れている。提案されている従来方法は、対象となる画像
の種類(例えば、各画素ごとに階調情報を持つ多値画
像、疑似中間調により2値化された2値画像、固定閾値
により2値化された2値画像、文字画像等)によって、
その変換処理方法が異なっている。従来の内挿方法は図
23に示すような内挿点に最も近い同じ画素値を配列す
る最近接内挿方法、図24に示すような内挿点を囲む4
点(4点の画素値をA,B,C,Dとする)の距離によ
り、以下の演算によって画素値Eを決定する共1次内挿
法等が一般的に用いられている。
2. Description of the Related Art Conventionally, various methods have been proposed as a method of converting the resolution of input low-resolution information into high-resolution information. The proposed conventional method includes a target image type (for example, a multi-valued image having gradation information for each pixel, a binary image binarized by pseudo halftone, a binarized image by a fixed threshold). Binary image, character image, etc.)
The conversion processing method is different. A conventional interpolation method is a closest interpolation method of arranging the same pixel values closest to the interpolation point as shown in FIG. 23, and a method of surrounding the interpolation point as shown in FIG.
In general, a bilinear interpolation method or the like that determines a pixel value E by the following calculation based on the distance between points (the pixel values of four points are A, B, C, and D) is used.

【0003】E=(l−i)(l−j)A+i・(l−
j)B+j・(l−i)C+ijD (但し、画素間距離をlとした場合に、Aから横方向に
i、縦方向にjの距離があるとする。(i≦l、j≦
l))
E = (li) (l-j) A + i. (L-
j) B + j · (li) C + ijD (where, assuming that the distance between pixels is 1, there is a distance of i from A in the horizontal direction and j in the vertical direction. (i ≦ l, j ≦
l))

【0004】[0004]

【発明が解決しようとする課題】しかし、上記従来例に
は、以下に示す欠点がある。
However, the above conventional example has the following disadvantages.

【0005】まず、図23の方法は構成が簡単であると
いう利点はあるが、対象画像を自然画像等に用いた場合
には拡大するブロック毎に画素値が決定される為、視覚
的にブロックが目立ってしまい画質的に劣悪である。
First, the method shown in FIG. 23 has an advantage that the configuration is simple. However, when the target image is used for a natural image or the like, the pixel value is determined for each block to be enlarged. Are conspicuous and the image quality is poor.

【0006】また、文字、線画像、CG(コンピュータ
グラフィック)画像等に用いた場合でも、拡大するブロ
ック毎に同一画素値が連続する為、特に、斜線等には、
ジャギーといわれるギザギザの目立った劣悪な画像にな
ってしまう。ジャギーの発生の様子を図25(a),
(b)に示す。図25(a)は入力情報、図25(b)
が図23の方法により縦横ともに2倍の画素数にした解
像度変換の例である。一般に倍率が大きくなればなるほ
ど、画質劣化は大きくなる。(図中の“200”、“1
0”は画素値である。)
Even when used for characters, line images, CG (computer graphic) images, etc., the same pixel value continues for each block to be enlarged.
The image becomes jaggy and jagged. The appearance of jaggies is shown in FIG.
(B). FIG. 25A shows input information, and FIG.
23 shows an example of resolution conversion in which the number of pixels is doubled both vertically and horizontally by the method of FIG. Generally, the higher the magnification, the greater the image quality degradation. (“200”, “1”
"0" is a pixel value.)

【0007】図24の方法は自然画像の拡大には一般的
に良く用いられている方法である。この方法では、平均
化され、スムージングのかかった画質になるが、エッジ
部や、シャープな画質が要求される部分には、ぼけた画
質になってしまう。さらに、地図等をスキャンした画像
や、文字部を含む自然画像の様な場合には、補間による
ぼけの為に、たいせつな情報が受け手に伝わらないこと
もある。
[0007] The method shown in FIG. 24 is a method which is generally used for enlarging a natural image. With this method, the image quality is averaged and smoothed, but blurred image quality occurs at an edge portion or a portion where sharp image quality is required. Furthermore, in the case of an image obtained by scanning a map or the like or a natural image including a character portion, important information may not be transmitted to a recipient because of blurring due to interpolation.

【0008】図25(c)は図24の方法により、図2
5(a)の入力画像情報を縦横2倍ずつに補間処理をし
た画像情報を示している。
FIG. 25 (c) shows the result of FIG.
5A shows image information obtained by interpolating the input image information of FIG. 5A twice vertically and horizontally.

【0009】図25(c)からも明らかな様に、斜線周
辺のみならず、斜線そのものも画素値が均一にならず、
ぼけが生じてしまう。
As is clear from FIG. 25 (c), the pixel value is not uniform not only in the vicinity of the oblique line but also in the oblique line itself.
Blur will occur.

【0010】そこで、以前から、より高画質に解像度変
換する技術が多々提案されている。例えば、USP52
80546では、補間ボケを取り除く為に自然画像と線
画像とを分離して、自然画像は線形補間を施し、線画像
には線形補間を2値化することによって周辺画素の最大
値、最小値を配置させる補間方法が述べられている。し
かし、この技術では、自然画像では補間ボケが生じ、ま
た線画像に対しても低解像情報の解像性が引きずったま
ま高解像情報を作成しようとしている為に、ジャギーの
発生は避けられない。しかも、線画像も2階調に量子化
している為に、原情報が2階調しか存在していない場合
には良いが、多階調の線画像に対しては、階調数の減少
した画質になってしまうことは避けられない。
Therefore, many techniques for converting the resolution to higher image quality have been proposed. For example, USP52
At 80546, the natural image and the line image are separated to remove the interpolation blur, the natural image is subjected to linear interpolation, and the linear image is binarized to obtain the maximum and minimum values of the peripheral pixels. An interpolation method to be arranged is described. However, with this technique, interpolation blur occurs in a natural image, and even in a line image, jaggies are avoided because the high resolution information is created while the resolution of the low resolution information is trailing. I can't. In addition, since the line image is also quantized into two gradations, it is good if the original information has only two gradations, but the number of gradations is reduced for a multi-gradation line image. Image quality is inevitable.

【0011】USP5430811では、LUTを用い
た非線形補間の技術を示している。しかし、この技術で
は、アルゴリズム自体が2倍×2倍の拡大率にしか対応
せず、他の倍率に拡大する為には、この処理の繰り返し
処理、もしくは他の拡大処理との併用が必要であり処理
が複雑になる。しかも、繰り返し処理において2のべき
乗の拡大率を実現したとしても、最終的な拡大率におい
て高解像情報の各画素に所望な非線形性を持たせるよう
な制御をすることは、繰り返し処理の構成上、容易なこ
とではない。また、この技術では、観測画素(原情報)
の画素値を変更しない為に、USP5280546同
様、ジャギーの発生は避けられない。
US Pat. No. 5,430,811 shows a technique for nonlinear interpolation using an LUT. However, in this technique, the algorithm itself only supports a magnification of 2 × 2 times, and in order to enlarge to another magnification, it is necessary to repeat this processing or use it together with another enlargement processing. Yes, processing becomes complicated. Moreover, even if a power-of-two magnification is realized in the repetition processing, it is necessary to control each pixel of the high-resolution information to have a desired nonlinearity at the final magnification ratio. Above, it is not easy. In addition, in this technology, observation pixels (original information)
, The occurrence of jaggies is inevitable as in US Pat. No. 5,280,546.

【0012】また、USP5054100にも非線形補
間が示されている。しかし、この技術では、縦方向、及
び横方向にエッジの有する単純な補間ボケには有効であ
るが、少しでも複雑な画像情報になると、効果を得るこ
とができない。先の2つの従来例同様、ジャギーの発生
は避けられない。
US Pat. No. 5,054,100 also discloses non-linear interpolation. However, this technique is effective for simple interpolation blur having edges in the vertical direction and the horizontal direction, but cannot achieve the effect when the image information becomes a little complicated. As in the above two conventional examples, the occurrence of jaggies is inevitable.

【0013】また、古くからディザ法や誤差拡散法等の
疑似階調処理の施した2値画像の解像度変換に注目画素
近辺にデジタルフィルタを通し、多値画像に変換した後
に、線形補間、再2値化を施し、良好な解像度変換を実
現する技術が知られている。(USP4803558,
特公昭61−56665号公報等)。これらの技術を応
用し、原画像が多値画像の場合に良好な解像度変換処理
をする提案のあるが、エッジを作成する方式に、2値化
等の量子化技術を用いている限り、画素値の空間的な連
続性を持たせた良好な多値画像形成は困難である。
[0013] Also, for a long time, resolution conversion of a binary image subjected to pseudo gradation processing such as a dither method or an error diffusion method is performed by passing a digital filter around a pixel of interest through a digital filter, converting the image into a multi-valued image, and then performing linear interpolation and re-processing. There is known a technique of performing binarization and achieving good resolution conversion. (USP 4803558,
JP-B-61-56665, etc.). There is a proposal to apply these techniques and perform a good resolution conversion process when the original image is a multi-valued image. It is difficult to form a good multivalued image with spatial continuity of values.

【0014】本発明は上述した従来技術の欠点を除去す
るものであり、入力した低解像情報から高解像情報に変
換する際に、自然画像では特に問題となっていた補間に
よるぼけを生じることなく、また、入力した原情報の低
解像性に依存せず、ジャギーの全く発生しない画質的に
良好な変換処理が実現でき更に、高解像情報の作成時
に、従来の閾値処理による処理の分断がない為、自然画
像においても、連続性のある自然で鮮明な画像を作成す
ることが極めて容易にできる画像処理装置及び方法の提
供を目的とする。
The present invention eliminates the above-mentioned drawbacks of the prior art. When converting input low-resolution information to high-resolution information, blurring due to interpolation, which has been a particular problem in natural images, occurs. Without the need to rely on the low resolution of the input original information, and realizes good image quality conversion processing without any jaggies. Therefore, an object of the present invention is to provide an image processing apparatus and method that can very easily create a natural and clear image with continuity even in a natural image.

【0015】又、本発明はカラー画像においても色毎の
ズレが生じない良好な高解像カラー画像を容易に作成す
ることができる画像処理装置及び方法の提供を目的とす
る。
It is another object of the present invention to provide an image processing apparatus and method capable of easily producing a good high-resolution color image in which there is no deviation for each color even in a color image.

【0016】[0016]

【課題を解決するための手段】上述した目的を達成する
べく、本発明は低解像情報を高解像情報に変換し、入力
した画像情報の画素数を増加させる画像処理装置であっ
て、低解像の注目画素及びその周辺画素の値を参照する
ために第1のウインドウを設定する第1のウインドウ設
定手段と、前記第1のウインドウ内から複数の代表値を
検出する検出手段と、注目画素及びその周辺画素の値に
対し、画素の値に応じた高周波成分を除去する変換処理
を行なう変換手段と、前記変換手段からの注目画素及び
その周辺画素の変換値を参照するために第2のウインド
ウを設定する第2のウインドウ設定手段と、前記第1の
ウインドウ内の画素値情報、もしくは、第2のウインド
ウ内の変換値情報にたいして線形補間する線形補間手段
と、前記線形補間手段からの線形補間値と前記代表値と
の積和演算をすることにより非線形補間する非線形補間
手段とを備える。
In order to achieve the above object, the present invention is an image processing apparatus for converting low resolution information into high resolution information and increasing the number of pixels of input image information. First window setting means for setting a first window to refer to the value of a low-resolution pixel of interest and its surrounding pixels; detecting means for detecting a plurality of representative values from within the first window; A conversion unit for performing a conversion process for removing a high-frequency component corresponding to the pixel value from the value of the target pixel and its surrounding pixels; and a conversion unit for referring to the conversion values of the target pixel and its surrounding pixels from the conversion unit. Second window setting means for setting a second window, linear interpolation means for performing a linear interpolation on pixel value information in the first window or conversion value information in a second window, and the linear interpolation And a non-linear interpolation means for linear interpolation by a product-sum operation of the representative values and the linear interpolated value from the stage.

【0017】又、本発明は、カラーの低解像情報を高解
像情報に変換し、入力した画像情報の画素数を増加させ
る画像処理装置であって、各色成分毎に低解像の注目画
素及びその周辺画素の値を参照するために第1のウイン
ドウを設定する第1のウインドウ設定手段と、各色成分
毎に第1のウインドウ内から複数の代表値を検出する検
出手段と、複数の色成分の第1のウインドウ内の情報を
基に、各色成分毎に注目画素及びその周辺画素の値に対
し、画素の値に応じた高周波成分を除去する変換処理を
行なう変換手段と、各色成分毎に前記変換手段からの注
目画素及びその周辺画素の変換値を参照するために第2
のウインドウを設定する第2のウインドウ設定手段と、
各色成分毎に、前記第1のウインドウ内の画素値情報、
もしくは、第2のウインドウ内の変換値情報にたいして
線形補間する線形補間手段と、各色成分毎に、前記線形
補間手段からの線形補間値と前記代表値との積和演算を
することにより非線形補間する非線形補間手段とを備え
る。
The present invention also provides an image processing apparatus for converting color low-resolution information into high-resolution information and increasing the number of pixels of input image information. First window setting means for setting a first window to refer to the value of a pixel and its surrounding pixels; detecting means for detecting a plurality of representative values from within the first window for each color component; A conversion unit for performing a conversion process for removing a high-frequency component corresponding to a pixel value from a value of a target pixel and its surrounding pixels for each color component based on information in the first window of the color component; In order to refer to the conversion value of the pixel of interest and its surrounding pixels from the conversion unit
Second window setting means for setting a window of
Pixel value information in the first window for each color component;
Alternatively, the linear interpolation means linearly interpolates the converted value information in the second window, and for each color component, non-linear interpolation is performed by performing a product-sum operation of the linear interpolation value from the linear interpolation means and the representative value. And non-linear interpolation means.

【0018】又、本発明は、低解像情報を高解像情報に
変換し、入力した画像情報の画素数を増加させる画像処
理方法であって、低解像の注目画素及びその周辺画素の
値を参照するために第1のウインドウを設定する第1の
ウインドウ設定工程と、前記第1のウインドウ内から複
数の代表値を検出する検出工程と、注目画素及びその周
辺画素の値に対し、画素の値に応じた高周波成分を除去
する変換処理を行なう変換工程と、前記変換工程からの
注目画素及びその周辺画素の変換値を参照するために第
2のウインドウを設定する第2のウインドウ設定工程
と、前記第1のウインドウ内の画素値情報、もしくは、
第2のウインドウ内の変換値情報にたいして線形補間す
る線形補間工程と、前記線形補間工程からの線形補間値
と前記代表値との積和演算をすることにより非線形補間
する非線形補間工程とからなる。又、本発明は、カラー
の低解像情報を高解像情報に変換し、入力した画像情報
の画素数を増加させる画像処理方法であって、各色成分
毎に低解像の注目画素及びその周辺画素の値を参照する
ために第1のウインドウを設定する第1のウインドウ設
定工程と、各色成分毎に第1のウインドウ内から複数の
代表値を検出する検出工程と、複数の色成分の第1のウ
インドウ内の情報を基に、各色成分毎に注目画素及びそ
の周辺画素の値に対し、画素の値に応じた高周波成分を
除去する変換処理を行なう変換工程と、各色成分毎に前
記変換工程からの注目画素及びその周辺画素の変換値を
参照するために第2のウインドウを設定する第2のウイ
ンドウ設定工程と、各色成分毎に、前記第1のウインド
ウ内の画素値情報、もしくは、第2のウインドウ内の変
換値情報にたいして線形補間する線形補間工程と、各色
成分毎に、前記線形補間工程からの線形補間値と前記代
表値との積和演算をすることにより非線形補間する非線
形補間工程とを有する。
Also, the present invention is an image processing method for converting low resolution information into high resolution information and increasing the number of pixels of input image information. A first window setting step of setting a first window to refer to a value, a detecting step of detecting a plurality of representative values from within the first window, and a step of: A conversion step of performing a conversion process for removing a high-frequency component corresponding to the value of a pixel; and a second window setting for setting a second window to refer to the conversion value of the pixel of interest and its surrounding pixels from the conversion step And step, pixel value information in the first window, or
It comprises a linear interpolation step for performing linear interpolation on the conversion value information in the second window, and a non-linear interpolation step for performing non-linear interpolation by performing a product-sum operation of the linear interpolation value from the linear interpolation step and the representative value. The present invention also provides an image processing method for converting color low-resolution information into high-resolution information and increasing the number of pixels of input image information. A first window setting step of setting a first window to refer to values of peripheral pixels; a detecting step of detecting a plurality of representative values from within the first window for each color component; A conversion step of performing, on the basis of information in the first window, a conversion process for removing a high-frequency component corresponding to a pixel value from the value of a target pixel and its surrounding pixels for each color component; A second window setting step of setting a second window to refer to the conversion value of the target pixel and its surrounding pixels from the conversion step, and, for each color component, pixel value information in the first window, or In the second window A linear interpolation process of linear interpolation with respect to conversion value information, for each color component, and a non-linear interpolation process of nonlinear interpolation by a product-sum operation of the linear interpolation value and the representative value from the linear interpolation process.

【0019】[0019]

【発明の実施の形態】図1は本発明にかかる第1の実施
の形態の画像処理装置のブロック図である。本発明の画
像処理装置は、主としてコンピュータの接続されるプリ
ンタや、ビデオ信号を入力するビデオプリンタ等の画像
出力装置内部に具備することが効率的であるが、画像出
力装置以外の画像処理装置、ホストコンピュータ内のア
プリケーションソフト、また、プリンタに出力する為の
プリンタドライバソフトとして内蔵することも可能であ
る。
FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention. The image processing apparatus of the present invention is efficiently installed mainly in an image output device such as a printer to which a computer is connected or a video printer for inputting a video signal. It can also be incorporated as application software in the host computer or printer driver software for outputting to a printer.

【0020】図1のブロック図に沿って本実施の形態の
動作手順を説明していく。本実施の形態では、入力した
画像情報を縦N倍、横M倍の画素数の情報に変換する例
について述べる。
The operation procedure of this embodiment will be described with reference to the block diagram of FIG. In the present embodiment, an example will be described in which input image information is converted into information having N times the number of pixels and M times the number of pixels.

【0021】図中100は入力端子を示し、低解像のn
bit/画素(n>1)の画像情報が入力される。この
低解像情報は、ラインバッファ101により、数ライン
分格納、保持される。この数ライン分の画像情報によ
り、注目画素を含む複数の周辺画素によるウインドウが
設定される(第1のウインドウ形成部102)。ウイン
ドウは注目画素を中心とした矩形が一般的であるが、当
然矩形以外も考えられる。今、図2に示すようにウイン
ドウサイズを5画素×5画素の矩形を想定する。注目画
素は図中のMになる。
In the figure, reference numeral 100 denotes an input terminal.
Image information of bits / pixel (n> 1) is input. This low-resolution information is stored and held for several lines by the line buffer 101. A window of a plurality of peripheral pixels including the target pixel is set based on the image information of the several lines (first window forming unit 102). The window is generally a rectangle centered on the pixel of interest, but naturally a window other than a rectangle is also conceivable. Now, assume that the window size is a rectangle of 5 pixels × 5 pixels as shown in FIG. The pixel of interest is M in the figure.

【0022】103は最大値最小値検出部を示し、第1
のウインドウ内の25画素内の最大値(MAX5とす
る)と最小値(MIN5とする)、また、注目画素を中
心とする3×3画素内での最大値(MAX3とする)と
最小値(MIN3とする)を検出する。
Reference numeral 103 denotes a maximum value / minimum value detection unit,
The maximum value (MAX5) and the minimum value (MIN5) in 25 pixels in the window of, and the maximum value (MAX3) and the minimum value (MAX3) in 3 × 3 pixels centering on the target pixel MIN3).

【0023】104は、ウインドウ内の画像情報から、
画素値の分布状態を評価して、注目画素がいかなる種類
の画像であるのかを判定する分類部である。本実施の形
態では、注目画素が自然画像の特性を示すのか、また
は、CG(コンピュータグラフィック)の様な画像の特
性を示すのか、はたまた、予め1bit〜数bitの疑
似階調処理が施された画像の特性を示すのか等、複数種
の画像属性を判断して分類する。分類方法については後
述する。
Reference numeral 104 denotes an image based on the image information in the window.
A classification unit that evaluates the distribution state of pixel values and determines what kind of image the target pixel is. In the present embodiment, whether the pixel of interest exhibits the characteristics of a natural image or the characteristics of an image such as CG (computer graphics), or pseudo-grayscale processing of 1 bit to several bits is performed in advance. A plurality of types of image attributes, such as whether the characteristics of the obtained image are shown, are determined and classified. The classification method will be described later.

【0024】105は変換部を示し、フィルタリングに
より注目画素の画素値を変換する手段である。この変換
部105はLPF(ローパスフィルタ)の特性を持た
せ、入力解像度に依存した高周波成分を除去する役割を
持たせる。図3に代表的な平滑化のフィルタを示す。当
然、このフィルタを全画素に掛けてしまうと、角部や、
細線等の重要な高周波成分までも除去してしまうことに
なる。その為、適応的にフィルタを切り替える必要があ
る。本実施の形態では、積和演算の回数を軽減して処理
速度を速める為に、簡易的な演算にして変換値の算出を
高速化している。この変換部105についても後述す
る。
Reference numeral 105 denotes a conversion unit which converts the pixel value of the target pixel by filtering. The conversion unit 105 has a characteristic of an LPF (low-pass filter) and has a role of removing a high-frequency component depending on an input resolution. FIG. 3 shows a typical smoothing filter. Naturally, if this filter is applied to all pixels, corners,
Even important high-frequency components such as fine lines are removed. Therefore, it is necessary to switch the filters adaptively. In this embodiment, in order to reduce the number of product-sum operations and increase the processing speed, the calculation of the conversion value is speeded up by a simple operation. The conversion unit 105 will also be described later.

【0025】106は、第2のウインドウ形成部を示
し、102のウインドウ形成部とは別に、今度は、変換
値後の画素値に対して、ウインドウを設定する手段であ
る。106のウインドウサイズは注目画素であるMの画
素位置を中心とした3×3画素を想定する(図4)。
Reference numeral 106 denotes a second window forming unit, which is means for setting a window for the pixel value after the conversion value, separately from the window forming unit 102. The window size of 106 is assumed to be 3 × 3 pixels centered on the pixel position of the pixel of interest M (FIG. 4).

【0026】図4において、G′,H′,I′,L′,
M′,N′,Q′,R′,S′はそれぞれG,H,I,
L,M,N,Q,R,Sの変換値を示している。注目画
素であるM′以外のG′,H′,I′,L′,N′,
Q′,R′,S′を算出する為には、最低5画素×5画
素の第1のウインドウ(図2)が必要になる。但し、注
目画素Mの処理が完結し、次の注目画素であるNの位置
に移動した場合には、Mの処理に作成した変換値を記憶
しておくことで、H′,I′,M′,N′,R′,S′
の値を再利用することが可能になる。同様に、既に処理
が完結しているIが注目画素時にJ′,O′の値を算出
している為、その変換値を記憶させておけば、Nが注目
画素時に新たに算出する変換値は、Tの画素位置の変換
値T′のみで済むことになり、非常に効率的である。
In FIG. 4, G ', H', I ', L',
M ', N', Q ', R', S 'are G, H, I,
The conversion values of L, M, N, Q, R, and S are shown. G ', H', I ', L', N ', other than the target pixel M'
To calculate Q ', R', and S ', a first window of at least 5 pixels x 5 pixels (Fig. 2) is required. However, when the processing of the target pixel M is completed and the target pixel is moved to the position of N which is the next target pixel, the conversion values created in the processing of M are stored, so that H ′, I ′, M ', N', R ', S'
Can be reused. Similarly, since I, which has already been processed, calculates the values of J 'and O' at the time of the pixel of interest, if the converted values are stored, N is the conversion value to be newly calculated at the time of the pixel of interest. Is very efficient because only the converted value T 'at the pixel position of T is required.

【0027】107は、高解像情報作成部を示し、原情
報のウインドウ内の情報(第1のウインドウ情報)、及
び、変換値のウインドウ内の情報(第2のウインドウ情
報)、及び、第1のウインドウ内の最大値、最小値情
報、及び、注目画素の分類結果に基づいて、注目画素に
対応するN画素×M画素の画像情報を作成する。作成部
107についても後述する。作成された画像情報出力端
子108にてプリンタエンジン等に出力される。
Reference numeral 107 denotes a high-resolution information creating unit, which includes information in the window of the original information (first window information), information in the window of the converted value (second window information), and Image information of N pixels × M pixels corresponding to the pixel of interest is created based on the maximum value and minimum value information in one window and the classification result of the pixel of interest. The creation unit 107 will also be described later. The created image information output terminal 108 outputs the image information to a printer engine or the like.

【0028】次に、分類手段104についての詳細を説
明する。図5、図6は、分類部の処理を説明するための
フローチャートである。いま、102で作成した第1の
ウインドウのうち、3画素×3画素のみを分類の判定に
使用するものとする。S502では、MAX3とMIN
3が同一か否かを判断する。これは、同一であれば、3
×3画素のウインドウ内は1階調しか存在しないものと
判断することが可能である。すなわち、YESの場合に
は、S503にてFLAG=ONE_LEVELと分類
される。NOの場合には、複数階調存在しているものと
して、S504にてMAX3とMIN3の差分が予め設
定している閾値(th1)よりも大きいか否かを判断す
る。閾値よりも小さい場合には、S505にて平坦部と
判断してFLAG=FLATと分類される。閾値よりも
大きい場合には、S506にてMAX3とMIN3の平
均値AVEを算出する。MAX3、MIN3、AVEの
3つの値が算出された後は、S507にて再び3画素×
3画素のウインドウ内をスキャンして、以下の5種の分
布状態評価パラメータを算出する。
Next, the details of the classification means 104 will be described. FIGS. 5 and 6 are flowcharts for explaining the processing of the classification unit. Now, it is assumed that only 3 pixels × 3 pixels in the first window created in 102 are used for classification determination. In S502, MAX3 and MIN
It is determined whether 3 is the same. This is 3 if identical
It is possible to determine that only one gradation exists in the window of × 3 pixels. That is, in the case of YES, in S503, FLAG = ONE_LEVEL is classified. In the case of NO, it is determined that a plurality of gradations exist, and in S504, it is determined whether or not the difference between MAX3 and MIN3 is larger than a preset threshold (th1). If it is smaller than the threshold value, it is determined in S505 that the portion is a flat portion, and FLAG = FLAT. If it is larger than the threshold value, an average value AVE of MAX3 and MIN3 is calculated in S506. After the three values of MAX3, MIN3, and AVE are calculated, 3 pixels ×
The following five distribution state evaluation parameters are calculated by scanning the window of three pixels.

【0029】LEVEL_NO MAX_diff_min MAX_diff_max MIN_diff_min MIN_diff_maxLEVEL_NO MAX_diff_min MAX_diff_max MIN_diff_min MIN_diff_max

【0030】LEVEL_NOはウインドウ内の階調数
を表すパラメータであるが、正確な階調数の情報は必要
ない。ウインドウ内の画素値のヒストグラムの作成が処
理時間がかかる等の問題で困難であれば、階調数が2階
調(MAX3とMIN3のみ)である(LEVEL_N
O=0)のか、3階調以上である(LEVEL_NO=
1)のかだけが判断できれば良い。
LEVEL_NO is a parameter indicating the number of gradations in the window, but does not require accurate information on the number of gradations. If it is difficult to create a histogram of pixel values in the window due to a problem such as a long processing time, the number of gradations is two (MAX3 and MIN3 only) (LEVEL_N
O = 0) or three or more gradations (LEVEL_NO =
It suffices if only 1) can be determined.

【0031】MAX_diff_minはAVE以上か
つ、MAX3以外かつMAX3に最も近い値(Aとお
く)とMAX3までの差を表している。同様にMAX_
diff_maxは、AVE以上かつ、MAX3以外か
つ、MAX3に最も遠い値(Bとおく)とMAX3まで
の差を表している。ともに、AVE以上でMAX3以外
の値が存在しない場合には、MAX_diff_min
=MAX_diff_max=0に設定する等、後の判
定時に識別ができれば良い。
MAX_diff_min represents a difference between a value not less than AVE, a value other than MAX3 and closest to MAX3 (A), and MAX3. MAX_
diff_max represents a difference between a value equal to or larger than AVE, other than MAX3, and farthest from MAX3 (B) and MAX3. In both cases, when there is no value other than MAX3 at AVE or more, MAX_diff_min
= MAX_diff_max = 0, for example, as long as it can be identified at the time of subsequent determination.

【0032】MIN_diff_maxは、AVE未満
かつ、MIN3以外かつ、MIN3に最も近い値(Cと
おく)とMIN3までの差を表している。同様に、MI
N_diff_maxは、AVE未満かつMIN3以外
かつMIN3に最も遠い値(Dとおく)とMIN3まで
の差を表している。ともに、AVE未満でMIN3以外
の値が存在しない場合には、MIN_diff_min
=MIN_diff_max=0に設定する等、後の判
定時に識別ができれば良い。
MIN_diff_max represents the difference between MIN3 and a value less than AVE, other than MIN3, and closest to MIN3 (referred to as C). Similarly, MI
N_diff_max represents a difference between a value less than AVE, other than MIN3, farthest from MIN3 (let's be D), and MIN3. If both values are less than AVE and no value other than MIN3 exists, MIN_diff_min
= MIN_diff_max = 0, for example, as long as it can be identified in the subsequent determination.

【0033】さて、以上の5種の値を基に、ウインドウ
内の画像の特性を調べて属性を分類する。
Now, based on the above five values, the characteristics of the image in the window are examined to classify the attributes.

【0034】図6のS508は、LEVEL_NOが0
か否か、すなわち、ウインドウ内が2階調なのか、3階
調以上なのかを判定する。YESの場合には、2階調の
みのエッジ部であるとしてS509にてFLAG=BI
_EDGEと分類する。続いてS510では以下の評価
がなされる。(評価1) diff=CONT−(MAX_diff_max+M
IN_diff_max) 1.diff>th2 AND MAX_diff_m
ax<th3 ANDMIN_diff_max<th
3 2.diff>th4 AND MAX_diff_m
in>th5 ANDMIN_diff_min>th
5 1OR2であるか否か。(th2,th3,th4,th5は予め設定している 閾値)…(1)
In S508 of FIG. 6, LEVEL_NO is 0.
It is determined whether or not the window has two tones or three or more tones. In the case of YES, it is determined that the edge is an edge portion of only two gradations, and FLAG = BI in S509.
_EDGE. Subsequently, the following evaluation is performed in S510. (Evaluation 1) diff = CONT− (MAX_diff_max + M
IN_diff_max) 1. diff> th2 AND MAX_diff_m
ax <th3 ANDMIN_diff_max <th
3 2. diff> th4 AND MAX_diff_m
in> th5 ANDMIN_diff_min> th
5. Whether or not it is 1OR2. (Th2, th3, th4, and th5 are preset threshold values) (1)

【0035】S510で、YESとなった場合には、人
工的に作成されたエッジの特性を示したとして、S51
1にてFLAG=ART_EDGEと分類する。
If the result of S510 is "YES", it is determined that the characteristic of the artificially created edge has been shown, and the process proceeds to S51.
At 1, FLAG = ART_EDGE.

【0036】NOの場合にはS512にて、以下の評価
を施す。(評価2) MAX_diff_min>th6 AND MIN_
diff_min>th6 (th6は予め設定した閾値)…(2) (ただし、th2>th4>th6が好ましい) もしYESである場合には、予め疑似階調処理の施され
た画像情報である可能性がある為に、S513にてFL
AG=INDEX_EDGEの分類を施し、NOの場合
には自然画像のエッジ部の特性に近い為、S514にて
FLAG=PICT_EDGEとする。(1)、(2)
の評価はウインドウ内の画素値の離散的状態を評価して
いる。
In the case of NO, the following evaluation is performed in S512. (Evaluation 2) MAX_diff_min> th6 AND MIN_
diff_min> th6 (th6 is a predetermined threshold) (2) (th2>th4> th6 is preferable) If YES, there is a possibility that the image information has been subjected to pseudo tone processing in advance. Because there is, FL in S513
AG = INDEX_EDGE is applied, and in the case of NO, FLAG = PICT_EDGE is set in S514 because the characteristics are close to the characteristics of the edge portion of the natural image. (1), (2)
Evaluates the discrete state of the pixel values in the window.

【0037】評価1は、画素値がMAX3近辺やMIN
3近辺に偏っていて存在し、中間部分の画素値が存在し
ない、いわゆる“中抜け”的な分布((1)の1)や、
また、MAX3からMIN3にかけて全体的に均等に量
子化されたような離散的な分布((1)の2)を示して
いる為、人工的に作成している画像と判断している。
Evaluation 1 is that the pixel value is around MAX3 or MIN
3 which is biased around 3 and has no pixel value in the middle, that is, a so-called “hollow” distribution (1 in (1)),
In addition, since it shows a discrete distribution (2 of (1)) that is quantized uniformly as a whole from MAX3 to MIN3, it is determined that the image is artificially created.

【0038】評価2は、評価1ほどの顕著な人工性は見
られないものの、MAX3近辺、MIN3近辺の値が共
に連続的というよりは離散的な“歯抜け”的な分布を示
している為、元来は自然画像であっても、本実施例の画
像処理装置入力以前に、伝送経路の圧縮等の為により予
め数bitに量子化された画像情報であると判断してい
る。昨今、急速に普及しているインターネット上では、
人工的画像、自然画像の区別を問わず、数bitの疑似
階調の画像情報が流通していることが多い。イメージス
キャナ、デジタルカメラ等の階調性が豊かなキャプチャ
ー手段から入力した写真等の自然画像のエッジ部では、
入力時のMTFの鈍り等により、上記の様な大なり小な
りの離散的傾向を示す分布にはなりづらく、分布の一部
には必ず連続性が見いだされるものである。
Evaluation 2 does not show remarkable artificialness like Evaluation 1, but the values near MAX3 and MIN3 both show a discrete "missing" distribution rather than a continuous value. Even if the image is originally a natural image, it is determined that the image information is quantized to several bits in advance for compression of a transmission path or the like before input to the image processing apparatus of the present embodiment. Recently, on the Internet that is rapidly spreading,
Regardless of the distinction between an artificial image and a natural image, image information of several bits of pseudo gradation is often distributed. At the edge of a natural image such as a photograph input from a capture means with a rich gradation such as an image scanner or digital camera,
Due to the dulling of the MTF at the time of input or the like, it is difficult for the distribution to show the above-mentioned discrete tendency, and continuity is always found in a part of the distribution.

【0039】以上が、分類手段の一例である。本実施例
の分類手段では、ONE_LEVEL,FLAT,BI
_EDGE,ART_EDGE,INDEX_EDG
E,PICT_EDGEという6種類の分類を施してい
る。当然、これ以上の分類でも、これ以下の分類でも構
わない。
The above is an example of the classification means. In the classification means of this embodiment, ONE_LEVEL, FLAT, BI
_EDGE, ART_EDGE, INDEX_EDG
E and PICT_EDGE are classified into six types. Naturally, the classification may be higher or lower.

【0040】また、3×3画素内ではなく、5×5画素
の情報を用いても良いし、MAX5,MIN5の情報を
MAX3,MIN3の情報と併用して評価に用いても良
い。当然、評価パラメータもこれ以上でも以下でも良
い。
Information of 5 × 5 pixels instead of 3 × 3 pixels may be used, or information of MAX5 and MIN5 may be used together with information of MAX3 and MIN3 for evaluation. Of course, the evaluation parameter may be more or less than this.

【0041】続いて、変換値算出について詳細を説明す
る。図7は、変換部105の一例を示す。前述したよう
に、変換部105では、入力解像度の解像度依存性を除
去するLPFの目的である為、構成するシステムによっ
ては、適応的なデジタルフィルタリングでも構わない。
破線により囲んである部分が変換部を示している。
Next, details of the conversion value calculation will be described. FIG. 7 illustrates an example of the conversion unit 105. As described above, the conversion unit 105 is an LPF for removing the resolution dependency of the input resolution, so that adaptive digital filtering may be used depending on the system to be configured.
A portion surrounded by a broken line indicates a conversion unit.

【0042】図中602は、量子化部であり、ウインド
ウ内の各画素をMAX3,MIN3の値を基に量子化す
る手段である。本実施の形態では、以下の様にAVEを
閾値として設定して、ウインドウ内を単純2値化するも
のとする。 AVE=(MAX3+MIN3)/2…(3) 当然、AVEの算出は、前述した分類部104で用いる
ものと共通化することができる。
In the figure, reference numeral 602 denotes a quantization unit which quantizes each pixel in the window based on the values of MAX3 and MIN3. In this embodiment, it is assumed that AVE is set as a threshold value as described below, and the window is simply binarized. AVE = (MAX3 + MIN3) / 2 (3) Naturally, the calculation of AVE can be shared with that used in the classification unit 104 described above.

【0043】603はLUT(ルックアップテーブル)
を示し、量子化されたウインドウ内の情報を入力して、
テーブルに格納されている値を出力する。テーブルに
は、量子化パターンに対するMAX3とMIN3との相
対的な配分比率が格納されていて、その配分比率を基に
線形変換部604にて積和演算により線形変換する。線
形変換された値が交換値(F(p,q)とする)として
出力される。
Reference numeral 603 denotes an LUT (lookup table)
And enter the information in the quantized window,
Output the value stored in the table. The table stores the relative distribution ratio between MAX3 and MIN3 with respect to the quantization pattern. Based on the distribution ratio, the linear conversion unit 604 performs a linear conversion by a product-sum operation. The linearly converted value is output as an exchange value (referred to as F (p, q)).

【0044】図8は線形変換部604の内部構成を示し
た図である。破線で囲んでいるブロックが線形変換部6
04を示している。いま、入力信号がnビットの深さ情
報を有している例について説明する。線形変換部に入力
される情報は、MAX3,MIN3、及び、LUTから
の出力値αの3種類の値である。αのビット長はmビッ
トとする。αは、乗算器701により、MAX3との積
が演算され、また、乗算器702により、(2^m−
α)とMIN3との積が演算される(2^mは2のm乗
を意味する)。各々の演算結果を加算器703において
加算し、加算結果を704においてビットシフト処理を
行う。このビットシフト処理は乗算により(n×m)ビ
ットになったビット長をnビット信号に戻す為のもので
あり、mビット分シフトする。mの値はシステム構成に
適する値を実験的に設定するのが好ましい。
FIG. 8 is a diagram showing the internal configuration of the linear conversion unit 604. Blocks surrounded by broken lines are linear conversion units 6
04 is shown. Now, an example in which the input signal has n-bit depth information will be described. Information input to the linear conversion unit is three types of values, MAX3, MIN3, and an output value α from the LUT. The bit length of α is m bits. is multiplied by MAX3 by multiplier 701, and (2 (m−
The product of α) and MIN3 is calculated (2 ^ m means 2 to the power of m). Each operation result is added in an adder 703, and the addition result is subjected to a bit shift process in 704. This bit shift processing is for returning the bit length of (n × m) bits by multiplication to an n-bit signal, and shifts by m bits. Preferably, the value of m is experimentally set to a value suitable for the system configuration.

【0045】ただし、αのビット長がmビットの場合、
αのとりうる値は0から(2^m−1)になる為、図8
の構成ではMAX3の乗算係数は0〜(2^m−1)、
MIN3の乗算係数は1〜(2^m)になってしまう。
双方とも0〜(2^m)の乗算係数にする場合には、α
のビット長を1ビット増加する構成にするか、もしく
は、係数の割り当てを多少変化させて、0〜(2^m)
までの(2^m+1)通りの中から、使用可能な(2^
m)通り分をを選択するようにしても良い。いずれにし
ても、704ビットシフト処理において、入力のMAX
3,MIN3のビット長であるnビットに等しくさせる
のは当然である。
However, if the bit length of α is m bits,
Since the possible value of α changes from 0 to (2 ^ m−1), FIG.
, The multiplication coefficient of MAX3 is 0 to (20〜m−1),
The multiplication coefficient of MIN3 is 1 to (2 ^ m).
If both are to be multiplication coefficients of 0 to (2 ^ m), α
Is increased by 1 bit, or the coefficient assignment is slightly changed, and 0 to (2 ^ m)
(2 ^ m + 1) available from (2 ^ m + 1)
m) It is also possible to select the number of streets. In any case, in the 704-bit shift processing, the input MAX
3, it is natural that the bit length of MIN3 is equal to n bits.

【0046】すなわち、線形変換部604は、正規化し
てαを0から1までの係数として考えると、変換値F
(p,q)は F(p,q)=αMAX3+(1−α)MIN3…(4) となる演算を行う。
That is, when the linear conversion unit 604 normalizes and considers α as a coefficient from 0 to 1, the conversion value F
(P, q) performs an operation of F (p, q) = αMAX3 + (1−α) MIN3 (4).

【0047】次に実際の処理を例にして説明する。Next, the actual processing will be described as an example.

【0048】図9(a)は入力した低解像情報を示して
いる。いま、破線がかこんだ部分が周辺画素を参照する
為の3×3画素によるウインドウであり、実線でかこん
だ中心に位置する画素が注目画素である。ここで、MA
X3=215,MIN3=92であり、(3)式に基づ
いたAVE=153を閾値にして各々単純2値化する。
ウインドウ内の2値化結果を図9(b)に示す。
FIG. 9A shows the input low-resolution information. Now, a portion surrounded by a broken line is a window of 3 × 3 pixels for referring to peripheral pixels, and a pixel located at the center surrounded by a solid line is a target pixel. Where MA
X3 = 215, MIN3 = 92, and AVE = 153 based on the expression (3) is used as a threshold to perform simple binarization.
FIG. 9B shows the binarization result in the window.

【0049】図10にLUTに格納されている係数α
(αは8ビット情報)の一例を示す。αは前述したよう
に、ウインドウ内の9画素分の2値パターンに対する注
目画素のMAX3の乗算係数とする。この乗算係数を基
に、図8の構成に基づいてMAX3,MIN3の線形変
換の積和演算を施す。図9(b)のパターンは図10の
例によると、α=141である為に、 (215* 141+92* 115)/256=160 により、変換値160が算出される。同様に周辺の各画
素を変換した例を図11に示す。1101が原情報、1
102が変換値である。1102から明らかなように、
少ない回数の積和演算でLPFの効果が達成されてい
る。また、LUTを使用することにより、従来の複数種
のフィルタを保有して適応的に切り替えるデジタルフィ
ルタリングよりも自由度が高い。
FIG. 10 shows the coefficient α stored in the LUT.
(Α is 8-bit information). As described above, α is a multiplication coefficient of MAX3 of the target pixel with respect to the binary pattern of nine pixels in the window. Based on the multiplication coefficient, a product-sum operation of linear conversion of MAX3 and MIN3 is performed based on the configuration of FIG. In the pattern of FIG. 9B, since α = 141 in the example of FIG. 10, the conversion value 160 is calculated by (215 * 141 + 92 * 115) / 256 = 160. Similarly, FIG. 11 shows an example in which each peripheral pixel is converted. 1101 is original information, 1
102 is a conversion value. As is evident from 1102,
The effect of the LPF is achieved with a small number of product-sum operations. In addition, the use of the LUT has a higher degree of freedom than the conventional digital filtering that has a plurality of types of filters and adaptively switches.

【0050】続いて、高解像情報作成について詳細を説
明する。
Next, the details of the creation of the high resolution information will be described.

【0051】図12は、高解像情報作成部107の構成
を示している。図中、破線で囲んだ部分が高解像情報作
成部107である。高解像情報作成部107に入力する
信号は、第1のウインドウ形成部からのウインドウ内の
画素値情報、ウインドウ内の最大値最小値情報、第2の
ウインドウ形成部からのウインドウ内の変換値情報、そ
して分類部からの注目画素の画像種の識別情報である。
図12において、1201は0次補間部(従来法の最近
接内挿法と等価)、1202は線形補間部(従来法の共
1次内挿法と等価)、1203、1204は非線形補間
部を示している。1203と1204の相異点は、処理
するウインドウ内の画素値情報が異なっているだけであ
り、構成は同一のものである。1205、1206は係
数設定部であり、分類部により識別された画像種の情報
により非線形補間部で用いられる係数が設定される。非
線形補間部1203、1204は、線形補間部を内蔵し
た以下の演算によって補間値を算出している。 up〔i〕〔j〕=(a MAX3+b inte
r_data〔i〕〔j〕)/(a+b) down〔i〕〔j〕=(a MIN3+b in
ter_data〔i〕〔j〕)/(a+b) mid〔i〕〔j〕=c inter_data
〔i〕〔j〕+d MAX3+d MIN3+e
MAX5+e MIN5 i…0〜N−1 j…0〜M−1 (A)if mid〔i〕〔j〕>=up〔i〕〔j〕
の時 OUT〔i〕〔j〕=up〔i〕〔j〕 (B)if mid〔i〕〔j〕<=down〔i〕
〔j〕の時 OUT〔i〕〔j〕=down〔i〕〔j〕 上記以外の時 OUT〔i〕〔j〕=mid〔i〕〔j〕 a,b,c,d,eは係数inter_data〔i〕
〔j〕は線形補間による内挿点〔i〕〔j〕の補間値 OUT〔i〕〔j〕は非線形補間部からの内挿点〔i〕〔j〕の出力値…(5)
FIG. 12 shows the configuration of the high resolution information creating unit 107. In the figure, a portion surrounded by a broken line is the high-resolution information creation unit 107. The signals input to the high-resolution information creating unit 107 include pixel value information in a window from the first window forming unit, maximum value / minimum value information in the window, and a converted value in a window from the second window forming unit. Information and identification information of the image type of the pixel of interest from the classification unit.
In FIG. 12, reference numeral 1201 denotes a zero-order interpolation unit (equivalent to the nearest neighbor interpolation method of the conventional method); 1202, a linear interpolation unit (equivalent to the co-linear interpolation method of the conventional method); Is shown. The difference between 1203 and 1204 is that only the pixel value information in the window to be processed is different, and the configuration is the same. Reference numerals 1205 and 1206 denote coefficient setting units, which set coefficients used in the non-linear interpolation unit based on information on the image type identified by the classification unit. The non-linear interpolation units 1203 and 1204 calculate an interpolation value by the following operation incorporating a linear interpolation unit. up [i] [j] = (a * MAX3 + b * inte
r_data [i] [j]) / (a + b) down [i] [j] = (a * MIN3 + b * in
ter_data [i] [j]) / (a + b) mid [i] [j] = c * inter_data
[I] [j] + d * MAX3 + d * MIN3 + e *
MAX5 + e * MIN5 i ... 0 to N-1 j ... 0 to M-1 (A) if mid [i] [j]> = up [i] [j]
OUT [i] [j] = up [i] [j] (B) if mid [i] [j] <= down [i]
OUT [i] [j] = down [i] [j] In the case of [j] OUT [i] [j] = mid [i] [j] a, b, c, d, and e are coefficients inter_data [i]
[J] is the interpolation value of the interpolation point [i] [j] by the linear interpolation OUT [i] [j] is the output value of the interpolation point [i] [j] from the nonlinear interpolation unit (5)

【0052】当然、非線形補間部で用いている線形補間
の演算部(inter_data〔i〕〔j〕の算出)
は1202と共通化できることは勿論である。
Naturally, the operation unit of linear interpolation used in the non-linear interpolation unit (calculation of inter_data [i] [j])
Can of course be shared with 1202.

【0053】図13、図14は、前述したup,dow
n,midの各軌跡を、説明を容易にする為に、一次元
においてアナログ的に示した図である。図13は第1の
ウインドウ形成部の画素値情報を用いた例を示し、横軸
は空間的座標、縦方向は濃度を表している。今、注目画
素をqとして、観測画素値は●印で示したI〔q〕にな
る(空間的に前後の画素値をI〔q−1〕,I〔q+
1〕とする)。注目画素を拡大した時の範囲を注目画素
ブロックとしてアナログ的に表示している。up,do
wn,midの3本の軌跡の大小関係により、太線で示
した軌跡がOUTの出力となる。用いている係数は、a
=1,b=1,c=2,d=−1/2,e=0である。
図から明らかな様にエッジ傾斜が急になる非線形補間が
実現できる。
FIGS. 13 and 14 show the above-mentioned up and dow.
FIG. 5 is a diagram showing each locus of n and mid in one dimension in an analog manner for ease of explanation. FIG. 13 shows an example using the pixel value information of the first window forming unit, in which the horizontal axis represents spatial coordinates and the vertical direction represents density. Now, assuming that the target pixel is q, the observed pixel value is I [q] indicated by a black mark (the pixel values before and after spatially are I [q−1] and I [q +
1]). The range when the pixel of interest is enlarged is displayed as a pixel block of interest in an analog manner. up, do
The locus indicated by the bold line is the output of OUT according to the magnitude relationship between the three locuses wn and mid. The coefficient used is a
= 1, b = 1, c = 2, d = − /, e = 0.
As is clear from the figure, nonlinear interpolation in which the edge inclination is steep can be realized.

【0054】図14は第2のウインドウ形成部の変換値
情報を用いた例である。観測画素に加え、○印で示した
点が適応的なLPFを用いた変換後の画素値を示してい
る。但し、説明を容易にする為、図中に第1のウインド
ウによる観測画素をも表し、変換値との相対的位置関係
を示している。第2のウインドウによる高解像作成は第
1のウインドウを用いたものよりもエッジ位置が多少異
なる。このエッジ位置のズレがジャギー軽減の大きな役
割を表している。
FIG. 14 shows an example using the converted value information of the second window forming unit. In addition to the observation pixels, the points indicated by the circles indicate the pixel values after conversion using the adaptive LPF. However, for the sake of simplicity, the observation pixels in the first window are also shown in the figure, and the relative positional relationship with the converted values is shown. The high resolution creation using the second window has a slightly different edge position than the one using the first window. The deviation of the edge position indicates a large role of reducing jaggy.

【0055】図14で用いている係数は、a=3,b=
1,c=4,d=−3/2,e=0である。
The coefficients used in FIG. 14 are a = 3, b =
1, c = 4, d = -3 / 2, and e = 0.

【0056】図13、図14ともに説明を容易にするた
めに、I〔q−1〕をMIN3、I〔q+1〕をMAX
3である例を説明しているが、当然いかなる場合におい
ても本実施の形態では良好な非線形性補間を実現するこ
とができる。また、注目画素ブロック内だけではなく、
注目画素ブロック間での連続性が維持できるように各係
数は設定する必要がある。
13 and 14, I [q-1] is set to MIN3, and I [q + 1] is set to MAX.
Although the example of No. 3 has been described, naturally, in this embodiment, excellent nonlinear interpolation can be realized in any case. Also, not only within the pixel block of interest,
Each coefficient needs to be set so that continuity between the target pixel blocks can be maintained.

【0057】図12において、1207はスイッチを示
し、分類部からの識別信号により1201〜1204の
なかで最適な処理が選択される。
In FIG. 12, reference numeral 1207 denotes a switch, and an optimum process is selected from 1201 to 1204 according to an identification signal from the classification unit.

【0058】図21に分類部による処理の切り替え、係
数の設定を表にして示す。当然、この係数は一例であ
り、分類部に用いた閾値(th0〜th6)等と同様
に、実際に構成するプリンティングシステムに最適な係
数を実験的に求めれば良い。また、処理の切り替えも一
例であり、分類した画像の種類とともに必要な画像種と
それ伴う切り替えを実験的に求めれば良い。
FIG. 21 is a table showing the switching of the processing by the classification unit and the setting of the coefficients. Naturally, this coefficient is only an example, and the optimum coefficient for the printing system actually configured may be experimentally obtained, like the thresholds (th0 to th6) used for the classification unit. The switching of the processing is also an example, and the type of the classified image and the necessary image type and the accompanying switching may be experimentally obtained.

【0059】また、本実施形態では、説明を容易にする
ために、線形補間部とウインドウ内の代表値との積和演
算を(5)式の形式にて記述したが、線形補間自体も積
和演算により成り立っている為、当然、ひとつの積和演
算の形式に記述することが可能である。すなわち、線形
補間は内挿点を囲む4点の観測点の画素値の積和演算に
より成立する為、例えばウインドウ内の代表値を前述し
たようにMAX3,MIN3,MAX5,MIN5の4
点を用いるのであれば、合計8点の積和演算により非線
形補間が成立する。
In this embodiment, the product-sum operation of the linear interpolation unit and the representative value in the window is described in the form of equation (5) for ease of explanation. Since it is formed by a sum operation, it can be naturally described in one product-sum operation form. That is, since the linear interpolation is established by the sum-of-products operation of the pixel values of the four observation points surrounding the interpolation point, for example, the representative values in the window are calculated as MAX3, MIN3, MAX5, and MIN5 as described above.
If points are used, a non-linear interpolation is established by a product-sum operation of a total of eight points.

【0060】図19は、図1の構成の変形例である。図
中、図1と同一部には同一番号を付して異なる点のみを
説明する。図19において、1900は第1のウインド
ウ形成部を示し、1900からの出力は、前述したよう
に注目画素を中心とした5×5画素の25画素の画素値
情報、及び、高解像情報作成部1902には、注目画素
1画素のみの画素値情報を出力する。1901は、変換
部を示し、図1と同様、適応的LPFの役割を有する変
換を行う。本変形例の変換部1901では、分類部10
4からの情報を入力して、分類した属性情報を加味して
変換処理を実行する。すなわち、図1の変換部105で
は、3×3画素のパターンのみで変換値を算出していた
が、分類部1901では分類毎に算出方法を変化させ
る。例えば、分類した注目画素の属性が、ONE_LE
VEL,FLAT,INDEX_EDGE,PICT_
EDGEの時には、注目画素値をそのまま変換値にして
しまうことも考えられる。すなわち、変換を適応的LP
Fと想定すると、この場合は、スルーのフィルタと考え
ることができる。画像情報は隣接画素間の相関が強い
為、注目画素毎に分類した属性が変化することは稀であ
る。たとえ注目画素毎に分類の判定をしていても、或る
小領域単位では同一の判定結果が固まることが多い。す
なわち、第1のウインドウの形成部で形成されるウイン
ドウの25画素分、もしくは9画素分の情報を高解像情
報作成部に送信しなくても、変換部をスルーにすること
で第2のウインドウ形成部と第1のウインドウ形成部は
等価にすることができる。
FIG. 19 shows a modification of the configuration shown in FIG. In the figure, the same parts as those in FIG. 1 are denoted by the same reference numerals, and only different points will be described. In FIG. 19, reference numeral 1900 denotes a first window forming unit, and the output from 1900 is the pixel value information of 25 pixels of 5 × 5 pixels centering on the target pixel and the creation of high-resolution information as described above. The unit 1902 outputs pixel value information of only one pixel of interest. Reference numeral 1901 denotes a conversion unit, which performs conversion having a role of an adaptive LPF as in FIG. In the conversion unit 1901 of this modification, the classification unit 10
4 is input, and the conversion process is executed in consideration of the classified attribute information. That is, the conversion unit 105 in FIG. 1 calculates the conversion value only with the pattern of 3 × 3 pixels, but the classification unit 1901 changes the calculation method for each classification. For example, if the attribute of the classified target pixel is ONE_LE
VEL, FLAT, INDEX_EDGE, PICT_
At the time of EDGE, the pixel value of interest may be directly used as a converted value. That is, the transformation is performed using the adaptive LP
Assuming F, in this case it can be considered a through filter. Since image information has a strong correlation between adjacent pixels, the attribute classified for each pixel of interest rarely changes. Even if the classification is determined for each pixel of interest, the same determination result often hardens in a certain small area unit. That is, even if the information for 25 pixels or 9 pixels of the window formed by the first window forming unit is not transmitted to the high-resolution information creating unit, the conversion unit is made to pass through the second window. The window former and the first window former can be equivalent.

【0061】すなわち、部分的にスルーのフィルタを用
いることでひとつのウインドウにまとめることができ
る。
That is, by using a partially through filter, it is possible to combine them into one window.

【0062】1902は高解像情報作成部を示し、第2
のウインドウ内の画素値情報、最大値最小値情報(MA
X5,MIN5,MAX3,MIN3)、そして分類し
た属性情報が入力される。
Reference numeral 1902 denotes a high-resolution information creating unit,
Pixel value information, maximum value minimum value information (MA
X5, MIN5, MAX3, MIN3), and classified attribute information are input.

【0063】図20に高解像情報作成部1902を示
す。破線で囲んだ部分が高解像情報作成部1902を示
す。図12は同一部には同一番号を付している。高解像
情報作成部1902は0次補間部1201、線形補間部
1202、非線形補間部1204より構成されていて、
スイッチ2000によりいずれの補間部を施すかが選択
される。本変形例では、変換後の画素値情報しか用いて
いない為、処理の選択項目、及び係数の設定は図22の
通りになる。
FIG. 20 shows the high resolution information creating unit 1902. A portion surrounded by a broken line indicates the high-resolution information creation unit 1902. In FIG. 12, the same parts are denoted by the same reference numerals. The high-resolution information creation unit 1902 includes a zero-order interpolation unit 1201, a linear interpolation unit 1202, and a non-linear interpolation unit 1204.
The switch 2000 selects which interpolation unit is to be applied. In this modification, since only the pixel value information after the conversion is used, the selection items of the processing and the setting of the coefficients are as shown in FIG.

【0064】以上説明した如く、本実施の形態における
思想は、“適応的LPF”処理と“非線形補間”処理を
効果的に結合することにある。
As described above, the idea of the present embodiment is to effectively combine "adaptive LPF" processing and "nonlinear interpolation" processing.

【0065】すなわち、入力画像情報から入力解像度依
存部を除去する為には、入力解像度の高周波成分をカッ
トする適応的な平滑化処理が必要になる。しかし、通過
した低周波成分のみを出力しても、ボケが目立つだけの
画像になっていまう。そこで、出力解像度に見合う、新
たな高周波成分を作成する非線形補間が必要不可欠にな
る。周辺画素の中から代表的な画素値(本実施の形態で
は最大値、最小値に相当する)を抜き出し、線形的な補
間と代表的な画素値との適応的な積和演算を施すことに
より、非線形な性質を生み出させる。しかも、積和演算
の係数を切り替えたり、最適化したりすることにより、
容易に非線形性を制御することが可能である。また、係
数の変更を段階的な切り替えではなく、例えばエッジの
コントラストの大きさに基づいて動的に、かつ連続的に
変化させることも可能である。CGや線画像のみならず
自然画像も基本的な思想は同じである。ただ、自然画像
に関しては、出力画像の画質に“自然さ”が要求される
為に、あまりにも入力情報から逸脱させるわけにはいか
ない。ただ、線形補間のみでは高周波成分低減の為に補
間ボケが生じてしまう。その為、新たな高周波成分を作
成するには、前述したように線形的な補間と周辺画素の
中の代表的な画素値との適応的な積和演算を施す非線形
補間が画質向上には不可欠になる。
That is, in order to remove the input resolution dependent portion from the input image information, an adaptive smoothing process for cutting high frequency components of the input resolution is required. However, even if only the low-frequency component that has passed is output, the image will only be noticeable with blur. Therefore, nonlinear interpolation for creating a new high-frequency component corresponding to the output resolution is indispensable. By extracting a representative pixel value (corresponding to the maximum value and the minimum value in the present embodiment) from the peripheral pixels and performing linear interpolation and an adaptive product-sum operation of the representative pixel value , To create non-linear properties. Moreover, by switching or optimizing the coefficients of the product-sum operation,
It is possible to easily control the nonlinearity. Further, it is also possible to change the coefficient dynamically and continuously, for example, based on the magnitude of the edge contrast, instead of stepwise switching. The basic idea is the same for natural images as well as CG and line images. However, as for the natural image, the image quality of the output image is required to be “natural”, so that it cannot be deviated from the input information too much. However, with only linear interpolation, interpolation blur occurs due to reduction of high-frequency components. Therefore, in order to create a new high-frequency component, non-linear interpolation that performs linear interpolation and an adaptive product-sum operation of representative pixel values among neighboring pixels as described above is indispensable for improving image quality become.

【0066】本実施の形態の処理を用いると、いかなる
属性の画像でも、いかなる拡大倍率の処理でも良好な出
力解像度に見合う画像作成が可能になる。当然、拡大倍
率を評価変数にして、各種の係数を切り替えても良い
し、また、実際の絶対的な出力解像度(例えばdpi
(ドットパーインチ)や、ppi(ピクセルパーイン
チ)等て表示できる数値)を評価して切り替えても良
い。
By using the processing of the present embodiment, it is possible to create an image having a good output resolution with an image having any attribute and any magnification. Naturally, various factors may be switched by using the magnification as an evaluation variable, or the actual absolute output resolution (for example, dpi)
(A dot per inch) or a numerical value that can be displayed by ppi (pixel per inch) or the like may be evaluated and switched.

【0067】図15は本発明に係る第2の実施の形態の
ブロック図である。本実施の形態では、カラー画像の解
像度変換について説明する。カラー画像を入力した場
合、色成分(例えばRGB)毎に、図1に示したブロッ
ク図の構成を用いて処理することにより、良好な出力画
像が作成出来る。しかし、非線形補間を用いる高解像情
報作成部では各色毎にジャギーの軽減する程度が異な
り、その為にエッジ部等で色ズレが生じ画質向上の妨げ
になってしまうことがある。また、昨今急速に普及して
きたインターネット上では、数ビット程度のパレットを
用いて疑似階調を施した画像を用いることが多いが、疑
似階調を施した時点で、画像のエッジ部において各色ズ
レが生じることがある。本実施の形態の画像処理装置入
力前にズレを生じている画像情報に対しては、図1の構
成を各色毎に用いて処理するだけでは高画質の高解像情
報作成が困難である。
FIG. 15 is a block diagram of a second embodiment according to the present invention. In the present embodiment, resolution conversion of a color image will be described. When a color image is input, a good output image can be created by processing using the configuration of the block diagram shown in FIG. 1 for each color component (for example, RGB). However, in the high-resolution information creating unit using the non-linear interpolation, the degree of reduction of jaggies is different for each color, which may cause a color shift at an edge portion or the like, which may hinder improvement in image quality. In addition, on the Internet which has been rapidly spreading in recent years, an image subjected to pseudo gradation using a palette of about several bits is often used, but when the pseudo gradation is applied, each color shift occurs at an edge portion of the image. May occur. It is difficult to create high-resolution high-resolution information by simply processing the image information having a shift before inputting to the image processing apparatus of the present embodiment using the configuration of FIG. 1 for each color.

【0068】そこで本第2の実施の形態では、 (1)本画像処理装置内で色ズレを生じさせない。 (2)もともと多少色ズレが生じている画像を本画像処
理装置で補正する。 ことを目的とし、図1の構成よりも更に良好な高解像情
報を作成する。
Therefore, in the second embodiment, (1) no color shift occurs in the image processing apparatus. (2) An image in which some color misregistration has originally occurred is corrected by the image processing apparatus. For this purpose, high-resolution information that is even better than the configuration shown in FIG. 1 is created.

【0069】図15において、1500、1501、1
502はそれぞれ入力端子を示し、それぞれR信号、G
信号、B信号が入力される。1503、1504、15
05はラインバッファを示し、それぞれの色成分の画像
情報を数ライン分格納する。1506、1507、15
08は第1のウインドウ形成部を示し、それぞれの色成
分毎に図2に示したウインドウを作成する。
In FIG. 15, 1500, 1501, 1
Reference numerals 502 denote input terminals, respectively, an R signal and a G signal.
A signal and a B signal are input. 1503, 1504, 15
A line buffer 05 stores image information of each color component for several lines. 1506, 1507, 15
Reference numeral 08 denotes a first window forming unit, which creates the window shown in FIG. 2 for each color component.

【0070】1509、1510、1511は最大値最
小値検出部を示し、図1の構成と同様に5×5画素内の
最大値最小値、3×3画素内の最大値最小値を検出す
る。1512、1513、1514は分類部を示し前述
した実施の形態と同様に画像種の属性を分類する。
Reference numerals 1509, 1510, and 1511 denote maximum / minimum value detectors, which detect the maximum / minimum value in 5 × 5 pixels and the maximum / minimum value in 3 × 3 pixels, similarly to the configuration of FIG. Reference numerals 1512, 1513, and 1514 denote classifying units for classifying the attributes of image types in the same manner as in the above-described embodiment.

【0071】1515は本第2の実施の形態の特徴であ
る変換部を示し、各色成分の第1のウインドウの画素値
情報、及び、各色成分の最大値最小値情報を入力し、各
色成分の変換値を算出する構成になっている。
Reference numeral 1515 denotes a conversion unit which is a feature of the second embodiment. The conversion unit 1515 inputs pixel value information of the first window of each color component and maximum value / minimum value information of each color component. The conversion value is calculated.

【0072】1516、1517、1518は第2のウ
インドウ形成部を示し、各色成分の注目画素、及び周辺
画素の変換値をウインドウ化する手段である。151
9、1520、1521は高解像情報作成部を示し、各
色毎に出力解像度に見合った高解像情報を作成する。
Reference numerals 1516, 1517, and 1518 denote second window forming units, which are means for windowing the conversion values of the target pixel of each color component and peripheral pixels. 151
Reference numerals 9, 1520, and 1521 denote high-resolution information creating units that create high-resolution information corresponding to the output resolution for each color.

【0073】さて、本第2の実施の形態では、変換部1
515のみが図1の構成と異なっている為、その他のブ
ロックについての説明は省略する。
In the second embodiment, the conversion unit 1
Since only 515 differs from the configuration of FIG. 1, the description of the other blocks will be omitted.

【0074】図16は、変換手段部15で実施される処
理を説明するフローチャートである。本第2の実施の形
態では、前述した第1の実施の形態のMAX3の積和係
数αの算出方法に特徴がある。(4)式に基づくMAX
3とMIN3の積和演算により変換値を算出する構成は
前述した第1の実施の形態と同一である。S1601に
おいて、各色毎に3×3画素内でのコントラスト(CO
NT)を以下の式にて算出する。 CONT=MAX3−MIN3…(6) このCONTの算出は、分類部で用いたものと共通化で
きることは当然である。
FIG. 16 is a flowchart for explaining the processing performed by the conversion means 15. The second embodiment is characterized in the method of calculating the product sum coefficient α of MAX3 of the first embodiment described above. MAX based on equation (4)
The configuration for calculating the conversion value by the product-sum operation of MIN3 and MIN3 is the same as in the first embodiment. In step S1601, the contrast (CO) within 3 × 3 pixels for each color is determined.
NT) is calculated by the following equation. CONT = MAX3-MIN3 (6) Naturally, the calculation of CONT can be shared with that used in the classification unit.

【0075】続いて、S1602にて、各色のCONT
の値を大小を比較して、CONTが最大となる色を検出
する。つまり、コントラストが最も大きい色はR、G、
Bのいずれかであるかを検出する。いま説明を容易にす
る為に、コントラストが最大である色をX、その他の色
をY、Zとする。例えば、3×3画素の内のコントラス
トがG成分で最も大きいのであれば、X=G、Y=R、
Z=Bとなる。Y、Zの大小関係は問わず、最大ではな
い色のどちらがYに入力されても良い。
Subsequently, in S1602, the CONT of each color
Are compared with each other to detect the color having the maximum CONT. That is, the colors with the highest contrast are R, G,
B is detected. For the sake of simplicity, it is assumed that the color having the maximum contrast is X, and the other colors are Y and Z. For example, if the contrast among the 3 × 3 pixels is the largest in the G component, X = G, Y = R,
Z = B. Regardless of the magnitude relationship between Y and Z, any color other than the maximum may be input to Y.

【0076】続いてS1603にて以下の2つの変換を
算出する。 XY=H(PAT(X),PAT(Y)) XZ=H(PAT(X),PAT(Z))…(7)
Subsequently, the following two conversions are calculated in S1603. XY = H (PAT (X), PAT (Y)) XZ = H (PAT (X), PAT (Z)) (7)

【0077】ここで、PAT(X)、PAT(Y)、P
AT(Z)は、それぞれ色X、Y、Zの3×3画素の量
子化後のパターンを示している。すなわち、図7で示し
た構成と同様、各色毎に(4)で算出したAVEに基づ
き9画素内を量子化(2値化)する。2値化後の各画素
は1ビットで表現される為、9画素の2値化パターンは
9ビット情報として表現することが可能である。図17
に9ビット化した様子を示す。図中、1701のG″,
H″,I″,L″,M″,N″,Q″,R″,S″,は
それぞれG,H,I,L,M,N,Q,R,Sの各画素
をAVEを閾値にして2値化した結果である。この9画
素を1702のように並び換えることによって9ビット
情報が作成される。
Here, PAT (X), PAT (Y), PAT
AT (Z) indicates a quantized pattern of 3 × 3 pixels of colors X, Y, and Z, respectively. That is, similarly to the configuration shown in FIG. 7, the nine pixels are quantized (binarized) based on the AVE calculated in (4) for each color. Since each pixel after binarization is represented by 1 bit, a binarization pattern of 9 pixels can be represented as 9-bit information. FIG.
FIG. In the figure, G ″ of 1701
H ", I", L ", M", N ", Q", R ", S" are threshold values for each pixel of G, H, I, L, M, N, Q, R, S. This is the result of binarization. By rearranging these nine pixels as indicated by 1702, 9-bit information is created.

【0078】(7)式のH(a,b)は、aとbのビッ
ト単位でEX−ORをとり、“1”が発生した時の個数
を算出する関数である。
H (a, b) in the expression (7) is a function for calculating the number when “1” occurs by taking the EX-OR in bit units of a and b.

【0079】図18に例を示す。いま、1801にa=
“405”のパターン、1802にb=“470”のパ
ターン、1803にaEX−ORbのパターンを示す。
9画素のパターンにおいて、黒で表現した画素が
“1”、その他が“0”を表している。
FIG. 18 shows an example. Now, a = 1801
A pattern of “405”, a pattern of b = “470” in 1802, and a pattern of aEX-ORb in 1803 are shown.
In the pattern of nine pixels, pixels expressed in black represent "1", and others represent "0".

【0080】前述した関数H()は、aEX−ORbに
おいて、9画素中の“1”となる個数に相当するので、
H(a,b)=3となる。すなわち、H()は0から9
までの数値を表すことになる。
The function H () described above corresponds to the number of “1” in nine pixels in aEX-ORb.
H (a, b) = 3. That is, H () is 0 to 9
Will represent the numbers up to.

【0081】式(6)にて、XY、XZの値を算出した
後は、S1604にて色Xの積和係数α(X)を算出す
る。ここで、LUT(PAT(A))は、図7に示すL
UTにPAT(A)の値を入力してテーブルから出力さ
れた値を示している。続いてS1605にてXYの値が
3未満か否かを判定する。3未満、すなわち0、1、2
の場合には、S1606にて色Yの積和係数α(Y)を
算出する。この場合には、色Xの積和係数と同一にす
る。XYの値が3以上の場合には、S1607にてXY
の値が6を越えるか否かを判定する。6を越えた場合、
すなわち、7、8、9の場合にはS1608にて色Yの
積和係数α(Y)を算出する。この場合には、色Yの積
和係数は256からα(X)を減じた値になる。すなわ
ち、色XのMIN3の積和係数と同一になる。もし、X
Yが3、4、5、6の場合には、S1609にて積和係
数α(Y)を算出する。この場合には、色Yのパターン
PAT(Y)をLUTに入力してα(Y)を求める。
After calculating the values of XY and XZ in equation (6), the product-sum coefficient α (X) of the color X is calculated in S1604. Here, the LUT (PAT (A)) is the LUT shown in FIG.
The values of PAT (A) are input to the UT, and the values output from the table are shown. Subsequently, in S1605, it is determined whether the value of XY is less than 3. Less than 3, ie 0, 1, 2
In step S1606, the product-sum coefficient α (Y) of the color Y is calculated in step S1606. In this case, the sum is the same as the product-sum coefficient of the color X. If the value of XY is 3 or more, XY
Is determined whether or not the value exceeds 6. If you exceed 6,
That is, in the case of 7, 8, and 9, the product-sum coefficient α (Y) of the color Y is calculated in S1608. In this case, the product sum coefficient of the color Y is a value obtained by subtracting α (X) from 256. That is, it is the same as the product sum coefficient of MIN3 of the color X. If X
If Y is 3, 4, 5, or 6, a product-sum coefficient α (Y) is calculated in S1609. In this case, the pattern PAT (Y) of the color Y is input to the LUT to obtain α (Y).

【0082】S1610、S1611、S1612、S
1613、S1614は同様に積和係数α(Z)の算出
方法である。前述したα(Y)の算出方法と同一である
ため、説明は省略する。
S1610, S1611, S1612, S
Similarly, 1613 and S1614 are calculation methods of the product-sum coefficient α (Z). Since the method is the same as the method for calculating α (Y) described above, the description is omitted.

【0083】算出した各色の積和係数αを基にして、各
色毎に、前述した(4)式に基づき変換値を算出する。
Based on the calculated product-sum coefficient α of each color, a conversion value is calculated for each color based on the above equation (4).

【0084】図16のフローチャートは、EX−ORの
ビット演算を用いて容易に各色のパターンの近似性(ズ
レ具合)を評価し、評価結果からズレを補正するような
働きをしている。近似性が高い場合、すなわち、パター
ンのズレがある閾値以下の場合(前述の例では、XY、
及びXZが0、1、2、7、8、9の場合)には、コン
トラストが最大である色を優先して、最大コントラスト
の色に適合させた積和係数を用いる。これは、ズレ量が
多少しか存在しない為に、各色とも変換する積和係数を
同一にすることで入力前のズレを補正する。また、各色
の積和係数を同一にすることで、非線形補間による高解
像情報作成も各色毎にズレが少なく制御することが可能
である。すなわち、前述した目的を満たすことができ
る。また、近似性が低い場合、すなわち、パターンのズ
レが大きい場合には、故意にずれている画像と見なし
て、その色独自の積和係数を用いることにする。当然、
図16で用いた閾値は“3”、“6”という数値にこだ
わらず、実験的に算出したもので良い。
The flowchart of FIG. 16 has a function of easily evaluating the similarity (degree of deviation) of each color pattern by using the bit operation of EX-OR, and correcting the deviation from the evaluation result. When the similarity is high, that is, when the pattern shift is equal to or less than a certain threshold value (in the above example, XY,
And when XZ is 0, 1, 2, 7, 8, 9), the color with the highest contrast is given priority, and the product-sum coefficient adapted to the color with the highest contrast is used. This is because since there is only a small amount of deviation, the deviation before input is corrected by making the product-sum coefficients to be converted the same for each color. Further, by making the product-sum coefficients of the respective colors the same, it is possible to control the creation of high-resolution information by nonlinear interpolation with a small deviation for each color. That is, the above-described object can be satisfied. When the approximation is low, that is, when the pattern shift is large, the image is regarded as intentionally shifted, and the product-sum coefficient unique to the color is used. Of course,
The threshold value used in FIG. 16 is not limited to the numerical values “3” and “6”, and may be a value calculated experimentally.

【0085】以上、パターンのズレ量を基に変換値の算
出を行う例について説明したが、このズレ量を基に、分
類部の画像属性を変更しても良い。また、逆に、分類結
果を基に、変換値の算出を変更しても良い。例えば、分
類部において、前述したONE_LAVELやFLAT
時には、注目画素値をそのまま変換値として置き換える
ことも処理の高速化には有効である。
In the above, an example has been described in which the conversion value is calculated based on the shift amount of the pattern. However, the image attribute of the classification unit may be changed based on the shift amount. Conversely, the calculation of the conversion value may be changed based on the classification result. For example, in the classification unit, the above-described ONE_LAVEL or FLAT
Sometimes, replacing the target pixel value as it is as a conversion value is also effective for speeding up the processing.

【0086】また、図16の例では、コントラストが最
大となる色成分を優先色としたが、例えばY、Cr、C
b等の色成分ではY成分を予め優先色として処理するこ
とも可能である。
In the example of FIG. 16, the color component having the maximum contrast is set as the priority color.
With respect to the color components such as b, the Y component can be processed in advance as a priority color.

【0087】また、図16では、各色毎、並列に処理す
る構成例を示しているが、これは説明を容易にする為で
あり、当然シリアル処理でも同様である。
FIG. 16 shows an example of a configuration in which processing is performed in parallel for each color, but this is for the sake of simplicity, and the same applies to serial processing.

【0088】また、3×3画素で処理する例について述
べたが、5×5画素でも同様である。
Although the example of processing with 3 × 3 pixels has been described, the same applies to 5 × 5 pixels.

【0089】以上説明したように、本発明の実施の形態
によれば、入力した低解像情報から高解像情報に変換す
る際に、自然画像では特に問題となっていた補間による
ぼけを生じることなく、また、入力した原情報の低解像
性に依存せず、ジャギーの全く発生しない画質的に良好
な変換処理が実現できる。また、高解像情報の作成時
に、従来の閾値処理による処理の分断がない為、自然画
像においても、連続性のある自然で鮮明な画像を作成す
ることが極めて容易にできる。また、良好な分類手段に
より、容易に様々な画像種の分類が可能になる。また、
分類した画像の高解像情報作成も係数等の設定を変化さ
せるだけで、あらゆる画像種に対応した非線形補間が実
現できる。また、カラー画像においても色毎のズレが生
じない良好な高解像カラー画像を容易に作成することが
できる。
As described above, according to the embodiment of the present invention, when converting input low-resolution information to high-resolution information, blurring due to interpolation, which has been a particular problem in natural images, occurs. In addition, it is possible to realize a conversion process excellent in image quality without any jaggies, without depending on the low resolution of the input original information. In addition, since there is no division of processing by the conventional threshold processing when creating high-resolution information, it is extremely easy to create a continuous and natural and clear image even in a natural image. In addition, classification of various image types can be easily performed by a good classification unit. Also,
The creation of high-resolution information of a classified image can also realize nonlinear interpolation corresponding to all types of images simply by changing the settings of coefficients and the like. In addition, it is possible to easily create a good high-resolution color image in which a deviation does not occur for each color in a color image.

【0090】この様に本実施の形態の解像度変換処理を
用いることで、インターネット上に流通している画像
や、デジタルビデオカメラから入力した画像等の情報量
の少ない画像でも画質の良い出力が期待できるプリンタ
や、ビデオプリンタ、アプリケーションソフト等の様々
な製品が提供できる。
As described above, by using the resolution conversion processing of the present embodiment, it is expected that an image having a small amount of information such as an image distributed on the Internet or an image input from a digital video camera can be output with good image quality. Various products such as printers, video printers, application software, and the like can be provided.

【0091】[0091]

【発明の効果】以上説明したように、本発明によれば、
入力した低解像情報から高解像情報に変換する際に、自
然画像では特に問題となっていた補間によるぼけを生じ
ることなく、また、入力した原情報の低解像性に依存せ
ず、ジャギーの全く発生しない画質的に良好な変換処理
が実現でき、高解像情報の作成時に、従来の閾値処理に
よる処理の分断がない為、自然画像においても、連続性
のある自然で鮮明な画像を作成することが極めて容易に
できる。また、カラー画像においても色毎のズレが生じ
ない良好な高解像度カラー画像を容易に作成することが
できる。
As described above, according to the present invention,
When converting the input low-resolution information into high-resolution information, without causing blur due to interpolation, which has been a particular problem in natural images, and without depending on the low-resolution of the input original information, Good image quality conversion processing without any jaggies can be realized, and there is no division of processing by conventional threshold processing when creating high-resolution information, so even natural images can be continuous, natural and clear images Can be created very easily. In addition, it is possible to easily create a good high-resolution color image in which no deviation occurs for each color in a color image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態の構成を示すブロッ
ク図。
FIG. 1 is a block diagram showing a configuration of a first embodiment of the present invention.

【図2】第1のウインドウ形成部で形成されるウインド
ウを示した図。
FIG. 2 is a diagram showing a window formed by a first window forming unit.

【図3】平滑化フィルタ(LPF)の一例を示した図。FIG. 3 is a diagram showing an example of a smoothing filter (LPF).

【図4】第2のウインドウ形成部で形成されるウインド
ウを示した図。
FIG. 4 is a view showing a window formed by a second window forming unit.

【図5】図1の分類部の処理を説明するための図。FIG. 5 is a view for explaining processing of a classification unit in FIG. 1;

【図6】図1の分類部の処理を説明するための図。FIG. 6 is a view for explaining processing of a classification unit in FIG. 1;

【図7】図1の変換部の構成を示した図。FIG. 7 is a diagram illustrating a configuration of a conversion unit in FIG. 1;

【図8】図7の線形変換部の構成を示した図。FIG. 8 is a diagram illustrating a configuration of a linear conversion unit in FIG. 7;

【図9】画像情報の例及び画像情報を量子化した例を示
した図。
FIG. 9 is a diagram illustrating an example of image information and an example of quantizing the image information.

【図10】量子化パターンによる乗算係数の例を示した
図。
FIG. 10 is a diagram showing an example of a multiplication coefficient by a quantization pattern.

【図11】ウインドウ内の画素値の変換例を示した図。FIG. 11 is a view showing an example of conversion of pixel values in a window.

【図12】図1の高解像情報作成部の構成を示した図。FIG. 12 is a diagram illustrating a configuration of a high-resolution information creating unit in FIG. 1;

【図13】高解像情報作成の一例を示した図。FIG. 13 is a diagram showing an example of creating high-resolution information.

【図14】高解像情報作成の一例を示した図。FIG. 14 is a diagram showing an example of creating high-resolution information.

【図15】本発明の第2の実施の形態の構成を示したブ
ロック図。
FIG. 15 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.

【図16】図15の変換部の処理を説明するための図。FIG. 16 is a view for explaining processing of a conversion unit in FIG. 15;

【図17】2値化パターンの9ビット化の説明図。FIG. 17 is an explanatory diagram of 9-bit conversion of a binary pattern.

【図18】H(a,b)の算出の説明図。FIG. 18 is an explanatory diagram of calculation of H (a, b).

【図19】本発明の第1の実施の形態の変形例を示す要
部ブロック図。
FIG. 19 is a main part block diagram showing a modification of the first embodiment of the present invention.

【図20】図19の高解像情報作成部の例を示した図。FIG. 20 is a diagram illustrating an example of a high-resolution information creating unit in FIG. 19;

【図21】図12における処理の選択、及び係数の設定
例を示した図。
FIG. 21 is a diagram showing an example of selecting a process and setting a coefficient in FIG. 12;

【図22】図20における処理の選択、及び係数の設定
例を示した図。
FIG. 22 is a diagram illustrating an example of selecting a process and setting a coefficient in FIG. 20;

【図23】従来例である最近接内挿法の説明図。FIG. 23 is an explanatory diagram of a conventional example of a nearest neighbor interpolation method.

【図24】従来例である共1次内挿法の説明図。FIG. 24 is an explanatory diagram of a bilinear interpolation method which is a conventional example.

【図25】入力情報の例、図23、図24の方法による
処理例を示した図。
FIG. 25 is a diagram showing an example of input information and an example of processing by the methods of FIGS. 23 and 24.

【符号の説明】[Explanation of symbols]

101 ラインバッファ 103 最大値最小値検出部 104 分類部 105 変換部 106 第2のウインドウ形成部 107 高解像情報作成部 120 第1のウインドウ形成部 DESCRIPTION OF SYMBOLS 101 Line buffer 103 Maximum value minimum value detection part 104 Classification part 105 Conversion part 106 Second window formation part 107 High resolution information creation part 120 First window formation part

Claims (23)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 低解像情報を高解像情報に変換し、入力
した画像情報の画素数を増加させる画像処理装置であっ
て、 低解像の注目画素及びその周辺画素の値を参照するため
に第1のウインドウを設定する第1のウインドウ設定手
段と、 前記第1のウインドウ内から複数の代表値を検出する検
出手段と、 注目画素及びその周辺画素の値に対し、画素の値に応じ
た高周波成分を除去する変換処理を行なう変換手段と、 前記変換手段からの注目画素及びその周辺画素の変換値
を参照するために第2のウインドウを設定する第2のウ
インドウ設定手段と、 前記第1のウインドウ内の画素値情報、もしくは、第2
のウインドウ内の変換値情報にたいして線形補間する線
形補間手段と、 前記線形補間手段からの線形補間値と前記代表値との積
和演算をすることにより非線形補間する非線形補間手段
とを有することを特徴とする画像処理装置。
1. An image processing apparatus for converting low-resolution information into high-resolution information and increasing the number of pixels of input image information, wherein a value of a low-resolution target pixel and its surrounding pixels is referred to. A first window setting means for setting a first window, a detecting means for detecting a plurality of representative values from within the first window, Conversion means for performing conversion processing for removing the corresponding high-frequency component; second window setting means for setting a second window to refer to the conversion value of the pixel of interest and its surrounding pixels from the conversion means; Pixel value information in the first window, or the second
Linear interpolation means for linearly interpolating the converted value information in the window of (i), and nonlinear interpolation means for performing non-linear interpolation by performing a product-sum operation of the linear interpolation value from the linear interpolation means and the representative value. Image processing apparatus.
【請求項2】 更に前記非線形補間手段における積和演
算の積和係数を動的に設定する係数設定手段と、を有す
ることを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, further comprising: coefficient setting means for dynamically setting a product-sum coefficient of a product-sum operation in said nonlinear interpolation means.
【請求項3】 更に、前記第1のウインドウ内の画素値
の分布状態を評価して注目画素の属性を分類する分類手
段とを有し、 前記分類手段の属性結果に基づき動的に前記非線形補間
手段における積和演算の積和係数を設定することを特徴
とする請求項2記載の画像処理装置。
3. Classification means for evaluating a distribution state of pixel values in the first window to classify an attribute of a pixel of interest, wherein the nonlinearity is dynamically determined based on an attribute result of the classification means. 3. The image processing apparatus according to claim 2, wherein a product-sum coefficient of the product-sum operation in the interpolation means is set.
【請求項4】 前記分類手段は前記第1のウインドウ内
の画素値の離散性を評価することを特徴とする請求項3
記載の画像処理装置。
4. The method according to claim 3, wherein the classifying unit evaluates the discreteness of the pixel values in the first window.
The image processing apparatus according to any one of the preceding claims.
【請求項5】 前記分類手段は前記第1のウインドウ内
の画素値の階調数を評価することを特徴とする請求項3
記載の画像処理装置。
5. The method according to claim 3, wherein the classifying unit evaluates the number of gray levels of the pixel values in the first window.
The image processing apparatus according to any one of the preceding claims.
【請求項6】 前記離散性の評価は、ウインドウ内の階
調数が3階調以上の時に、ウインドウ内の最大値、最小
値を含む3値以上の代表値を抜き出して、代表値間の差
分を算出することにより評価することを特徴とする請求
項4記載の画像処理装置。
6. The evaluation of the discreteness is such that when the number of gradations in the window is three or more, three or more representative values including the maximum value and the minimum value in the window are extracted. The image processing apparatus according to claim 4, wherein the evaluation is performed by calculating a difference.
【請求項7】 前記3値以上の代表値は、最大値と、最
小値と、最大値と最小値の平均値以上で、かつ、最大値
以外で最大値に最も近い値Aと、 最大値と最小値の平均値以上で、かつ、最大値以外で最
大値に最も遠い値Bと、 最大値と最小値の平均値未満で、かつ最小値以外で最小
値に最も近い値Cと、 最大値と最小値の平均値未満で、かつ、最小値以外で最
小値に最も遠い値Dと、 であることを特徴とする請求項6記載の画像処理装置。
7. The three or more representative values are a maximum value, a minimum value, a value A that is not less than the average value of the maximum value and the minimum value, and is the closest to the maximum value other than the maximum value, The value B which is equal to or more than the average of the minimum and maximum values and which is farthest from the maximum value except for the maximum value, the value C which is less than the average value of the maximum value and the minimum value, and which is the minimum value other than the minimum value and 7. The image processing apparatus according to claim 6, wherein a value D that is less than the average of the value and the minimum value and that is the farthest from the minimum value other than the minimum value.
【請求項8】 前記離散性の評価は、最大値とAの差分
と、最大値とBの差分と、Cと最小値の差分と、Dと最
小値の差分との絶対的な値を評価することを特徴とする
請求項7記載の画像処理装置。
8. The evaluation of the discreteness includes evaluating an absolute value of a difference between a maximum value and A, a difference between a maximum value and B, a difference between C and a minimum value, and a difference between D and a minimum value. The image processing apparatus according to claim 7, wherein:
【請求項9】 前記離散性の評価は、最大値とAの差分
と、最大値とBの差分と、Cと最小値の差分と、Dと最
小値の差分と、の相対的な値を評価することを特徴とす
る請求項7記載の画像処理装置。
9. The evaluation of the discreteness is performed by calculating a relative value of a difference between a maximum value and A, a difference between a maximum value and B, a difference between C and a minimum value, and a difference between D and a minimum value. The image processing apparatus according to claim 7, wherein the evaluation is performed.
【請求項10】 前記分類手段で分類した属性情報に基
づいて、前記変換手段における変換処理を変化させるこ
とを特徴とする請求項3記載の画像処理装置。
10. The image processing apparatus according to claim 3, wherein a conversion process in the conversion unit is changed based on the attribute information classified by the classification unit.
【請求項11】 前記変換手段は、前記複数の代表値の
積和演算により変換値を算出することを特徴とする請求
項1記載の画像処理装置。
11. The image processing apparatus according to claim 1, wherein said conversion means calculates a conversion value by a product-sum operation of said plurality of representative values.
【請求項12】 前記変換手段は、前記第1のウインド
ウ内の特徴量に基づき積和演算の積和係数を算出するこ
とを特徴とする請求項11記載の画像処理装置。
12. The image processing apparatus according to claim 11, wherein the conversion unit calculates a product-sum coefficient of a product-sum operation based on a feature amount in the first window.
【請求項13】 前記特徴量は、第1のウインドウ内を
量子化したパターンであることを特徴とする請求項12
記載の画像処理装置。
13. The apparatus according to claim 12, wherein the feature quantity is a pattern obtained by quantizing a first window.
The image processing apparatus according to any one of the preceding claims.
【請求項14】 前記複数の代表値は、前記第1のウイ
ンドウ内の最大値、最小値であることを特徴とする請求
項1記載の画像処理装置。
14. The image processing apparatus according to claim 1, wherein the plurality of representative values are a maximum value and a minimum value in the first window.
【請求項15】 更に、前記第1のウインドウ内の画素
値の分布状態を評価して注目画素の属性を分類する分類
手段とを有し、 前記分類手段の属性結果に基づき線形補間を実行するウ
インドウを第1のウインドウの画素値情報にするか、第
2のウインドウの変換値情報にするかを切り替えること
を特徴とする請求項1記載の画像処理装置。
15. Classification means for classifying an attribute of a pixel of interest by evaluating a distribution state of pixel values in the first window, and performing linear interpolation based on an attribute result of the classification means. 2. The image processing apparatus according to claim 1, wherein the window is switched between pixel value information of the first window and converted value information of the second window.
【請求項16】 前記非線形補間手段は、前記線形補間
値と前記代表値との積和係数を複数有し、複数の積和結
果の大小関係によってエッジ傾斜が急となるように出力
値を決定することを特徴とする請求項1記載の画像処理
装置。
16. The non-linear interpolation means has a plurality of product-sum coefficients of the linear interpolation value and the representative value, and determines an output value such that an edge slope is steep according to a magnitude relation of a plurality of product-sum results. The image processing apparatus according to claim 1, wherein:
【請求項17】 カラーの低解像情報を高解像情報に変
換し、入力した画像情報の画素数を増加させる画像処理
装置であって、 各色成分毎に低解像の注目画素及びその周辺画素の値を
参照するために第1のウインドウを設定する第1のウイ
ンドウ設定手段と、 各色成分毎に第1のウインドウ内から複数の代表値を検
出する検出手段と、 複数の色成分の第1のウインドウ内の情報を基に、各色
成分毎に注目画素及びその周辺画素の値に対し、画素の
値に応じた高周波成分を除去する変換処理を行なう変換
手段と、 各色成分毎に前記変換手段からの注目画素及びその周辺
画素の変換値を参照するために第2のウインドウを設定
する第2のウインドウ設定手段と、 各色成分毎に、前記第1のウインドウ内の画素値情報、
もしくは、第2のウインドウ内の変換値情報にたいして
線形補間する線形補間手段と、 各色成分毎に、前記線形補間手段からの線形補間値と前
記代表値との積和演算をすることにより非線形補間する
非線形補間手段とを有することを特徴とする画像処理装
置。
17. An image processing apparatus for converting color low-resolution information into high-resolution information and increasing the number of pixels of input image information, comprising: a low-resolution pixel of interest for each color component; First window setting means for setting a first window to refer to pixel values; detecting means for detecting a plurality of representative values from within the first window for each color component; A conversion unit for performing a conversion process for removing a high-frequency component corresponding to a pixel value from a value of a target pixel and its surrounding pixels for each color component based on information in the first window; Second window setting means for setting a second window to refer to the conversion value of the pixel of interest and its surrounding pixels from the means; and, for each color component, pixel value information in the first window;
Alternatively, linear interpolation is performed by linear interpolation on the conversion value information in the second window, and for each color component, nonlinear interpolation is performed by performing a product-sum operation on the linear interpolation value from the linear interpolation unit and the representative value. An image processing apparatus comprising: a non-linear interpolation unit.
【請求項18】 各色成分毎に、第1のウインドウ内を
量子化することによりパターン化する手段と、各色成分
のパターンの近似性を評価する評価手段と、各色成分毎
の複数の代表値の積和演算により変換値を算出する算出
手段とを有し、 前記評価手段の評価結果により色成分毎のズレを補正す
るように前記積和係数を設定することを特徴とする請求
項17記載の画像処理装置。
18. A means for patterning each color component by quantizing the inside of the first window, an evaluation means for evaluating the closeness of a pattern of each color component, and a plurality of representative values of each color component. 18. A calculating means for calculating a conversion value by a sum-of-products operation, wherein the sum-of-products coefficient is set so as to correct a deviation for each color component based on an evaluation result of the evaluating means. Image processing device.
【請求項19】 各色成分の第1のウインドウの画素値
情報を基に、優先となる色を選択する手段とを有し、 前記評価手段は優先となる色のパターンと、優先以外の
色のパターンとの近似性を評価し、近似性の評価結果が
予め設定した閾値以上である時に、優先以外の色の積和
係数を、優先となる色の積和係数を基に設定することを
特徴とする請求項18記載の画像処理装置。
19. A means for selecting a priority color based on pixel value information of a first window of each color component, wherein said evaluation means determines a pattern of a priority color and a pattern of a color other than the priority. Evaluating the closeness to a pattern, and when the result of the closeness evaluation is equal to or greater than a preset threshold value, the product-sum coefficient of the color other than the priority is set based on the product-sum coefficient of the priority color. 19. The image processing apparatus according to claim 18, wherein
【請求項20】 前記近似性の評価は、各パターンにE
X−ORのビット演算を行なうことで評価することを特
徴とする請求項18記載の画像処理装置。
20. The evaluation of the similarity is performed by adding E to each pattern.
19. The image processing apparatus according to claim 18, wherein the evaluation is performed by performing an X-OR bit operation.
【請求項21】 前記優先となる色は、第1のウインド
ウ内のコントラストの大小で決定することを特徴とする
請求項19記載の画像処理装置。
21. The image processing apparatus according to claim 19, wherein the priority color is determined based on the contrast within the first window.
【請求項22】 低解像情報を高解像情報に変換し、入
力した画像情報の画素数を増加させる画像処理方法であ
って、 低解像の注目画素及びその周辺画素の値を参照するため
に第1のウインドウを設定する第1のウインドウ設定工
程と、 前記第1のウインドウ内から複数の代表値を検出する検
出工程と、 注目画素及びその周辺画素の値に対し、画素の値に応じ
た高周波成分を除去する変換処理を行なう変換工程と、 前記変換工程からの注目画素及びその周辺画素の変換値
を参照するために第2のウインドウを設定する第2のウ
インドウ設定工程と、 前記第1のウインドウ内の画素値情報、もしくは、第2
のウインドウ内の変換値情報にたいして線形補間する線
形補間工程と、 前記線形補間工程からの線形補間値と前記代表値との積
和演算をすることにより非線形補間する非線形補間工程
とからなる画像処理方法。
22. An image processing method for converting low-resolution information into high-resolution information and increasing the number of pixels of input image information, wherein the value of a low-resolution pixel of interest and its surrounding pixels is referred to. A first window setting step for setting a first window, a detecting step of detecting a plurality of representative values from within the first window, A conversion step of performing a conversion process for removing a corresponding high-frequency component; a second window setting step of setting a second window to refer to a conversion value of the pixel of interest and its surrounding pixels from the conversion step; Pixel value information in the first window, or the second
An image processing method comprising: a linear interpolation step of performing linear interpolation on the conversion value information in the window of the above; .
【請求項23】 カラーの低解像情報を高解像情報に変
換し、入力した画像情報の画素数を増加させる画像処理
方法であって、 各色成分毎に低解像の注目画素及びその周辺画素の値を
参照するために第1のウインドウを設定する第1のウイ
ンドウ設定工程と、 各色成分毎に第1のウインドウ内から複数の代表値を検
出する検出工程と、 複数の色成分の第1のウインドウ内の情報を基に、各色
成分毎に注目画素及びその周辺画素の値に対し、画素の
値に応じた高周波成分を除去する変換処理を行なう変換
工程と、 各色成分毎に前記変換工程からの注目画素及びその周辺
画素の変換値を参照するために第2のウインドウを設定
する第2のウインドウ設定工程と、 各色成分毎に、前記第1のウインドウ内の画素値情報、
もしくは、第2のウインドウ内の変換値情報にたいして
線形補間する線形補間工程と、 各色成分毎に、前記線形補間工程からの線形補間値と前
記代表値との積和演算をすることにより非線形補間する
非線形補間工程とを有することを特徴とする画像処理方
法。
23. An image processing method for converting color low-resolution information into high-resolution information and increasing the number of pixels of input image information, wherein a low-resolution pixel of interest and its surroundings are provided for each color component. A first window setting step of setting a first window to refer to pixel values; a detecting step of detecting a plurality of representative values from within the first window for each color component; A conversion process for removing a high-frequency component corresponding to the pixel value from the value of the target pixel and its surrounding pixels for each color component based on the information in the window of (1); A second window setting step of setting a second window to refer to the conversion value of the pixel of interest and its surrounding pixels from the step; and, for each color component, pixel value information in the first window;
Alternatively, a non-linear interpolation is performed by performing a linear interpolation step of linearly interpolating the converted value information in the second window, and a product-sum operation of the linear interpolation value from the linear interpolation step and the representative value for each color component. A non-linear interpolation step.
JP05019897A 1997-03-05 1997-03-05 Image processing apparatus and method Expired - Fee Related JP3210264B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP05019897A JP3210264B2 (en) 1997-03-05 1997-03-05 Image processing apparatus and method
US09/033,584 US6157749A (en) 1997-03-05 1998-03-03 Image processing apparatus and method, and storing medium
DE69825196T DE69825196T2 (en) 1997-03-05 1998-03-04 Image processing method and apparatus
EP98301597A EP0863484B1 (en) 1997-03-05 1998-03-04 Image processing method and apparatus
ES98301597T ES2226064T3 (en) 1997-03-05 1998-03-04 METHOD AND APPARATUS FOR THE IMAGE PROCESS.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05019897A JP3210264B2 (en) 1997-03-05 1997-03-05 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JPH10248012A JPH10248012A (en) 1998-09-14
JP3210264B2 true JP3210264B2 (en) 2001-09-17

Family

ID=12852449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05019897A Expired - Fee Related JP3210264B2 (en) 1997-03-05 1997-03-05 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3210264B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3386110B2 (en) 1998-09-02 2003-03-17 本田技研工業株式会社 Transmission for vehicles
JP3075269B2 (en) 1998-10-13 2000-08-14 セイコーエプソン株式会社 Image data interpolation method, image data interpolation device, and medium recording image data interpolation program
JP3167120B2 (en) 1999-05-25 2001-05-21 キヤノン株式会社 Image processing apparatus and method
JP4617825B2 (en) * 2003-10-22 2011-01-26 ソニー株式会社 Data processing apparatus, data processing method, program, and recording medium
JP4371026B2 (en) 2004-09-28 2009-11-25 コニカミノルタビジネステクノロジーズ株式会社 Printing system and printer
JP4832031B2 (en) * 2005-09-08 2011-12-07 オリンパスイメージング株式会社 Image processing method and image processing apparatus
JP4950798B2 (en) * 2007-07-31 2012-06-13 キヤノン株式会社 Image forming apparatus, control method therefor, and computer program
WO2009110328A1 (en) * 2008-03-03 2009-09-11 三菱電機株式会社 Image processing device and method, and image display device and method
KR101629454B1 (en) * 2009-10-27 2016-06-10 삼성전자주식회사 Apparatus and method for enlarging depth map

Also Published As

Publication number Publication date
JPH10248012A (en) 1998-09-14

Similar Documents

Publication Publication Date Title
EP0863484B1 (en) Image processing method and apparatus
EP0645736B1 (en) Image processing apparatus
JP3143209B2 (en) Image magnification device
JP3210248B2 (en) Image processing apparatus and method
US6167166A (en) Method to enable the recognition and rendering of antialiased images
EP0949585B1 (en) Apparatus and method for image data interpolation
JP3167120B2 (en) Image processing apparatus and method
JP2004040790A (en) Descreen method and system for image signal
JP2001251517A (en) Image processing method, image processor and image processing system
JP3176195B2 (en) Image processing device
JP3210264B2 (en) Image processing apparatus and method
JP3026706B2 (en) Image processing device
JP3092769B2 (en) Image processing device
JPH0944128A (en) Multilevel reduction processor for binary picture
JP3200351B2 (en) Image processing apparatus and method
JP3624153B2 (en) Image processing apparatus and image processing method
JP3262425B2 (en) Image processing device
JP3703180B2 (en) Image processing apparatus and image processing method
JP3669081B2 (en) Image processing device
JP3581460B2 (en) Image processing method and apparatus
JP4730525B2 (en) Image processing apparatus and program thereof
JP2002077622A (en) Image processing apparatus and recording medium
JP3972625B2 (en) Image processing apparatus and image processing method
JPH1063826A (en) Picture enlargement and reduction processor
JP2001189852A (en) Image processor

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010612

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080713

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080713

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees