JPH0916769A - Device and method for processing image - Google Patents

Device and method for processing image

Info

Publication number
JPH0916769A
JPH0916769A JP7161090A JP16109095A JPH0916769A JP H0916769 A JPH0916769 A JP H0916769A JP 7161090 A JP7161090 A JP 7161090A JP 16109095 A JP16109095 A JP 16109095A JP H0916769 A JPH0916769 A JP H0916769A
Authority
JP
Japan
Prior art keywords
hue
area
image
image processing
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7161090A
Other languages
Japanese (ja)
Inventor
Shinichi Sunakawa
伸一 砂川
Kazuhiro Matsubayashi
一弘 松林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7161090A priority Critical patent/JPH0916769A/en
Publication of JPH0916769A publication Critical patent/JPH0916769A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To discriminate the area of image with a high extraction rate in spite of colors in the image area. CONSTITUTION: A block dividing part 20 divides image data for the unit of a picture element block in a prescribed size. The picture element block is transformed to the respective spatial data of YUV by a YUV transforming part and orthogonally transformed by the next DCT part. The transformed data of Y component are supplied to a coefficient arithmetic part 23 and here, a feature amount is decided. Besides, the orthogonally transformed result of U and V components is supplied to a hue detection part 25 and here, the hue of the concerned picture element block is detected. When the hue is decided, based on this result, a threshold setting part extracts a threshold from a threshold table 27 and outputs it to an attribute discriminating part 24. The attribute discriminating part 24 compares the feature amount of the concerned picture element block from the coefficient arithmetic part 23 with the threshold from a threshold setting part 26 and discriminates whether the concerned block is a character area block or not.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像データを空間周波
数軸上のデータに変換して、領域を判別する画像処理装
置及び方法に関するものである
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method for converting an image data into data on a spatial frequency axis and discriminating an area.

【従来の技術】従来より、複写機やOCR機器等におい
て、画像を空間周波数軸上のデータに変換し、写真領域
や網点画像領域、文字領域を分離する方法が考案されて
いる。
2. Description of the Related Art Conventionally, a method of converting an image into data on a spatial frequency axis and separating a photograph area, a halftone dot image area, and a character area has been devised in a copying machine, an OCR device, or the like.

【0002】画像電子学会研究会予稿93−01−02
においては、文字画像と網点画像の周波数特性の違いに
着目して像域分離する方法が開示されている。この方法
では、まず、画像データを8×8サイズの小ブロックに
分割し、離散コサイン変換(DCT変換)を行なう。D
CT変換は、JPEG標準などの画像符号化方式に広く
利用されており、画像データを周波数軸上のデータに変
換するものである。この結果として、ブロックの係数
は、その1行1列にブロック全体の直流成分が、列方向
は水平方向の周波数、行方向は垂直方向の周波数を表す
データが格納されるようになる。各方向とも、行(列)
の番号が増えるに従って、より高い周波数の強さを示し
ている。上記のDCT変換に続いて、ジグザグスキャン
処理を行ない、2次元ブロックデータを1次元に変換す
る。これもJPEG標準で用いられている処理方法であ
り、図12に示すように、低周波部分から高周波部分へ
斜め方向にスキャンを行なう。次のステップとして、式
(1)に従って、「ジグザグレート」を計算する。
Proceedings 93-01-02 of the Institute of Image Electronics Engineers of Japan
Discloses a method of separating image areas by focusing on the difference in frequency characteristics between a character image and a halftone dot image. In this method, first, the image data is divided into small blocks of 8 × 8 size, and discrete cosine transform (DCT transform) is performed. D
The CT conversion is widely used in image encoding methods such as the JPEG standard, and converts image data into data on the frequency axis. As a result, in the coefficient of the block, the DC component of the entire block is stored in the 1st row and the 1st column, data representing the horizontal frequency in the column direction and the vertical frequency in the row direction is stored. Row (column) in each direction
The higher the number, the higher the frequency strength. Subsequent to the above DCT conversion, zigzag scan processing is performed to convert the two-dimensional block data into one dimension. This is also the processing method used in the JPEG standard, and as shown in FIG. 12, scanning is performed diagonally from the low frequency portion to the high frequency portion. As a next step, “zigzagrate” is calculated according to equation (1).

【0003】 ZigZag_Rate[i]=ZigZag[i]×2-ZigZag[i-1]-ZigZag[i+1] (i=1〜63) 式(1) 続いて、ジグザグレートの低周波部分と高周波部分での
積算を行ない、それぞれZZ_Rate_moji、Z
Z_Rate_HTとする。
ZigZag_Rate [i] = ZigZag [i] × 2-ZigZag [i-1] -ZigZag [i + 1] (i = 1 to 63) Formula (1) Subsequently, the low frequency part and high frequency of the zigzagrate Partial integration is performed, and ZZ_Rate_moji and Z are performed, respectively.
Z_Rate_HT.

【0004】すなわち、Zigzag_Rate[i]の絶対値のiが
小さい部分を加えた値をZZ_Rate_moji、逆
に絶対値のiが大きい部分を加えた値をZZ_Rate
_HTとする。
That is, the value of Zigzag_Rate [i] to which the part of small absolute value i is added is ZZ_Rate_moji, and the value of the part of large absolute value i is added to ZZ_Rate.
_HT.

【0005】そして、式(2)の判定条件が成り立つ時
は文字画像、式(3)の判定条件が成り立つ時は網点画
像と判定する。これは、ジグザグレートについての、文
字画像は低周波部分の値が大きく、網点画像は高周波部
分の値が大きいという性質を利用したものである。
Then, when the judgment condition of the expression (2) is satisfied, it is judged as a character image, and when the judgment condition of the expression (3) is satisfied, it is judged as a halftone image. This utilizes the property that the character image has a large value in the low frequency portion and the halftone image has a large value in the high frequency portion with respect to zigzag.

【0006】 ZZ_Rate_moji+key≧定数1 式(2) ZZ_Rate_HT+key≦定数2 式(3) ここで、定数1、2は実験的に設定し、keyは周囲4
ブロックの判定結果を式(4)に従って計算したものを
用いる。つまり、注目ブロックに対して、上ブロック、
斜め右上ブロック、左ブロック、2つ左ブロックであ
る。
ZZ_Rate_moji + key ≧ constant 1 Formula (2) ZZ_Rate_HT + key ≦ constant 2 Formula (3) Here, constants 1 and 2 are experimentally set, and key is the surroundings 4
The block determination result calculated according to equation (4) is used. In other words, for the block of interest, the upper block,
They are the diagonally upper right block, the left block, and the two left blocks.

【0007】さらに、式(4)中のflagは、判定結
果が文字ならば負、網点ならば正の値をとる。
Further, the flag in the equation (4) has a negative value if the judgment result is a character and a positive value if the judgment result is a halftone dot.

【0008】 key=0.25(flag(上)+flag(左))+0.125(flag(二つ左)+flag(斜め右上)) 式(4) 次に、画像電子学会誌第20巻5号の「適応的量子化を
用いたDCT符号化法」における処理を説明する。
Key = 0.25 (flag (upper) + flag (left)) + 0.125 (flag (two left) + flag (obliquely upper right)) Formula (4) Next, the journal of the Institute of Image Electronics Engineers of Japan, Volume 20, No. 5 The processing in the "DCT coding method using adaptive quantization" will be described.

【0009】これは、文字画像と網点画像を分離して画
像圧縮の量子化テーブルを切り換えることで、文字画像
の劣化防止と網点画像部分の圧縮率向上を図ることを目
的とする。同方式においても、初めに画像データを8×
8サイズのブロックに分割し、DCT変換を行なう。次
に、図13(a)〜(e)の領域90〜94に含まれる
係数の絶対値の和をそれぞれ算出する。そして、91〜
94の係数和の最大値が90より大きく、且つ、91〜
94の係数和の最大値が所定の閾値Aより大きい時に、
ブロックを網点画像であると判定する。また、図13
(f)において、領域95に含まれる係数の絶対値の和
が閾値Bより大きく、且つ、網点画像ブロックと判別さ
れなかった場合に、文字画像ブロックであると判定す
る。
The purpose of this is to prevent the deterioration of the character image and improve the compression rate of the halftone dot image portion by separating the character image and the halftone image and switching the quantization table for image compression. Even in this method, the image data is initially 8 ×
It is divided into 8 size blocks and DCT conversion is performed. Next, the sum of the absolute values of the coefficients included in the regions 90 to 94 of FIGS. 13A to 13E is calculated. And 91-
The maximum value of the coefficient sum of 94 is larger than 90, and 91-
When the maximum value of the coefficient sum of 94 is larger than the predetermined threshold value A,
The block is determined to be a halftone image. In addition, FIG.
In (f), when the sum of the absolute values of the coefficients included in the area 95 is larger than the threshold value B and it is not determined that the image is a halftone dot image block, it is determined to be a character image block.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、上記処
理は白黒画像に対する処理方法であり、カラー画像から
の抽出処理は行えなかった。すなわち、周波数係数の検
出を一律な閾値で行なうために、文字の色によっては抽
出率が低くなるという問題があった。
However, the above-mentioned processing is a processing method for a monochrome image, and extraction processing from a color image cannot be performed. That is, since the frequency coefficient is detected with a uniform threshold value, there is a problem that the extraction rate becomes low depending on the character color.

【0011】[0011]

【課題を解決するための手段】及びMeans for Solving the Problems and

【作用】本発明は上記従来例に鑑みてなされたもので、
画像領域の色に関わらずに高い抽出率で画像の領域の判
定を行う画像処理装置及び方法を提供しようとするもの
である。
The present invention has been made in view of the above conventional example,
It is an object of the present invention to provide an image processing apparatus and method for determining an area of an image with a high extraction rate regardless of the color of the image area.

【0012】この課題を解決するため、例えば本発明の
画像処理装置は以下の構成を備える。すなわち、画像デ
ータを空間周波数軸上のデータに変換して、当該空間周
波数の特性に基づいて領域を判別する画像処理装置であ
って、周波数係数から所望の領域属性の特徴を検出する
検出手段と、該特徴検出手段の結果を閾値と比較するこ
とで領域属性の判定を行なう判定手段と、設定された範
囲領域内の色相を検出する色相検出手段と、該色相検出
手段の結果に応じて前記判定手段で使用する閾値を調整
する調整手段とを備える。
To solve this problem, for example, the image processing apparatus of the present invention has the following configuration. That is, an image processing device that converts image data into data on a spatial frequency axis and discriminates an area based on characteristics of the spatial frequency, and a detection unit that detects a characteristic of a desired area attribute from a frequency coefficient. , A judgment means for judging the area attribute by comparing the result of the characteristic detection means with a threshold value, a hue detection means for detecting a hue within a set range area, and the hue detection means according to the result of the hue detection means. Adjusting means for adjusting the threshold value used by the judging means.

【0013】かかる構成において、設定された領域内の
色相を検出し、この色相に応じて周波数係数の閾値を調
整する。
In such a configuration, the hue in the set area is detected, and the threshold value of the frequency coefficient is adjusted according to this hue.

【0014】また、本発明の好適な実施態様に従えば、
判定手段は、文字で構成される領域と非文字の領域を判
定することが望ましい。これによって異なる空間周波数
の特性をこれらが備えるので、容易に文字領域の判定或
いは切り出しが行なえるようになる。
According to a preferred embodiment of the present invention,
It is desirable that the determining means determines the area formed of characters and the non-character area. As a result, since these have different spatial frequency characteristics, the character area can be easily determined or cut out.

【0015】また、調整手段は、前記色相検出手段で検
出された前記領域が変わる度に、当該領域内の色相の種
類の頻度に基づいて、所定数の色相を選択し、当該選択
された色相の種類に基づいて前記閾値を調整するように
しても良い。この結果、テレビ映像等のテロップや、こ
れに類する、時々刻々と変化する背景があっても、文字
領域を判定することが可能になる。
Further, the adjusting means selects a predetermined number of hues each time the area detected by the hue detecting means changes, and selects a predetermined number of hues based on the frequency of the types of hues in the area. The threshold value may be adjusted based on the type. As a result, it is possible to determine the character area even if there is a telop of a television image or the like, or a background similar to this, which changes from moment to moment.

【0016】[0016]

【実施例】以下、添付図面を参照して、本発明に係る好
適な一実施例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will be described in detail below with reference to the accompanying drawings.

【0017】<装置構成の説明(図2)>本実施例の画
像処理装置は、外部インターフェースから画像を入力
し、蓄積する手段を設けたパーソナルコンピュータであ
る。入力画像から文字領域を切出してデータベースを構
築し、それを利用して画像検索を行なう機能を備える。
<Explanation of Apparatus Configuration (FIG. 2)> The image processing apparatus of this embodiment is a personal computer provided with means for inputting and storing an image from an external interface. It has a function to cut out a character area from an input image, construct a database, and use it to perform image retrieval.

【0018】図2は、本実施例の画像処理装置の概略構
成を示すブロック図である。図中、1は装置全体の制御
を行なうCPUであり、メモリ部3に格納されたプログ
ラムに従って演算、I/O制御などの処理を実行する。
周辺機器コントローラ2は、CPU1とセットで用いら
れ、周辺機器を制御するのに必要なI/O(シリアル通
信、パラレル通信、リアルタイムクロック、タイマ、割
り込み制御、DMA制御等)の制御を行なう。メモリ部
3は、CPU1の主装置として、DRAM、キャッシュ
RAM、ROM等のメモリを含む。また、画像領域検出
処理におけるワークエリアも兼ねる。4は、ユーザデー
タや装置の設定、画像データの記憶を行なうハードディ
スクドライブである。5はFDD制御部であり、6はフ
ロッピーディスクドライブである。7はキーボード制御
部であり、8はキーボードである。表示ユニット9にお
いて、10は表示制御部であり、VRAM11から表示
データを順次読み出し、階調変換等を行ないながら、液
晶パネル12へデータを転送する。また、表示制御部1
0は、CPU1からVRAMへのアクセスと、VRAM
から表示部6へのデータ転送の調停を行なう。本実施例
においては、液晶パネル12は、各種ファイルの情報を
表示すると共に、画像データを表示する。また、通信ユ
ニット13において、15は通信得インターフェースで
あり、14は通信制御部である。通信規格は、RS−2
32C、イーサネット等のシリアル通信、セントロニク
ス、SCSI等のパラレル通信のインターフェースであ
り、テキスト等の各種データや画像データの入出力を行
なう。また、NTSC方式などのテレビ信号を入力する
インターフェースを備える。16は画像データから文字
領域を抽出する画像領域検出部である。
FIG. 2 is a block diagram showing the schematic arrangement of the image processing apparatus of this embodiment. In the figure, reference numeral 1 is a CPU that controls the entire apparatus, and executes processing such as calculation and I / O control according to a program stored in the memory unit 3.
The peripheral device controller 2 is used together with the CPU 1 to control I / O (serial communication, parallel communication, real-time clock, timer, interrupt control, DMA control, etc.) necessary for controlling the peripheral device. The memory unit 3 includes a memory such as a DRAM, a cache RAM, and a ROM as a main unit of the CPU 1. It also serves as a work area in the image area detection process. A hard disk drive 4 stores user data, device settings, and image data. Reference numeral 5 denotes an FDD control unit, and reference numeral 6 denotes a floppy disk drive. Reference numeral 7 is a keyboard control unit, and 8 is a keyboard. In the display unit 9, 10 is a display controller, which sequentially reads display data from the VRAM 11 and transfers the data to the liquid crystal panel 12 while performing gradation conversion and the like. Also, the display control unit 1
0 indicates access to VRAM from CPU 1 and VRAM
To arbitrate data transfer from the display unit 6 to the display unit 6. In this embodiment, the liquid crystal panel 12 displays information of various files and also image data. Further, in the communication unit 13, 15 is a communication acquisition interface, and 14 is a communication control unit. The communication standard is RS-2
It is an interface for serial communication such as 32C and Ethernet, and parallel communication such as Centronics and SCSI, and inputs and outputs various data such as text and image data. Further, it is provided with an interface for inputting a television signal such as an NTSC system. Reference numeral 16 is an image area detection unit that extracts a character area from image data.

【0019】<画像領域検出部の説明(図1,図3)>
まず、図3を用いて、本実施例における文字切り出しの
様子を説明する。本実施例では、写真の混在するカラー
の文書画像を入力し、その中から文字領域を抽出する処
理を行なう。図3(a)は文書画像の例であり、タイト
ル文字80と81、写真画像82の3つの要素で構成さ
れている。文書画像の地色は白色であり、文字80,8
1は赤、青といった色調で書かれている。なお、図中の
マス目は、後述する小ブロックの境界を表わしており、
文書画像には表示されていない。図3(b)は文字抽出
結果を表わす図であり、文字領域80,81のみが切出
されている。本実施例の処理は、図3(a)の入力画像
から、図3(b)の画像を作成することである。
<Description of Image Area Detection Unit (FIGS. 1 and 3)>
First, with reference to FIG. 3, the manner of character extraction in this embodiment will be described. In the present embodiment, a color document image in which photographs are mixed is input, and a process of extracting a character area from the document image is performed. FIG. 3A is an example of a document image, which is composed of three elements, title characters 80 and 81, and a photographic image 82. The background color of the document image is white and the characters 80, 8
1 is written in colors such as red and blue. The squares in the figure represent the boundaries of the small blocks described below,
It is not displayed in the document image. FIG. 3B is a diagram showing the character extraction result, and only the character areas 80 and 81 are cut out. The processing of this embodiment is to create the image of FIG. 3B from the input image of FIG.

【0020】次に、本実施例の画像領域検出部の動作に
ついて説明すると、初めに画像データを空間周波数軸上
の係数データに変換し、周波数係数の特徴を検出する。
一方で、DCT係数の直流成分から領域色相を検出し
て、色相に応じて閾値設定を変更するという動作を行な
う。
Next, the operation of the image area detecting unit of this embodiment will be described. First, the image data is converted into coefficient data on the spatial frequency axis, and the characteristic of the frequency coefficient is detected.
On the other hand, the operation of detecting the area hue from the DC component of the DCT coefficient and changing the threshold setting according to the hue is performed.

【0021】続いて、図1のブロック図を用いて、本実
施例の画像領域検出部の構成を説明する。
Next, the configuration of the image area detecting section of this embodiment will be described with reference to the block diagram of FIG.

【0022】図中、20はブロック分割部であり、画像
データを8×8画素の小ブロックに分割する。続く21
はYUV変換部であり、RGB信号で入力されたブロッ
クデータを、輝度(Y)と色差(U,V)の形式に変換
する。22はDCT変換部であり、小ブロックに対して
離散コサイン変換を行ない、空間周波数軸上の係数デー
タに変換する。20〜22は、JPEGやMPEG方式
などの標準規格で使用されている技術と同様であり、詳
細な原理の説明は省略する。
In the figure, reference numeral 20 denotes a block dividing unit, which divides image data into small blocks of 8 × 8 pixels. Continued 21
Is a YUV converter, which converts the block data input as RGB signals into a format of luminance (Y) and color difference (U, V). Reference numeral 22 is a DCT transforming unit, which performs discrete cosine transform on the small block and transforms it into coefficient data on the spatial frequency axis. Nos. 20 to 22 are the same as the techniques used in the standard such as JPEG and MPEG, and the detailed description of the principle is omitted.

【0023】続く23は係数演算部であり、周波数係数
から文字領域と画像領域を分離するための特徴の検出を
行なう。本実施例では、先の従来技術で述べた、低周波
と高周波領域でそれぞれに「ジグザグレート」の積算を
行なう方法を使用する。しかし、本発明の係数演算方式
は、文字領域の特徴が検出できるものであれば、他の方
式であってももちろんよい。24は属性判定部であり、
係数演算部23の結果を閾値と比較して、当該ブロック
が文字領域であるかの判定を行なう。また、判定部24
は、従来技術と同様に周辺ブロックの判定結果を判定条
件として使用する。
The following 23 is a coefficient calculation unit, which detects a feature for separating the character area and the image area from the frequency coefficient. In this embodiment, the method of performing the "zigzagrate" integration in each of the low frequency region and the high frequency region, which has been described in the prior art, is used. However, the coefficient calculation method of the present invention may of course be another method as long as the characteristic of the character area can be detected. 24 is an attribute determination unit,
The result of the coefficient calculation unit 23 is compared with a threshold value to determine whether the block is a character area. In addition, the determination unit 24
Uses the judgment result of the peripheral blocks as the judgment condition, as in the prior art.

【0024】一方、25は色相検出部であり、色差信号
UVのDCT係数から直流成分を取出し、ブロックの主
な色相を検出する。26は閾値設定部であり、色相検出
部25の色相に対応する閾値を閾値テーブル27から取
り出し、属性判定部24の判定閾値に設定する。なお、
21〜27はブロック属性検出部28に含まれ、ブロッ
ク分割部20で分割されたブロックの全てに対して順番
に処理が行われる。領域抽出部29では、文字と判定さ
れたブロックの画像データのみをファイルに出力する。
23〜27の動作については、以下でさらに詳細な説明
を行なう。
On the other hand, reference numeral 25 denotes a hue detecting section, which extracts a DC component from the DCT coefficient of the color difference signal UV and detects the main hue of the block. Reference numeral 26 denotes a threshold value setting unit, which takes out a threshold value corresponding to the hue of the hue detecting unit 25 from the threshold value table 27 and sets it as the determination threshold value of the attribute determining unit 24. In addition,
21 to 27 are included in the block attribute detection unit 28, and the processes are sequentially performed on all the blocks divided by the block division unit 20. The area extraction unit 29 outputs only the image data of the block determined to be a character to the file.
The operations 23 to 27 will be described in more detail below.

【0025】<色相検出部の動作の説明(図4)>以下
では、図4を用いて、色相検出部の走査の説明を行な
う。本実施例の色相検出処理(色相検出部25)は、色
差信号UVのDCT係数から直流成分を取り出し、これ
をブロック内の色相として検出を行なう。
<Description of Operation of Hue Detection Unit (FIG. 4)> The scanning of the hue detection unit will be described below with reference to FIG. The hue detection processing (hue detection unit 25) of the present embodiment extracts a DC component from the DCT coefficient of the color difference signal UV and detects this as the hue in the block.

【0026】図4(a)は画像ブロックの例である。画
像中には、文字が含まれており、文字色は青、背景色は
白である。図4(b)は、ブロック85を拡大した様子
を示す図である。図4(c)(d)は、YUV形式に変
換した後の、UV成分の分布を示す図であり、図4
(c)がU成分、図4(d)がV成分を示す。画素値の
振幅は−128〜127までの範囲である。
FIG. 4A shows an example of an image block. The image contains characters, and the character color is blue and the background color is white. FIG. 4B is a diagram showing a state in which the block 85 is enlarged. 4C and 4D are diagrams showing the distribution of UV components after conversion to the YUV format.
4C shows the U component, and FIG. 4D shows the V component. The amplitude of the pixel value is in the range of -128 to 127.

【0027】続く図4(e)(f)は、DCT変換を行
なった後の周波数係数の分布を示す図であり、図4
(e)がU成分、図4(f)がV成分を示す。同図は、
UV成分も8×8サイズのブロック毎にDCT変換を行
なった例である。JPEG方式のように、UV成分も1
6×16サイズでDCT変換を行うようにしてもよい。
ここで、ブロックの平均的な色は、DCTブロックの左
上の係数(DC成分)に強く表われる。すなわち、図4
(c)で文字部分の大きな画素値(127)は図4
(e)のDC成分(U)86の値に、図4(d)で文字
部分の小さな画素値(−128)は図4(f)のDC成
分(V)87の値に反映する。そこで、色相検出部25
では、DCT変換したブロックのUV信号から、DC成
分(U)86、(V)87を検出して、出力を行なう。
FIGS. 4 (e) and 4 (f) are diagrams showing the distribution of frequency coefficients after the DCT conversion is performed.
4E shows the U component, and FIG. 4F shows the V component. The figure shows
The UV component is also an example in which DCT conversion is performed for each block of 8 × 8 size. Like the JPEG method, the UV component is also 1
The DCT conversion may be performed in a size of 6 × 16.
Here, the average color of the block strongly appears in the upper left coefficient (DC component) of the DCT block. That is, FIG.
In FIG. 4C, the large pixel value (127) of the character portion is shown in FIG.
The value of the DC component (U) 86 in FIG. 4E is reflected in the value of the DC component (V) 87 in FIG. Therefore, the hue detection unit 25
Then, the DC components (U) 86 and (V) 87 are detected from the DCT-converted UV signal of the block and output.

【0028】<閾値設定部の動作の説明(図5,図1
4)>まず、図14は色相と周波数特徴の関係を示す図
であり、同図を用いて閾値の決定方法について説明す
る。
<Description of Operation of Threshold Setting Section (FIGS. 5 and 1)
4)> First, FIG. 14 is a diagram showing the relationship between hue and frequency characteristics, and a method for determining a threshold value will be described with reference to FIG.

【0029】図中、横軸は色名を、縦軸は各色を文字に
使用した時の周波数特徴の値を示している。図から、黄
色やオレンジは特徴値が低く、青や紫は高く現れてい
る。この理由は、各色相の純色の輝度が、それぞれ異な
ることによる。そして、周波数特徴は輝度成分Yを用い
て計算するため、色相によって特徴値が異なるのであ
る。従って、各色相毎の閾値は、図14の周波数特徴の
値を用いて決定することができる。
In the figure, the horizontal axis indicates the color name, and the vertical axis indicates the value of the frequency characteristic when each color is used for a character. From the figure, yellow and orange have low feature values, and blue and purple appear high. The reason for this is that the brightness of the pure color of each hue is different. Since the frequency characteristic is calculated using the luminance component Y, the characteristic value differs depending on the hue. Therefore, the threshold value for each hue can be determined using the value of the frequency feature of FIG.

【0030】図5は閾値テーブルの内容を示す図であ
る。閾値テーブル27は、U,V成分の値を軸にとった
マトリクス状のテーブルである。各軸は、DC成分の係
数値に合わせて3つに分割される。表中にかかれている
色名88は、UV信号の値の組み合わせで表わされる色
相である。そして、表中の数字89が、色相に対応した
閾値である。例えば、文字色が青の場合は、周波数特徴
が大きくでるため、閾値を大きな値「40」に設定す
る。一方で、文字色が黄色の場合は、文字周波数特徴が
小さな値となるので、閾値も小さな値「20」に設定す
る。
FIG. 5 is a diagram showing the contents of the threshold table. The threshold value table 27 is a matrix-like table with the values of the U and V components as axes. Each axis is divided into three according to the coefficient value of the DC component. The color name 88 shown in the table is a hue represented by a combination of UV signal values. The number 89 in the table is the threshold value corresponding to the hue. For example, when the character color is blue, the frequency characteristic is large, so the threshold value is set to a large value “40”. On the other hand, when the character color is yellow, the character frequency feature has a small value, so the threshold value is also set to a small value “20”.

【0031】閾値設定部26の動作について説明する
と、閾値設定部26は、まず、色相検出部25からDC
成分(U)と(V)の値を入力する。次に、DC成分
(U)と(V)の値で、閾値テーブル27を検索し、対
応する閾値を決定する。そして、この閾値を属性判定部
24に出力し、処理を終了する。
The operation of the threshold value setting unit 26 will be described.
Enter values for components (U) and (V). Next, the threshold value table 27 is searched with the values of the DC components (U) and (V) to determine the corresponding threshold value. Then, this threshold value is output to the attribute determination unit 24, and the process ends.

【0032】<属性判定部の動作(図6)>続いて、図
6のフローチャートを用いて、属性判定部24の処理の
流れを説明する。
<Operation of Attribute Judgment Unit (FIG. 6)> Next, the flow of processing of the attribute judgment unit 24 will be described with reference to the flowchart of FIG.

【0033】まず、ステップS100では、係数演算部
23から係数特徴の入力を行なう。本実施例では、「ジ
グザグレート」の低周波部分と高周波部分の積算値であ
る、ZZ_Rate_moji、ZZ_Rate_HT
を入力する。ステップS101では、周辺ブロックの判
定結果を入力し、判定の補正値を算出する。従来例に従
えば、当該ブロックの上、右斜め上、左、二つ左のブロ
ックの結果を用いて、式(4)からkeyの値が計算さ
れる。続くステップS102では、閾値設定部26で決
定された閾値TH_LEVELを入力する。ステップS
103では、式(5),(3)に従ってパラメータZZ
_Rate_moji、ZZ_Rate_HT,ke
y、TH_LEVELを代入し、当該ブロックが文字画
像であるかの判定を行なう。
First, in step S100, the coefficient feature is input from the coefficient calculator 23. In the present embodiment, ZZ_Rate_moji and ZZ_Rate_HT are integrated values of the low frequency part and the high frequency part of "Zig the Great".
Enter In step S101, the determination result of the peripheral block is input and the correction value for the determination is calculated. According to the conventional example, the value of key is calculated from the equation (4) using the results of the blocks above, diagonally above, to the left, to the left, and two to the left. In the following step S102, the threshold TH_LEVEL determined by the threshold setting unit 26 is input. Step S
In 103, the parameter ZZ is calculated according to equations (5) and (3).
_Rate_moji, ZZ_Rate_HT, ke
Substituting y and TH_LEVEL, it is determined whether the block is a character image.

【0034】 ZZ_Rate_moji+key≧TH_LEVEL (式5) ステップS104では、判定結果を領域抽出部29へ出
力すると共に、他のブロックのkeyパラメータ計算に
使用できるようにワーク領域に格納を行ない、処理を終
了する。以上の処理により、係数特徴を色相検出部で決
定した閾値によって判定する処理が可能となる。
ZZ_Rate_moji + key ≧ TH_LEVEL (Equation 5) In step S 104, the determination result is output to the area extraction unit 29, stored in the work area so that it can be used for the key parameter calculation of another block, and the processing ends. With the above processing, it is possible to perform the processing of determining the coefficient feature based on the threshold value determined by the hue detection unit.

【0035】以上、説明したように本実施例によれば、
ブロックのDC成分の色相に応じて係数特徴の判定閾値
を変更することで、文字の色にかかわらず切出しを行な
うことが可能となり、文字抽出率を向上させることがで
きる。
As described above, according to this embodiment,
By changing the determination threshold of the coefficient feature according to the hue of the DC component of the block, it is possible to cut out regardless of the color of the character, and the character extraction rate can be improved.

【0036】なお、本発明は、上述の実施例に限られる
ことなく、幅広く応用することができる。例えば、本実
施例では文書の背景色を白であるとみなして処理を行な
ったが、ユーザの設定などによって背景色を変更できる
ようにしてもよい。この場合、装置内部には背景色毎の
閾値テーブルを備えており、設定された背景の色相に応
じて閾値テーブルを切り換えるようにする。これによっ
て、文書画像の背景の色に関わらずに、本実施例の効果
を得ることができる。また、領域抽出部29では、文字
と判定されたブロックの画像データのみを出力するよう
にしたが、文字認識手段を内蔵して文字コードを出力す
るようにしてもよい。また、属性判定部は、CPUで判
定を行なう例を説明したが、ロジック回路で構成するよ
うにしてももちろん良い。閾値設定部26で決定される
閾値を文字画像判定用だけでなく、網点画像判定用の閾
値も連動して変更するようにしてもよい。さらに、係数
演算方式は、本実施例では「ジグザグレート」を計算す
る方式で説明したが、文字領域の特徴を検出する他の方
式にも広く応用できることは言うまでもない。
The present invention is not limited to the above-mentioned embodiment but can be widely applied. For example, in the present embodiment, the processing is performed assuming that the background color of the document is white, but the background color may be changed by the user's setting or the like. In this case, a threshold value table for each background color is provided inside the apparatus, and the threshold value table is switched according to the set background hue. As a result, the effect of this embodiment can be obtained regardless of the background color of the document image. Further, although the area extracting unit 29 outputs only the image data of the block determined to be a character, it may be configured to output a character code by incorporating a character recognition unit. Further, although the attribute determination unit has been described as an example in which the determination is performed by the CPU, it may be configured by a logic circuit. The threshold determined by the threshold setting unit 26 may be changed not only for the character image determination but also for the halftone image determination. Furthermore, although the coefficient calculation method has been described in the present embodiment as a method of calculating "zigzagrate", it is needless to say that it can be widely applied to other methods for detecting the characteristics of a character area.

【0037】<第2の実施例>前述の実施例(第1の実
施例)では、DCTブロックのDC成分の色相に応じ
て、係数特徴の判定閾値を変更する構成について説明を
行なった。本第2の実施例では、実空間の画像ブロック
上に現われる複数の色相を検出することで、局所的な背
景色を判定し、閾値設定の変更を行なう処理について説
明する。例えば、テレビ画像の文字テロップなどでは、
背景の色やテクスチャは刻々と変化し、一様に設定する
ことができない。本第2の実施例ではこのような問題点
について解決する。
<Second Embodiment> In the above-described embodiment (first embodiment), the configuration for changing the determination threshold of the coefficient feature according to the hue of the DC component of the DCT block has been described. In the second embodiment, a process of determining a local background color by detecting a plurality of hues appearing on an image block in the real space and changing the threshold setting will be described. For example, in the case of text telops on TV images,
The background color and texture change every moment and cannot be set uniformly. The second embodiment solves such a problem.

【0038】まず、図7を用いて、本第2の実施例にお
ける文字切り出しの様子を説明する。本実施例では、テ
レビ画像を入力して、そのフレーム中から文字テロップ
の領域を抽出する処理を行なう。図7(a)はテレビの
1フレーム分の画像である。同図の画像は、文字テロッ
プ60、対象物61、対象物62の3つの要素で構成さ
れている。文字テロップ80の背景には構造物が斜めに
横切っており、背景色は文字領域中で一様ではない。図
7(b)は文字抽出結果を表わす図であり、本第2の実
施例の処理は図7(a)の入力画像から、図7(b)の
画像を作成を行なう。
First, with reference to FIG. 7, the manner of character extraction in the second embodiment will be described. In this embodiment, a television image is input and a process of extracting a character telop area from the frame is performed. FIG. 7A shows an image for one frame on the television. The image in the figure is composed of three elements, a character telop 60, an object 61, and an object 62. In the background of the character telop 80, a structure diagonally crosses, and the background color is not uniform in the character area. FIG. 7B is a diagram showing the character extraction result, and the processing of the second embodiment creates the image of FIG. 7B from the input image of FIG. 7A.

【0039】<画像領域検出部の説明(図8)>まず、
図8のブロック図を用いて、本第2の実施例における画
像検出部の構成を説明する。前述した第1の実施例と同
一の構成要素には同一の番号を付し、特に説明を行なわ
ない。同図においては、色相検出部25のデータ入力元
が前述の実施例と異なっている。本実施例の色相検出部
25は、YUV変換部21から、実空間上の画像データ
を入力する構成をとる。
<Description of Image Area Detection Unit (FIG. 8)> First,
The configuration of the image detection unit in the second embodiment will be described with reference to the block diagram of FIG. The same components as those in the first embodiment described above are designated by the same reference numerals and will not be described in particular. In the figure, the data input source of the hue detection unit 25 is different from that of the above-described embodiment. The hue detection unit 25 of the present embodiment is configured to input image data in the real space from the YUV conversion unit 21.

【0040】<色相検出部の動作の説明(図9,図1
0,図11)>図9は、色相検出部の処理の流れを示す
フローチャートであり、同図を用いて色相検出部25の
動作を説明する。本実施例の色相検出処理は、実空間上
のブロックに現われる色相を積算して、主要な色相を検
出するという動作を行なう。
<Explanation of the operation of the hue detecting section (FIGS. 9 and 1)
0, FIG. 11)> FIG. 9 is a flowchart showing the flow of processing of the hue detecting section, and the operation of the hue detecting section 25 will be described with reference to the same figure. The hue detection processing of the present embodiment performs an operation of integrating the hues appearing in blocks in the real space and detecting the main hue.

【0041】図中、まず、ステップS110では、ブロ
ック内の色相の出現頻度を表わす色相度数テーブルを作
成する。この動作の例を、図10,図11を用いて説明
する。
In the figure, first, in step S110, a hue frequency table representing the frequency of appearance of hues in a block is created. An example of this operation will be described with reference to FIGS.

【0042】図10(a)は、検出を行なう画像ブロッ
クの例であり、文字と斜めの線分とで構成されている。
この中のブロック85を拡大したものが、図10(b)
である。同図において、ブロック85は、文字を構成す
る画素70、背景画素71、線分を構成する画素72か
らなる。ここで各画素の色相は、画素70が青、画素7
1が白、画素72が赤であるとする。ブロック85の色
相度数テーブルを作成した例が図11である。色相度数
テーブルは、UV成分の値を分割してマトリクスにした
もので、各要素には対応するUV成分値をもつ画素の頻
度数が格納される。同図の例では、(U,V)=(8,
1)の要素が19個(青)、(5,5)が31個
(白)、(1,8)が14個(赤)であることがわか
る。
FIG. 10A shows an example of an image block for detection, which is composed of characters and diagonal line segments.
An enlarged block 85 in this is shown in FIG.
It is. In the figure, a block 85 is composed of pixels 70 forming a character, background pixels 71, and pixels 72 forming a line segment. Here, regarding the hue of each pixel, the pixel 70 is blue and the pixel 7 is
It is assumed that 1 is white and the pixel 72 is red. FIG. 11 shows an example of creating the hue frequency table of block 85. The hue frequency table is formed by dividing UV component values into a matrix, and each element stores the frequency number of pixels having a corresponding UV component value. In the example of the figure, (U, V) = (8,
It can be seen that the number of elements of 1) is 19 (blue), that of (5, 5) is 31 (white), and that of (1, 8) is 14 (red).

【0043】図9に戻って、続くステップS111で
は、色相度数テーブルを用いてブロック内の主要な色相
を検出する。具体的には、色相度数テーブルを検索し
て、度数の多い要素二つを検出する。図11の例では、
(8,1)の要素73と(5,5)の要素74が検出さ
れる。ステップS112では、検出された色相を閾値設
定部26に出力し、処理を終了する。
Returning to FIG. 9, in the following step S111, the main hue in the block is detected using the hue frequency table. Specifically, the hue frequency table is searched to detect two elements having high frequencies. In the example of FIG.
The element 73 of (8,1) and the element 74 of (5,5) are detected. In step S112, the detected hue is output to the threshold setting unit 26, and the process ends.

【0044】<閾値設定部の動作の説明>次に、閾値設
定部26と閾値テーブル27の動作を説明する。
<Description of Operation of Threshold Setting Unit> Next, the operation of the threshold setting unit 26 and the threshold table 27 will be described.

【0045】本実施例の閾値テーブル27は、背景色毎
に前述の実施例の図5で説明したテーブルを備えてい
る。図5は「背景色=白」の場合のテーブルであって、
「背景色=青、赤」などが準備されている。ここで、背
景色と文字色の関係について述べると、背景と文字の色
相が入れ替わった場合に、DCT輝度係数の符号は反転
するが、その絶対値は変わらない。そして、この差分を
用いて計算した周波数特徴量にも変化はない。従って、
二つの色相のうちで、どちらを背景色とするかは全くの
任意でよい。本実施例では、最も頻度の高かった色相を
背景色、第2の色相を文字色として処理を行なう。
The threshold value table 27 of this embodiment is provided with the table explained in FIG. 5 of the above-mentioned embodiment for each background color. FIG. 5 shows a table in the case of “background color = white”,
"Background color = blue, red" etc. are prepared. Here, the relationship between the background color and the character color will be described. When the hues of the background and the character are exchanged, the sign of the DCT luminance coefficient is inverted, but its absolute value is not changed. Further, there is no change in the frequency feature amount calculated using this difference. Therefore,
Which of the two hues is used as the background color may be completely arbitrary. In this embodiment, the most frequent hue is used as the background color and the second hue is used as the character color.

【0046】閾値設定部26の動作について説明する
と、まず、色相検出部から第一、第二の色相を入力す
る。そして、第一の色相に応じて、閾値テーブルの背景
色を選択する。次に、前述の実施例と同様に、第二の色
相を用いて閾値テーブルを検索する。続いて、閾値TH
_LEVELを属性判定部に出力し、処理を終了する。
以上の処理により、局所的な背景色に応じた閾値設定を
行なうことができる。
The operation of the threshold value setting unit 26 will be described. First, the first and second hues are input from the hue detection unit. Then, the background color of the threshold table is selected according to the first hue. Next, as in the above-described embodiment, the threshold value table is searched using the second hue. Then, the threshold TH
_LEVEL is output to the attribute determination unit, and the process ends.
By the above processing, it is possible to set the threshold value according to the local background color.

【0047】以上、説明したように本実施例によれば、
ブロックを構成する複数の色相を検出して判定閾値を変
更することで、文字や背景が局所的、時間的に変化する
場合の検出が可能となり、文字抽出率を向上させること
ができる。
As described above, according to this embodiment,
By detecting a plurality of hues forming a block and changing the determination threshold, it is possible to detect a case where a character or background changes locally or temporally, and it is possible to improve the character extraction rate.

【0048】なお、本実施例の色相検出処理では頻度の
高い要素を二つ用いた例を説明したが、さらに複数の要
素を用いて算出するようにしてもよい。例えば、頻度の
高い要素を3つ検出し、3色を組み合わせた閾値テーブ
ルを検索する処理を行なう。また、周辺ブロックの色相
頻度の判定結果で補正して、文字色、背景色を判定する
ようにしてもよい。これらの処理を行なうことで、文字
を構成する画素が少ししか含まれていないブロックであ
っても、より正しい閾値を設定することが可能となる。
In the hue detection process of the present embodiment, an example in which two frequently used elements are used has been described, but the calculation may be performed using a plurality of elements. For example, a process of detecting three frequently-used elements and searching a threshold table in which three colors are combined is performed. In addition, the character color and the background color may be determined by correcting the hue frequency of the peripheral block. By performing these processes, it is possible to set a more correct threshold value even for a block that includes only a few pixels that form a character.

【0049】また、本発明は、複数の機器から構成され
るシステムに適用しても、1つの機器から成る装置に適
用しても良い。また、本発明はシステム或は装置にプロ
グラムを供給することによって達成される場合にも適用
できることはいうまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or an apparatus.

【0050】[0050]

【発明の効果】以上説明したように本発明によれば、画
像領域の色に関わらず、高い抽出率で画像の領域の判定
を行うことが可能になる。
As described above, according to the present invention, it is possible to determine the area of an image with a high extraction rate regardless of the color of the image area.

【0051】[0051]

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例における画像領域検出部の構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing a configuration of an image area detection unit in an embodiment.

【図2】実施例における画像処理装置の概略構成を示す
ブロック図である。
FIG. 2 is a block diagram showing a schematic configuration of an image processing apparatus in an embodiment.

【図3】実施例における文字領域抽出動作の画像例を示
す図である。
FIG. 3 is a diagram showing an image example of a character area extracting operation in the embodiment.

【図4】実施例における色相検出の動作を説明する図で
ある。
FIG. 4 is a diagram illustrating an operation of hue detection according to the embodiment.

【図5】実施例における閾値テーブルの格納の様子を説
明する図である。
FIG. 5 is a diagram illustrating a storage state of a threshold value table according to the embodiment.

【図6】実施例における属性判定部の処理の流れを示す
フローチャートである。
FIG. 6 is a flowchart showing a processing flow of an attribute determination unit in the embodiment.

【図7】第2の実施例における文字領域抽出動作の画像
例を示す図である。
FIG. 7 is a diagram showing an image example of a character area extracting operation in the second embodiment.

【図8】第2の実施例における画像領域検出部の構成を
示すブロック図である。
FIG. 8 is a block diagram showing a configuration of an image area detection unit in the second embodiment.

【図9】第2の実施例における色相検出部の処理の流れ
を示すフローチャートである。
FIG. 9 is a flowchart showing a processing flow of a hue detection unit in the second embodiment.

【図10】第2の実施例における画像ブロックの例を説
明する図である。
FIG. 10 is a diagram illustrating an example of an image block according to the second embodiment.

【図11】第2の実施例における色相度数分布テーブル
の構成を説明する図である。
FIG. 11 is a diagram illustrating a configuration of a hue frequency distribution table according to the second embodiment.

【図12】従来技術におけるジグザグスキャン処理の順
序を説明する図である。
FIG. 12 is a diagram illustrating the order of zigzag scanning processing in the related art.

【図13】従来技術における係数の積算領域を説明する
図である。
FIG. 13 is a diagram illustrating a coefficient integration region in the conventional technique.

【図14】実施例1における色相と周波数特徴との関係
を表わす図である。
FIG. 14 is a diagram illustrating a relationship between hue and frequency characteristics according to the first exemplary embodiment.

【符号の説明】 1 CPU 2 周辺コントローラ 3 メモリ部 4 ハードディスクドライブ 5 FDD制御部 6 FDDドライブ 7 キーボード制御部 8 キーボード 9 表示ユニット 10 表示制御部 11 VRAM 12 液晶ディスプレイ 13 通信ユニット 14 通信制御部 15 通信インターフェース 16 画像領域検出部 20 ブロック分割部 21 YUV変換部 22 DCT変換部 23 係数演算部 24 属性判定部 25 色相検出部 26 閾値設定部 27 閾値テーブル 28 ブロック属性検出部 29 領域抽出部[Explanation of Codes] 1 CPU 2 Peripheral controller 3 Memory section 4 Hard disk drive 5 FDD control section 6 FDD drive 7 Keyboard control section 8 Keyboard 9 Display unit 10 Display control section 11 VRAM 12 Liquid crystal display 13 Communication unit 14 Communication control section 15 Communication Interface 16 Image region detection unit 20 Block division unit 21 YUV conversion unit 22 DCT conversion unit 23 Coefficient calculation unit 24 Attribute determination unit 25 Hue detection unit 26 Threshold setting unit 27 Threshold table 28 Block attribute detection unit 29 Region extraction unit

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 画像データを空間周波数軸上のデータに
変換して、当該空間周波数の特性に基づいて領域を判別
する画像処理装置であって、 周波数係数から所望の領域属性の特徴を検出する検出手
段と、 該特徴検出手段の結果を閾値と比較することで領域属性
の判定を行なう判定手段と、 設定された範囲領域内の色相を検出する色相検出手段
と、 該色相検出手段の結果に応じて前記判定手段で使用する
閾値を調整する調整手段とを備えることを特徴とする画
像処理装置。
1. An image processing apparatus for converting image data into data on a spatial frequency axis and discriminating an area based on a characteristic of the spatial frequency, wherein a characteristic of a desired area attribute is detected from a frequency coefficient. A detection unit, a determination unit that determines a region attribute by comparing the result of the feature detection unit with a threshold value, a hue detection unit that detects a hue within a set range region, and a result of the hue detection unit. An image processing apparatus, comprising: an adjusting unit that adjusts a threshold value used by the determining unit in accordance therewith.
【請求項2】 前記検出手段は、離散コサイン変換を用
いて直交変換を行うことを特徴とする請求項第1項に記
載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the detection means performs orthogonal transformation using discrete cosine transformation.
【請求項3】 前記検出手段は、アダマール変換を用い
て直交変換を行うことを特徴とする請求項第1項に記載
の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the detecting means performs orthogonal transformation using Hadamard transformation.
【請求項4】 前記判定手段は文字で構成される領域と
非文字の領域を判定することを特徴とする請求項第1項
乃至第3項のいずれかに記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the determination unit determines an area composed of characters and a non-character area.
【請求項5】 前記調整手段は、前記色相検出手段で検
出された前記領域が変わる度に、当該領域内の色相の種
類の頻度に基づいて、所定数の色相を選択し、当該選択
された色相の種類に基づいて前記閾値を調整することを
特徴とする請求項第1項乃至第3項のいずれかに記載の
画像処理装置。
5. The adjusting means selects a predetermined number of hues each time the area detected by the hue detecting means changes, and selects a predetermined number of hues based on the frequency of types of hues in the area. The image processing apparatus according to any one of claims 1 to 3, wherein the threshold value is adjusted based on the type of hue.
【請求項6】 画像データを空間周波数軸上のデータに
変換して、当該空間周波数の特性に基づいて領域を判別
する画像処理方法であって、 周波数係数から所望の領域属性の特徴を検出する特徴検
出工程と、 該特徴検出工程の結果を閾値と比較することで領域属性
の判定を行なう判定工程と、 設定された範囲領域内の色相を検出する色相検出工程
と、 該色相検出工程の結果に応じて前記判定工程で使用する
閾値を調整する調整工程とを備えることを特徴とする画
像処理方法。
6. An image processing method for converting image data into data on a spatial frequency axis and discriminating an area based on characteristics of the spatial frequency, wherein a characteristic of a desired area attribute is detected from a frequency coefficient. A characteristic detection step, a determination step of determining a region attribute by comparing the result of the characteristic detection step with a threshold value, a hue detection step of detecting a hue within a set range area, and a result of the hue detection step And an adjusting step of adjusting a threshold value used in the determining step according to the above.
【請求項7】 前記検出工程は、離散コサイン変換を用
いて直交変換を行うことを特徴とする請求項第6項に記
載の画像処理方法。
7. The image processing method according to claim 6, wherein the detecting step performs orthogonal transformation using discrete cosine transformation.
【請求項8】 前記検出工程は、アダマール変換を用い
て直交変換を行うことを特徴とする請求項第6項に記載
の画像処理方法。
8. The image processing method according to claim 6, wherein the detecting step performs orthogonal transformation using Hadamard transformation.
【請求項9】 前記判定工程は文字で構成される領域と
非文字の領域を判定することを特徴とする請求項第6項
乃至第8項のいずれかに記載の画像処理方法。
9. The image processing method according to claim 6, wherein the determining step determines a region formed of characters and a non-character region.
【請求項10】 前記調整工程は、前記色相検出工程で
検出された前記領域が変わる度に、当該領域内の色相の
種類の頻度に基づいて、所定数の色相を選択し、当該選
択された色相の種類に基づいて前記閾値を調整すること
を特徴とする請求項第6項乃至第8項のいずれかに記載
の画像処理方法。
10. The adjusting step selects a predetermined number of hues each time the area detected in the hue detecting step changes, and selects a predetermined number of hues based on the frequency of the types of hues in the area. 9. The image processing method according to claim 6, wherein the threshold value is adjusted based on the type of hue.
JP7161090A 1995-06-27 1995-06-27 Device and method for processing image Withdrawn JPH0916769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7161090A JPH0916769A (en) 1995-06-27 1995-06-27 Device and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7161090A JPH0916769A (en) 1995-06-27 1995-06-27 Device and method for processing image

Publications (1)

Publication Number Publication Date
JPH0916769A true JPH0916769A (en) 1997-01-17

Family

ID=15728426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7161090A Withdrawn JPH0916769A (en) 1995-06-27 1995-06-27 Device and method for processing image

Country Status (1)

Country Link
JP (1) JPH0916769A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10322595A (en) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting video telop
US7546315B2 (en) 2005-12-28 2009-06-09 International Business Machines Corporation Device for reporting software problem information
JP2010225112A (en) * 2009-03-25 2010-10-07 Toppan Printing Co Ltd Data generation device and data generation method
JP2013186610A (en) * 2012-03-07 2013-09-19 Nikon Systems Inc Character extraction device and character extraction program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10322595A (en) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting video telop
US7546315B2 (en) 2005-12-28 2009-06-09 International Business Machines Corporation Device for reporting software problem information
JP2010225112A (en) * 2009-03-25 2010-10-07 Toppan Printing Co Ltd Data generation device and data generation method
JP2013186610A (en) * 2012-03-07 2013-09-19 Nikon Systems Inc Character extraction device and character extraction program

Similar Documents

Publication Publication Date Title
US7812993B2 (en) Lossy method for compressing images and video
US7715656B2 (en) Magnification and pinching of two-dimensional images
US6385336B1 (en) Image processing method and system for generating a palette
EP0843464B1 (en) Image processing system and image processing method
JP3359116B2 (en) Image processing method and apparatus
EP0747855A2 (en) Method and apparatus for enhancing a digital image
JPH0946519A (en) Image processing unit and its method
EP1248472B9 (en) Image compressing device and image decompressing device, and computer-readable recorded medium on which program for allowing computer to execute image compressing method and image decompressing method
JPH0916769A (en) Device and method for processing image
US6917704B2 (en) Image processing method, image processing apparatus and image processing system
JP2000184183A (en) Electronic pasting method of compressed picture data and method for processing digital picture
US6829385B2 (en) Apparatus and method for processing images, and a computer-readable medium
JPH10233693A (en) Image processing method and device and storage medium
Pokorny Lossy Compression in the Chroma Subsampling Process
JP3792762B2 (en) Image processing apparatus and image processing method
JPH09186858A (en) Method and device for image processing and computer controller
KR100662276B1 (en) apparatus and method for on screen display
JP2000209449A (en) Color matching method and device
JPH10340332A (en) Image processor, image processing method and medium recording image processing control program
JPH09186861A (en) Method and device for image processing
EP1277174B1 (en) Image halftoning method
JPH08265755A (en) Picture processor and picture processing method
JPH0774966A (en) Picture processor
JPH06274618A (en) Area identifying device
JP2000261663A (en) Device and method for separating image area

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020903