JP2006040161A - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP2006040161A
JP2006040161A JP2004222245A JP2004222245A JP2006040161A JP 2006040161 A JP2006040161 A JP 2006040161A JP 2004222245 A JP2004222245 A JP 2004222245A JP 2004222245 A JP2004222245 A JP 2004222245A JP 2006040161 A JP2006040161 A JP 2006040161A
Authority
JP
Japan
Prior art keywords
image
layer
data
document
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004222245A
Other languages
Japanese (ja)
Inventor
Kunihiko Kobayashi
邦彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004222245A priority Critical patent/JP2006040161A/en
Publication of JP2006040161A publication Critical patent/JP2006040161A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to apply image processing with a higher degree of freedom to various objects included in a document represented as an image. <P>SOLUTION: BG layer data l11 include JPEG-compressed data compressed from an object, and information specifying the position and size of the object. The BG layer data l11 correspond only to an area carrying an image img in a single page. When the BG layer data l11 are compressed, the data size can be made smaller. FG layer data l12 include FAX-G4-compressed data compressed from various objects respectively, information specifying the positions and sizes of the objects, and information specifying the colors thereof. A user can thus edit only a specific object as deleting only red characters out of the objects included in the FG layer data l12. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、文書を構成する文字、グラフィクス及びイメージなどの各種オブジェクトに対して画像処理を施すための技術に関する。   The present invention relates to a technique for performing image processing on various objects such as characters, graphics, and images constituting a document.

インターネットやLAN(Local Area Network)等のコンピュータネットワークが急速に普及しつつある。ユーザはコンピュータを用いて作成した文書データを電子メールに添付し、これをネットワーク経由で他のコンピュータに送信させる、といった利用の仕方が可能である。また、ユーザは文書データをネットワークに接続されたサーバコンピュータに保存させておき、このサーバコンピュータから必要に応じて他のコンピュータに文書データを送信させる、といったことも容易に実現することができる。   Computer networks such as the Internet and LAN (Local Area Network) are rapidly spreading. The user can attach the document data created using a computer to an e-mail and send it to another computer via a network. In addition, the user can easily realize storing document data in a server computer connected to the network and transmitting the document data from the server computer to another computer as necessary.

この種の文書データは、送信元のコンピュータにインストールされた文書作成ソフトウェア固有のコードによって表現されている。従って、送信先のコンピュータは、その文書作成ソフトウェアと同一種類のソフトウェアを用意しておかないと、受け取った文書を表示したり編集したりすることができない。また、文書作成ソフトウェアの種類だけではなく、コンピュータのオペレーティングシステム(OS)の種類やバージョンなども統一しておかないと、文書の一部が表示されない等の不具合が生じる虞もある。よって、文書作成ソフトウェアだけではなく、その他のコンピュータ環境も全て統一して揃えておくことが望ましい。さらに、近年では、PDA(Personal Digital Assistants)や携帯電話機等の携帯型情報端末が普及し、これらの端末でも文書を表示することができるように求められている。このようにソフトウェアやハードウェアが多種多様化している状況に鑑みると、あらゆるコンピュータや携帯型情報端末が、受け取った文書を表示・編集できるようなコンピュータ環境を常に装備しているとは限らないと考えられる。   This type of document data is represented by a code unique to the document creation software installed in the transmission source computer. Therefore, the transmission destination computer cannot display or edit the received document unless software of the same type as the document creation software is prepared. Further, if not only the type of document creation software but also the type and version of the computer operating system (OS) are not unified, there is a possibility that a problem such as a part of the document not being displayed may occur. Therefore, it is desirable that not only the document creation software, but also all other computer environments are unified. Furthermore, in recent years, portable information terminals such as PDAs (Personal Digital Assistants) and mobile phones have become widespread, and these terminals are required to be able to display documents. In view of the diversification of software and hardware in this way, not all computers and portable information terminals are always equipped with a computer environment that can display and edit received documents. Conceivable.

このような問題に対しては、作成された文書データを一般的に利用されている汎用の画像データ(例えばBitmap形式)に変換してから他のコンピュータに送信する、という対策が考えられる。汎用の画像データによって文書が画像として表現されていれば、送信先のコンピュータが製品出荷時点で実装している一般的な画像処理ソフトウェアなどによって表示・編集することが可能だからである。ただし、画像データはそのデータサイズが非常に大きいのが普通であるから、例えばJPEG(Joint Photographic Experts Group)等のよく知られている圧縮方式で圧縮しておかないと、コンピュータ間で送受信するには不便である。例えばJPEG方式で画像データを圧縮した場合、その画像データの高周波成分を切り捨てるので、写真などの自然画像に対しては圧縮率や画質の点で良い結果が得られる。ただし、文書を構成する要素(オブジェクト)は自然画像ばかりではなく、文字(テキスト)やグラフィクスのようなものもある。これらのオブジェクトを一律にJPEG方式などの非可逆圧縮方式で圧縮すると、例えば文字のエッジ部分にモスキートノイズと呼ばれる画質劣化が発生し、文字が判読しづらくなる、といった問題が生じる。   For such a problem, it is conceivable that the created document data is converted into general-purpose image data (for example, Bitmap format) that is generally used and then transmitted to another computer. This is because if the document is expressed as an image by general-purpose image data, it can be displayed and edited by general image processing software or the like installed at the time of product shipment by the destination computer. However, image data is usually very large in size, so if it is not compressed with a well-known compression method such as JPEG (Joint Photographic Experts Group), it will be transmitted and received between computers. Is inconvenient. For example, when image data is compressed by the JPEG method, high-frequency components of the image data are discarded, so that good results can be obtained in terms of compression rate and image quality for natural images such as photographs. However, the elements (objects) constituting the document include not only natural images but also characters (text) and graphics. If these objects are uniformly compressed by an irreversible compression method such as the JPEG method, for example, there is a problem that image quality degradation called mosquito noise occurs at the edge portion of the character, making it difficult to read the character.

そこで、特許文献1では、文書中の文字領域とそれ以外の領域を分離し、これらの領域をそれぞれ異なる方式で圧縮するという技術(以下、従来技術という)が提案されている。その具体的内容は次の通りである。
まず、コンピュータは文書作成ソフトウェアを用いて作成した文書データに基づいて、多値画像データと像域フラグ画像とを生成する。像域フラグ画像は、多値画像データに含まれる各画素が文字であるか否かを示す1ビットのデータである。次に、コンピュータは、この像域フラグ画像に基づいて画像中の文字領域を検出し、その位置、サイズや色を判別する。そして、コンピュータは、文字領域とそれ以外の領域とをそれぞれ別々の方式で圧縮する。このような処理を経た結果、文字領域の画像データは、文字用の圧縮方式(例えばFAX−G4方式)で圧縮された圧縮コードと、文字の座標値と、文字の色とによって表される。一方、文字以外の領域(例えば背景)の画像データは、背景用の圧縮方式(例えばJPEG)で圧縮された1ページ分の圧縮コードによって表される。
In view of this, Japanese Patent Laid-Open No. 2004-228561 proposes a technique (hereinafter referred to as a conventional technique) in which a character area in a document is separated from other areas and these areas are compressed by different methods. The specific contents are as follows.
First, the computer generates multi-value image data and an image area flag image based on document data created using document creation software. The image area flag image is 1-bit data indicating whether each pixel included in the multilevel image data is a character. Next, the computer detects a character area in the image based on the image area flag image, and determines its position, size, and color. Then, the computer compresses the character area and the other areas by different methods. As a result of such processing, the image data of the character area is represented by a compression code compressed by a character compression method (for example, FAX-G4 method), a character coordinate value, and a character color. On the other hand, image data in an area other than characters (for example, background) is represented by a compression code for one page compressed by a background compression method (for example, JPEG).

ここで、図17は、従来技術によって処理された結果を説明するための図である。図17に示した処理前の文書画像P1は、黒色で描かれた文字t−bkと、黒色で描かれたグラフィクスg−bkと、赤色で描かれた文字t−rdと、赤色で描かれたグラフィクスg−rdと、写真画像などを取り込んで作成されたイメージimgといった各種オブジェクトによって構成されている。コンピュータがこの文書画像P1について上述した処理を行うと、まず、イメージimgを含むレイヤl1と、文字t−bk,t−rdやグラフィクスg−bk,g−rdを含むレイヤl2とに分離されることになる(矢印S1)。レイヤl1においては、イメージimgを含むページ全体の画像データがJPEG方式で圧縮される。レイヤl2においては、オブジェクトが色別(赤/黒)にFAX−G4方式で圧縮され、その圧縮データの位置・サイズ・色を指定する指定情報が付加される。FAX−G4方式は、白黒の画素群を表すバイナリデータを可逆圧縮する方式である。この方式においては、白(または黒)の画素を透明とし、透明な領域と反対の色をオブジェクトの存在領域とするように定義しておく。そして、コンピュータが圧縮された画像データを復元する時には、まず、JPEG方式で圧縮されているレイヤl1の画像データを展開し、その後に、FAX−G4方式で圧縮されているレイヤl2の画像データを展開する。次いで、コンピュータは、FAX−G4方式で圧縮された時に付加された指定情報に基づいて、各オブジェクトを指定されたサイズで指定された位置に配置し、指定された色で着色する。このような処理を経て元の画像が復元される(矢印S2)。   Here, FIG. 17 is a diagram for explaining a result processed by the prior art. The unprocessed document image P1 shown in FIG. 17 is drawn in black with a letter t-bk drawn in black, graphics g-bk drawn in black, a letter t-rd drawn in red, and red. Graphics g-rd and an image img created by taking a photographic image or the like. When the computer performs the above-described processing on the document image P1, it is first separated into a layer l1 containing the image img and a layer l2 containing the characters t-bk, t-rd and graphics g-bk, g-rd. (Arrow S1). In the layer 11, the image data of the entire page including the image img is compressed by the JPEG method. In the layer 12, the object is compressed by color (red / black) by the FAX-G4 method, and designation information for designating the position, size, and color of the compressed data is added. The FAX-G4 method is a method for reversibly compressing binary data representing a monochrome pixel group. In this method, white (or black) pixels are defined as transparent, and a color opposite to the transparent area is defined as an object existing area. When the computer restores the compressed image data, first, the image data of the layer 11 compressed by the JPEG method is expanded, and then the image data of the layer 12 compressed by the FAX-G4 method is extracted. expand. Next, the computer arranges each object at a designated position with a designated size based on the designation information added when compressed by the FAX-G4 method, and colors the object with a designated color. The original image is restored through such processing (arrow S2).

このように従来技術によれば、JPEGやFAX−G4などの汎用的な圧縮方式で画像データを圧縮するので、送信先のコンピュータはこの圧縮データを元の画像に復元するのは容易である。さらに、文字領域に関してはFAX−G4方式で圧縮するので画質劣化を極力少なくすることが可能となる。なお、以下の説明においては、復元時に画像を描画する順序を考慮して、最初に展開されるレイヤをBackgroundレイヤ(BGレイヤ)と呼び、次に展開するレイヤをForegroundレイヤ(FGレイヤ)と呼ぶことにする。   As described above, according to the conventional technique, the image data is compressed by a general-purpose compression method such as JPEG or FAX-G4. Therefore, it is easy for the transmission destination computer to restore the compressed data to the original image. Furthermore, since the character area is compressed by the FAX-G4 method, it is possible to minimize image quality degradation. In the following description, in consideration of the order in which images are drawn at the time of restoration, a layer that is first developed is called a background layer (BG layer), and a layer that is developed next is called a foreground layer (FG layer). I will decide.

特開2003−244447号公報JP 2003-244447 A

上述した従来技術においては、BGレイヤ(レイヤl1)の一部領域にしかイメージオブジェクトが存在していないのに、圧縮処理の対象となる画像データはBGレイヤ全体(文書1ページ分)に相当する画像データである。よって、たとえ圧縮したとしても、そのデータサイズは比較的大きくなってしまう。ユーザは、画像データを圧縮するのであれば、より小さいデータサイズに圧縮することを望むであろうが、この点で従来技術は不利である。   In the conventional technology described above, the image object exists only in a partial region of the BG layer (layer 11), but the image data to be subjected to compression processing corresponds to the entire BG layer (one page of the document). Image data. Therefore, even if compression is performed, the data size becomes relatively large. If the user wants to compress the image data, he will want to compress it to a smaller data size, but the prior art is disadvantageous in this respect.

また、従来技術は、FGレイヤ(レイヤl2)においては、複数種類のオブジェクトを色別に分離しているにすぎないため、同色で異種類のオブジェクトを分離することができない。例えば赤色の文字と赤色のグラフィクスを分離するということは無理である。ユーザによっては一部のオブジェクトだけを元の画像から切り取ったり、その形状や色を変えたり、或いは、全く別のオブジェクトと置換したり、といった様々な編集作業を行いたい場合がある。しかし、従来技術ではこのような要望に対応しづらいという問題がある。   Further, in the prior art, in the FG layer (layer 12), only a plurality of types of objects are separated by color, and therefore different types of objects of the same color cannot be separated. For example, it is impossible to separate red text and red graphics. Some users may want to perform various editing operations such as cutting out only some objects from the original image, changing their shapes and colors, or replacing them with completely different objects. However, the conventional technique has a problem that it is difficult to meet such a demand.

本発明は、このような背景に鑑みてなされたものであり、画像として表された文書に含まれる文字、グラフィクスまたはイメージなどの各種オブジェクトに対し、ユーザにとってより自由度の高い画像処理を施すことが可能な仕組みを提供する。   The present invention has been made in view of such a background, and performs image processing with a higher degree of freedom for a user on various objects such as characters, graphics, or images included in a document represented as an image. Provide a mechanism that can

上述した課題を解決するため、文書を構成する複数のオブジェクトの種類を表した属性情報を記憶する属性情報記憶部と、文書を表す文書データ、または該文書データによって表される文書を記録材に出力するための出力データから、前記属性情報記憶部に記憶された属性情報を用いて該文書の内容を画像として表現した画像データを生成する解析処理部と、オブジェクトの種類とレイヤの種類との対応関係を表すオブジェクト振分情報に従って、前記解析処理部によって生成された画像データを、それぞれ異なる種類のオブジェクトを含む複数種類のレイヤに分離するレイヤ制御部と、分離された各レイヤに含まれるオブジェクトに画像処理を施し、該オブジェクトを画像として表現したレイヤ別画像データを生成し、出力するレイヤ画像処理部とを備える画像処理装置を提供する。   In order to solve the above-described problem, an attribute information storage unit that stores attribute information representing types of a plurality of objects constituting a document, document data representing the document, or a document represented by the document data is used as a recording material. An analysis processing unit that generates image data expressing the contents of the document as an image using attribute information stored in the attribute information storage unit from output data for output, and an object type and a layer type A layer control unit that separates the image data generated by the analysis processing unit into a plurality of types of layers including different types of objects according to the object distribution information representing the correspondence relationship, and the objects included in each separated layer A layer image that is subjected to image processing, generates image data by layer that represents the object as an image, and outputs it To provide an image processing apparatus and a processing section.

この画像処理装置は、オブジェクトの種類を表した属性情報を用いることにより、文書を画像として表現した画像データをそれぞれ異なる種類のオブジェクトを含む複数種類のレイヤに分離し、これらの各レイヤにおいて各オブジェクトに画像処理を施す。これによって、各オブジェクトを画像として表現したレイヤ別画像データを生成し、出力する。
この画像処理装置によれば、従来よりもきめ細かい種類別でオブジェクトを取り扱うことが可能となるから、例えばユーザが特定のオブジェクトについて編集作業を行いたいような場合に、その作業を容易に実現できる可能性が高い。また、きめ細やかに区分されたオブジェクトの種類毎に圧縮処理を行うことも可能となるであろうから、従来のように本来は不要なデータまでをも含めて圧縮しなければならない、という事態も避けられる。また、文書作成ソフトウェアやプリンタドライバ等のソフトウェアに依存した文書データや出力データではなく、より汎用性の高い画像データによって文書を表現するため、その取り扱いに関しても非常に汎用性が高いという利点がある。
The image processing apparatus uses attribute information representing the type of object to separate image data representing a document as an image into a plurality of types of layers including different types of objects, and each object in each of these layers. Is subjected to image processing. As a result, layer-specific image data expressing each object as an image is generated and output.
According to this image processing apparatus, it is possible to handle objects by types that are finer than conventional ones. Therefore, for example, when a user wants to perform editing work on a specific object, there is a possibility that the work can be easily realized. Is expensive. Also, since it will be possible to perform compression processing for each type of object that is finely divided, there is also a situation where it is necessary to compress data including unnecessary data as in the past. can avoid. In addition, since the document is represented by image data with higher versatility rather than document data or output data depending on software such as document creation software or a printer driver, there is an advantage that the handling is very versatile. .

本発明の好ましい態様においては、前記解析処理部は、各レイヤに含まれるオブジェクトの外縁に接する外接矩形を生成する外接矩形生成部を備え、生成された該外接矩形を表す外接矩形情報を含んだ前記画像データを生成し、前記レイヤ画像処理部は、前記外接矩形情報によって表される外接矩形に含まれるオブジェクトを画像として表現した前記レイヤ別画像データを生成する。
1つの外接矩形に含まれるオブジェクトは、同種のオブジェクトとして取り扱われることになる。このように外接矩形によってオブジェクトをきめ細やかに区分すれば、画像処理に必要なオブジェクトのみを抽出するということが可能になる。これによって、例えばBGレイヤにおいて1ページ全体分もの画像データを圧縮することで、不要にデータサイズを大きくしてしまう、という従来の不都合を解消することも可能となる。
In a preferred aspect of the present invention, the analysis processing unit includes a circumscribed rectangle generating unit that generates a circumscribed rectangle that contacts an outer edge of an object included in each layer, and includes circumscribed rectangle information representing the generated circumscribed rectangle. The image data is generated, and the layer image processing unit generates the layer-specific image data that represents an object included in the circumscribed rectangle represented by the circumscribed rectangle information as an image.
Objects included in one circumscribed rectangle are handled as the same kind of objects. Thus, if objects are finely divided by circumscribed rectangles, it is possible to extract only objects necessary for image processing. As a result, for example, it is possible to eliminate the conventional inconvenience of unnecessarily increasing the data size by compressing image data for one entire page in the BG layer.

より多くのオブジェクト種類毎に外接矩形を生成したい場合、前記外接矩形生成部は、文書1ページ分の領域を複数の画像領域に分割し、各々の画像領域に含まれるオブジェクトの外縁に接する矩形のうち、隣接する画像領域に跨って互いに接し合う矩形どうしを結合させることによって前記外接矩形を生成するようにしてもよい。   When it is desired to generate a circumscribed rectangle for each of more object types, the circumscribed rectangle generating unit divides an area for one page of a document into a plurality of image areas, and a rectangle that is in contact with an outer edge of an object included in each image area. Of these, the circumscribed rectangle may be generated by combining rectangles that are in contact with each other across adjacent image regions.

また、本発明の好ましい態様においては、前記解析処理部は、線分画像の始点、線分画像の終点及び線分画像の色のうち少なくともいずれか1つを表す情報と、線分画像によって構成されるオブジェクトの種類を示す前記属性情報とを含むエッジ列によって表される前記画像データを生成する。画像データをエッジ列によって表現すると、ラスタ形式で表現するよりもデータサイズが小さくなるから、処理の効率がよい。   In a preferred aspect of the present invention, the analysis processing unit is configured by information representing at least one of the start point of the line segment image, the end point of the line segment image, and the color of the line segment image, and the line segment image. The image data represented by an edge sequence including the attribute information indicating the type of object to be generated is generated. If the image data is expressed by an edge sequence, the data size is smaller than that expressed in the raster format, so the processing efficiency is good.

また、本発明の好ましい態様においては、前記オブジェクトの種類には文書の背景が含まれており、前記記憶部は、その背景に割り当てられた属性情報を記憶するようにすればよい。文書の背景をオブジェクトの1種類として取り扱うと、背景のみを他のオブジェクトから分離することが可能となる。背景はユーザによる編集作業の対象とならないことも多いから、背景を分離することで無駄な処理を省くことができる。   In a preferred aspect of the present invention, the object type includes a document background, and the storage unit stores attribute information assigned to the background. When the background of a document is handled as one type of object, only the background can be separated from other objects. Since the background is often not subject to editing by the user, wasteful processing can be omitted by separating the background.

なお、本発明のレイヤ画像処理部が行う画像処理としては、分離された各レイヤに含まれるオブジェクトに対する圧縮処理や、そのオブジェクトに対する解像度変換処理などがある。   Note that image processing performed by the layer image processing unit of the present invention includes compression processing for objects included in each separated layer and resolution conversion processing for the objects.

また、本発明は、コンピュータに、文書を表す文書データ、または該文書データによって表される文書を記録材に出力するための出力データから、文書を構成する複数のオブジェクトの種類毎に予め割り当てられた属性情報を用いて、該文書の内容を画像として表現した画像データを生成する解析処理機能と、オブジェクトの種類とレイヤの種類との対応関係を表すオブジェクト振分情報に従って、前記解析処理機能によって生成された画像データを、それぞれ異なる種類のオブジェクトを含む複数種類のレイヤに分離するレイヤ制御機能と、分離された各レイヤに含まれるオブジェクトに画像処理を施し、該オブジェクトを画像として表現したレイヤ別画像データを生成し、出力するレイヤ画像処理機能とを実現させるプログラムを提供する。   Also, the present invention assigns in advance to a computer for each type of a plurality of objects constituting a document from document data representing a document or output data for outputting a document represented by the document data to a recording material. The analysis processing function generates image data representing the content of the document as an image using the attribute information and the object distribution information indicating the correspondence between the object type and the layer type. A layer control function that separates the generated image data into multiple types of layers that include different types of objects, and layer processing that performs image processing on the objects included in each separated layer and expresses the objects as images Provides a layer image processing function that generates and outputs image data .

次に、本発明の実施の形態について説明する。
(1)装置構成
図1は、本実施形態に係る画像処理装置10のハードウェア構成を表すブロック図である。画像処理装置10は、例えばパーソナルコンピュータであり、制御部1と、記憶部2と、入出力I/F3と、表示部4と、操作部5とを備えている。制御部1は、CPUなどの演算装置と、ROMやRAMなどの各種メモリとを備えている。記憶部2は、例えばハードディスク等の大容量の不揮発性記憶装置であり、制御部1が後述する機能を実現するための手順が記述された制御プログラムPRG1を記憶している。また、記憶部2には、文書作成プログラムPRG2や、プリンタドライバPRG3が記憶されている。文書作成プログラムPRG2には、操作者による操作内容に従って文書データを作成する手順が記述されている。プリンタドライバPRG3には、プリンタ等の画像形成装置が上記文書データによって表される文書を用紙等の記録材に印刷(出力)するための印刷データ(出力データ)を生成する手順が記述されている。入出力I/F3は、図示しないネットワークに接続されており、そのネットワークに接続されたコンピュータやプリンタなどの外部機器とデータの授受を行う。表示部4は、例えば液晶ディスプレイであり、制御部1によって供給されるデータに基づいて画像を表示する。操作部5は、例えばキーボードやマウスなどであり、操作者の操作内容に応じた信号を制御部1に供給する。
Next, an embodiment of the present invention will be described.
(1) Device Configuration FIG. 1 is a block diagram illustrating a hardware configuration of an image processing device 10 according to the present embodiment. The image processing apparatus 10 is a personal computer, for example, and includes a control unit 1, a storage unit 2, an input / output I / F 3, a display unit 4, and an operation unit 5. The control unit 1 includes an arithmetic device such as a CPU and various memories such as a ROM and a RAM. The storage unit 2 is a large-capacity nonvolatile storage device such as a hard disk, for example, and stores a control program PRG1 describing a procedure for the control unit 1 to realize functions to be described later. The storage unit 2 stores a document creation program PRG2 and a printer driver PRG3. The document creation program PRG2 describes a procedure for creating document data in accordance with the operation contents by the operator. The printer driver PRG3 describes a procedure for generating print data (output data) for an image forming apparatus such as a printer to print (output) a document represented by the document data on a recording material such as paper. . The input / output I / F 3 is connected to a network (not shown), and exchanges data with external devices such as computers and printers connected to the network. The display unit 4 is a liquid crystal display, for example, and displays an image based on data supplied by the control unit 1. The operation unit 5 is, for example, a keyboard or a mouse, and supplies a signal corresponding to the operation content of the operator to the control unit 1.

次に、図2は画像処理装置10の機能構成を表すブロック図である。
制御部1は、制御プログラムPRG1を実行することにより、解析処理部13と、レイヤ画像処理部15という機能を実現する。これらの解析処理部13とレイヤ画像処理部15とは互いに協働して後述の動作を行う。図2中の矢印は、画像処理装置10が実行する処理によって発生するデータや各種の制御情報の流れを表している。図2に示すように、解析処理部13には、文書データ11又は印刷データ12が入力される。文書データ11は、制御部1が前述した文書作成ソフトウェアPRG2に従って作成したデータである。印刷データ12は、制御部1が前述したプリンタドライバPRG3に従って作成したデータであり、例えばPDL(ページ記述言語)で記述されたデータである。
Next, FIG. 2 is a block diagram showing a functional configuration of the image processing apparatus 10.
The control unit 1 implements functions of an analysis processing unit 13 and a layer image processing unit 15 by executing the control program PRG1. The analysis processing unit 13 and the layer image processing unit 15 cooperate with each other to perform operations described later. The arrows in FIG. 2 represent the flow of data and various control information generated by the processing executed by the image processing apparatus 10. As shown in FIG. 2, document data 11 or print data 12 is input to the analysis processing unit 13. The document data 11 is data created by the control unit 1 in accordance with the document creation software PRG2 described above. The print data 12 is data created by the control unit 1 according to the printer driver PRG3 described above, for example, data described in PDL (page description language).

画像処理装置10の主たる機能は、これらの文書データ11や印刷データ12から、文書を構成する各種オブジェクトを画像として表現したレイヤ別画像データ16を生成することである。このレイヤ別画像データ16は、レイヤ別に区分されており、各レイヤに含まれているオブジェクトをその色や種類別に識別することが可能になっている。従って、このレイヤ別画像データ16を用いると、きめ細やかに区分された色や種類別に、そのオブジェクトを示す画像データを圧縮することが可能である。よって、従来のように本来は不要なデータまでをも含めて圧縮しなければならない、という事態をも避けることができる。また、ユーザはこのレイヤ別画像データ16を例えば電子メールに添付し、画像処理装置10からネットワーク経由で他のコンピュータに送信させることができる。従って、このようなレイヤ別画像データ16を受け取ったユーザが、特定のオブジェクトについてのみ編集作業を行いたいような場合であっても、その作業を容易に実現することができる。また、比較的汎用性の高い画像データによって文書の内容を表現しているため、コンピュータどうしでのやり取りに関しても都合がよい。   The main function of the image processing apparatus 10 is to generate layer-by-layer image data 16 expressing various objects constituting the document as images from the document data 11 and the print data 12. The layer-specific image data 16 is classified by layer, and the objects included in each layer can be identified by color and type. Therefore, by using the layer-specific image data 16, it is possible to compress image data indicating the object for each color and type that are finely divided. Therefore, it is possible to avoid a situation in which data that is originally unnecessary must be compressed as in the conventional case. Further, the user can attach the image data by layer 16 to e-mail, for example, and transmit the image data from the image processing apparatus 10 to another computer via a network. Therefore, even if the user who has received such layer-specific image data 16 wants to perform an editing operation only on a specific object, the operation can be easily realized. In addition, since the contents of the document are expressed by image data having relatively high versatility, it is convenient for exchange between computers.

以下では、まず、画像処理装置10が取り扱うデータ(レイヤ別画像データ16や画像データ14)の構造について説明し、その次に、これらのデータを生成するための構成やその動作について説明する。   In the following, first, the structure of data (layer-specific image data 16 and image data 14) handled by the image processing apparatus 10 will be described, and then the configuration and operation for generating these data will be described.

(2)レイヤ別画像データ16の構造
図3は、レイヤ別画像データ16の構造を説明するための模式図である。
例えば前述した図17の文書画像P1と同内容の文書データ11又は印刷データ12が解析処理部13に入力された場合を想定する。この場合、画像処理装置10は、レイヤ別画像データ16として、図3の下段に示すようなBGレイヤデータl11とFGレイヤデータl12とを生成し、出力する。BGレイヤデータl11は、オブジェクトを表す画像データがJPEG方式で圧縮されたJPEG圧縮データと、そのオブジェクトの位置及びサイズを指定する情報とを含んでいる。図3では、BGレイヤデータl11が「イメージ」のオブジェクトimgを含んでいる様子が示されている。なお、以下の説明では、イメージのオブジェクトを、イメージオブジェクト或いは、単にイメージと呼ぶことがある(文字やグラフィクスのオブジェクトについても同様)。図3に表しているように、このBGレイヤデータl11は、文書1ページ中でイメージimgが存在する領域にのみ相当するデータであるから、そのデータサイズは1ページ全体を表す画像データのそれよりも小さい。よって、BGレイヤデータl11を圧縮した場合には、従来のように1ページ全体に相当するデータを圧縮するときよりも、データサイズを小さくすることができる。
(2) Structure of Layer-Specific Image Data 16 FIG. 3 is a schematic diagram for explaining the structure of the layer-specific image data 16.
For example, it is assumed that the document data 11 or the print data 12 having the same contents as the document image P1 in FIG. In this case, the image processing apparatus 10 generates and outputs BG layer data 111 and FG layer data 112 as shown in the lower part of FIG. The BG layer data l11 includes JPEG compressed data obtained by compressing image data representing an object by the JPEG method, and information specifying the position and size of the object. FIG. 3 shows that the BG layer data l11 includes an object “img” of “image”. In the following description, an image object may be referred to as an image object or simply an image (the same applies to characters and graphics objects). As shown in FIG. 3, the BG layer data l11 is data corresponding only to the area where the image img exists in one page of the document, so that the data size thereof is that of image data representing the entire page. Is also small. Therefore, when the BG layer data l11 is compressed, the data size can be made smaller than when data corresponding to one whole page is compressed as in the prior art.

次に、FGレイヤデータl12は、オブジェクトがFAX−G4方式で圧縮されたFAX−G4圧縮データと、そのオブジェクトの位置及びサイズを指定する情報と、色を指定する情報とが含まれている。図3では、FGレイヤデータl12が、色別及び文字/グラフィクス別に区分されたオブジェクトを含んでいる様子が示されている。即ち、黒色で描かれた文字t−bk及びグラフィクスg−bkと、赤色で描かれた文字t−rd及びグラフィクスg−rdとである。このようにオブジェクトが色・種類別にきめ細やかに区分されているため、ユーザは、このFGレイヤデータl12に含まれるオブジェクトのうち、特定色の文字又はグラフィクスのみを編集することが可能となる。例えば、赤色の文字t−rdのみを削除するとか、黒色のグラフィクスのみを他のオブジェクトに置換する、といった具合である。   Next, the FG layer data 112 includes FAX-G4 compressed data in which an object is compressed by the FAX-G4 method, information specifying the position and size of the object, and information specifying a color. FIG. 3 shows that the FG layer data 112 includes objects divided by color and by character / graphics. That is, the characters t-bk and graphics g-bk drawn in black and the characters t-rd and graphics g-rd drawn in red. As described above, since the objects are finely divided by color and type, the user can edit only characters or graphics of a specific color among the objects included in the FG layer data 112. For example, only the red character t-rd is deleted or only the black graphics is replaced with another object.

(3)画像データ14の構造
次に、画像データ14の構造について説明する。
解析処理部13は、文書データ11又は印刷データ12(以下、これらを入力データと総称する)が入力されると、その内容を解析して、画像データ14を生成する。この画像データ14は、ラスタデータ又はそのラスタデータに等価なデータと、レイヤ別画像データ16を生成するために必要な付加情報とを含んでいる。ここで、「ラスタデータに等価なデータ」とは、同じ内容のラスタデータに変換可能なデータを意味しており、そのデータ形式は任意である。以下では、ラスタデータと、このラスタデータに等価なデータとを、単に「ラスタデータ」と呼ぶことにする。
(3) Structure of Image Data 14 Next, the structure of the image data 14 will be described.
When document data 11 or print data 12 (hereinafter collectively referred to as input data) is input, the analysis processing unit 13 analyzes the content and generates image data 14. The image data 14 includes raster data or data equivalent to the raster data and additional information necessary to generate the layer-specific image data 16. Here, “data equivalent to raster data” means data that can be converted into raster data having the same contents, and the data format is arbitrary. Hereinafter, raster data and data equivalent to the raster data are simply referred to as “raster data”.

このラスタデータはエッジ配列形式によって表現される。ここで、「エッジ」とは、ビットマップメモリに定義されたxy座標系において、x軸(主走査方向)に平行な1本の走査ライン上に存在する線分画像のことである。そして、「エッジ配列形式」とは、1走査ライン上に存在する複数のエッジの列によって画像を表現する形式を意味している。このエッジ配列形式は、ランレングス圧縮と同様のデータ圧縮技術の1つとして知られており、特定の図形については単純なラスタデータよりデータサイズを小さくすることができる。   This raster data is expressed in an edge array format. Here, the “edge” is a line segment image existing on one scanning line parallel to the x axis (main scanning direction) in the xy coordinate system defined in the bitmap memory. The “edge arrangement format” means a format in which an image is represented by a plurality of rows of edges existing on one scanning line. This edge arrangement format is known as one of data compression techniques similar to run-length compression, and a specific figure can be made smaller in data size than simple raster data.

画像データ14に含まれる付加情報は、タグ情報と外接矩形情報とによって構成されている。タグ情報は、各々のエッジによって構成されるオブジェクトの属性情報であり、具体的には文字、グラフィクス、イメージ及び背景といった各種オブジェクトの種類を表したものである。本実施形態では、タグ情報「0」が「背景」オブジェクトを意味し、タグ情報「1」が「文字」オブジェクトを意味し、タグ情報「2」が「グラフィクス」オブジェクトを意味し、タグ情報「3」が「イメージ」オブジェクトを意味するものとする。なお、「背景」とは、紙の上にペンなどで図形を描画する場合に例えると、何も描画されることのない紙の部分(下地)に相当する。このタグ情報は、ラスタ形式で表現することもできるが、本実施形態では、上記に述べたエッジ配列形式で表現する。   Additional information included in the image data 14 includes tag information and circumscribed rectangle information. The tag information is attribute information of an object constituted by each edge, and specifically represents various object types such as characters, graphics, images, and backgrounds. In this embodiment, tag information “0” means a “background” object, tag information “1” means a “character” object, tag information “2” means a “graphics” object, and tag information “ 3 "means an" image "object. Note that “background” corresponds to a paper portion (background) on which nothing is drawn, for example, when a figure is drawn on paper with a pen or the like. Although this tag information can be expressed in a raster format, in the present embodiment, it is expressed in the edge arrangement format described above.

図4に示すフォーマットは、エッジを表すエッジデータの構造を示したものである。エッジデータには、始点座標SXと、終点座標EXと、色値Cと、タグ情報Tとが含まれている。始点座標SXはエッジの一端のx座標値であり、終点座標EXはエッジの他端のx座標値である。色値Cはエッジに着色される色を表しており、これは、エッジによって構成されるオブジェクトの色を意味している。そして、タグ情報Tは、前述したように、エッジによって構成されるオブジェクトの種類を表している。本実施形態では、1つの走査ライン上に例えば「文字」や「グラフィクス」などの複数のオブジェクトが存在している場合、オブジェクトの色もしくはオブジェクトの種類が変わる毎にエッジが1つ生成されるようになっている。   The format shown in FIG. 4 shows the structure of edge data representing an edge. The edge data includes start point coordinates SX, end point coordinates EX, color value C, and tag information T. The start point coordinate SX is the x coordinate value of one end of the edge, and the end point coordinate EX is the x coordinate value of the other end of the edge. The color value C represents the color to be colored on the edge, which means the color of the object constituted by the edge. As described above, the tag information T represents the type of object constituted by edges. In the present embodiment, when there are a plurality of objects such as “characters” and “graphics” on one scanning line, one edge is generated each time the color of the object or the type of the object changes. It has become.

図5は、1ページ分の文書に含まれるオブジェクトと、そのオブジェクトを表すエッジ列の一例を示している。図5に例示した文書は、文字Tと、グラフィクスGと、イメージIと、背景Bとによって構成されている。4つのエッジデータE1〜E4を連ねたエッジ列EL1は、y=Y1の走査ライン上のオブジェクトを構成するエッジの列を示している。3つのエッジデータE21〜E23を連ねたエッジ列EL2は、y=Y2の走査ライン上のオブジェクトを構成するエッジの列を示している。例えば、走査ライン(y=Y1)におけるエッジ列のうち、始点座標SX=0、終点座標EX=150、タグ情報T=0(背景)、色値C=未定というエッジデータE1は、y=Y1における背景オブジェクト(文字Tの左側)を構成している。また、始点座標SX=151、終点座標EX=165、タグ情報T=1(文字)、色値C=黒というエッジデータE2は、y=Y1における文字オブジェクト(文字T)を構成している。また、始点座標SX=166、終点座標EX=170、タグ情報T=2(グラフィクス)、色値C=黒というエッジデータE3は、y=Y1におけるグラフィクスオブジェクト(文字Tの右側)を構成している。そして、始点座標SX=171、終点座標EX=199、タグ情報T=0(背景)、色値C=未定というエッジデータE4は、y=Y1における背景オブジェクト(グラフィクスGの右側)を構成している。   FIG. 5 shows an example of an object included in a document for one page and an edge sequence representing the object. The document illustrated in FIG. 5 includes a letter T, graphics G, an image I, and a background B. An edge row EL1 in which four pieces of edge data E1 to E4 are connected indicates a row of edges constituting an object on a scanning line of y = Y1. An edge row EL2 in which three pieces of edge data E21 to E23 are connected indicates an edge row constituting an object on a scanning line with y = Y2. For example, edge data E1 in which the start point coordinate SX = 0, the end point coordinate EX = 150, the tag information T = 0 (background), and the color value C = undecided among the edge rows in the scanning line (y = Y1) is y = Y1. The background object (left side of the letter T) is configured. Further, the edge data E2 having the start point coordinate SX = 151, the end point coordinate EX = 165, the tag information T = 1 (character), and the color value C = black constitutes a character object (character T) at y = Y1. Further, the edge data E3 having the start point coordinate SX = 166, the end point coordinate EX = 170, the tag information T = 2 (graphics), and the color value C = black constitutes a graphics object (right side of the character T) at y = Y1. Yes. The edge data E4 with the start point coordinate SX = 171, end point coordinate EX = 199, tag information T = 0 (background), and color value C = undecided constitutes a background object (right side of the graphics G) at y = Y1. Yes.

これらのエッジデータE1とE2、E2とE3、E3とE4は、互いに隣接する位置関係にあるので、隣接するエッジデータの始点座標SXと終点座標EXは連続することになる。色値Cは、エッジに着色すべき色を、例えばRGB値のような形式で表現したデータである。エッジが「文字」や「グラフィクス」のオブジェクトを構成する場合は、エッジデータE1〜E4のように、1つのエッジに着色される色は1つである。   Since the edge data E1 and E2, E2 and E3, and E3 and E4 are adjacent to each other, the start point coordinates SX and end point coordinates EX of the adjacent edge data are continuous. The color value C is data representing the color to be colored on the edge in a format such as an RGB value. When an edge constitutes an object of “character” or “graphics”, one edge is colored as in the edge data E1 to E4.

これに対し、エッジ列EL2のように、エッジによって構成されるオブジェクトがイメージの場合、エッジデータの色値Cとしてメモリアドレスが記述されている。このメモリアドレスによって指定された記憶部2の記憶領域には、イメージの実データ(ピクセル列)が格納されている。また、1つのエッジデータに含まれる始点座標SX及び終点座標EXは、イメージオブジェクト全体のx方向(主走査方向)の長さを示している。このように、オブジェクトが文字やグラフィクスであるか、或いはイメージであるかによって(つまりタグ情報Tの値によって)、色値Cをどのように解釈すべきかが異なるようになっている。   On the other hand, when the object constituted by the edges is an image like the edge column EL2, the memory address is described as the color value C of the edge data. In the storage area of the storage unit 2 designated by the memory address, actual image data (pixel string) is stored. Further, the start point coordinates SX and the end point coordinates EX included in one edge data indicate the length in the x direction (main scanning direction) of the entire image object. As described above, how the color value C should be interpreted differs depending on whether the object is a character or a graphic or an image (that is, depending on the value of the tag information T).

次に、画像データ14に含まれる外接矩形情報について説明する。
外接矩形とは、オブジェクトの外縁に接する矩形を意味しており、外接矩形情報とはその外接矩形の位置とサイズとを表す情報である。本実施形態では、オブジェクトの種類毎に、生成される外接矩形情報の最大数を設定することができる。また、オブジェクトの種類毎に、生成すべき外接矩形の数を変えることもできる。例えば、あるオブジェクトについてだけ4つの外接矩形を生成し、その他のオブジェクトについては1つの外接矩形を生成する、といった具合である。このような外接矩形の数は、ユーザが操作部5を用いて画像処理装置10に入力することによって指定することもできるし、予め記憶部2に記憶されていてもよい。
Next, circumscribed rectangle information included in the image data 14 will be described.
The circumscribed rectangle means a rectangle that touches the outer edge of the object, and the circumscribed rectangle information is information indicating the position and size of the circumscribed rectangle. In the present embodiment, the maximum number of circumscribed rectangle information generated can be set for each type of object. Further, the number of circumscribed rectangles to be generated can be changed for each type of object. For example, four circumscribed rectangles are generated only for a certain object, and one circumscribed rectangle is generated for other objects. The number of circumscribed rectangles can be specified by the user by inputting to the image processing apparatus 10 using the operation unit 5 or may be stored in the storage unit 2 in advance.

図6は、図3に示したような文書画像P1に対し、解析処理部13により生成される外接矩形情報を概念的に表した図である。ここでは、オブジェクトの種類毎に外接矩形を1つずつ生成するように設定された場合を示しており、図中の点線で示される矩形C1,C2,C3が各種オブジェクトの外接矩形である。従って、図6の例では、「イメージ」、「文字」、「グラフィクス」といった3種類の各オブジェクトにそれぞれ対応した外接矩形情報が画像データ14に含まれることになる。この外接矩形情報の生成方法の詳細は後述する。   FIG. 6 is a diagram conceptually showing circumscribed rectangle information generated by the analysis processing unit 13 for the document image P1 as shown in FIG. Here, a case is shown in which one circumscribed rectangle is generated for each type of object, and rectangles C1, C2, and C3 indicated by dotted lines in the figure are circumscribed rectangles of various objects. Accordingly, in the example of FIG. 6, circumscribed rectangle information corresponding to each of the three types of objects such as “image”, “character”, and “graphics” is included in the image data 14. Details of the method of generating the circumscribed rectangle information will be described later.

(3)解析処理部13の説明
次に、図7のブロック図を参照しながら、解析処理部13の構成及び動作について説明する。解析処理部13は、例えば特開2003−334341号公報に開示された技術を用いて入力データの内容を解析し、画像データ14を生成する。図7に示す矢印は、解析処理部13の処理によって発生するデータや各種制御情報の流れを表している。入力データ解析部50は、入力データ(文書データ11又は印刷データ12)の内容を解析し、この入力データを「文字」、「グラフィクス」及び「イメージ」などのオブジェクト種類毎に分離し、これらをそれぞれ文字処理部51、グラフィクス処理部52及びイメージ処理部53に供給する。文字処理部51、グラフィクス処理部52及びイメージ処理部53は、それぞれのオブジェクトの種類に対応した処理を行う。例えば、文字処理部51は、供給されてくるデータと、予め記憶部2に記憶されているフォントのアウトラインデータとに基づいて、画像処理装置10から出力されるべきレイヤ別画像データ16の座標空間に適合した文字の輪郭データを生成する等の処理を行う。また、グラフィクス処理部52は、供給されてくるデータを、レイヤ別画像データ16の座標空間に適合したデータに変換する等の処理を行う。また、イメージ処理部53は、供給されてくるデータに対し、イメージの拡大・縮小や色空間の調整する処理や、イメージの輪郭形状を表現するための輪郭データを発生させる処理等を行う。
(3) Description of Analysis Processing Unit 13 Next, the configuration and operation of the analysis processing unit 13 will be described with reference to the block diagram of FIG. The analysis processing unit 13 analyzes the content of the input data using, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2003-334341, and generates image data 14. The arrows shown in FIG. 7 represent the flow of data and various control information generated by the processing of the analysis processing unit 13. The input data analysis unit 50 analyzes the contents of the input data (document data 11 or print data 12), separates the input data for each object type such as “character”, “graphics”, and “image”, The data are supplied to the character processing unit 51, the graphics processing unit 52, and the image processing unit 53, respectively. The character processing unit 51, the graphics processing unit 52, and the image processing unit 53 perform processing corresponding to each object type. For example, the character processing unit 51 uses the coordinate space of the layer-specific image data 16 to be output from the image processing device 10 based on the supplied data and the font outline data stored in advance in the storage unit 2. Processing such as generating outline data of characters suitable for the above. In addition, the graphics processing unit 52 performs processing such as converting the supplied data into data suitable for the coordinate space of the layer-specific image data 16. Further, the image processing unit 53 performs processing for enlarging / reducing the image, adjusting the color space, processing for generating contour data for expressing the contour shape of the image, and the like on the supplied data.

中間コード生成部54は、文字処理部51、グラフィクス処理部52及びイメージ処理部53によって処理されたデータを、ラスタ形式で展開するのに適した中間コードに変換する。中間コード生成部54によって生成された中間コードは記憶部2に逐次蓄積される。中間コードが1ページ分蓄積されると、レンダリング処理部56は、この中間コードから上述したラスタデータを1走査ライン分ずつ生成していく。タグ情報記憶部57は、「文字」、「イメージ」、「グラフィクス」及び「背景」というオブジェクトの種類と、その種類を表すタグ情報「0」、「1」、「2」、「3」とを予め対応付けて記憶している。レンダリング処理部56は、このタグ情報記憶部57に記憶されている内容に基づいて、オブジェクトの種類を表すタグ情報を生成する。このようにして、画像データ14のうち、ラスタデータとタグ情報とがレンダリング処理部56によって生成されることになる。   The intermediate code generation unit 54 converts the data processed by the character processing unit 51, the graphics processing unit 52, and the image processing unit 53 into an intermediate code suitable for development in a raster format. The intermediate code generated by the intermediate code generation unit 54 is sequentially accumulated in the storage unit 2. When the intermediate code for one page is accumulated, the rendering processing unit 56 generates the raster data described above from the intermediate code for each scanning line. The tag information storage unit 57 stores the types of objects “character”, “image”, “graphics”, and “background”, and tag information “0”, “1”, “2”, “3” representing the types. Are stored in advance in association with each other. The rendering processing unit 56 generates tag information representing the type of the object based on the content stored in the tag information storage unit 57. In this way, raster data and tag information in the image data 14 are generated by the rendering processing unit 56.

(4)外接矩形生成部55の説明
中間コード生成部54によって中間コードが生成されている間、もしくは中間コードが生成された後に、外接矩形生成部55は前述した外接矩形情報を生成する。例えば、タグ情報が「文字」、「イメージ」、「グラフィクス」といったオブジェクトの種類を表す場合、外接矩形生成部55は次のようにして外接矩形情報を生成する。なお、以下の説明においては、それぞれのオブジェクト種類について1つずつの外接矩形情報を生成するように指定されていることを前提とする。
(4) Description of circumscribed rectangle generation unit 55 The circumscribed rectangle generation unit 55 generates the aforementioned circumscribed rectangle information while the intermediate code is generated by the intermediate code generation unit 54 or after the intermediate code is generated. For example, when the tag information represents the type of object such as “character”, “image”, and “graphics”, the circumscribed rectangle generation unit 55 generates circumscribed rectangle information as follows. In the following description, it is assumed that one piece of circumscribed rectangle information is specified for each object type.

図8(A)、(B)、(C)は、例えば星型形状のグラフィクスの外接矩形情報を生成する過程を示している。外接矩形生成部55は、1つの外接矩形について1つの描画フラグを予め用意しておく。この描画フラグは外接矩形生成部55によって、記憶部2の適当な領域に記述されている。図8(A)の初期状態において、外接矩形生成部55は、描画フラグの値を「0」(OFF)に設定しておく。そして、外接矩形生成部55は、ページの上端から下端方向へと走査ライン単位で順次スキャンしていき、オブジェクトが検出された場合には、描画フラグの値を「1」(ON)に変更するようになっている。なお、図8(A)に示す初期状態では、外接矩形生成部55は、例えばページの印刷可能領域以外の領域等の、適当な領域に外接矩形を設定しておく。   FIGS. 8A, 8B, and 8C show a process of generating circumscribed rectangle information of, for example, a star-shaped graphic. The circumscribed rectangle generating unit 55 prepares one drawing flag for one circumscribed rectangle in advance. This drawing flag is described in an appropriate area of the storage unit 2 by the circumscribed rectangle generation unit 55. In the initial state of FIG. 8A, the circumscribed rectangle generation unit 55 sets the value of the drawing flag to “0” (OFF). Then, the circumscribed rectangle generation unit 55 sequentially scans in units of scanning lines from the upper end to the lower end of the page. When an object is detected, the value of the drawing flag is changed to “1” (ON). It is like that. In the initial state shown in FIG. 8A, the circumscribed rectangle generating unit 55 sets a circumscribed rectangle in an appropriate area such as an area other than the printable area of the page.

例えば図8(B)に示すように、そのページ内ではじめて処理対象とすべき星形形状のグラフィクスオブジェクトが検出された場合、外接矩形生成部55は、そのオブジェクトの外縁に接する外接矩形を形成し、その外接矩形における対角線上の2頂点の座標値を含む外接矩形情報を生成する。ここでは、外接矩形生成部55は、図8(B)のページ左上端部を原点Oとし、原点Oに最も近い頂点h1と最も遠い頂点h2とを含む外接矩形情報を生成し、これを記憶するする。この2つの頂点h1,h2の座標値によって、外接矩形の位置とサイズとが表されることになる。そして、外接矩形生成部55は、描画フラグを「0」(OFF)から「1」(ON)に変更する。   For example, as shown in FIG. 8B, when a star-shaped graphics object to be processed is detected for the first time in the page, the circumscribed rectangle generation unit 55 forms a circumscribed rectangle that touches the outer edge of the object. Then, circumscribed rectangle information including the coordinate values of the two vertices on the diagonal in the circumscribed rectangle is generated. Here, the circumscribed rectangle generating unit 55 generates circumscribed rectangle information including the vertex h1 closest to the origin O and the furthest vertex h2 as the origin O at the upper left corner of the page in FIG. To do. The position and size of the circumscribed rectangle are represented by the coordinate values of the two vertices h1 and h2. Then, the circumscribed rectangle generation unit 55 changes the drawing flag from “0” (OFF) to “1” (ON).

さらに処理が進んで、図8(C)に示すように、そのページ中で2つ目のオブジェクトが検出された場合を想定する。この場合、外接矩形生成部55は、描画フラグが既に「1」(ON)に設定されているので、外接矩形を新たに生成するのではなく、既に生成している外接矩形を拡張する処理を行う。即ち、外接矩形生成部55は、既に生成されている外接矩形情報に含まれる2つの座標値と、新たに発生したオブジェクトの外縁に接する外接矩形の座標値(図8(C)では図示していないが、黒い星印形状のグラフィクスに外接する矩形)の2つの頂点座標を比較し、これら2つのオブジェクトの双方とも内包するような外接矩形を形成する。そして、外接矩形生成部55は、このようにして得られた外接矩形の2頂点(h1,h3)の座標値を含む外接矩形情報を生成して記憶する。以降、3つ目のグラフィクスオブジェクトが検出された場合も同様にして、外接矩形生成部55は3つ全てのオブジェクトを包含する1つの外接矩形を生成する。   Assume that the processing further proceeds and a second object is detected in the page as shown in FIG. 8C. In this case, since the drawing flag is already set to “1” (ON), the circumscribed rectangle generating unit 55 does not generate a new circumscribed rectangle, but performs a process of extending the already generated circumscribed rectangle. Do. That is, the circumscribed rectangle generation unit 55 includes two coordinate values included in the circumscribed rectangle information that has already been generated and the coordinate values of the circumscribed rectangle that is in contact with the outer edge of the newly generated object (not illustrated in FIG. 8C). 2), the circumscribed rectangle that encloses both of these two objects is formed. Then, the circumscribed rectangle generating unit 55 generates and stores circumscribed rectangle information including the coordinate values of the two vertices (h1, h3) of the circumscribed rectangle thus obtained. Thereafter, similarly when the third graphics object is detected, the circumscribed rectangle generation unit 55 generates one circumscribed rectangle including all the three objects.

次に、オブジェクトの種類毎に、2つ以上の外接矩形情報を生成する場合について説明する。ここでは、一例として、1つのオブジェクト種類について最大4つの外接矩形情報を生成するケースについて述べる。まず、外接矩形生成部55は、図9(A)に示すようにページの全領域を4つの部分領域に等分する。次に、外接矩形生成部55は、各々の部分領域において、図8(A)、(B)、(C)を用いて説明したのと同様の方法で外接矩形を生成する。これは、4等分された部分領域のそれぞれを1ページ(つまり合計4ページ)とし、各ページに対して上述した外接矩形生成処理を行うことに等しい。この場合、描画フラグも部分領域の数だけ用意される。この処理によって、図9(B)ないし図9(C)に示すような4つの外接矩形が生成される。   Next, a case where two or more circumscribed rectangle information is generated for each object type will be described. Here, as an example, a case where a maximum of four circumscribed rectangle information is generated for one object type will be described. First, the circumscribed rectangle generation unit 55 equally divides the entire area of the page into four partial areas as shown in FIG. Next, the circumscribed rectangle generation unit 55 generates a circumscribed rectangle in each partial region by the same method as described with reference to FIGS. 8A, 8B, and 8C. This is equivalent to performing the circumscribed rectangle generation process described above on each page, with each of the partial areas divided into four equals one page (that is, a total of four pages). In this case, as many drawing flags as the number of partial areas are prepared. By this processing, four circumscribed rectangles as shown in FIGS. 9B to 9C are generated.

この後、外接矩形生成部55は、各々の部分領域に含まれる外接矩形のうち、隣接する部分領域を跨いで互いに接し合う外接矩形を包含するような外接矩形を生成する。これを「外接矩形の結合」という。図9(C)及び図9(D)の例では、外接矩形C11と外接矩形C12とが結合されて外接矩形C10が生成され、外接矩形C13と外接矩形C14とが結合されて外接矩形C20が生成される。このように、1つのオブジェクト種類について最大N個の外接矩形を生成する場合、外接矩形生成部55は、まず最初に1ページ分の全領域をN個の部分領域に分割してから、それぞれの領域において外接矩形を生成し、最後に隣接する外接矩形どうしを結合する。
以上がグラフィクスについての外接矩形生成処理の一例である。外接矩形生成部55は、イメージや文字といったその他のオブジェクトについても、上記と同様な処理によって外接矩形情報を生成することができる。そして、外接矩形生成部55によって生成された外接矩形情報と、レンダリング処理部56によって生成されたラスタデータ及びタグ情報とが合わせられて、画像データ14が生成される。この画像データ14は、解析処理部13からレイヤ画像処理部に15に供給される。
Thereafter, the circumscribed rectangle generation unit 55 generates a circumscribed rectangle that includes circumscribed rectangles that are in contact with each other across adjacent partial areas among the circumscribed rectangles included in each partial area. This is called “joining of circumscribed rectangles”. In the example of FIGS. 9C and 9D, the circumscribed rectangle C11 and the circumscribed rectangle C12 are combined to generate the circumscribed rectangle C10, and the circumscribed rectangle C13 and the circumscribed rectangle C14 are combined to form the circumscribed rectangle C20. Generated. In this way, when generating a maximum of N circumscribed rectangles for one object type, the circumscribed rectangle generating unit 55 first divides the entire area for one page into N partial areas, A circumscribed rectangle is generated in the region, and finally adjacent circumscribed rectangles are joined.
The above is an example of a circumscribed rectangle generation process for graphics. The circumscribed rectangle generating unit 55 can generate circumscribed rectangle information for other objects such as images and characters by the same processing as described above. Then, the circumscribed rectangle information generated by the circumscribed rectangle generating unit 55 is combined with the raster data and tag information generated by the rendering processing unit 56 to generate the image data 14. This image data 14 is supplied from the analysis processing unit 13 to the layer image processing unit 15.

(5)レイヤ画像処理部15の説明
次に、レイヤ画像処理部15の構成及び動作について説明する。
図10は、レイヤ画像処理部15の構成を示すブロック図である。図10中の矢印は、レイヤ画像処理部15によって発生するデータや各種制御情報の流れを表している。レイヤ画像処理部15は、レイヤ制御部70と、FGレイヤ処理部71と、BGレイヤ処理部72と、データ出力部73と、画像処理部74とを備えている。レイヤ制御部70には、解析処理部13から供給されてくる画像データ14が入力される。画像データ14が入力されると、レイヤ制御部70は、図11に示すフローチャートに従って処理を実行する。
(5) Description of Layer Image Processing Unit 15 Next, the configuration and operation of the layer image processing unit 15 will be described.
FIG. 10 is a block diagram illustrating a configuration of the layer image processing unit 15. The arrows in FIG. 10 represent the flow of data and various control information generated by the layer image processing unit 15. The layer image processing unit 15 includes a layer control unit 70, an FG layer processing unit 71, a BG layer processing unit 72, a data output unit 73, and an image processing unit 74. The layer control unit 70 receives the image data 14 supplied from the analysis processing unit 13. When the image data 14 is input, the layer control unit 70 executes processing according to the flowchart shown in FIG.

まず、レイヤ制御部70は、レイヤ別画像データを生成するために必要な情報を取得する(ステップS11)。より具体的には、レイヤ制御部70は、入力画像ページサイズ情報と、入力画像解像度情報と、出力画像解像度情報と、オブジェクト振分情報と、圧縮情報とを取得する。入力画像解像度情報は、レイヤ画像処理部15に入力される画像データ14の解像度の値であり、出力画像解像度情報は、レイヤ画像処理部15から出力されるレイヤ別画像データ16の解像度の値である。入力画像ページサイズ情報は、画像データ14によって表される文書画像1ページ分のサイズを示す情報である。オブジェクト振分情報は、オブジェクトの種類(タグ情報)とレイヤの種類との対応関係を表した情報である。例えば「文字」オブジェクトはFGレイヤへ、「イメージ」オブジェクトと「グラフィクス」オブジェクトはBGレイヤへ、「背景」オブジェクトはFGレイヤとBGレイヤのいずれにも振り分けない、といった具合である。圧縮情報は、画像データの圧縮処理に関する属性情報である。属性情報は、例えばFGレイヤ及びBGレイヤの各々を圧縮する際の圧縮方式(例えばJPEG、FAX−G4)を指定する情報や、JPEG方式の圧縮における量子化レベルを指定する情報などを含んでいる。これらの情報のうち、入力画像ページサイズ情報と入力画像解像度情報は、解析処理部13から画像データ14とともに、レイヤ制御部70に供給される。一方、出力画像解像度情報、オブジェクト振分情報及び圧縮情報は、ユーザによってその都度指定されたものをレイヤ制御部70が取得するようにしてもよいし、予め記憶部2に記憶されたものをレイヤ制御部70がその都度読み出すようにしてもよい。   First, the layer control unit 70 acquires information necessary for generating layer-specific image data (step S11). More specifically, the layer control unit 70 acquires input image page size information, input image resolution information, output image resolution information, object distribution information, and compression information. The input image resolution information is the resolution value of the image data 14 input to the layer image processing unit 15, and the output image resolution information is the resolution value of the layer-specific image data 16 output from the layer image processing unit 15. is there. The input image page size information is information indicating the size of one page of the document image represented by the image data 14. The object distribution information is information representing the correspondence between the object type (tag information) and the layer type. For example, the “character” object is assigned to the FG layer, the “image” object and the “graphics” object are assigned to the BG layer, and the “background” object is not assigned to either the FG layer or the BG layer. The compression information is attribute information regarding image data compression processing. The attribute information includes, for example, information for specifying a compression method (for example, JPEG, FAX-G4) for compressing each of the FG layer and the BG layer, information for specifying a quantization level in JPEG compression, and the like. . Among these pieces of information, the input image page size information and the input image resolution information are supplied from the analysis processing unit 13 to the layer control unit 70 together with the image data 14. On the other hand, the output image resolution information, the object distribution information, and the compression information may be acquired by the layer control unit 70 as specified by the user each time, or the information stored in the storage unit 2 in advance as a layer. The control unit 70 may read each time.

次に、レイヤ制御部70は、FGレイヤ処理部71とBGレイヤ処理部72に対して、処理条件を指示する(ステップS12)。具体的には、レイヤ制御部70は、FGレイヤ処理部71に対しては、入力画像解像度情報、入力画像ページサイズ情報、圧縮情報、オブジェクト振分情報及び出力画像解像度情報を供給して、これらの情報が表す条件で処理を実行するように指示する。例えばレイヤ制御部70は、圧縮情報によって“FAX−G4方式で圧縮すること”を指示し、オブジェクト振分情報によって“文字とグラフィクスをFGレイヤに振り分けること”を指示し、入力画像解像度情報及び出力画像解像度情報によって“出力解像度は入力解像度と一致させること”を指示する、といった具合である。   Next, the layer control unit 70 instructs the processing conditions to the FG layer processing unit 71 and the BG layer processing unit 72 (step S12). Specifically, the layer control unit 70 supplies the input image resolution information, the input image page size information, the compression information, the object distribution information, and the output image resolution information to the FG layer processing unit 71. The process is instructed to be executed under the conditions indicated by the information. For example, the layer control unit 70 instructs “compress by FAX-G4 method” by the compression information, instructs “sorting characters and graphics to the FG layer” by the object distribution information, and inputs the input image resolution information and output For example, “output resolution should be matched with input resolution” is instructed by the image resolution information.

一方、レイヤ制御部70は、BGレイヤ処理部72に対しては、入力画像解像度情報、入力画像ページサイズ情報、圧縮情報、オブジェクト振分情報及び出力画像解像度情報を供給して、これらの情報が表す条件で処理を実行するように指示する。例えばレイヤ制御部70は、圧縮情報によって“JPEG方式で圧縮すること”を指示し、オブジェクト振分情報によって“イメージをBGレイヤに振り分けること”を指示し、入力画像解像度情報及び出力画像解像度情報によって“出力解像度は解像度変換を行い入力解像度の半分にすること”を指示する、といった具合である。   On the other hand, the layer control unit 70 supplies input image resolution information, input image page size information, compression information, object distribution information, and output image resolution information to the BG layer processing unit 72. Instructs the process to be executed under the conditions that it represents. For example, the layer control unit 70 instructs “compress with the JPEG method” using the compression information, instructs “assign the image to the BG layer” using the object distribution information, and uses the input image resolution information and the output image resolution information. For example, it is instructed to “convert the output resolution to half the input resolution by converting the resolution”.

続いて、レイヤ制御部70は、画像データ14のページ上端(又は下端)から1走査ライン分ずつエッジ列を抽出し(ステップS13)、抽出したエッジ列をFGレイヤ処理部71とBGレイヤ処理部72に供給する(ステップS14)。FGレイヤ処理部71及びBGレイヤ処理部72は、供給されてくるエッジ列から自身の処理に必要な情報を抽出し、それぞれ後述するような処理を経てバイナリ画像データを生成する。   Subsequently, the layer control unit 70 extracts edge sequences for each scanning line from the upper end (or lower end) of the page of the image data 14 (step S13), and extracts the extracted edge sequences from the FG layer processing unit 71 and the BG layer processing unit. (Step S14). The FG layer processing unit 71 and the BG layer processing unit 72 extract information necessary for its own processing from the supplied edge sequence, and generate binary image data through processing described later.

そして、レイヤ制御部70は、ページの上端から下端まで(または下端から上端まで)の全てのエッジ列をFGレイヤ処理部71及びBGレイヤ処理部72に供給し終えたと判断すると(ステップS15;Yes)、FGレイヤ処理部71及びBGレイヤ処理部72にページ出力命令を通知する(ステップS16)。この通知に応じて、FGレイヤ処理部71及びBGレイヤ処理部72は、データ出力部73に、1ページ分のレイヤ別画像データ16の出力を指示する。データ出力部73は、上記バイナリ画像データを圧縮して得られたレイヤ別画像データ16を出力する。   Then, the layer control unit 70 determines that all the edge sequences from the upper end to the lower end (or from the lower end to the upper end) of the page have been supplied to the FG layer processing unit 71 and the BG layer processing unit 72 (step S15; Yes). ), A page output command is notified to the FG layer processing unit 71 and the BG layer processing unit 72 (step S16). In response to this notification, the FG layer processing unit 71 and the BG layer processing unit 72 instruct the data output unit 73 to output the image data 16 by layer for one page. The data output unit 73 outputs layer-specific image data 16 obtained by compressing the binary image data.

(6)FGレイヤ処理部71の説明
次に、FGレイヤ処理部71の動作について説明する。
FGレイヤ処理部71は、レイヤ制御部70から供給されるエッジ列から、FGレイヤに振り分けられたオブジェクトの1画素を1ビットで表したバイナリ画像データを生成する。さらに、FGレイヤ制御部71は、各オブジェクトのページ中の位置とサイズと色を示す情報を生成する。この場合、FGレイヤ処理部71は、オブジェクトの色の違いとオブジェクトの種類の違いとに基づいて、それぞれのオブジェクトに対応したバイナリ画像データを生成することができる。例えば図3に示したFGレイヤl12のように、1ページ中に黒と赤の文字とグラフィクスとが存在している場合、FGレイヤ処理部71は、黒色の文字t−bkと、黒色のグラフィクスg−bkと、赤色の文字t−rdと、赤色のグラフィクスg−rdとをそれぞれ別々に表すバイナリ画像データを生成する。
(6) Description of FG Layer Processing Unit 71 Next, the operation of the FG layer processing unit 71 will be described.
The FG layer processing unit 71 generates binary image data in which one pixel of an object distributed to the FG layer is represented by 1 bit from the edge sequence supplied from the layer control unit 70. Further, the FG layer control unit 71 generates information indicating the position, size, and color of each object in the page. In this case, the FG layer processing unit 71 can generate binary image data corresponding to each object based on the difference in the color of the object and the difference in the type of the object. For example, when black and red characters and graphics exist in one page as in the FG layer 112 shown in FIG. 3, the FG layer processing unit 71 sets the black character t-bk and the black graphics. Binary image data representing g-bk, red character t-rd, and red graphics g-rd separately is generated.

また、FGレイヤ処理部71は、オブジェクトの種類の違いは考慮せずにオブジェクトの色の違いにのみ基づいて、それぞれのオブジェクトに対応したバイナリ画像データを生成することもできる。図3に示したFGレイヤl12の例で説明すれば、FGレイヤ処理部71は、黒色の文字t−bk及びグラフィクスg−bkと、赤色の文字t−rd及びグラフィクスg−rdとでそれぞれ別々に表すバイナリ画像データを生成する。さらに、FGレイヤ処理部71は、色の違いは考慮せずにオブジェクトの種類の違いにのみ基づいて、それぞれのオブジェクトに対応したバイナリ画像データを生成してもよい。図3に示したFGレイヤl12の例で説明すれば、FGレイヤ処理部71は、黒色の文字t−bk及び赤色の文字t−rdと、黒色のグラフィクスg−bk及び赤色のグラフィクスg−rdというように、種類毎に区分されたオブジェクトをそれぞれ別々に表すバイナリ画像データを生成する。   Further, the FG layer processing unit 71 can also generate binary image data corresponding to each object based on only the difference in the color of the object without considering the difference in the type of the object. In the example of the FG layer 112 shown in FIG. 3, the FG layer processing unit 71 is divided into a black character t-bk and graphics g-bk, and a red character t-rd and graphics g-rd, respectively. Binary image data represented by Further, the FG layer processing unit 71 may generate binary image data corresponding to each object based on only the difference in the type of object without considering the difference in color. In the example of the FG layer 112 shown in FIG. 3, the FG layer processing unit 71 includes the black character t-bk and the red character t-rd, the black graphics g-bk, and the red graphics g-rd. As described above, binary image data that separately represents objects classified by type is generated.

ここで、図12は、2つの黒色矩形のグラフィクスg−bk1,g−bk2と、1つの赤色矩形のグラフィクスg−rd1とがFGレイヤに振り分けられている例を表している。まず、FGレイヤ処理部71は、レイヤ制御部70から1走査ライン単位で供給されるエッジ列を取得し、そのエッジ列からFGレイヤの処理に必要なエッジデータだけを取り出して記憶部2にいったん記憶する。例えば図12の例で説明すると、レイヤ制御部70から供給されるエッジ列には、タグ情報T=0(背景)とタグ情報T=2(グラフィクス)含むエッジデータが含まれているはずだから、FGレイヤ処理部71は、このエッジ列からタグ情報T=2(グラフィクス)含むエッジデータのみを抽出し、記憶部2に記憶する。   Here, FIG. 12 illustrates an example in which two black rectangular graphics g-bk1 and g-bk2 and one red rectangular graphics g-rd1 are distributed to the FG layer. First, the FG layer processing unit 71 acquires an edge sequence supplied in units of one scanning line from the layer control unit 70, extracts only edge data necessary for processing of the FG layer from the edge sequence, and temporarily stores it in the storage unit 2. Remember. For example, in the example of FIG. 12, the edge sequence supplied from the layer control unit 70 should include edge data including tag information T = 0 (background) and tag information T = 2 (graphics). The FG layer processing unit 71 extracts only edge data including tag information T = 2 (graphics) from the edge sequence and stores it in the storage unit 2.

図13は、このときに抽出されたエッジデータを模式的に表現したものであり、y座標値毎に色値C、始点座標SX及び終点座標EXが組み合わせられている。例えば、図13において、y=1の走査ラインに対応する色値C=黒、始点座標値SX=1、終点座標値EX=3というエッジデータによって、(x,y)=(1,1)から(1,3)まで延びる黒色のエッジ(線分画像)が表現されている。FGレイヤ処理部71は、1ページ中で処理対象となる全てのエッジデータを抽出してもよいし、1ページを複数の領域に分割し、その領域毎に処理対象のエッジデータを抽出するようにしてもよい。ここでは、1ページに含まれる全てのエッジデータを抽出する場合の処理を説明する。   FIG. 13 schematically represents the edge data extracted at this time, and a color value C, a start point coordinate SX, and an end point coordinate EX are combined for each y coordinate value. For example, in FIG. 13, (x, y) = (1, 1) by edge data of color value C = black, start point coordinate value SX = 1, end point coordinate value EX = 3 corresponding to the scan line of y = 1. A black edge (line segment image) extending from 1 to (1, 3) is represented. The FG layer processing unit 71 may extract all the edge data to be processed in one page, or divide one page into a plurality of areas and extract the edge data to be processed for each area. It may be. Here, a process in the case of extracting all edge data included in one page will be described.

エッジデータの抽出が終了すると、FGレイヤ処理部71は、ページ上端(y=0の走査ライン)から順番に処理を開始する。図13の場合、FGレイヤ処理部71は、最初にy=1の走査ライン上に存在する色値C=黒、始点座標値SX=1、終点座標値EX=3によって表されたエッジを検出する。このエッジの色は黒色であるから、FGレイヤ処理部71は、さらにy=2以降の走査ラインに存在する黒色のエッジを順次検出していく。FGレイヤ処理部71はこのような検出処理をページ下端(y=6)まで行うことによって、図14に示すような結果を得ることになる。   When the edge data extraction is completed, the FG layer processing unit 71 starts processing in order from the upper end of the page (scanning line of y = 0). In the case of FIG. 13, the FG layer processing unit 71 first detects an edge represented by the color value C = black, the start point coordinate value SX = 1, and the end point coordinate value EX = 3 existing on the scanning line of y = 1. To do. Since the edge color is black, the FG layer processing unit 71 sequentially detects black edges existing in the scanning lines after y = 2. The FG layer processing unit 71 obtains a result as shown in FIG. 14 by performing such detection processing up to the lower end of the page (y = 6).

そして、FGレイヤ処理部71は、各々の走査ラインについての処理結果に含まれる始点座標SX及び終点座標EXの最大値・最小値、及び、y座標値の最大値・最小値を比較して、黒色のグラフィクスの位置とサイズとを決定する。図14の場合、黒色のエッジ(線分画像)の中で原点に最も近い座標値は(x,y)=(1,1)であり、その対角線上の頂点の座標値は(x,y)=(4,5)である。このような場合、FGレイヤ処理部71は、黒色のオブジェクトの位置を(x,y)=(1,1)とし、画像のサイズを(幅,高さ)=(4,5)とする。   Then, the FG layer processing unit 71 compares the maximum value / minimum value of the start point coordinate SX and the end point coordinate EX and the maximum value / minimum value of the y coordinate value included in the processing result for each scanning line, Determine the position and size of the black graphics. In the case of FIG. 14, the coordinate value closest to the origin in the black edge (line segment image) is (x, y) = (1, 1), and the coordinate value of the vertex on the diagonal is (x, y). ) = (4, 5). In such a case, the FG layer processing unit 71 sets the position of the black object to (x, y) = (1, 1), and sets the image size to (width, height) = (4, 5).

次に、図15を参照しながら、上記とは別の処理方法について説明する。図15は、図12に示したような画像について処理を進めていく場合に、処理対象となるエッジが存在しないような走査ラインが出現すると、その時点までに既に検出されているエッジについて処理を行う例を表している。図15の場合には、y=3の走査ラインにおいて処理対象となるエッジが存在しない。よって、FGレイヤ処理部71は、位置(x,y)=(1,1)及びサイズ(幅,高さ)=(3,2)の黒色矩形のグラフィクスと、位置(x,y)=(2,4)及びサイズ(幅,高さ)=(4,5)の黒色矩形のグラフィクスとを分けることになる。   Next, a processing method different from the above will be described with reference to FIG. FIG. 15 shows that when a scan line that does not include an edge to be processed appears when processing is performed on the image as shown in FIG. An example to be performed is shown. In the case of FIG. 15, there is no edge to be processed in the scan line with y = 3. Therefore, the FG layer processing unit 71 has a black rectangular graphics at a position (x, y) = (1, 1) and a size (width, height) = (3, 2), and a position (x, y) = ( 2, 4) and black rectangular graphics of size (width, height) = (4, 5).

FGレイヤ処理部71は、このようにして黒色矩形のグラフィクスの位置とサイズとを決定すると、これらのデータを画像処理部74に供給する。画像処理部74は、受け取ったデータに対し、必要に応じて解像度変換などの処理を行った後に、FAX−G4等の指定された方式で圧縮を行い、FGレイヤのバイナリ画像圧縮データを生成する。このバイナリ画像圧縮データは、データ出力部73によってレイヤ別画像データ16として出力される。   When the position and size of the black rectangular graphics are determined in this way, the FG layer processing unit 71 supplies these data to the image processing unit 74. The image processing unit 74 performs processing such as resolution conversion on the received data as necessary, and then compresses the received data using a designated method such as FAX-G4 to generate binary image compressed data of the FG layer. . This binary image compressed data is output as layer-specific image data 16 by the data output unit 73.

以上の処理を終えると、FGレイヤ処理部71は、再度y=0から走査ライン毎に次の処理対象となるエッジを検出していく。ここで、黒色のエッジに関しては既に処理済みであるから、FGレイヤ処理部71は、この処理済みの色(黒)を記憶しておいて、記憶している色を処理の対象外とすれば、同じ色のエッジを2回検出することを防止できる。そして、FGレイヤ処理部71は、y=3の走査ラインにおいて、色値C=赤、始点座標値SX=3、終点座標値EX=4によって表されたエッジを検出する。このエッジの色は赤色であるから、FGレイヤ処理部71は、それ以降に注目する色を赤として、さらにy=4以降の走査ラインに存在する赤色のエッジを順次検出していく。そして、FGレイヤ処理部71は、黒色の時と同じように、オブジェクトの位置及びサイズを決定し、これらを画像処理部74に供給する。画像処理部74は、前述したように、受け取ったデータに対して解像度変換などの処理を行った後に圧縮処理を施し、FGレイヤのバイナリ画像圧縮データを生成する。このバイナリ画像圧縮データは、データ出力部73によってレイヤ別画像データ16として出力される。   When the above processing is completed, the FG layer processing unit 71 again detects the next processing target edge for each scanning line from y = 0. Here, since the black edge has already been processed, the FG layer processing unit 71 stores the processed color (black) and excludes the stored color from processing. , It is possible to prevent the edge of the same color from being detected twice. Then, the FG layer processing unit 71 detects an edge represented by the color value C = red, the start point coordinate value SX = 3, and the end point coordinate value EX = 4 in the scanning line of y = 3. Since the edge color is red, the FG layer processing unit 71 sequentially detects red edges existing in scan lines after y = 4 with red as the color of interest after that. Then, the FG layer processing unit 71 determines the position and size of the object and supplies them to the image processing unit 74 in the same manner as in the case of black. As described above, the image processing unit 74 performs processing such as resolution conversion on the received data, and then performs compression processing to generate binary image compressed data of the FG layer. This binary image compressed data is output as layer-specific image data 16 by the data output unit 73.

(7)BGレイヤ処理部72の説明
次に、BGレイヤ処理部72の動作について説明する。
BGレイヤ処理部72は、イメージのようなオブジェクトを表す多値画像データをJPEG等の所定の圧縮方式で圧縮したデータと、そのオブジェクトの位置及びサイズとを生成する。具体的には、BGレイヤ処理部72は、まず、レイヤ制御部70からBGレイヤに振り分けるべきオブジェクトを表したタグ情報と外接矩形情報を取得する。BGレイヤ処理部は、これらの情報から、オブジェクトの位置とサイズを算出する。
(7) Description of BG Layer Processing Unit 72 Next, the operation of the BG layer processing unit 72 will be described.
The BG layer processing unit 72 generates data obtained by compressing multivalued image data representing an object such as an image using a predetermined compression method such as JPEG, and the position and size of the object. Specifically, the BG layer processing unit 72 first acquires tag information and circumscribed rectangle information representing objects to be distributed to the BG layer from the layer control unit 70. The BG layer processing unit calculates the position and size of the object from these pieces of information.

ここで、図16は、この算出手法を説明する図である。図16の画像P12は、2つのイメージと、2つのグラフィクスという合計4つのオブジェクトがBGレイヤに割り振られており、これらの各オブジェクトに対応した外接矩形C31,C32,C33,C34が生成されている場合を示している。外接矩形C31,C32はイメージの外接矩形であり、C33,C34はグラフィクスの外接矩形である。BGレイヤ処理部72は、これらの外接矩形C31,C32,C33,C34を結合させることにより、重畳関係にある外接矩形どうしを包含するような外接矩形を生成する。即ち、画像P22に示すように、外接矩形C31及び外接矩形C32が結合することによて外接矩形C51が生成され、外接矩形C33及び外接矩形C34が結合することによって外接矩形C52が生成される。そして、BGレイヤ処理部72は、これらの各々の外接矩形C51,C52の位置とサイズに基づいて、その外接矩形に含まれるオブジェクトの位置とサイズとを算出し、画像処理部74に通知する。画像処理部74においては、これらの各々の外接矩形に含まれるオブジェクトについて、解像度変換処理部76が必要に応じて解像度変換などの処理を行った後に、圧縮処理部75が圧縮処理を1走査ライン毎に行う。このようにして生成されたBGレイヤのバイナリ画像圧縮データは、データ出力部73によってレイヤ別画像データ16として出力される。   Here, FIG. 16 is a diagram for explaining this calculation method. In the image P12 of FIG. 16, a total of four objects of two images and two graphics are allocated to the BG layer, and circumscribed rectangles C31, C32, C33, and C34 corresponding to these objects are generated. Shows the case. The circumscribed rectangles C31 and C32 are circumscribed rectangles of the image, and C33 and C34 are circumscribed rectangles of the graphics. The BG layer processing unit 72 combines these circumscribed rectangles C31, C32, C33, and C34 to generate a circumscribed rectangle that includes circumscribed rectangles that are in a superimposed relationship. That is, as shown in the image P22, the circumscribed rectangle C51 is generated by combining the circumscribed rectangle C31 and the circumscribed rectangle C32, and the circumscribed rectangle C52 is generated by combining the circumscribed rectangle C33 and the circumscribed rectangle C34. The BG layer processing unit 72 calculates the position and size of the object included in the circumscribed rectangle based on the position and size of each circumscribed rectangle C51 and C52, and notifies the image processing unit 74 of the position and size. In the image processing unit 74, after the resolution conversion processing unit 76 performs processing such as resolution conversion on the objects included in each circumscribed rectangle, the compression processing unit 75 performs compression processing for one scanning line. Do it every time. The binary image compressed data of the BG layer generated in this way is output as layer-specific image data 16 by the data output unit 73.

ここで、図16に示すように1走査ライン中に2種類のオブジェクトが存在する場合には、圧縮処理部75は、それぞれ異なるオブジェクトを圧縮しているということを区別できるようにしておく。例えば圧縮処理の開始時には、前述したようにBGレイヤ処理部72から圧縮処理部75にオブジェクトの位置やサイズを通知しておくが、圧縮処理部75はこの位置及びサイズと1対1に対応するID番号などを生成しておく。そして、圧縮処理部75は、このID番号に基づいて圧縮対象のオブジェクトを個別に管理すればよい。もちろん、BGレイヤに1種類のオブジェクト(例えばイメージ)のみを振り分ける場合には、上記のようにオブジェクトの種類を区分する必要はない。   Here, as shown in FIG. 16, when there are two types of objects in one scanning line, the compression processing unit 75 makes it possible to distinguish that different objects are compressed. For example, at the start of the compression process, as described above, the BG layer processing unit 72 notifies the compression processing unit 75 of the position and size of the object, and the compression processing unit 75 has a one-to-one correspondence with the position and size. An ID number is generated. And the compression process part 75 should just manage the object of compression object separately based on this ID number. Of course, when only one type of object (for example, an image) is allocated to the BG layer, it is not necessary to classify the object type as described above.

以上説明した実施形態によれば、画像処理装置によって生成されるレイヤ別画像データ16はレイヤ別に区分されており、さらに、各レイヤに含まれているオブジェクトをその色や種類別に識別することが可能になっている。従って、このようなレイヤ別画像データ16を用いると、例えばユーザが特定のオブジェクトについて編集作業を行いたいような場合に、その作業を容易に実現することができる。また、きめ細やかに区分された色や種類別に、そのオブジェクトを示す画像データを圧縮することも可能である。よって、従来のように本来は不要なデータまでをも含めて圧縮する必要がない。また、比較的汎用性の高い画像データによって文書の内容を表現しているため、コンピュータどうしでのやり取りに関しても非常に都合がよい。   According to the embodiment described above, the layer-specific image data 16 generated by the image processing apparatus is divided by layer, and the objects included in each layer can be identified by color and type. It has become. Therefore, when such layer-specific image data 16 is used, for example, when the user wants to perform an editing operation on a specific object, the operation can be easily realized. It is also possible to compress the image data indicating the object for each color and type that are finely divided. Therefore, it is not necessary to compress data including unnecessary data as in the prior art. In addition, since the contents of the document are expressed by image data having relatively high versatility, it is very convenient for exchange between computers.

(7)変形例
上述した実施形態を以下のように変形して本発明を実施してもよい。
イメージオブジェクトの圧縮方式は、実施形態で例示したJPEG方式に限定されない。一般に写真などを取り込んで作成される画像データを圧縮するのに適した圧縮方式であれば、任意のものを採用することができる。また、文字オブジェクトやグラフィクスオブジェクトの圧縮方式も、FAX−G4方式に限らない。一般に文字や線画などの画像データを圧縮するのに適した圧縮方式であれば、任意のものを採用することができる。
(7) Modifications The embodiment described above may be modified as follows to implement the present invention.
The compression method of the image object is not limited to the JPEG method exemplified in the embodiment. In general, any compression method suitable for compressing image data created by taking a photograph or the like can be adopted. Also, the compression method for character objects and graphics objects is not limited to the FAX-G4 method. In general, any compression method suitable for compressing image data such as characters and line drawings can be adopted.

FGレイヤデータとBGレイヤデータは、実施形態では別々に表現されていたが、これらのデータを包括したデータ形式で表現するようにしてもよい。これらのレイヤデータを包括して表現可能なデータ形式として、例えばAdobe Systems社のPDF(Portable Document Format)があげられる。PDFでは、BGレイヤデータをImageオブジェクトとして表現でき、FGレイヤデータをImageMaskオブジェクトとして表現することができる。なお、PDFの表示に際してはBGレイヤの後にFGレイヤを描画することで、圧縮等の画像処理自身に起因する画質劣化を除いて、元画像と同じ画質を実現することができる。   The FG layer data and the BG layer data are expressed separately in the embodiment, but these data may be expressed in a comprehensive data format. An example of a data format that can comprehensively express these layer data is PDF (Portable Document Format) of Adobe Systems. In PDF, BG layer data can be expressed as an Image object, and FG layer data can be expressed as an ImageMask object. When displaying the PDF, by drawing the FG layer after the BG layer, it is possible to realize the same image quality as the original image except for image quality degradation caused by image processing itself such as compression.

エッジデータには、実施形態で例示した始点座標SX、終点座標EX、色値C、タグ情報Tのほかにも、例えばイメージオブジェクトの拡縮率などの情報を含んでいてもよい。また、グラフィクスオブジェクトを構成するエッジデータについては、例えばグラフィクスの形状や色、位置的な連続性、色変化の連続性などの調査結果に基づいて、「細線」や「パターン」といった、より詳細な属性を意味するタグ情報が含まれるようにしてもよい。また、似通った色を連続的に配置して表現する「グラデーション」であるか否かを判定して、これを意味するタグ情報をエッジデータに含ませるようにしてもよい。また、実施形態ではタグ情報Tの1種として「0」(背景)が含まれる例を説明したが、この「背景」をタグ情報Tによって表現するのではなく、「背景」であるか否かを指示する別の変数をエッジデータ内部に設けるようにしてもよい。   In addition to the start point coordinate SX, end point coordinate EX, color value C, and tag information T exemplified in the embodiment, the edge data may include information such as an image object scaling ratio. In addition, the edge data constituting the graphics object is more detailed such as “thin line” and “pattern” based on the investigation results such as the shape and color of graphics, continuity of position, and continuity of color change. Tag information indicating an attribute may be included. Further, it may be determined whether or not it is “gradation” in which similar colors are continuously arranged and expressed, and tag information indicating this may be included in the edge data. Further, in the embodiment, an example in which “0” (background) is included as one type of tag information T has been described. However, this “background” is not expressed by the tag information T but is “background”. Another variable instructing may be provided in the edge data.

図9(A)〜図9(D)を用いた説明では、ページの全領域を縦横に区切って等分したが、領域の分割の仕方はこれに限らなるものではない。例えば、縦方向(y軸方向)に沿って短冊状に分割するようにしてもよい。なお、「背景」については、実施形態で述べたような手法によって外接矩形を生成する必要はない。もしページ中に「背景」が存在するならば、その「背景」に対応した外接矩形は常にページ全体の領域を指すように設定してもよい。   In the description using FIGS. 9A to 9D, the entire area of the page is divided into equal parts by vertically and horizontally, but the method of dividing the area is not limited to this. For example, it may be divided into strips along the vertical direction (y-axis direction). For “background”, it is not necessary to generate a circumscribed rectangle by the method described in the embodiment. If a “background” exists in the page, the circumscribed rectangle corresponding to the “background” may always be set so as to indicate the entire area of the page.

FGレイヤ処理部とBGレイヤ処理部による処理は、実施形態で述べたもの以外にも、処理効率化のために適宜改良したものであってもよい。例えば、FGレイヤ処理部は、入力されたエッジデータから色値毎のバイナリ画像圧縮データと、その位置とサイズを取得する方法であれば任意のものを使用することができる。また、BGレイヤ処理部は、タグ情報及び外接矩形情報から、対象とすべきオブジェクトの位置・サイズを決定した上でエッジデータを受け取り、これを所定の圧縮方式で圧縮して圧縮データを生成する方法であれば任意のものを使用することができる。   The processing by the FG layer processing unit and the BG layer processing unit may be appropriately improved for processing efficiency other than those described in the embodiment. For example, the FG layer processing unit can use any method as long as it obtains binary image compressed data for each color value and its position and size from the input edge data. Further, the BG layer processing unit receives the edge data after determining the position / size of the object to be processed from the tag information and the circumscribed rectangle information, and generates the compressed data by compressing the edge data using a predetermined compression method. Any method can be used.

図15を用いた説明では、処理対象となるエッジが存在しないような走査ラインが出現した場合には、その時点までに既に検出されているエッジについて処理を行うとしていた。これを変形して、ある閾値を設定しておいて、各々のオブジェクト間の距離(つまり、処理対象となるエッジが存在しないような走査ラインが連続する数)が、その閾値以下の場合にのみ、それらのオブジェクトを1つにまとめるような外接矩形を生成するようにしてもよい。このようにすれば近接するオブジェクト同士をまとめることができ、以降の処理を簡略化することができる。   In the description using FIG. 15, when a scan line that does not have an edge to be processed appears, processing is performed on an edge that has already been detected up to that point. This is modified to set a threshold value, and only when the distance between the objects (that is, the number of consecutive scanning lines where there is no edge to be processed) is equal to or less than the threshold value. A circumscribed rectangle that brings these objects together may be generated. In this way, adjacent objects can be grouped together, and the subsequent processing can be simplified.

実施形態では、パーソナルコンピュータによって画像処理装置10を実現する場合について説明したが、これに限らず、例えばプリンタ装置やいわゆる複合機等の画像形成装置がこの画像処理装置10と同等の機能を備えていてもよい。また、コンピュータと画像形成装置が連携することで画像処理装置10と同等の機能を実現するようにしてもよい。そして、画像処理装置10が動作するための制御プログラムPRG1は、CPU等の演算装置によって読み取り可能な磁気記録媒体、光記録媒体あるいはROMなどの記録媒体に記録して提供することができる。また、インターネットのようなネットワーク経由でダウンロードさせることももちろん可能である。   In the embodiment, the case where the image processing apparatus 10 is realized by a personal computer has been described. However, the present invention is not limited to this. May be. Further, a function equivalent to that of the image processing apparatus 10 may be realized by cooperation between the computer and the image forming apparatus. The control program PRG1 for operating the image processing apparatus 10 can be provided by being recorded on a recording medium such as a magnetic recording medium, an optical recording medium, or a ROM that can be read by an arithmetic device such as a CPU. Of course, downloading via a network such as the Internet is also possible.

本発明の実施形態に係る画像処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the image processing apparatus which concerns on embodiment of this invention. 画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an image processing apparatus. レイヤ別画像データを説明するための図である。It is a figure for demonstrating the image data classified by layer. エッジデータの構成を示す図である。It is a figure which shows the structure of edge data. オブジェクトと、そのオブジェクトを構成するエッジデータの一例を示す図である。It is a figure which shows an example of the object and the edge data which comprise the object. 外接矩形を説明するための図である。It is a figure for demonstrating a circumscribed rectangle. 解析処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an analysis process part. 外接矩形を生成する過程を説明する図である。It is a figure explaining the process which produces | generates a circumscribed rectangle. 外接矩形を生成する過程を説明する図である。It is a figure explaining the process which produces | generates a circumscribed rectangle. レイヤ画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a layer image process part. レイヤ制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a layer control part. ページ中のオブジェクトの位置とサイズの例を示す図である。It is a figure which shows the example of the position and size of the object in a page. FGレイヤ処理部がオブジェクトの位置とサイズとを決定する方法を説明する図である。It is a figure explaining the method in which the FG layer process part determines the position and size of an object. FGレイヤ処理部がオブジェクトの位置とサイズとを決定する方法を説明する図である。It is a figure explaining the method in which the FG layer process part determines the position and size of an object. FGレイヤ処理部がオブジェクトの位置とサイズとを決定する方法を説明する図である。It is a figure explaining the method in which the FG layer process part determines the position and size of an object. BGレイヤ処理部がオブジェクトの位置とサイズとを決定する方法を説明する図である。It is a figure explaining the method in which a BG layer process part determines the position and size of an object. 従来技術によって画像処理された結果を説明するための図である。It is a figure for demonstrating the result of image processing by a prior art.

符号の説明Explanation of symbols

1・・・制御部、2・・・記憶部、10・・・画像処理装置、13・・・解析処理部、15・・・レイヤ画像処理部、55・・・外接矩形生成部、56・・・レンダリング処理部、57・・・タグ情報記憶部(属性情報記憶部)、70・・・レイヤ制御部、71・・・FGレイヤ処理部、72・・・BGレイヤ処理部、74・・・画像処理部。 DESCRIPTION OF SYMBOLS 1 ... Control part, 2 ... Memory | storage part, 10 ... Image processing apparatus, 13 ... Analysis processing part, 15 ... Layer image processing part, 55 ... circumscribed rectangle production | generation part, 56. ... Rendering processing unit, 57... Tag information storage unit (attribute information storage unit), 70... Layer control unit, 71... FG layer processing unit, 72. -Image processing unit.

Claims (8)

文書を構成するオブジェクトの種類を表した属性情報を記憶する属性情報記憶部と、
文書を表す文書データ、または該文書データによって表される文書を記録材に出力するための出力データから、前記属性情報記憶部によって記憶されている属性情報を用いて、該文書の内容を画像として表現した画像データを生成する解析処理部と、
オブジェクトの種類とレイヤの種類との対応関係を表すオブジェクト振分情報に従って、前記解析処理部によって生成された画像データを、それぞれ異なる種類のオブジェクトを含む複数種類のレイヤに分離するレイヤ制御部と、
分離された各レイヤに含まれるオブジェクトに画像処理を施してレイヤ別の画像を表すレイヤ別画像データを生成し、出力するレイヤ画像処理部と
を備える画像処理装置。
An attribute information storage unit for storing attribute information representing the types of objects constituting the document;
From the document data representing the document or the output data for outputting the document represented by the document data to the recording material, using the attribute information stored in the attribute information storage unit, the contents of the document are converted into an image. An analysis processing unit for generating the represented image data;
A layer control unit that separates the image data generated by the analysis processing unit into a plurality of types of layers including different types of objects, according to object distribution information representing a correspondence relationship between the types of objects and the types of layers;
An image processing apparatus comprising: a layer image processing unit that performs image processing on an object included in each separated layer to generate image data by layer representing an image by layer and output the image data.
前記解析処理部は、各レイヤに含まれるオブジェクトの外縁に接する外接矩形を生成する外接矩形生成部を備え、生成された外接矩形を表す外接矩形情報を含んだ前記画像データを生成し、
前記レイヤ画像処理部は、前記外接矩形情報によって表される外接矩形に含まれるオブジェクトに画像処理を施して前記レイヤ別画像データを生成する請求項1記載の画像処理装置。
The analysis processing unit includes a circumscribed rectangle generating unit that generates a circumscribed rectangle in contact with an outer edge of an object included in each layer, and generates the image data including circumscribed rectangle information representing the generated circumscribed rectangle,
The image processing apparatus according to claim 1, wherein the layer image processing unit performs image processing on an object included in a circumscribed rectangle represented by the circumscribed rectangle information to generate the layer-specific image data.
前記外接矩形生成部は、文書1ページ分の全領域を複数の部分領域に分割し、各々の部分領域に含まれるオブジェクトの外縁に接する矩形のうち、隣接する部分領域を跨いで互いに接し合う矩形どうしを結合させることによって前記外接矩形を生成する請求項2記載の画像処理装置。   The circumscribed rectangle generation unit divides the entire area of one page of a document into a plurality of partial areas, and among the rectangles that touch the outer edge of the object included in each partial area, the rectangles that touch each other across adjacent partial areas The image processing apparatus according to claim 2, wherein the circumscribed rectangle is generated by combining the two. 前記解析処理部は、線分画像の始点、線分画像の終点及び線分画像の色のうち少なくともいずれか1つを表す情報と、線分画像によって構成されるオブジェクトの種類を示す前記属性情報とを含むエッジ列によって表されるような前記画像データを生成する請求項1記載の画像処理装置。   The analysis processing unit includes information representing at least one of a start point of a line segment image, an end point of the line segment image, and a color of the line segment image, and the attribute information indicating a type of an object configured by the line segment image The image processing apparatus according to claim 1, wherein the image data is represented by an edge sequence including: 前記オブジェクトの種類には文書の背景が含まれており、
前記記憶部は、背景に割り当てられた属性情報を記憶する請求項1記載の画像処理装置。
The object type includes the background of the document,
The image processing apparatus according to claim 1, wherein the storage unit stores attribute information assigned to a background.
前記レイヤ画像処理部は、前記画像処理として、分離された各レイヤに含まれるオブジェクトに圧縮処理を施す請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the layer image processing unit performs compression processing on the object included in each separated layer as the image processing. 前記レイヤ画像処理部は、前記画像処理として、分離された各レイヤに含まれるオブジェクトに解像度変換処理を施す請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the layer image processing unit performs resolution conversion processing on the objects included in each separated layer as the image processing. コンピュータに、
文書を表す文書データ、または該文書データによって表される文書を記録材に出力するための出力データから、文書を構成するオブジェクトの種類毎に割り当てられた属性情報を用いて、該文書の内容を画像として表現した画像データを生成する解析処理機能と、
オブジェクトの種類とレイヤの種類との対応関係を表すオブジェクト振分情報に従って、前記解析処理機能によって生成された画像データを、それぞれ異なる種類のオブジェクトを含む複数種類のレイヤに分離するレイヤ制御機能と、
分離された各レイヤに含まれるオブジェクトに画像処理を施してレイヤ別の画像を表すレイヤ別画像データを生成し、出力するレイヤ画像処理機能と
を実現させるプログラム。
On the computer,
From the document data representing the document or the output data for outputting the document represented by the document data to the recording material, the content of the document is determined using the attribute information assigned for each type of object constituting the document. An analysis processing function for generating image data expressed as an image;
A layer control function for separating the image data generated by the analysis processing function into a plurality of types of layers each including different types of objects, according to object distribution information representing a correspondence relationship between the types of objects and the types of layers;
A program that realizes a layer image processing function that performs image processing on an object included in each separated layer to generate image data by layer that represents an image by layer and outputs the image data.
JP2004222245A 2004-07-29 2004-07-29 Image processing apparatus and program Pending JP2006040161A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004222245A JP2006040161A (en) 2004-07-29 2004-07-29 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004222245A JP2006040161A (en) 2004-07-29 2004-07-29 Image processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2006040161A true JP2006040161A (en) 2006-02-09

Family

ID=35905051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004222245A Pending JP2006040161A (en) 2004-07-29 2004-07-29 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2006040161A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328029A (en) * 2006-06-06 2007-12-20 Canon Inc Information processing apparatus, information processing method, and information processing program
JP2014127007A (en) * 2012-12-26 2014-07-07 Mitsubishi Electric Corp Graphic drawing device and graphic drawing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328029A (en) * 2006-06-06 2007-12-20 Canon Inc Information processing apparatus, information processing method, and information processing program
JP2014127007A (en) * 2012-12-26 2014-07-07 Mitsubishi Electric Corp Graphic drawing device and graphic drawing program

Similar Documents

Publication Publication Date Title
US8244035B2 (en) Image processing apparatus and control method thereof
JP4817821B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
US7864199B2 (en) Image processing apparatus and control method thereof
JP4766657B2 (en) Image processing apparatus, control method therefor, and program
JP4047192B2 (en) Image compression apparatus and method, image expansion apparatus and method, and program
JP5137759B2 (en) Image processing device
JP5171733B2 (en) Image processing apparatus and image processing method
JP4463476B2 (en) Compound document image compression using multi-area 2-layer format
JP2005157449A (en) Image processor, information processor, and their control methods, program
US10592766B2 (en) Image processing apparatus and medium storing program executable by image processing apparatus
JP4338856B2 (en) Method and system for providing editing commands
JP2009253371A (en) Image file editing apparatus, image file editing method, and program
JP5893379B2 (en) Image compression apparatus, image compression method, and computer program
JP4747780B2 (en) Image processing apparatus, image processing method, and image processing program
US10609249B2 (en) Scanner and scanning control program which outputs an original image and an extracted image in a single file
JP2006345314A (en) Image processing apparatus and image processing method
JP2016115963A (en) Image processing apparatus, image processing method and program
JP2006040161A (en) Image processing apparatus and program
JP2018182464A (en) Image processing system and program
JP4375199B2 (en) Image processing apparatus and program
JP4345609B2 (en) Image processing apparatus and program
JP2006054817A (en) Document processor
JP4506346B2 (en) Image processing device
US20110235927A1 (en) Image processing apparatus and method
JP4736489B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100309