JP3935127B2 - Image forming method - Google Patents

Image forming method Download PDF

Info

Publication number
JP3935127B2
JP3935127B2 JP2003341941A JP2003341941A JP3935127B2 JP 3935127 B2 JP3935127 B2 JP 3935127B2 JP 2003341941 A JP2003341941 A JP 2003341941A JP 2003341941 A JP2003341941 A JP 2003341941A JP 3935127 B2 JP3935127 B2 JP 3935127B2
Authority
JP
Japan
Prior art keywords
objects
image
generating
image forming
overlap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003341941A
Other languages
Japanese (ja)
Other versions
JP2005109987A (en
Inventor
博幸 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Mita Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Mita Corp filed Critical Kyocera Mita Corp
Priority to JP2003341941A priority Critical patent/JP3935127B2/en
Publication of JP2005109987A publication Critical patent/JP2005109987A/en
Application granted granted Critical
Publication of JP3935127B2 publication Critical patent/JP3935127B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Record Information Processing For Printing (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、例えばコピー機、ファクシミリ機及びプリンタ、或いはこれらの機能を併せ持ついわゆる複合機等の画像形成装置上で適用されて好適な画像形成方法の技術分野に属する。   The present invention belongs to the technical field of an image forming method that is suitable for application to an image forming apparatus such as a copier, a facsimile machine, a printer, or a so-called multifunction machine having these functions.

従来、用紙上に形成する画像の中にいわゆる透明成分を含ませることが可能な画像形成装置が知られている。例えば、全面赤色の背景及び該背景上に緑色の何らかの図形があるとして、当該図形に前記透明成分を有する窓を設けたとすると、当該窓を通して後ろの背景が“透けて”見えるなどというようである。この場合、当該窓の部分では、実質的には、当該図形の緑色と当該背景の赤色が混合された状態で画像形成が行われることで、“透けた”感じを表現することが可能となる。透明成分を含む画像形成を行いうる画像形成装置としては、例えば特許文献1に掲げるようなものが知られている。
特開2003−143393号公報
2. Description of the Related Art Conventionally, an image forming apparatus that can include a so-called transparent component in an image formed on a sheet is known. For example, if there is a green background on the entire surface and a green figure on the background, and the window having the transparent component is provided on the figure, the background behind the window can be seen through. . In this case, in the portion of the window, it is possible to express a “transparent” feeling by performing image formation in a state where the green color of the graphic and the red color of the background are mixed. . As an image forming apparatus capable of forming an image including a transparent component, for example, an apparatus described in Patent Document 1 is known.
JP 2003-143393 A

しかしながら、従来における画像形成装置には次のような問題点がある。すなわち、前述のような透明成分を含むオブジェクトに基づいて画像形成する場合、従来においては当該ページ内すべてのオブジェクト(ベクター、イメージ、テキスト)は、例えば描画サイズが“A4”である一枚のイメージ画像データ(例えば、いわゆるビットマップデータ)にラスタライズされて合成されていた。すなわち、当該オブジェクトはすべて、ラスター画像に変換された上、ピクセル単位で処理が行われるようになっていたのである。この場合、ベクター及びフォントの線を滑らかに描画するためには、イメージの解像度を300dpi程度にしなければならないから、画像データのサイズは非常に大きくなる。例えばA4サイズのカラー画像の場合では、48Mbyteのイメージ画像データが生成されることになる。   However, the conventional image forming apparatus has the following problems. That is, when an image is formed on the basis of an object including a transparent component as described above, conventionally, all objects (vector, image, text) in the page are, for example, one image having a drawing size of “A4”. The image data (for example, so-called bitmap data) is rasterized and combined. That is, all the objects are converted into raster images and processed in units of pixels. In this case, since the resolution of the image must be about 300 dpi in order to smoothly draw the vector and font lines, the size of the image data becomes very large. For example, in the case of an A4 size color image, 48 Mbytes of image data is generated.

したがって、従来においては、かかる画像データの作成に非常に時間がかかることになり、全体としての処理速度が非常に遅くなってしまうという問題点があったのである。また、メモリ消費量もばかにならない。仮に、このような不具合を回避しようとして、例えば前記の解像度を低下させるようなことを行うと、たしかに処理速度の向上が相応には見込まれることになるとは考えられるものの、文字、斜め線等においてギザギザを目立たせてしまうことになり、品質の高い画像形成が困難となってしまう。したがって、このような対策では、問題の根本的解決には遠い。   Therefore, conventionally, it takes a very long time to create such image data, and the overall processing speed is very slow. Also, the memory consumption is not ridiculous. In order to avoid such a problem, for example, if the resolution is reduced, for example, an improvement in processing speed is expected to be expected, but in characters, diagonal lines, etc. Jaggedness will be conspicuous, and high-quality image formation will be difficult. Therefore, such a measure is far from the fundamental solution of the problem.

本発明は、上記問題点に鑑みてなされたものであり、透明成分を含む画像形成を高品質に且つ迅速に行うことの可能な画像形成方法を提供することを課題とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image forming method capable of rapidly performing image formation including a transparent component with high quality.

本発明の画像形成方法は、上記課題を解決するため、画像情報から第1のオブジェクトを生成する工程と、前記第1のオブジェクトにその少なくとも一部が重ね合わされ透明成分を含む第2のオブジェクトを前記画像情報から生成する工程と、前記第1のオブジェクト及び前記第2のオブジェクトが重ね合わされた状態から、これら第1のオブジェクト及び第2のオブジェクトが相互に重なり合っている部分に対応する第1及び第2のオブジェクトがもつ色情報を混合するとともに当該第2のオブジェクトについての透明度を加味した色情報をもつ重合オブジェクトとそれ以外の部分に対応する残余オブジェクトとを生成する工程とを含む。
In order to solve the above problems, an image forming method of the present invention includes a step of generating a first object from image information, and a second object including at least a part of the first object and including a transparent component. From the step of generating from the image information, and the state in which the first object and the second object are overlapped, the first and second objects corresponding to portions where the first object and the second object overlap each other A step of mixing color information of the second object and generating a superposition object having color information in consideration of transparency of the second object and a residual object corresponding to the other part.

本発明の画像形成装置によれば、第1のオブジェクトと透明成分を含む第2のオブジェクトとが相互に重ね合わされることにより、その重なり合っている部分については、第1のオブジェクトがもつ色情報と第2のオブジェクトがもつ色情報とを混合するとともに当該第2のオブジェクトに含まれる透明成分の透明度を加味した上で、画像形成を行う必要がある(以下、かかる画像形成を、説明の便宜上、「透かし画像形成」ということにする。)。   According to the image forming apparatus of the present invention, the first object and the second object including the transparent component are overlapped with each other, so that the overlapping information includes the color information of the first object. It is necessary to perform image formation after mixing the color information possessed by the second object and taking into account the transparency of the transparent component contained in the second object. This is called “watermark image formation.”)

そして、本発明では特に、前記の重なり合っている部分に対応して重合オブジェクトが生成され、それ以外の部分に対応して残余オブジェクトが生成されるようになっている。言い換えると、前記のような透かし画像形成を行う必要のある前記重なり合っている部分については、単独のオブジェクトたる「重合オブジェクト」が生成されるようになっているのである。したがって、前記のような第1及び第2のオブジェクトがもつ色情報を混合するとともに当該第2のオブジェクトについての透明度を加味した色情報は、当該重合オブジェクトにもたせてやればよいことになる。また、これにより、当該透かし画像形成は、通常のオブジェクトの取扱いと同様にして、この重合オブジェクトを取り扱うことによって実現することが可能となる。   In the present invention, in particular, a superimposed object is generated corresponding to the overlapping portion, and a residual object is generated corresponding to the other portion. In other words, the “overlapping object”, which is a single object, is generated for the overlapping portion where it is necessary to form a watermark image as described above. Therefore, color information including the color information of the first and second objects as described above and mixed with the transparency of the second object may be applied to the superimposed object. Also, this makes it possible to realize the watermark image formation by handling this overlapped object in the same way as normal object handling.

このように本発明によれば、前記の透かし画像形成を行うにあたり、あるページ内のすべてのオブジェクトをラスター画像に変換した上、該ラスター画像をピクセル単位で扱う等といった手法を用いるのに比べて、情報処理時間を格段に短縮することが可能となる。また、ピクセル単位毎に情報を保持する必要がなくなるから、メモリ消費量も格段に削減することができる。さらに、このような本発明の手法を用いたからといって、画質が劣化するようなこともない。   As described above, according to the present invention, in forming the watermark image, all objects in a page are converted into raster images, and the raster image is handled in units of pixels. The information processing time can be significantly shortened. In addition, since it is not necessary to store information for each pixel unit, the memory consumption can be significantly reduced. Furthermore, the use of such a method of the present invention does not deteriorate the image quality.

本発明のこのような作用及び他の利得は次に説明する実施の形態から明らかにされる。   Such an operation and other advantages of the present invention will become apparent from the embodiments described below.

以下では、本発明の実施の形態について図1を参照しつつ説明する。ここに図1は、本実施形態に係る画像形成装置の構成図である。   Hereinafter, an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a configuration diagram of the image forming apparatus according to the present embodiment.

図1において、画像形成装置は、制御部1、プリンタ部2、記憶装置3、ファックスインターフェイス(以下、「FAX I/F」という。)4、ネットワークI/F5、スキャナ部6及び操作部7から構成されている。   In FIG. 1, the image forming apparatus includes a control unit 1, a printer unit 2, a storage device 3, a fax interface (hereinafter referred to as “FAX I / F”) 4, a network I / F 5, a scanner unit 6, and an operation unit 7. It is configured.

このうちプリンタ部2は、例えば図示しないパソコンから送られ、或いはスキャナ部6により読み取られ、更にはFAX I/F4により受信されるなどした画像情報に基づいて、これに基づき設定された印刷ジョブを処理する(画像形成する)。なお、印刷ジョブの処理とは、主として、プリンタ部2に予め蓄積された用紙等に、前記画像情報に基づく文字・図画等を印刷することをいう。本実施形態においては、この画像の中に透明成分が含まれている場合に、特に好適な画像形成を実行することができるが、この点については後に詳述する。記憶装置3は、実行予定、或いは実行中の印刷ジョブや、エラーの発生した印刷ジョブ等を記憶する。本実施形態においては、この記憶装置3にオブジェクト管理テーブルが含まれており、該オブジェクト管理テーブルにおけるオブジェクトの管理態様に特徴があるが、この点については後に詳述する。FAX I/F4は、図示しないネットワーク外の機器と電話回線を介して接続され、ファクシミリ機能により画像情報の送受信を行う。ネットワークI/F5は、ネットワークに接続され、ネットワーク内を行き交うデータの送受信を行う。例えば、前記パソコンから送られてくる画像情報は、このネットワークI/F5を介して画像形成装置内に取り込まれる。スキャナ部6は、図示しないプラテン、光源部、CCDカメラ等を備え、前記プラテン上に載置された原稿面をスキャンして画像情報を読み取る。操作部7は、ユーザが当該画像形成装置に対して各種の指令を送信するためのユーザインターフェイスである。   Among these, the printer unit 2 sends a print job set based on the image information sent from a personal computer (not shown) or read by the scanner unit 6 and further received by the FAX I / F 4. Process (form image). Note that the print job processing mainly means printing characters / drawings and the like based on the image information on paper or the like previously stored in the printer unit 2. In the present embodiment, particularly suitable image formation can be executed when a transparent component is included in the image. This point will be described in detail later. The storage device 3 stores a print job scheduled to be executed or being executed, a print job in which an error has occurred, and the like. In the present embodiment, the storage device 3 includes an object management table, and the object management mode in the object management table is characterized. This point will be described in detail later. The FAX I / F 4 is connected to a device outside the network (not shown) via a telephone line, and transmits and receives image information using a facsimile function. The network I / F 5 is connected to the network and transmits and receives data that travels within the network. For example, image information sent from the personal computer is taken into the image forming apparatus via the network I / F 5. The scanner unit 6 includes a platen, a light source unit, a CCD camera, and the like (not shown), and scans a document surface placed on the platen to read image information. The operation unit 7 is a user interface for the user to send various commands to the image forming apparatus.

そして、制御部1は、前記の各要素を通じて画像形成装置全体を制御する。また、制御部1は、制御指令を行うCPU、制御プログラム等が格納されたROM、一時的な記憶場所のRAM、不揮発データを格納するNVRAMから構成されている。   The control unit 1 controls the entire image forming apparatus through the above-described elements. The control unit 1 is composed of a CPU that issues a control command, a ROM that stores a control program, a RAM that temporarily stores data, and an NVRAM that stores nonvolatile data.

かかる構成となる画像形成装置は、例えば図2乃至図5に示すように運用され、その結果以下に記す作用効果を得ることができる。ここに図2は、透明成分を含む画像形成を好適に行うために実施されるオブジェクトの重なり判定及び切り出し処理等の流れを示すフローチャートである。また、図3は、図2の処理を実施した結果構成されたオブジェクトの一例(オブジェクトI乃至VII)を示す説明図であり、図4及び図5は、図3に示すオブジェクトの一例がどのようにして得られるかを段階を追って示す説明図である。なお、以下では、図6以降についても適宜参照しながら説明を行うこととする(該図6以降の内容については該当箇所で述べる。)。   The image forming apparatus having such a configuration is operated as shown in FIGS. 2 to 5, for example, and as a result, the following effects can be obtained. FIG. 2 is a flowchart showing the flow of object overlap determination, cutout processing, and the like performed in order to suitably perform image formation including a transparent component. 3 is an explanatory diagram showing an example of objects (objects I to VII) configured as a result of performing the processing of FIG. 2, and FIGS. 4 and 5 show how the example of the object shown in FIG. It is explanatory drawing which shows step by step whether it is obtained. In the following, description will be made with reference to FIG. 6 and subsequent figures as appropriate (the contents after FIG. 6 will be described in the corresponding portions).

まず、本実施形態に係る画像形成装置における処理の流れの説明の前提として、入力データから生成されるオブジェクトの種類について説明しておく。当該オブジェクトの種類は全部で4種類ある。すなわち、ベクターオブジェクト、イメージオブジェクト、テキストオブジェクト及び複合オブジェクトである。このうち複合オブジェクトは、後述するようにテキストオブジェクトと他のオブジェクトとの重なり合いが発生した時に生成されるものであり、詳しくは後に述べることとする。図6は、これら4種類のオブジェクトフォーマットである。ここで、透明度情報αとは、当該オブジェクトがどの程度の透明度をもつかを表す情報であり、α=0のとき当該オブジェクトは不透明(つまり、完全な上書き)であり、そこから大きくなるに連れて次第に透明度が上昇していくことが表される。   First, the types of objects generated from input data will be described as a premise for explaining the flow of processing in the image forming apparatus according to the present embodiment. There are four types of objects in total. That is, a vector object, an image object, a text object, and a composite object. Of these, the composite object is generated when an overlap between a text object and another object occurs, as will be described later, and will be described in detail later. FIG. 6 shows these four types of object formats. Here, the transparency information α is information indicating the degree of transparency of the object. When α = 0, the object is opaque (that is, completely overwritten) and becomes larger from there. Transparency is gradually increasing.

さて、かかる前提の下、図2においてはまず、図1に示したネットワークI/F5、FAX I/F4、あるいはスキャナ部6によって読み取られ当該画像形成装置内に入力されたデータに基づいて、前述した各種のオブジェクトのうち、ベクターオブジェクト、イメージオブジェクト及びテキストオブジェクトが生成されうるようになっている(図2のステップS10からステップS21,S22又はS23)。これらのオブジェクトは実際に描画するコマンド(例えば「塗り潰し」、「線引き」等、図6参照)が来たときに生成される。このようして生成されたオブジェクトは「新規オブジェクト」として認定される(図2のステップS31)。この新規オブジェクトは、後述するオブジェクトTB[i]との間に重なりがあるかどうかを判定するための重なり判定処理、及びその結果に基づく切り出し処理を受け、最終的には、所定の形式でオブジェクト管理テーブルへ登録される(図2のステップS502、あるいはS511など)ことになるが、この点については後の該当箇所において適宜述べる。   Under this assumption, in FIG. 2, first, based on the data read by the network I / F 5, FAX I / F 4 or scanner unit 6 shown in FIG. Among these various objects, a vector object, an image object, and a text object can be generated (step S10 to step S21, S22, or S23 in FIG. 2). These objects are generated when a command to actually draw (for example, “painting”, “drawing”, etc., see FIG. 6) is received. The object thus generated is recognized as a “new object” (step S31 in FIG. 2). This new object is subjected to an overlap determination process for determining whether or not there is an overlap with an object TB [i], which will be described later, and a cutout process based on the result. This is registered in the management table (step S502 or S511 in FIG. 2). This point will be appropriately described later in the corresponding part.

次に、図2のステップS31における新規オブジェクトと、それ以前に既に生成されているオブジェクトTB[i]との間における重なり判定・切り出し処理に進む(ステップSW1からSW2までのループ)。ここで、このオブジェクトTB[i]とは、オブジェクト管理テーブルに既に登録されている1,2,3,…,n個の独立のオブジェクト(前述のベクターオブジェクト、イメージオブジェクト、テキストオブジェクト及び複合オブジェクトのいずれか)である。図2のステップSW1からSW2までの処理の中では、これらのn個のオブジェクトTB[1],TB[2],…,TB[n]の各々と、前記の新規オブジェクトとの重なり合いがあるかどうか等が順次判定されるようになっているのである。   Next, the process proceeds to overlap determination / cutout processing between the new object in step S31 of FIG. 2 and the object TB [i] already generated before that (loop from step SW1 to SW2). Here, this object TB [i] means 1, 2, 3,..., N independent objects already registered in the object management table (the above-mentioned vector object, image object, text object, and composite object). Any). In the processing from steps SW1 to SW2 in FIG. 2, is there any overlap between each of these n objects TB [1], TB [2],..., TB [n] and the new object? Whether or not is sequentially determined.

かかる重なり判定・切り出し処理を実施すると、具体的には、例えば図3に示すような結果が得られることになる。この図3においては、もともと3つの完全な矩形状であるオブジェクトOb1,Ob2及びOb3が存在していたところ、これらに対して図2の重なり判定及び切り出し処理を実施した結果、最終的には7つのオブジェクトIからオブジェクトVIIが得られることが示されている。なお、オブジェクトOb1,Ob2及びOb3並びにI乃至VIIは、図3に示す符号によって図7のように定義することができる。以下では、図2の処理によってオブジェクトOb1乃至Ob3から上記のオブジェクトI乃至VIIがどのようにして得られるかについて、図4から図5への流れを追って順次説明することにする。   When the overlap determination / cutout process is performed, specifically, for example, a result as shown in FIG. 3 is obtained. In FIG. 3, there are originally three objects Ob1, Ob2, and Ob3 that are completely rectangular. As a result of performing the overlap determination and cutout processing of FIG. It is shown that an object VII can be obtained from two objects I. Note that the objects Ob1, Ob2, and Ob3, and I to VII can be defined as shown in FIG. 7 by reference numerals shown in FIG. In the following, how the above objects I to VII are obtained from the objects Ob1 to Ob3 by the processing of FIG. 2 will be described in order, following the flow from FIG. 4 to FIG.

まず、オブジェクト管理テーブル内にオブジェクトが一つもない状況において、新規オブジェクトとしてのオブジェクトOb1が生成される(図2のステップS11からステップS31)。この場合、他のオブジェクトがそもそも存在しないから、オブジェクトOb1との重なり合いが生じるオブジェクトもまた存在しないものとして、当該オブジェクトOb1がそのままオブジェクト管理テーブルに登録されることになる(図2のステップS41からステップS511へ)。なお、この場合においては、オブジェクトOb1以外の他のオブジェクトは一切存在しないから、ステップSW1からステップSW2のループを、ステップS511を介して一回だけ通って抜けるものとし、全処理はいったん終了するものとする(図2のステップEND)。   First, in a situation where there is no object in the object management table, an object Ob1 as a new object is generated (step S11 to step S31 in FIG. 2). In this case, since there is no other object in the first place, it is assumed that there is no object that overlaps with the object Ob1, and the object Ob1 is registered as it is in the object management table (from step S41 in FIG. 2 to step S41). To S511). In this case, since there are no other objects other than the object Ob1, the loop from the step SW1 to the step SW2 is passed only once through the step S511, and all the processes are finished once. (Step END in FIG. 2).

次に、新規オブジェクトとしてのオブジェクトOb2が生成される(再び図2のステップS11からステップS31)。この場合、前述とは異なり前記で登録されているオブジェクトOb1が既に存在しているから、当該オブジェクトOb2が、当該オブジェクトOb1との間で重なり合うかどうかが判定されることになる(図2のステップS41)。図4では、両者の重なり合いが発生しているから、これらオブジェクトOb1及びOb2から重合部分とそうでない部分との切り出し処理が続いて行われることになる(図2のステップS41;YESからステップS501)。なお、上述のような重合部分の有無の判定及び切り出しを実現するための具体的なアルゴリズムの一例については、後に図12及び図13ないしは図16を参照しながら改めて詳しく説明することにする。また、本明細書及び図面における「重合部分」、「重なり部分」、あるいは「重なり合っている部分」等は、それぞれの用語が用いられている文脈からも明らかなように、すべて同義の用語として用いられている。   Next, an object Ob2 as a new object is generated (again, from step S11 to step S31 in FIG. 2). In this case, unlike the above, since the object Ob1 registered above already exists, it is determined whether or not the object Ob2 overlaps with the object Ob1 (step in FIG. 2). S41). In FIG. 4, since an overlap between the two has occurred, the cut-out process of the overlapped portion and the portion that is not the same is subsequently performed from these objects Ob1 and Ob2 (step S41 in FIG. 2; YES to step S501). . An example of a specific algorithm for realizing the determination of the presence / absence of the overlapped portion and the cutout as described above will be described later in detail with reference to FIG. 12, FIG. 13, and FIG. In addition, as used in the specification and drawings, “overlapping portion”, “overlapping portion”, “overlapping portion” and the like are all used as synonymous terms as is clear from the context in which each term is used. It has been.

さて、この図4においては、前記の切り出し処理によって、重合部分であるオブジェクトX(4→A→2´→B→4)と、そうでない部分であるオブジェクトIa(1´→A→4→B→3´→4´→1´)及びオブジェクトIIa(1→2→3→B→2´→A→1)が生成されることになる。ここで図4にいうオブジェクトIIa及びXはそれぞれ図2にいうオブジェクトB及びDに該当し、図4にいうオブジェクトIaは図2にいうオブジェクトCに該当する。すなわち、図2においては、より一般的に、新規オブジェクトのいわば切り残しの部分が「オブジェクトC」になるのであり、もともと存在した(あるいは、重合判定の対象とされた)オブジェクトの切り残しの部分が「オブジェクトB」に、両オブジェクトの重合部分が「オブジェクトD」にそれぞれなるのである。   In FIG. 4, the object X (4 → A → 2 ′ → B → 4) which is the overlapped portion and the object Ia (1 ′ → A → 4 → B) which is not the overlapped portion are obtained by the cutout process. → 3 ′ → 4 ′ → 1 ′) and object IIa (1 → 2 → 3 → B → 2 ′ → A → 1) are generated. Here, the objects IIa and X shown in FIG. 4 correspond to the objects B and D shown in FIG. 2, respectively, and the object Ia shown in FIG. 4 corresponds to the object C shown in FIG. In other words, in FIG. 2, more generally, the portion of the new object that is left uncut becomes “object C”, and the portion of the object that originally existed (or the object of the overlap determination) is left uncut. Becomes “object B”, and the overlapping part of both objects becomes “object D”.

ここで本実施形態においては特に、前記のオブジェクトB,C及びDのうち重合部分であるオブジェクトDの種類は、次のように定められるとすると好ましい。すなわち、図4の場合において、オブジェクトOb1の種類がベクターオブジェクト又はイメージオブジェクトであり、オブジェクトOb2の種類がベクターオブジェクト、イメージオブジェクト又はテキストオブジェクトであるとすると、同図の重合部分たるオブジェクトXについては、例えば図8に示すような変換が行われるようにしておくとよい。なお、図8においては、オブジェクトOb2の方に透明度が入っている(即ち、図6でいうαが、α≠0)ものと仮定している。   Here, in the present embodiment, it is particularly preferable that the type of the object D that is the overlapping portion among the objects B, C, and D is determined as follows. That is, in the case of FIG. 4, if the type of the object Ob1 is a vector object or an image object and the type of the object Ob2 is a vector object, an image object or a text object, For example, conversion as shown in FIG. 8 may be performed. In FIG. 8, it is assumed that the object Ob2 has transparency (that is, α in FIG. 6 is α ≠ 0).

この図8において特に、「複合オブジェクト」とは、重なり合っている一方のオブジェクトがテキストオブジェクトである場合に生成されるオブジェクトである。例えば、図9に示すように一方がベクターオブジェクトVOで他方がテキストオブジェクトTOである場合には、これらベクターオブジェクトVOとテキストオブジェクトTOとの重なり合う部分が複合オブジェクトCOとして生成され、当該複合オブジェクトCOは、これらベクターオブジェクトVOとテキストオブジェクトTOの双方の特徴をあわせもつものとなる(前述した図6参照)。   Particularly in FIG. 8, the “composite object” is an object generated when one of the overlapping objects is a text object. For example, as shown in FIG. 9, when one is a vector object VO and the other is a text object TO, an overlapping portion of the vector object VO and the text object TO is generated as a composite object CO. The vector object VO and the text object TO have the characteristics of both (see FIG. 6 described above).

そして、オブジェクトXを構成するカラー情報は、オブジェクトOb1がもっていたカラー情報にオブジェクトOb2がもっていたカラー情報を合成し、更にこれにオブジェクトOb2のもつ透明度αを合成した新たなカラー情報が作成されることになる(図9参照)。   As the color information constituting the object X, new color information is created by combining the color information held by the object Ob2 with the color information held by the object Ob1 and further combining the transparency α of the object Ob2. (See FIG. 9).

このように重合部分たるオブジェクトXの種類が決定されるようになっていれば、その元となったオブジェクトから無理なく当該オブジェクトXの種類を決定することができるし、処理速度の向上等を図ることができる。   If the type of the object X that is the overlap portion is determined in this way, the type of the object X can be determined without difficulty from the original object, and the processing speed is improved. be able to.

なお、図8には示されていないが、オブジェクトX以外のオブジェクトIa及びIIaの種類は、それらの元となったオブジェクトの種類に従うようにしておけばよい。例えば、図4のオブジェクトIaはオブジェクトOb1に由来するから、その種類は、当該第1オブジェクトOb1の種類に従う(例えば、オブジェクトOb1の種類がベクターオブジェクトであるときには、オブジェクトIaの種類はベクターオブジェクトになる)、などとしておけばよい(図9における符号TO及びVO参照)。   Although not shown in FIG. 8, the types of the objects Ia and IIa other than the object X may be set in accordance with the types of the objects from which they are based. For example, since the object Ia in FIG. 4 is derived from the object Ob1, the type follows the type of the first object Ob1 (for example, when the type of the object Ob1 is a vector object, the type of the object Ia is a vector object). ), Etc. (see symbols TO and VO in FIG. 9).

また、これも図8には示されていないが、オブジェクトOb1及びオブジェクトOb2の双方ともイメージオブジェクトである場合には、重合部分はイメージオブジェクトになり、これら双方ともテキストオブジェクトである場合には、重合部分はテキストオブジェクトになる、としておけばよい。   Also, although this is not shown in FIG. 8, when both the object Ob1 and the object Ob2 are image objects, the overlap portion becomes an image object, and when both of them are text objects, the overlap is performed. The part can be a text object.

このようにしてオブジェクトB,C及びD(即ち、図4のオブジェクトIa、IIa及びX)が生成されると、続いて、これらのうちオブジェクトB及びD、即ちいまの場合オブジェクトIa及びXのみが、ひとまず先にオブジェクト管理テーブルに登録される(図2のステップS502)。次に、図2でいうオブジェクトCが存在するかどうかが判定される(図2のステップS503)。ここでは、上述のように新規オブジェクトとしてのオブジェクトOb2の切り残しの部分、即ちオブジェクIIaが、オブジェクトCとして存在しているから、ステップS503;YESに従って次なる処理へと進み(図2のステップS504へ)、ここで当該オブジェクトIIaは新規オブジェクトとして改めて認定し直される。そして、ここでは重合判定の対象となるべきオブジェクトが “Ob1”の一個であったことからループを抜けることになり、前記で認定し直された新規オブジェクトたるオブジェクトIIaがオブジェクト管理テーブルに登録されることになる(図2のステップS71)。   When the objects B, C, and D (that is, the objects Ia, IIa, and X in FIG. 4) are generated in this manner, only the objects B and D, that is, the objects Ia and X in this case are subsequently selected. First, it is registered in the object management table (step S502 in FIG. 2). Next, it is determined whether or not the object C shown in FIG. 2 exists (step S503 in FIG. 2). Here, as described above, since the uncut portion of the object Ob2 as the new object, that is, the object IIa exists as the object C, the process proceeds to the next process according to step S503; YES (step S504 in FIG. 2). F) Here, the object IIa is re-authorized as a new object. In this case, since the object to be subjected to the superimposition determination is one “Ob1”, the loop is exited, and the object IIa, which is the new object re-authorized as described above, is registered in the object management table. (Step S71 in FIG. 2).

以上により、この段階まで処理が終了すると、オブジェクト管理テーブル内には、オブジェクトIa、IIa及びXの三つのオブジェクトが存在する状況となる。   As described above, when the processing is completed up to this stage, there are three objects, objects Ia, IIa, and X, in the object management table.

次に、新規オブジェクトとしてのオブジェクトOb3が生成される(再び図2のステップS11からステップS31)。この場合、当該オブジェクトOb3は、前述のオブジェクトIa、IIa及びXとの間で重なり合うかどうかが順次判定されることになる(図2のステップS41)。ここでは仮に、この重なり合いの判定が、オブジェクトIa、X及びIIaの順(図2の“i”の増加に対応する。)になされていく場合について説明する。まず、オブジェクトOb3とオブジェクトIaとの間には、図5(a)に示すように重なり合いが存在するから、前述と同様に、これらに関して重合部分とそうでない部分との切り出し処理が行われる(図2のステップS501)。これにより、重合部分であるオブジェクトV(前記の図7参照)と、そうでない部分であるオブジェクトI(前記の図7参照)及びオブジェクトIIIa(4´´→F→3´→B→C→1´´→D→2´´→E→3´´→4´´)とが生成されることになる。この場合、図2のオブジェクトB,C及びDに該当するのは、それぞれオブジェクトI,IIIa及びVである。ちなみに、重合部分であるオブジェクトVについては、前記と同様にして図8に従った処理がなされる結果、その種類が決定されればよい。   Next, an object Ob3 as a new object is generated (again, from step S11 to step S31 in FIG. 2). In this case, it is sequentially determined whether or not the object Ob3 overlaps the objects Ia, IIa, and X (step S41 in FIG. 2). Here, a case will be described in which the determination of overlap is made in the order of the objects Ia, X, and IIa (corresponding to an increase in “i” in FIG. 2). First, since there is an overlap between the object Ob3 and the object Ia as shown in FIG. 5 (a), similarly to the above, a cut-out process is performed on the overlapped portion and the portion that does not (see FIG. 5). 2 step S501). As a result, the object V (see FIG. 7) which is the overlapping portion, the object I (see FIG. 7) and the object IIIa (4 ″ → F → 3 ′ → B → C → 1) which are not the overlapping portions. ″ → D → 2 ″ → E → 3 ″ → 4 ″). In this case, objects I, IIIa, and V correspond to the objects B, C, and D in FIG. Incidentally, the type of the object V that is the overlapped portion may be determined as a result of the processing according to FIG. 8 being performed in the same manner as described above.

続いて、オブジェクトB及びDたるオブジェクトI及びVがオブジェクト管理テーブルに登録され(図2のステップS502)、更にオブジェクトCの存在の有無が確認される(図2のステップS503)。ここでは、上述のようにオブジェクトCたるオブジェクトIIIaが存在するから、当該オブジェクトIIIaは新規オブジェクトとして改めて認定しなおされる(図2のステップS504)。そして、ここでは更に、重合判定の対象となるべきオブジェクトが未だ存在するから(即ち、オブジェクトX及びIIaが存在するから)、ループの最初の処理に戻る。これにより続いて、新規オブジェクトとしてのオブジェクトIIIaとオブジェクトXとの間の重なり合いが判定される結果、図5(b)に示すようにこれらの間の重なり合いが認められ(図2のステップS41;YES)、更にここから重合部分であるオブジェクトVII(前記の図7参照)、そうでない部分であるオブジェクトIIIb(4´´→F→3´→B→D→2´´→E→3´´→4´´)及びIV(前記の図7参照)が生成されることになる(図2のステップS501)。   Subsequently, the objects I and V as the objects B and D are registered in the object management table (step S502 in FIG. 2), and the presence / absence of the object C is confirmed (step S503 in FIG. 2). Here, since the object IIIa as the object C exists as described above, the object IIIa is re-authorized as a new object (step S504 in FIG. 2). Further, here, since there are still objects to be subjected to the superimposition determination (that is, because the objects X and IIa exist), the process returns to the first process of the loop. Subsequently, as a result of determining the overlap between the object IIIa and the object X as a new object, the overlap between them is recognized as shown in FIG. 5B (step S41 in FIG. 2; YES) ), The object VII (see FIG. 7), which is the overlapping part, and the object IIIb (4 ″ → F → 3 ′ → B → D → 2 ″ → E → 3 ″ → 4 ″) and IV (see FIG. 7) are generated (step S501 in FIG. 2).

後の処理は、上に述べたのと略同様に行っていけばよい(図5(c)も参照。)。これにより、最終的には、図3に示したようなオブジェクトI乃至VIIが生成されることになる。これを、図4から図5(a)乃至(c)の各段階で生成される各オブジェクトが、図2におけるオブジェクトB,C及びDのどれに該当するかという観点からまとめると、図10のようになる。この図10において網掛けがなされている部分のオブジェクトI乃至VIIが、最終的な構成要素となるのである。   Subsequent processing may be performed in substantially the same manner as described above (see also FIG. 5C). As a result, objects I to VII as shown in FIG. 3 are finally generated. This can be summarized from the viewpoint of which of the objects B, C, and D in FIG. 2 each object generated at each stage of FIGS. 4A to 5C corresponds to FIG. It becomes like this. In FIG. 10, the shaded portions of the objects I to VII are the final components.

なお、図2のステップS41において、新規オブジェクトが、その時点において重合判定の対象とされている或るオブジェクトTB[i]との間で重なり合いをもたない場合には、当該オブジェクトTB[i]に、最終的な構成要素としての資格を与えるべく改めてオブジェクト管理テーブルへの登録を実施しておく必要がある。図2のステップS511は、かかる登録処理が実施されることを含意している。なお、このステップS511の後には、当該新規オブジェクトと、オブジェクトTB[i]の次なるオブジェクトTB[i+1]との間で重なり合いがあるかどうか等々の処理が続行されていくことになるのは言うまでもない(図2のステップS511からステップSW2へ、そしてステップSW1へ)。   In step S41 of FIG. 2, when the new object does not overlap with a certain object TB [i] that is the object of the superimposition determination at that time, the object TB [i] In addition, it is necessary to perform registration in the object management table again in order to qualify as a final component. Step S511 in FIG. 2 implies that such registration processing is performed. Needless to say, after this step S511, processing such as whether there is an overlap between the new object and the object TB [i + 1] next to the object TB [i] is continued. (From step S511 in FIG. 2 to step SW2 and to step SW1).

また、図2のステップS503において “NO”が選択される場合、すなわちオブジェクトCが存在しないと判断される場合とは即ち、新規オブジェクトが、もともと存在したオブジェクトのいずれかに完全に包含される場合を意味している。かかる場合、新規オブジェクトに切り残しの部分は発生せず、したがってそれ以上の切り出し処理を行う必要もないから、ループから抜けることになる。しかも、この場合、かかる新規オブジェクトは、既にステップS502においてオブジェクトDとして、言い換えると「重合部分」であるオブジェクトとして既に登録されていることなるから、特段の処理を行うことなく処理を終了することになる(図2のステップS503;NOからステップENDへ)。   In addition, when “NO” is selected in step S503 in FIG. 2, that is, when it is determined that the object C does not exist, that is, when the new object is completely included in any of the existing objects. Means. In such a case, there is no uncut portion in the new object, and therefore no further cutout process is required, and the loop is exited. In addition, in this case, since the new object has already been registered as the object D in step S502, in other words, the object that is the “overlapping portion”, the processing is terminated without performing any special processing. (Step S503 in FIG. 2; from NO to Step END).

以上のようにして、オブジェクト管理テーブル内のオブジェクトI乃至VIIが最終的に生成されたら、これらオブジェクトI乃至VIIを構成する情報から、各種PDL(Page Description Language)への変換を行うことで、用紙等への画像形成を行うことが可能となる。ちなみに、かかる各種PDLへの変換処理は、例えば図11のように行われる。この図11は、前記の図9に示した複合オブジェクトがPDLに変換される様子を表している。この図で特に指摘するとすれば、テキストオブジェクトの色情報が、もともとのテキストオブジェクトTO及びベクターオブジェクトVO(図9参照)がもっていた色情報を合成した色情報となっていることについて特徴があるといえるであろう。   As described above, when the objects I to VII in the object management table are finally generated, the information constituting the objects I to VII is converted into various PDLs (Page Description Language), so that It is possible to form an image on the like. Incidentally, the conversion processing to various PDLs is performed as shown in FIG. 11, for example. FIG. 11 shows how the composite object shown in FIG. 9 is converted into PDL. If it is particularly pointed out in this figure, it is characteristic that the color information of the text object is color information obtained by combining the color information that the original text object TO and vector object VO (see FIG. 9) had. I can say that.

そして、上述のような一連の処理が行われるにおいて、本実施形態で特に重要なのは、オブジェクトI乃至VIIは、もともとオブジェクトOb1乃至Ob3が相互に重なり合っているという状況から切り出し処理によって生成されてくるものであり、したがって該オブジェクトI乃至VIIの一部には重合部分であるオブジェクト(ここでは、オブジェクトIV乃至VIIが該当する。図3参照)がそれぞれ「単独」のオブジェクトとして含まれていることにある。そして、これらのオブジェクトIV乃至VIIのそれぞれは、前記の図8、あるいは図11に関する説明の際に述べたように、そのそれぞれにおける重なり合いの影響を忠実に反映した色情報をもっているのである。   When the series of processes as described above are performed, what is particularly important in the present embodiment is that the objects I to VII are generated by the cutout process from the situation in which the objects Ob1 to Ob3 originally overlap each other. Therefore, a part of the objects I to VII includes objects that are overlapped portions (here, objects IV to VII, see FIG. 3) as “single” objects. . Each of the objects IV to VII has color information that faithfully reflects the influence of the overlap in each of the objects IV to VII, as described in the description regarding FIG. 8 or FIG.

ところで、図3に示すようなオブジェクトOb1、Ob2及びOb3のうち例えばオブジェクトOb2及びOb3が所定の透明度をもっているという場合において、これらオブジェクトOb1、Ob2及びOb3についての画像形成を行おうとすれば、図3では、透明度をもつオブジェクトOb2及びOb3とその地となるオブジェクトOb1との間に重なり合いが生じている結果、当該重なり合いが生じている部分では、そのそれぞれに応じた好適な画像形成を行わなければならない。すなわち、図3では、オブジェクトOb1及びOb2がもつ色情報を混合した画像形成、オブジェクトOb1及びOb3がもつ色情報を混合した画像形成、オブジェクOb2及びOb3がもつ色情報を混合した画像形成、あるいはオブジェクトOb1、Ob2及びOb3がもつ色情報を混合した画像形成であって、しかもいずれについても透明度αの程度を勘案した上での画像形成、をそれぞれ好適に実現しなければならない。   By the way, in the case where, for example, the objects Ob2 and Ob3 have predetermined transparency among the objects Ob1, Ob2 and Ob3 as shown in FIG. 3, if an image is formed on these objects Ob1, Ob2 and Ob3, FIG. Then, as a result of the overlap between the objects Ob2 and Ob3 having transparency and the object Ob1 that is the ground, suitable image formation corresponding to each must be performed in the portion where the overlap occurs. . That is, in FIG. 3, image formation in which the color information of the objects Ob1 and Ob2 is mixed, image formation in which the color information of the objects Ob1 and Ob3 is mixed, image formation in which the color information of the objects Ob2 and Ob3 is mixed, or the object Image formation in which color information possessed by Ob1, Ob2, and Ob3 is mixed, and image formation in consideration of the degree of transparency α must be realized in each case.

この点、従来においては、図3に示すような図形を一体的に取り扱った上これをラスタライズしてイメージ画像ないしはラスター画像を構成し、ピクセルごとに情報を保有させることによって対応していたのである。しかしながら、これでは膨大な処理時間が必要となるし、メモリ消費量もばかにならないことになる。   In this regard, in the past, the figure as shown in FIG. 3 was handled in an integrated manner, and this was rasterized to form an image or raster image, and information was held for each pixel. . However, this requires an enormous amount of processing time, and the memory consumption is not ridiculous.

しかるに、本実施形態においては、前述した各種の重なり合う部分それぞれが、単独のオブジェクトとして生成されるのである。例えば図3では、オブジェクトOb1及びOb2の混合はオブジェクトIVで、オブジェクトOb1及びOb3の混合はオブジェクトVIで、オブジェクトOb2及びOb3の混合はオブジェクトVで、そしてオブジェクトOb1,Ob2及びOb3の混合はオブジェクトVIIで、それぞれいわば「代表」されているのである。   However, in the present embodiment, each of the various overlapping portions described above is generated as a single object. For example, in FIG. 3, the mixture of objects Ob1 and Ob2 is object IV, the mixture of objects Ob1 and Ob3 is object VI, the mixture of objects Ob2 and Ob3 is object V, and the mixture of objects Ob1, Ob2, and Ob3 is object VII. So, each of them is “representative”.

そして、このようなことから、本実施形態によれば、当該重なり合う部分もまた、単なる一オブジェクトを処理するかの如き取扱いをもって画像形成を実行することが可能となり、従来のようにピクセル単位の取扱いを実施する場合に比べて、その処理速度を格段に向上させることができるのである。また、このような処理を実施することにより、メモリ消費量も劇的に削減することができることになる。   For this reason, according to the present embodiment, it is possible to perform image formation with the handling of the overlapping portion as if it were just processing one object. Compared with the case of implementing this, the processing speed can be remarkably improved. In addition, by performing such processing, the memory consumption can be dramatically reduced.

なお、図2のステップS41における処理、即ち第i番目のオブジェクトTB[i]と新規オブジェクトとの間に重なり合いがあるかどうかを判定する処理にあたっては、好ましくは例えば、次のような手順を利用することができる。   In the process in step S41 in FIG. 2, that is, the process for determining whether or not there is an overlap between the i-th object TB [i] and the new object, the following procedure is preferably used, for example. can do.

まず第1段階として、各種のオブジェクトのBBOXが重なり合うかどうかを判定する。ここでBBOXとは、一般に各種のオブジェクトを構成するパスを内部に包含する矩形形状をいう。例えば図12の図中左方ではBBOX1Bが円形状のパス1Pを包含しており、図中右方ではBBOX2Bが三角形状のパス2Pを包含している様子が示されている(このうちの一方が前記にいう第i番目のオブジェクトTB[i]であり、他方が前記にいう新規オブジェクトであると考えることができる。)。そして、図12(a)では、二つのBBOX1B及び2Bが相互に重なり合っていない場合が示されており、図12(b)及び(c)では、これらが相互に重なり合っている場合が示されている。ここで、図12(a)に示すように、オブジェクト同士が全く重なり合っていないと判断されるときには、その重合判定の対象とされたオブジェクトTB[i]を、そのままオブジェクト管理テーブルに登録することになる(図2のステップS511)。   First, as a first step, it is determined whether or not BBOXes of various objects overlap. Here, BBOX generally refers to a rectangular shape that internally includes paths constituting various objects. For example, on the left side of FIG. 12, BBOX 1B includes a circular path 1P, and on the right side of FIG. 12, BBOX 2B includes a triangular path 2P (one of these is shown). Is the i-th object TB [i] mentioned above, and the other is the new object mentioned above). FIG. 12A shows a case where the two BBOXs 1B and 2B do not overlap each other, and FIGS. 12B and 12C show a case where they overlap each other. Yes. Here, as shown in FIG. 12A, when it is determined that the objects do not overlap at all, the object TB [i] subjected to the overlapping determination is directly registered in the object management table. (Step S511 in FIG. 2).

続いて第2段階として、図12(b)及び(c)のように、BBOX1B及び2Bが相互に重なり合っている場合には、その内部のパスが交点をもつかどうかを判定する。例えば、図12(b)では円形状のパス1Pと三角形状のパス2Pとの間に交点は存在せず、図12(c)では、両者の間に交点が存在する場合が示されている。そして、図12(c)のような場合には、オブジェクト同士が重なり合っていることがわかる。   Subsequently, as a second stage, as shown in FIGS. 12B and 12C, when the BBOX 1B and 2B overlap each other, it is determined whether or not the internal paths have an intersection. For example, in FIG. 12B, there is no intersection between the circular path 1P and the triangular path 2P, and FIG. 12C shows a case where there is an intersection between the two. . In the case of FIG. 12C, it can be seen that the objects overlap each other.

このように2段階の処理を行うことによれば、オブジェクト同士の重なり合いを迅速に判断することができる。例えば、図形形状が複雑である場合等には、最初からパスの重なり合いを判定するとその計算に膨大な時間が必要となるが、上記の方法によればかかる不具合を被らなくて済む。   By performing the two-stage processing in this way, it is possible to quickly determine the overlap between objects. For example, when the figure shape is complicated, it takes a long time to calculate the overlap of the path from the beginning. However, according to the above method, such a problem can be avoided.

さて一方、図2のステップS501における切り出し処理、即ち図12(c)のようにパス間に交点が存在する場合においてそこから切り出し図形を好適に生成する処理(換言すると、当該切り出し図形のパスの生成処理)としては、好ましくは例えば、以下のような手順を利用するとよい。以下では、当該処理の詳細を、図13乃至図16に示すような中空部分(図中C1及びC2参照)を有する矩形状の第1オブジェクト10及び第2オブジェクト20が重なり合っている場合を例として取り上げて説明することとする。   On the other hand, the cut-out process in step S501 in FIG. 2, that is, the process of suitably generating a cut-out figure from an intersection between paths as shown in FIG. 12C (in other words, the path of the cut-out figure) As the generation process, for example, the following procedure is preferably used. Hereinafter, the details of the processing will be described by taking as an example a case where the rectangular first object 10 and the second object 20 having hollow portions (see C1 and C2 in the figure) as shown in FIGS. It will be taken up and explained.

まず、これらの図13乃至図16において、重合部分とそうでない部分との切り出しを可能とするのは、基本的に、次のような考え方に依拠している。すなわち第1オブジェクト10及び第2オブジェクト20という2つのオブジェクトのパスを同じ回転方向にして切り出しを行うと、2つのオブジェクトの重なり合っている部分、即ち重合部分のオブジェクトが切り出され(図13及び図14参照)、その逆に逆回転方向にして切り出しを行うと、2つのオブジェクトの重なり合っていない部分のオブジェクトが切りされるという考え方である(図15及び図16参照)。なお、前記の図12と同様に、図13乃至図16における第1オブジェクト10(又は第2オブジェクト20)は、前記にいう第i番目のオブジェクトTB[i]であり、第2オブジェクト20(又は第1オブジェクト10)は、前記にいう新規オブジェクトであると考えることができる。   First, in FIG. 13 to FIG. 16, it is basically based on the following way of thinking that the superposed portion and the non-overlapped portion can be cut out. That is, when the path of the two objects of the first object 10 and the second object 20 is cut out with the same rotation direction, the overlapping part of the two objects, that is, the overlapping part object is cut out (FIGS. 13 and 14). On the other hand, if the object is cut out in the reverse rotation direction, the object in which the two objects do not overlap is cut off (see FIGS. 15 and 16). As in FIG. 12, the first object 10 (or the second object 20) in FIGS. 13 to 16 is the i-th object TB [i] and the second object 20 (or The first object 10) can be considered as a new object as described above.

まず、重合部分の切り出しは具体的には例えば次のようにして行われる。まず、第1及び第2オブジェクト10及び20のパス情報の開始点を左下にする。   First, the polymerization part is specifically cut out as follows, for example. First, the starting point of the path information of the first and second objects 10 and 20 is set to the lower left.

続いて、第1及び第2オブジェクト10及び20のパス情報に図形ごとのインデックスをつける。ここでは、まず、第1及び第2オブジェクト10及び20の外側の図形を同じ回転方向に回りながらインデックスを付する。図13でいえば、図中左上の第1オブジェクト10については、該第1オブジェクト10の“インデックス1”として1→2→3→4→1と付され、図中右下の第2オブジェクト20については、該第2オブジェクト20の“インデックス1”として1´→2´→3´→4´→1´と付されるということである。次に、第1及び第2オブジェクト10及び20の内側の図形C1及びC2をその外側の図形とは逆回転方向に回りながらインデックスを付する。図13でいえば、第1オブジェクト10については、該第1オブジェクト10の“インデックス2”として5→8→7→6→5と付され、第2オブジェクト20については、該第2オブジェクト20の“インデックス2”として5´→8´→7´→6´→5´と付されるということである。   Subsequently, an index for each figure is attached to the path information of the first and second objects 10 and 20. Here, first, an index is attached while rotating the graphic outside the first and second objects 10 and 20 in the same rotation direction. In FIG. 13, the first object 10 at the upper left in the drawing is assigned as “index 1” of the first object 10 as 1 → 2 → 3 → 4 → 1. The second object 20 at the lower right in the drawing. Is attached as 1 ′ → 2 ′ → 3 ′ → 4 ′ → 1 ′ as the “index 1” of the second object 20. Next, the graphics C1 and C2 inside the first and second objects 10 and 20 are indexed while rotating in the reverse rotation direction to the graphics outside. In FIG. 13, the first object 10 is assigned as “index 2” of the first object 10 as 5 → 8 → 7 → 6 → 5, and the second object 20 is assigned to the second object 20. This means that “index 2” is attached as 5 ′ → 8 ′ → 7 ′ → 6 ′ → 5 ′.

次に、このようにして作成される図形から第1及び第2オブジェクト10及び20の交点を求める。図13では、第1及び第2オブジェクト10及び20の交点として、A,B,C,D,E及びFの6点の存在が示されている。そして次に、ある任意の開始点(パス座標)から所定の規則に従ってパスをつなげていく。図13において具体的には次のようである。例えば、第1オブジェクト10の左下のパス座標“1”から初めて、交点Aに至ると、ここで第2オブジェクト20へと進路を変更する。すなわち、ここまでのパスは、1→A→1´→2´→…である。続いて交点Dに至ると、ここで第1オブジェクト10へと進路を変更する。すなわち、先に続けて、1→A→1´→2´→3´→D→3→…である。これにより結局、1→A→1´→2´→3´→D→3→4→1というパスが得られることになる。これが一つの切り出し図形になる。このように、交点に至ったことを条件として、第1オブジェクト10から第2オブジェクト20へ、又はその逆へという進路変更を行いながらパスを生成する作業を各図形について行えば、図14に示すような切り出し図形1乃至4が得られることになる。このようにして切り出し図形1乃至4が得られたら、最後に、これらの切り出し図形1乃至4のうち第1及び第2オブジェクト10及び20の双方が含まれているという条件を満たすものを検索する。図13あるいは図14の場合には、切り出し図形3が当該条件を満たす。   Next, the intersection of the first and second objects 10 and 20 is obtained from the graphic created in this way. In FIG. 13, there are six points A, B, C, D, E, and F as intersections of the first and second objects 10 and 20. Next, paths are connected from a given arbitrary starting point (path coordinates) according to a predetermined rule. In FIG. 13, the details are as follows. For example, when the intersection point A is reached for the first time from the lower left path coordinate “1” of the first object 10, the course is changed to the second object 20 here. That is, the path so far is 1 → A → 1 ′ → 2 ′ →. Subsequently, when the intersection D is reached, the course is changed to the first object 10 here. That is, 1 → A → 1 ′ → 2 ′ → 3 ′ → D → 3 →... As a result, a path of 1 → A → 1 ′ → 2 ′ → 3 ′ → D → 3 → 4 → 1 is obtained. This becomes one cutout figure. As shown in FIG. 14, when a path is generated for each figure while changing the course from the first object 10 to the second object 20 or vice versa, on condition that the intersection has been reached. Such cutout figures 1 to 4 are obtained. When the cutout figures 1 to 4 are obtained in this way, finally, the cutout figures 1 to 4 are searched for those that satisfy the condition that both the first and second objects 10 and 20 are included. . In the case of FIG. 13 or FIG. 14, the cut-out graphic 3 satisfies the condition.

このようにして、第1オブジェクト10及び第2オブジェクト20の重合部分たる切り出し図形が確定されることになる。   In this way, the cut-out figure that is the overlapping portion of the first object 10 and the second object 20 is determined.

他方、重なり合っていない部分のオブジェクトの切り出しは具体的には例えば次のようにして行われる。第1に、第1及び第2オブジェクト10及び20の外側の図形を逆回転方向に回りながらインデックスを付する。図15でいえば、図中左上の第1オブジェクト10については、該第1オブジェクト10の“インデックス1”として1→2→3→4→1と付され、図中右下の第2オブジェクト20については、該第2オブジェクト20の“インデックス1”として1´→4´→3´→2´→1´と付されるということである。次に、第1及び第2オブジェクト10及び20の内側の図形C1及びC2をその外側の図形とは逆回転方向に回りながらインデックスを付する。図15でいえば、第1オブジェクト10については、該第1オブジェクト10の“インデックス2”として5→8→7→6→5と付され、第2オブジェクト20については、該第2オブジェクト20の“インデックス2”として5´→6´→7´→8´→5´と付されるということである。   On the other hand, the extraction of the object of the part which does not overlap is specifically performed as follows, for example. First, an index is attached while rotating the graphic outside the first and second objects 10 and 20 in the reverse rotation direction. Referring to FIG. 15, the first object 10 at the upper left in the drawing is assigned as “index 1” of the first object 10 as 1 → 2 → 3 → 4 → 1 and the second object 20 at the lower right in the drawing. Is attached as 1 ′ → 4 ′ → 3 ′ → 2 ′ → 1 ′ as “index 1” of the second object 20. Next, the graphics C1 and C2 inside the first and second objects 10 and 20 are indexed while rotating in the reverse rotation direction to the graphics outside. In FIG. 15, the first object 10 is assigned as “index 2” of the first object 10 as 5 → 8 → 7 → 6 → 5, and the second object 20 is assigned to the second object 20. This means that “index 2” is attached as 5 ′ → 6 ′ → 7 ′ → 8 ′ → 5 ′.

次に、このようにして作成される図形から第1及び第2オブジェクト10及び20の交点を求めた後、ある任意の開始点(パス座標)から所定の規則に従ってパスをつなげていく。このパスの生成は、前記の図13についてと全く同様である。すなわち、交点A乃至Fに至ったことを条件として、第1オブジェクト10から第2オブジェクト20へ、又はその逆へという進路変更を行いながらパスを生成する作業を、各図形について行う。これにより、図15の場合では、図16に示すような切り出し図形5乃至8が得られることになる。このようにして切り出し図形5乃至8が得られたら、最後に、これらの切り出し図形5乃至8のうち第1及び第2オブジェクト10及び20のいずれかのみに含まれているという条件を満たすものを検索する。図15あるいは図16の場合には、切り出し図形5乃至8のいずれもが当該条件を満たす。   Next, after obtaining the intersection of the first and second objects 10 and 20 from the graphic created in this way, the paths are connected from a certain arbitrary starting point (path coordinates) according to a predetermined rule. The generation of this path is exactly the same as in FIG. In other words, on the condition that the intersections A to F are reached, the operation of generating a path while changing the course from the first object 10 to the second object 20 or vice versa is performed for each figure. As a result, in the case of FIG. 15, cut-out figures 5 to 8 as shown in FIG. 16 are obtained. When the cutout figures 5 to 8 are obtained in this way, finally, a cutout figure 5 to 8 that satisfies the condition that it is included in only one of the first and second objects 10 and 20 is selected. Search for. In the case of FIG. 15 or FIG. 16, any of the cut-out figures 5 to 8 satisfies the condition.

以上によって結局、第1及び第2オブジェクト10及び20が重なり合っている状態の図形から、図14及び図16に示す切り出し図形3、切り出し図形5乃至8が切り出されることになる。そして前記の図2のステップS501では、これらの切り出し図形3及び5乃至8が、オブジェクトに変換されることになるのである。   As a result, the cutout figure 3 and the cutout figures 5 to 8 shown in FIGS. 14 and 16 are cut out from the figure in which the first and second objects 10 and 20 overlap each other. In step S501 of FIG. 2, the cutout figures 3 and 5 to 8 are converted into objects.

このような処理を実施することによれば、効率的且つ迅速に重合部分及びそうでない部分の切り出しを行うことができる。   By carrying out such a process, it is possible to cut out the polymerized portion and the portion that is not so efficiently and quickly.

なお、上記実施形態において、入力データから新規オブジェクトを生成する際であって、当該新規オブジェクトをイメージオブジェクトとして生成する場合(図2のステップS23参照)においては、そのイメージオブジェクトの解像度は、図1の操作部7等を介することによって、ユーザが設定可能であるように構成されていることが好ましい。このようにすれば、例えば該解像度を落とすことによって、新規オブジェクトの生成を迅速に行うことができることになり、ひいては図2の処理全体の更なる高速化を実現することができる。   In the above embodiment, when a new object is generated from input data and the new object is generated as an image object (see step S23 in FIG. 2), the resolution of the image object is as shown in FIG. It is preferable that the user can make settings through the operation unit 7 or the like. In this way, for example, by reducing the resolution, a new object can be generated quickly, and further speeding up of the entire process of FIG. 2 can be realized.

本発明は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨、あるいは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う画像形成方法もまた、本発明の技術的範囲に含まれるものである。   The present invention is not limited to the above-described embodiments, and can be changed as appropriate without departing from the spirit or philosophy of the invention that can be read from the claims and the entire specification, and an image forming method involving such a change. Is also included in the technical scope of the present invention.

本実施形態に係る画像形成装置の構成図である。1 is a configuration diagram of an image forming apparatus according to an exemplary embodiment. 透明成分を含む画像形成を好適に行うため実施されるオブジェクトの重なり判定及び切り出し処理等の流れを示すフローチャートである。It is a flowchart which shows the flows, such as an object overlap determination and cut-out process, implemented in order to perform suitably image formation containing a transparent component. 図2の処理を実施した結果構成されたオブジェクトの一例(オブジェクトI乃至VII)を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of objects (objects I to VII) configured as a result of performing the processing of FIG. 2. 図2の処理に従うことによって図3に示すオブジェクトの一例がどのようにして得られるかを説明するための説明図(その1)である。FIG. 4 is an explanatory diagram (part 1) for explaining how an example of the object shown in FIG. 3 is obtained by following the processing of FIG. 2; 図2の処理に従うことによって図3に示すオブジェクトの一例がどのようにして得られるかを説明するための説明図(その2)である。FIG. 4 is an explanatory diagram (part 2) for explaining how the example of the object shown in FIG. 3 is obtained by following the processing of FIG. 本実施形態で取り扱うオブジェクトの種類のオブジェクトフォーマットを示す図である。It is a figure which shows the object format of the kind of object handled by this embodiment. 図3に示す各オブジェクトを定義するパス経路を示す図である。It is a figure which shows the path | route path | route which defines each object shown in FIG. 重合部分たるオブジェクトの種類がどのように決定されるかの例を示す図である。It is a figure which shows the example of how the kind of object which is a superimposition part is determined. ベクターオブジェクトとテキストオブジェクトとの重合部分が複合オブジェクトとして構成されることを説明するための図である。It is a figure for demonstrating that the superimposition part of a vector object and a text object is comprised as a compound object. 図4から図5(a)乃至(c)の各段階で生成される各オブジェクトが、図2におけるオブジェクトB,C及びDのどれに該当するかという観点からまとめた説明図である。FIG. 6 is an explanatory diagram summarizing from the viewpoint of which of the objects B, C, and D in FIG. 2 each object generated in each stage of FIG. 4 to FIG. 5A to FIG. 図9に示した複合オブジェクトがPDLに変換される様子を表した説明図である。It is explanatory drawing showing a mode that the composite object shown in FIG. 9 was converted into PDL. 図2のステップS41における重なり判定処理を好適に実施するための一例を説明するための説明図である。It is explanatory drawing for demonstrating an example for implementing suitably the overlap determination process in FIG.2 S41. 図2のステップS501における切り出し処理を好適に実施するための一例を説明するための説明図であって、重合部分の切り出しを説明するためのものである。It is explanatory drawing for demonstrating an example for implementing suitably the cut-out process in FIG.2 S501, Comprising: It is for demonstrating cut-out of a superposition | polymerization part. 図13に示す図形から切り出された図形群を示す図である。It is a figure which shows the figure group cut out from the figure shown in FIG. 図2のステップS501における切り出し処理を好適に実施するための一例を説明するための説明図であって、重合部分でない部分の切り出しを説明するためのものである。It is explanatory drawing for demonstrating an example for implementing suitably the cut-out process in FIG.2 S501, Comprising: It is for demonstrating the cut-out of the part which is not a superposition | polymerization part. 図15に示す図形から切り出された図形群を示す図である。It is a figure which shows the figure group cut out from the figure shown in FIG.

符号の説明Explanation of symbols

1…制御部
2…プリンタ部
3…記憶装置
4…FAX I/F
5…ネットワーク I/F
6…スキャナ部
7…操作部
Ob1,Ob2及びOb3…(切り出される前の)オブジェクト
I〜VII…(切り出された後の)オブジェクト




DESCRIPTION OF SYMBOLS 1 ... Control part 2 ... Printer part 3 ... Memory | storage device 4 ... FAX I / F
5 ... Network I / F
6 ... scanner unit 7 ... operation units Ob1, Ob2 and Ob3 ... objects (before being cut out) objects I to VII ... (after being cut out) objects




Claims (6)

画像情報から第1のオブジェクトを生成する工程と、
前記第1のオブジェクトにその少なくとも一部が重ね合わされ透明成分を含む第2のオブジェクトを前記画像情報から生成する工程と、
前記第1のオブジェクト及び前記第2のオブジェクトが重ね合わされた状態から、これら第1のオブジェクト及び第2のオブジェクトが相互に重なり合っている部分に対応する第1及び第2のオブジェクトがもつ色情報を混合するとともに当該第2のオブジェクトについての透明度を加味した色情報をもつ重合オブジェクトとそれ以外の部分に対応する残余オブジェクトとを生成する工程とを含むことを特徴とする画像形成方法。
Generating a first object from image information;
Generating a second object including at least part of the first object and including a transparent component from the image information;
From the state in which the first object and the second object are overlapped, the color information of the first and second objects corresponding to the portion where the first object and the second object overlap each other is obtained. An image forming method comprising: a step of mixing and generating a superimposed object having color information that takes into account the transparency of the second object and a remaining object corresponding to the other part.
前記第1のオブジェクト及び前記第2のオブジェクトそれぞれの種類はベクターオブジェクト、イメージオブジェクト及びテキストオブジェクトを含み、
前記残余オブジェクトを生成する工程は、
前記第1のオブジェクトに対応する部分である第1の残余オブジェクトを生成する工程と、
前記残余オブジェクトのうち前記第2のオブジェクトに対応する部分である第2の残余オブジェクトを生成する工程とを更に含み、
前記重合オブジェクト、前記第1の残余オブジェクト及び前記第2の残余オブジェクトの種類は、前記第1のオブジェクト及び前記第2のオブジェクトそれぞれがどの種類であるかに従って決定されることを特徴とする請求項1に記載の画像形成方法。
Each type of the first object and the second object includes a vector object, an image object, and a text object,
The step of generating the residual object includes
Generating a first residual object that is a portion corresponding to the first object;
Generating a second residual object that is a portion corresponding to the second object of the residual objects;
The type of the overlapping object, the first residual object, and the second residual object is determined according to what type each of the first object and the second object is. 2. The image forming method according to 1.
前記第1のオブジェクトの種類がベクターオブジェクト又はイメージオブジェクトであり、前記第2のオブジェクトの種類がテキストオブジェクトである場合において、
前記重合オブジェクトの種類は前記ベクターオブジェクト又は前記イメージオブジェクトと前記テキストオブジェクトとの形式を併せもつ複合オブジェクトに決定されることを特徴とする請求項2に記載の画像形成方法。
In the case where the type of the first object is a vector object or an image object, and the type of the second object is a text object,
3. The image forming method according to claim 2, wherein the type of the overlapping object is determined to be a vector object or a composite object having both the image object and the text object.
前記重合オブジェクト及び前記残余オブジェクトを生成する工程は、
前記第1のオブジェクトとして含まれる第1のパスと前記第2のオブジェクトとして含まれる第2のパスとの交点を利用して行われることを特徴とする請求項1乃至3のいずれか一項に記載の画像形成方法。
The step of generating the superposition object and the residual object includes:
4. The method according to claim 1, wherein the first path is performed using an intersection of a first path included as the first object and a second path included as the second object. 5. The image forming method described.
前記重合オブジェクト及び前記残余オブジェクトを生成する工程は、
前記第1のパスをなぞる工程と、前記第2のパスをなぞる工程と、
前記第1のパスをなぞる工程を実施している最中に前記交点に到達した場合には前記第2のパスをなぞる工程へと変更する工程と、
前記第2のパスをなぞる工程を実施している最中に前記交点に到達した場合には前記第1のパスをなぞる工程へと変更する工程と
を含むことを特徴とすることを特徴とする請求項4に記載の画像形成方法。
The step of generating the superposition object and the residual object includes:
Tracing the first pass, tracing the second pass,
A step of changing to the step of tracing the second path when the intersection is reached during the step of tracing the first pass;
And a step of changing to the step of tracing the first path when the intersection is reached while the step of tracing the second pass is being performed. The image forming method according to claim 4.
前記第1のオブジェクトを生成する工程及び前記第2のオブジェクトを生成する工程の少なくとも一方は、前記画像情報からイメージオブジェクトを生成する工程を含み、
当該イメージオブジェクトの解像度をユーザが設定可能であることを特徴とする請求項1乃至5のいずれか一項に記載の画像形成方法。
At least one of the step of generating the first object and the step of generating the second object includes a step of generating an image object from the image information,
6. The image forming method according to claim 1, wherein the user can set the resolution of the image object.
JP2003341941A 2003-09-30 2003-09-30 Image forming method Expired - Lifetime JP3935127B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003341941A JP3935127B2 (en) 2003-09-30 2003-09-30 Image forming method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003341941A JP3935127B2 (en) 2003-09-30 2003-09-30 Image forming method

Publications (2)

Publication Number Publication Date
JP2005109987A JP2005109987A (en) 2005-04-21
JP3935127B2 true JP3935127B2 (en) 2007-06-20

Family

ID=34536378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003341941A Expired - Lifetime JP3935127B2 (en) 2003-09-30 2003-09-30 Image forming method

Country Status (1)

Country Link
JP (1) JP3935127B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7750893B2 (en) 2005-04-06 2010-07-06 Nintendo Co., Ltd. Storage medium storing input position processing program, and input position processing device
JP4508952B2 (en) * 2005-06-07 2010-07-21 キヤノン株式会社 Image processing method and image processing apparatus
JP4169053B2 (en) * 2006-07-05 2008-10-22 ブラザー工業株式会社 Image processing apparatus and image processing method
US8411319B2 (en) 2009-03-30 2013-04-02 Sharp Laboratories Of America, Inc. Methods and systems for concurrent rendering of graphic-list elements
US8339672B2 (en) 2009-03-30 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for rendering data using graphic-list partitions and associated rendering processors
US8339670B2 (en) 2009-03-30 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for rendering data based on graphic-list partitioning
US8339653B2 (en) 2009-03-30 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for rendering data based on overlap characteristics
US8339671B2 (en) 2009-03-30 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for rendering data by partitioning a graphics list
JP5732935B2 (en) * 2011-03-15 2015-06-10 株式会社リコー Information processing apparatus, print control program, and computer-readable recording medium
JP5687612B2 (en) * 2011-12-21 2015-03-18 京セラドキュメントソリューションズ株式会社 Image forming apparatus
CN103186648B (en) * 2011-12-31 2016-09-21 北大方正集团有限公司 A kind of method and device of page graphic primitive overlap process
JP5920135B2 (en) 2012-09-18 2016-05-18 富士ゼロックス株式会社 Image processing apparatus and program

Also Published As

Publication number Publication date
JP2005109987A (en) 2005-04-21

Similar Documents

Publication Publication Date Title
JP4995057B2 (en) Drawing apparatus, printing apparatus, drawing method, and program
US7894098B1 (en) Color separation of pattern color spaces and form XObjects
JP3935127B2 (en) Image forming method
US20070109322A1 (en) Print control program product
JP3745179B2 (en) Information processing apparatus, control method therefor, and storage medium
JP2017228838A (en) Image processing apparatus, image processing method and program
CN117573048A (en) Automatic document watermark generation method and terminal
US8259313B2 (en) Image processing apparatus, method, and computer-readable medium storing the program thereof
JP2008107970A (en) Image forming device
JP6330790B2 (en) Print control system, print control apparatus, and program
JP2007182064A (en) Image processing apparatus and image processing method
JP2019217695A (en) Image formation device and image formation method therefor, and program
JP2001293936A (en) Image information processor and method of processing image information
JP6357907B2 (en) Image processing apparatus and program
JP2000029198A (en) Color proof device, image processor and recording medium
JP6755644B2 (en) Character processing device, character processing method, character processing program
US20020031270A1 (en) Image processing apparatus, image processing method, and computer readable storage medium
JP2011170850A (en) Information processing apparatus and method of controlling the same
JP2008287440A (en) Image processor and program
JP2009066926A (en) Image processing device and image forming system
JP2019192087A (en) Information processing device, program, and information processing method
JP2006331259A (en) Information processing device
JP3419450B2 (en) Pixel data processing apparatus and method
JP2007249403A (en) Image data processing system and method for it
JP2001092981A (en) Device and method for processing image

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070316

R150 Certificate of patent or registration of utility model

Ref document number: 3935127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100330

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

EXPY Cancellation because of completion of term