JP2009141525A - Apparatus and method of processing image - Google Patents

Apparatus and method of processing image Download PDF

Info

Publication number
JP2009141525A
JP2009141525A JP2007313945A JP2007313945A JP2009141525A JP 2009141525 A JP2009141525 A JP 2009141525A JP 2007313945 A JP2007313945 A JP 2007313945A JP 2007313945 A JP2007313945 A JP 2007313945A JP 2009141525 A JP2009141525 A JP 2009141525A
Authority
JP
Japan
Prior art keywords
information
text
region
area
embedding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007313945A
Other languages
Japanese (ja)
Inventor
Rei Ro
玲 呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007313945A priority Critical patent/JP2009141525A/en
Publication of JP2009141525A publication Critical patent/JP2009141525A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To embed information in a text region while being capable of extracting the embedded information more accurately. <P>SOLUTION: An apparatus 110 for processing an image embeds watermark information 105 into a document image 100. The apparatus 110 includes: an image input section 101 to input the document image 100; a division section 102 for dividing the input document image 100 into a text region composed of characters and a non-text region excepting the text region; a circumscribing-rectangle extracting section 103 for extracting a circumscribing rectangle circumscribed with characters contained in the text region; a region-information embedding section 104 for embedding mutually different region information in at least adjacent text regions as information indicating a text region to which each character belongs into each character according to the circumscribing rectangle extracted by the circumscribing-rectangle extracting section 103; and a watermark-information embedding section 106 for embedding the watermark information 105 in each text region embedding the region information by the region-information embedding section 104 according to an embedding argorithm different from that of the region-information embedding section 104. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、文書画像に情報を埋め込み、また、埋め込まれた情報を抽出する技術に関するものである。   The present invention relates to a technique for embedding information in a document image and extracting the embedded information.

入力された文書画像を、文字で構成されるテキスト領域と、文字以外の図形等で構成される非テキスト領域とに分割する技術がある(特許文献1)。また、テキスト領域に含まれる文字の間隔や大きさ等を変更することによって、文字単位で情報を埋め込む技術がある(特許文献2及び3)。
米国特許出願第08/17172号 特開2002−232679号公報 特開2003−259112号公報
There is a technique for dividing an input document image into a text region composed of characters and a non-text region composed of figures other than characters (Patent Document 1). In addition, there is a technique for embedding information in units of characters by changing the interval or size of characters included in a text area (Patent Documents 2 and 3).
US patent application Ser. No. 08 / 17,172 JP 2002-232679 A JP 2003-259112 A

しかしながら、上述の特許文献2及び3に記載された技術は、文字単位で文字の間隔や大きさ等の特徴量を変更するため、情報を埋め込む際に文字の位置がずれてしまう。このため、情報の埋め込み前後で、文書画像の分割結果が異なることがある。例えば、2つ以上のテキスト領域が1つのテキスト領域として抽出されたり、1つのテキスト領域が複数のテキスト領域として抽出されたりする。このため、分割された領域数と抽出された領域数との間に差が生じてしまうため、埋め込まれた情報を埋め込まれた通りに抽出することが困難となることがあった。   However, since the techniques described in Patent Documents 2 and 3 described above change the feature amount such as the character spacing and size in character units, the character position is shifted when information is embedded. For this reason, the division result of the document image may be different before and after the information is embedded. For example, two or more text areas are extracted as one text area, or one text area is extracted as a plurality of text areas. For this reason, there is a difference between the number of divided areas and the number of extracted areas, and thus it may be difficult to extract embedded information as embedded.

従って、本発明の目的は、埋め込まれた情報をより正確に抽出可能としながら、テキスト領域に情報を埋め込むことにある。   Accordingly, an object of the present invention is to embed information in a text region while enabling the embedded information to be extracted more accurately.

本発明においては、文書画像に透かし情報を埋め込む画像処理装置であって、前記文書画像を入力する入力手段と、入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割手段と、前記テキスト領域に含まれる文字に外接する外接矩形を抽出する抽出手段と、各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合う前記テキスト領域には互いに異なる領域情報を、前記抽出手段で抽出した前記外接矩形に従って、各文字に埋め込む第1の埋め込み手段と、前記第1の埋め込み手段で前記領域情報が埋め込まれた各テキスト領域に、前記第1の埋め込み手段とは異なる埋め込みアルゴリズムに従って、前記透かし情報を埋め込む第2の埋め込み手段と、を備えることを特徴とする画像処理装置が提供される。   In the present invention, an image processing apparatus for embedding watermark information in a document image, the input means for inputting the document image, a text area composed of characters in the input document image, and other than the text area Information indicating which text area each character belongs to, a dividing unit that divides into non-text areas, an extraction unit that extracts a circumscribed rectangle circumscribing characters included in the text area, and at least adjacent to each other A first embedding unit that embeds different region information in each character in each character according to the circumscribed rectangle extracted by the extracting unit, and each text region in which the region information is embedded by the first embedding unit. And second embedding means for embedding the watermark information in accordance with an embedding algorithm different from that of the first embedding means. The image processing apparatus comprising: a is provided.

また、本発明においては、透かし情報が埋め込まれた文書画像から前記透かし情報を抽出する画像処理装置であって、前記文書画像を入力する入力手段と、入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割手段と、前記テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する第1の抽出手段と、注目するテキスト領域から異なる前記領域情報が抽出された場合には、前記注目するテキスト領域に同じ前記領域情報のみを含むように、前記注目するテキスト領域を再分割し、また、前記注目するテキスト領域に隣り合うテキスト領域から同じ前記領域情報が抽出された場合には、前記注目するテキスト領域と同じ前記領域情報が抽出されたテキスト領域とを合併するように訂正する訂正手段と、前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する第2の抽出手段と、を備えることを特徴とする画像処理装置が提供される。   The present invention is also an image processing apparatus for extracting the watermark information from a document image in which watermark information is embedded, the input means for inputting the document image, and the input document image made up of characters. Area information indicating which text area each character belongs to, for each circumscribed rectangle circumscribing a character included in the text area, and a dividing means for dividing the text area into a non-text area other than the text area When the different region information is extracted from the target text region, the target text region is re-established so that only the same region information is included in the target text region. And when the same area information is extracted from a text area adjacent to the text area of interest, the text area of interest is extracted. Correction means for correcting so as to merge the text area from which the same area information is extracted, and second extraction means for extracting the watermark information embedded for each text area, An image processing apparatus is provided.

また、本発明においては、文書画像に透かし情報を埋め込む画像処理方法であって、前記文書画像を入力する入力工程と、入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割工程と、前記テキスト領域に含まれる文字に外接する外接矩形を抽出する抽出工程と、各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合う前記テキスト領域には互いに異なる領域情報を、前記抽出工程で抽出した前記外接矩形に従って、各文字に埋め込む第1の埋め込み工程と、前記第1の埋め込み工程で前記領域情報が埋め込まれた各テキスト領域に、前記第1の埋め込み工程とは異なる埋め込みアルゴリズムに従って、前記透かし情報を埋め込む第2の埋め込み工程と、を備えることを特徴とする画像処理方法が提供される。   Further, in the present invention, there is provided an image processing method for embedding watermark information in a document image, the input step for inputting the document image, the text region composed of characters in the input document image, and the text region A division step of dividing into a non-text region other than, an extraction step of extracting a circumscribed rectangle circumscribing characters included in the text region, and information indicating which text region each character belongs to, In the adjacent text region, different region information is embedded in each character according to the circumscribed rectangle extracted in the extraction step, and each region information is embedded in the first embedding step. Second embedding the watermark information in a text area according to an embedding algorithm different from the first embedding step Image processing method characterized by comprising: a degree, is provided.

また、本発明においては、透かし情報が埋め込まれた文書画像から前記透かし情報を抽出する画像処理方法であって、前記文書画像を入力する入力工程と、入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割工程と、前記テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する第1の抽出工程と、注目するテキスト領域から異なる前記領域情報が抽出された場合には、前記注目するテキスト領域に同じ前記領域情報のみを含むように、前記注目するテキスト領域を再分割し、また、前記注目するテキスト領域に隣り合うテキスト領域から同じ前記領域情報が抽出された場合には、前記注目するテキスト領域と同じ前記領域情報が抽出されたテキスト領域とを合併するように訂正する訂正工程と、前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する第2の抽出工程と、を備えることを特徴とする画像処理方法が提供される。   Further, in the present invention, there is provided an image processing method for extracting the watermark information from a document image in which watermark information is embedded, the input step for inputting the document image, and the input document image being composed of characters. Area information indicating which text area each character belongs to, for each circumscribed rectangle circumscribing a character included in the text area, and a division step for dividing the text area into a non-text area other than the text area And when the different region information is extracted from the target text region, the target text region is regenerated so that only the same region information is included in the target text region. And when the same area information is extracted from a text area adjacent to the text area of interest, the text area of interest is extracted. And a correction step for correcting so as to merge the text region from which the same region information is extracted, and a second extraction step for extracting the watermark information embedded in each text region, An image processing method is provided.

本発明によれば、埋め込まれた情報をより正確に抽出可能としながら、テキスト領域に情報を埋め込むことができる。   According to the present invention, it is possible to embed information in a text area while allowing the embedded information to be extracted more accurately.

以下、添付図面に従って、本発明の好適な実施形態について、詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<第1の実施形態>
本実施形態では、文書画像100に情報を埋め込む情報埋め込み装置110、及び文書画像100に埋め込まれた情報を抽出する情報抽出装置610の構成と動作手順について、順を追って説明する。なお、文書画像100に埋め込むべき情報を、以下では透かし情報と呼ぶ。
<First Embodiment>
In the present embodiment, the configuration and operation procedure of the information embedding device 110 for embedding information in the document image 100 and the information extracting device 610 for extracting information embedded in the document image 100 will be described in order. Information to be embedded in the document image 100 is hereinafter referred to as watermark information.

[情報埋め込み装置110の構成]
図1は、本発明の一実施形態に係る情報埋め込み装置110の機能的構成を示すブロック図である。画像入力部101には、透かし情報105を埋め込む対象である文書画像100が入力される。文書画像100は、印刷物をスキャナ等から入力し、それをビットマップ化したものであってよいし、文書編集アプリケーションプログラムを利用して作成された電子データであってもよい。または、記憶媒体に記憶されたアプリケーションプログラム固有の形式、テキスト形式等をはじめとする種々の電子データを画像処理ソフト等によって変換し、ビットマップ化したものであってもよい。
[Configuration of Information Embedding Device 110]
FIG. 1 is a block diagram showing a functional configuration of an information embedding device 110 according to an embodiment of the present invention. The image input unit 101 receives a document image 100 that is a target for embedding the watermark information 105. The document image 100 may be a printed matter input from a scanner or the like and converted into a bitmap, or may be electronic data created using a document editing application program. Alternatively, various electronic data including a format unique to an application program, a text format, and the like stored in a storage medium may be converted by an image processing software and converted into a bitmap.

分割部102は、入力された文書画像100を文字で構成されるテキスト領域とテキスト領域以外の領域(すなわち、文字以外の図形や写真等で構成される非テキスト領域)とに分割する。外接矩形抽出部103は、分割部102で分割されたテキスト領域に含まれる文字に外接する外接矩形を抽出する。   The dividing unit 102 divides the input document image 100 into a text area composed of characters and an area other than the text area (that is, a non-text area composed of figures or photographs other than characters). The circumscribed rectangle extracting unit 103 extracts a circumscribed rectangle circumscribing the characters included in the text area divided by the dividing unit 102.

なお、外接矩形は、本来は、文字認識を行う領域を示すものであるが、電子透かし技術においては、埋め込み操作の対象となる領域を示すものである。すなわち、文書画像100の各画素値を垂直座標軸に対して射影し、空白部分(黒色である文字のない部分)を探索して行を判別して行分割を行う。その後、行単位で文書画像100を水平座標軸に対して射影し、空白部分を探索して文字単位に分割する。これにより、各文字を外接矩形として切り出すことが可能となる。   The circumscribed rectangle originally indicates a region where character recognition is performed. However, in the digital watermark technique, the circumscribed rectangle indicates a region to be embedded. In other words, each pixel value of the document image 100 is projected onto the vertical coordinate axis, and a blank portion (a portion without a black character) is searched to determine a row and perform line division. Thereafter, the document image 100 is projected on the horizontal coordinate axis line by line, and a blank portion is searched and divided into character units. Thereby, each character can be cut out as a circumscribed rectangle.

領域情報埋め込み部104は、各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合うテキスト領域には互いに異なる領域情報を、外接矩形抽出部103で抽出した外接矩形に従って、各文字に埋め込む。領域情報埋め込み部104は、第1の埋め込み手段として機能する。   The area information embedding unit 104 is information indicating which text area each character belongs to, and at least adjacent text areas are different from each other according to the circumscribed rectangle extracted by the circumscribed rectangle extracting unit 103. Embed in characters. The area information embedding unit 104 functions as a first embedding unit.

透かし情報埋め込み部106は、領域情報埋め込み部104で領域情報が埋め込まれた各テキスト領域に、領域情報埋め込み部104とは異なる埋め込みアルゴリズムに従って、透かし情報を埋め込み、透かし画像108を生成する。透かし情報埋め込み部106は、第2の埋め込み手段として機能する。画像出力部107は、透かし情報埋め込み部106で生成された透かし画像108を出力する。   The watermark information embedding unit 106 embeds watermark information in each text region in which the region information is embedded by the region information embedding unit 104 according to an embedding algorithm different from that of the region information embedding unit 104 to generate a watermark image 108. The watermark information embedding unit 106 functions as a second embedding unit. The image output unit 107 outputs the watermark image 108 generated by the watermark information embedding unit 106.

[情報埋め込み装置110の動作手順]
図2は、情報埋め込み装置110の動作手順を示すフローチャートであり、図3は、ステップS203の詳細な動作手順を示すフローチャートであり、図4は、分割部102での処理の一例を示す図である。また、図5及び図9は、領域情報埋め込み部104での処理の一例を示す図である。
[Operation Procedure of Information Embedding Device 110]
2 is a flowchart showing an operation procedure of the information embedding device 110, FIG. 3 is a flowchart showing a detailed operation procedure of step S203, and FIG. 4 is a diagram showing an example of processing in the dividing unit 102. is there. 5 and 9 are diagrams illustrating an example of processing in the region information embedding unit 104. FIG.

まず、ステップS200において、透かし情報105の埋め込み対象となる文書画像100が、画像入力部101を介して、分割部102に入力される。   First, in step S <b> 200, the document image 100 to be embedded with the watermark information 105 is input to the dividing unit 102 via the image input unit 101.

ステップS201において、分割部102で、入力された文書画像100を複数の領域に分割する。これにより、テキスト領域及び非テキスト領域の外接矩形を抽出する。なお、この抽出手法には、公知の領域抽出技術(例えば、米国特許出願第08/17172号)を用いる。例えば、図4で示すように、文書画像401を複数の領域に分割すると、抽出結果402が得られる。ステップS202において、外接矩形抽出部103で、テキスト領域に含まれる文字の外接矩形が抽出される。ステップS203において、領域情報埋め込み部104で、テキスト領域に含まれる各外接矩形内の文字(又は文字画像)に領域情報を埋め込む。   In step S201, the dividing unit 102 divides the input document image 100 into a plurality of areas. Thereby, a circumscribed rectangle of the text area and the non-text area is extracted. For this extraction method, a known region extraction technique (for example, US Patent Application No. 08/17172) is used. For example, as shown in FIG. 4, when the document image 401 is divided into a plurality of regions, an extraction result 402 is obtained. In step S202, the circumscribed rectangle extracting unit 103 extracts circumscribed rectangles of characters included in the text area. In step S203, the region information embedding unit 104 embeds region information in characters (or character images) in each circumscribed rectangle included in the text region.

ここで、ステップS203の詳細な動作手順について、図3を用いて説明する。まず、ステップS203aで、ステップS201で抽出されたテキスト領域に、ラスター走査の順序に従って、領域情報を割り当てる。領域情報を割り当てる際には、本実施形態では、0〜3の整数のうち、上下又は左右に隣り合う領域の番号が異なり、かつ、最小の番号を選択して割り当てるものとする。   Here, the detailed operation procedure of step S203 is demonstrated using FIG. First, in step S203a, region information is assigned to the text region extracted in step S201 according to the order of raster scanning. When assigning region information, in this embodiment, among the integers 0 to 3, the numbers of regions adjacent to each other in the vertical and horizontal directions are different, and the smallest number is selected and assigned.

例えば、図5で示すように、ラスター走査の読み取りが、紙面の左上から右方向に行われ、行の端部に達した際には、次の行に移動し、再び左端から右端に向けて行われるものとする。この場合には、ラスター走査による読み取りが1〜8の順序で行われることとなる。すなわち、ラスター走査の順序1のテキスト領域には、最小の領域情報0が割り当てられ、順序1のテキスト領域に隣り合う順序2のテキスト領域には、順序1のテキスト領域に割り当てられた領域情報0を除く最小の領域情報1が割り当てられる。このような処理を進めていき、順序8のテキスト領域には、上下又は左右に隣り合う順序4、6、及び7のテキスト領域に割り当てられた領域情報3、1、及び2を除く最小の領域情報0が割り当てられる。以上の処理により、隣り合う領域に異なる領域情報を割り当てることができる。なお、ここでは、0から3までの4つの数字を用いた例を示したが、必要に応じて、割り当てる整数の数を調整しても構わない。   For example, as shown in FIG. 5, raster scan reading is performed from the upper left to the right of the page. When the end of the line is reached, the line moves to the next line and again from the left end toward the right end. Shall be done. In this case, reading by raster scanning is performed in the order of 1-8. That is, the minimum area information 0 is assigned to the text area of order 1 in raster scanning, and the area information 0 assigned to the text area of order 1 is assigned to the text area of order 2 adjacent to the text area of order 1. Minimum area information 1 excluding is assigned. The processing proceeds as described above, and the text area of order 8 is the minimum area excluding the area information 3, 1, and 2 assigned to the text areas of order 4, 6, and 7 that are adjacent vertically and horizontally. Information 0 is assigned. Through the above processing, different area information can be assigned to adjacent areas. Although an example using four numbers from 0 to 3 is shown here, the number of integers to be allocated may be adjusted as necessary.

次に、ステップS203bにおいて、文書画像から1つのテキスト領域を選択して、注目領域とする。その後、ステップS203cにおいて、ステップS203aで割り当てられた領域情報を注目領域内の各文字に埋め込む。すなわち、1つのテキスト領域内に含まれる各文字には、同じ領域情報が埋め込まれる。例えば、図9で示すように、文書画像901のテキスト領域にステップ203aで割り当てられた領域情報を埋め込むと、文書画像902となる。なお、領域情報の埋め込みの際には、本実施形態では、予め用意された互いに異なる4種類のマスクパターンの内から領域情報に対応するマスクパターンを選択することにより各外接矩形内の文字を構成して、領域情報を埋め込むこととする。なお、図9では、各外接矩形内に数字を記載することにより領域情報が埋め込まれている状態を模式的に示したが、実際には、文字が微細なマスクパターンで示されることにより領域情報が埋め込まれることとなる。   Next, in step S203b, one text area is selected from the document image and set as the attention area. Thereafter, in step S203c, the area information assigned in step S203a is embedded in each character in the attention area. That is, the same area information is embedded in each character included in one text area. For example, as shown in FIG. 9, when the area information assigned in step 203a is embedded in the text area of the document image 901, a document image 902 is obtained. When embedding region information, in this embodiment, characters in each circumscribed rectangle are configured by selecting a mask pattern corresponding to the region information from among four different types of mask patterns prepared in advance. Thus, the area information is embedded. FIG. 9 schematically shows a state in which the region information is embedded by describing a number in each circumscribed rectangle. However, in actuality, the region information is obtained by displaying characters in a fine mask pattern. Will be embedded.

ステップS203dにおいて、注目領域が文書画像に含まれる最後のテキスト領域であるか否かが判定される。ステップS203で注目領域が最後のテキスト領域ではないと判定された場合には、ステップS203bに戻り、次のテキスト領域を注目領域として選択する。一方、ステップS203で注目領域が最後のテキスト領域であると判定された場合には、ステップS203の処理を終了させる。   In step S203d, it is determined whether or not the attention area is the last text area included in the document image. If it is determined in step S203 that the attention area is not the last text area, the process returns to step S203b to select the next text area as the attention area. On the other hand, if it is determined in step S203 that the attention area is the last text area, the processing in step S203 is terminated.

ここで、再び図2の説明に戻る。上述のように、テキスト領域毎に領域情報を埋め込んだ後、ステップS204において、同様に文書画像から1つのテキスト領域を選択して注目領域とし、この注目領域に透かし情報105を埋め込む。透かし情報105を埋め込む際には、本実施形態では、注目する外接矩形を水平方向にシフトさせて、前後の外接矩形との間隔に大小関係を設けることにより情報を埋め込む技術(文字間透かし)を用いる。
また、透かし情報105を埋め込む順番は、各領域に割り当てられた順番、すなわち、ラスター走査の順番に従うものとする。
Here, it returns to description of FIG. 2 again. As described above, after embedding the area information for each text area, in step S204, similarly, one text area is selected from the document image as an attention area, and the watermark information 105 is embedded in the attention area. In embedding the watermark information 105, in the present embodiment, a technique (embedded between characters) is used in which information is embedded by shifting the circumscribed rectangle of interest in the horizontal direction and providing a size relationship between the circumscribed rectangles before and after. Use.
The order in which the watermark information 105 is embedded follows the order assigned to each area, that is, the order of raster scanning.

このようにして、ステップS205において、透かし情報105が埋め込まれた透かし画像108が生成され、本実施形態では、プリンタ等の画像出力部107から紙媒体として出力される。   In this way, in step S205, the watermark image 108 in which the watermark information 105 is embedded is generated, and in the present embodiment, the watermark image 108 is output as a paper medium from the image output unit 107 such as a printer.

なお、本実施形態では、異なるマスクパターンで各文字をマスクすることによって領域情報を埋め込み、文字間隔を変更することによって透かし情報105を埋め込んだが、この埋め込み方式に限定されるものではない。異なるマスクパターンで各文字をマスクすることによって透かし情報105を埋め込み、外接矩形間の前後間隔を変更することによって、領域情報を埋め込んでも構わない。更に、代替の埋め込み方式として、行間透かし又は地紋透かし等の種々の方式を用いても構わない。ここで、行間透かしとは、外接矩形で構成される行間の上下間隔を変更することにより情報を埋め込む技術であり、地紋透かしとは、レーザプリンタ等で紙に文書を印刷する際、余白領域に微細なドットパターンを描画して情報を埋め込む技術である。   In the present embodiment, the area information is embedded by masking each character with a different mask pattern, and the watermark information 105 is embedded by changing the character spacing. However, the present invention is not limited to this embedding method. The watermark information 105 may be embedded by masking each character with a different mask pattern, and the area information may be embedded by changing the front-rear interval between circumscribed rectangles. Further, as an alternative embedding method, various methods such as an interline watermark or a background pattern watermark may be used. Here, the interline watermark is a technique for embedding information by changing the vertical spacing between lines composed of circumscribed rectangles, and the background pattern watermark is a blank area when a document is printed on paper with a laser printer or the like. This is a technique for embedding information by drawing a fine dot pattern.

また、透かし画像108は、本実施形態では、印刷して紙媒体として出力するものとしたが、記憶装置等に画像データとして記憶してもよい。更に、ネットワークを介して、他の端末等に送信しても構わない。   In this embodiment, the watermark image 108 is printed and output as a paper medium. However, the watermark image 108 may be stored as image data in a storage device or the like. Furthermore, it may be transmitted to another terminal or the like via a network.

[情報抽出装置610の構成]
図6は、本発明の一実施形態に係る情報抽出装置610の機能的構成を示すブロック図である。画像入力部600には、情報埋め込み装置110によって生成された透かし画像108が入力される。分割部601は、入力された透かし画像108を文字で構成されるテキスト領域と、テキスト領域以外の非テキスト領域とに分割する。外接矩形抽出部602は、抽出されたテキスト領域内の文字の外接矩形を抽出する。領域情報抽出部603は、テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する。領域情報抽出部603は、第1の抽出手段として機能する。
[Configuration of Information Extraction Device 610]
FIG. 6 is a block diagram illustrating a functional configuration of the information extraction device 610 according to an embodiment of the present invention. The watermark image 108 generated by the information embedding device 110 is input to the image input unit 600. The dividing unit 601 divides the input watermark image 108 into a text area composed of characters and a non-text area other than the text area. The circumscribed rectangle extraction unit 602 extracts a circumscribed rectangle of characters in the extracted text area. The area information extraction unit 603 extracts area information indicating which text area each character belongs to for each circumscribed rectangle circumscribing the character included in the text area. The area information extraction unit 603 functions as a first extraction unit.

領域訂正部604は、注目するテキスト領域から異なる領域情報が抽出された場合には、注目するテキスト領域に同じ領域情報のみを含むように、注目するテキスト領域を再分割する。また、領域訂正部604は、注目するテキスト領域に隣り合うテキスト領域から同じ領域情報が抽出された場合には、注目するテキスト領域と同じ領域情報が抽出されたテキスト領域とを合併するように訂正する。透かし情報抽出部605は、透かし画像108のテキスト領域毎に埋め込まれた透かし情報606を抽出して出力する。透かし情報抽出部605は、第2の抽出手段として機能する。   When different region information is extracted from the target text region, the region correction unit 604 subdivides the target text region so that only the same region information is included in the target text region. Further, when the same region information is extracted from a text region adjacent to the target text region, the region correction unit 604 corrects the target text region and the text region from which the same region information is extracted to be merged. To do. The watermark information extraction unit 605 extracts and outputs watermark information 606 embedded for each text area of the watermark image 108. The watermark information extraction unit 605 functions as a second extraction unit.

[情報抽出装置610の動作手順]
図7は、情報抽出装置610の動作手順を示すフローチャートであり、図8は、ステップS704の詳細な動作手順を示すフローチャートである。まず、ステップS700において、透かし画像108が画像入力部600を介して、分割部601に入力される。ステップS701において、分割部601で、入力された透かし画像108からテキスト領域及び非テキスト領域を抽出する。
[Operation Procedure of Information Extraction Device 610]
FIG. 7 is a flowchart showing an operation procedure of the information extraction apparatus 610, and FIG. 8 is a flowchart showing a detailed operation procedure of step S704. First, in step S <b> 700, the watermark image 108 is input to the dividing unit 601 via the image input unit 600. In step S <b> 701, the dividing unit 601 extracts a text area and a non-text area from the input watermark image 108.

ステップS702において、外接矩形抽出部602で、分割部601で抽出されたテキスト領域に含まれる文字の外接矩形が抽出される。次に、ステップS703において、領域情報抽出部603で各文字に埋め込まれた領域情報が抽出される。   In step S <b> 702, the circumscribed rectangle extracting unit 602 extracts the circumscribed rectangles of the characters included in the text area extracted by the dividing unit 601. In step S703, the area information extraction unit 603 extracts area information embedded in each character.

ステップS704において、領域訂正部604で、抽出された領域情報に基づいて、テキスト領域の抽出結果を訂正する。   In step S704, the region correction unit 604 corrects the text region extraction result based on the extracted region information.

ここで、ステップS704の詳細な動作手順について、図8を用いて説明する。まず、ステップS704aにおいて、透かし画像108内のテキスト領域を選択して、注目領域とする。次に、ステップS704bにおいて、注目領域内の各文字に埋め込まれた領域情報を、マスクパターンを識別することによって抽出する。   Here, the detailed operation procedure of step S704 will be described with reference to FIG. First, in step S704a, a text region in the watermark image 108 is selected as a region of interest. Next, in step S704b, the area information embedded in each character in the attention area is extracted by identifying the mask pattern.

ステップS704cにおいて、注目領域内の各外接矩形から抽出された全ての領域情報が同じであるか否かが判定される。ステップS704cで全ての領域情報が同じではないと判定された場合には、ステップS704dにおいて、同じ領域情報を有する外接矩形のみが注目領域に含まれるように、テキスト領域を訂正する。   In step S704c, it is determined whether or not all area information extracted from each circumscribed rectangle in the attention area is the same. If it is determined in step S704c that all area information is not the same, in step S704d, the text area is corrected so that only the circumscribed rectangle having the same area information is included in the attention area.

次に、ステップS704eにおいて、注目領域が透かし画像108に含まれる最後のテキスト領域であるか否かが判定される。ステップS704eにおいて、注目領域が最後のテキスト領域でないと判定された場合には、ステップS704aに戻り、次のテキスト領域を選択して、注目領域とする。   Next, in step S704e, it is determined whether or not the attention area is the last text area included in the watermark image 108. If it is determined in step S704e that the attention area is not the last text area, the process returns to step S704a to select the next text area as the attention area.

一方、ステップS704eで注目領域が最後のテキスト領域であると判定された場合には、ステップS704fにおいて、再び透かし画像108内のテキスト領域を選択して、注目領域とする。次に、ステップS704gにおいて、注目領域及び隣り合う領域に埋め込まれた領域情報が同じであるか否かが判定される。ステップS704gで注目領域及び隣り合う領域の領域情報が同じであると判定された場合には、ステップS704hにおいて、注目領域と隣り合う領域とを合併する。   On the other hand, if it is determined in step S704e that the attention area is the last text area, in step S704f, the text area in the watermark image 108 is selected again to be the attention area. Next, in step S704g, it is determined whether the attention area and the area information embedded in the adjacent area are the same. If it is determined in step S704g that the region information of the attention region and the adjacent region is the same, the attention region and the adjacent region are merged in step S704h.

次に、ステップS704iにおいて、注目領域が透かし画像108に含まれる最後のテキスト領域であるか否かが判定される。ステップS704iで注目領域が最後のテキスト領域でないと判定された場合には、ステップS704fに戻り、次のテキスト領域を選択して、注目領域とする。ステップS704iで注目領域が最後のテキスト領域であると判定された場合には、ステップS704の一連の処理を終了する。   Next, in step S704i, it is determined whether or not the attention area is the last text area included in the watermark image 108. If it is determined in step S704i that the attention area is not the last text area, the process returns to step S704f, and the next text area is selected as the attention area. If it is determined in step S704i that the attention area is the last text area, the series of processes in step S704 is terminated.

ここで、再び図7の説明に戻る。ステップS705において、透かし情報抽出部605で、埋め込まれた透かし情報606を外接矩形間の間隔の大小関係を判定することにより抽出する。なお、透かし情報606は、領域訂正部604で訂正されたテキスト領域から抽出される領域情報が示す順序に従って、抽出されるものとする。   Here, it returns to description of FIG. 7 again. In step S705, the watermark information extraction unit 605 extracts the embedded watermark information 606 by determining the size relationship between the circumscribed rectangles. Note that the watermark information 606 is extracted according to the order indicated by the region information extracted from the text region corrected by the region correction unit 604.

以上述べた通り、本実施形態によれば、隣り合う領域間で異なる領域情報を分割された各領域に含まれる文字にマスクパターンとして埋め込んだため、文字の位置をずらさずに領域情報を埋め込むことができる。一方、テキスト領域の分割が正確に行われなかった場合であっても、各文字に埋め込まれた領域情報に基づいて、その分割結果を訂正することができる。従って、埋め込まれた情報をより正確に抽出可能としながら、テキスト領域に情報を埋め込むことができる。   As described above, according to the present embodiment, since region information different between adjacent regions is embedded as a mask pattern in characters included in each divided region, the region information is embedded without shifting the character position. Can do. On the other hand, even if the text area is not correctly divided, the division result can be corrected based on the area information embedded in each character. Therefore, it is possible to embed information in the text area while making it possible to extract the embedded information more accurately.

なお、本実施形態では、テキスト領域のみに領域情報及び透かし情報を埋め込むこととしたが、非テキスト領域にも領域情報及び透かし情報を埋め込んでも構わない。   In the present embodiment, the area information and the watermark information are embedded only in the text area. However, the area information and the watermark information may be embedded in the non-text area.

<第2の実施形態>
上述の実施形態では、テキスト領域内の全ての文字に領域情報を埋め込んだが、本実施形態では、テキスト領域の外周に位置する文字にだけ領域情報を埋め込む点で異なる。なお、情報埋め込み装置110は、テキスト領域毎に透かし情報を読み込む順序を示す順序情報を埋め込む順序情報埋め込み部を更に備えており、また、情報抽出装置610は、テキスト領域毎に埋め込まれた順序情報を抽出する順序情報抽出部を更に備える。順序情報埋め込み部は、第3の埋め込み手段として機能し、順序情報抽出手段は、第3の抽出手段として機能する。また、動作手順については、ステップS203の動作手順が第1の実施形態から一部変更となるだけであるため、本実施形態では、その変更部分についてのみ説明する。
<Second Embodiment>
In the above-described embodiment, the region information is embedded in all characters in the text region. However, the present embodiment is different in that the region information is embedded only in characters located on the outer periphery of the text region. Note that the information embedding device 110 further includes an order information embedding unit that embeds order information indicating the order in which watermark information is read for each text region, and the information extraction device 610 includes order information embedded for each text region. Is further provided with an order information extraction unit. The order information embedding unit functions as a third embedding unit, and the order information extracting unit functions as a third extracting unit. In addition, regarding the operation procedure, only the operation procedure of step S203 is only partially changed from the first embodiment, and therefore, only the changed portion will be described in this embodiment.

図10は、領域情報の配置状態の一例を示す図であり、図11は、第2の実施形態に係るステップS203の詳細な動作手順を示す図である。まず、ステップS203eにおいて、文書画像100の各テキスト領域に領域情報を割り当てる。次に、ステップS203fにおいて、カウンタIを0に設定する(I=0)。ステップS203gにおいて、文書画像100に含まれる複数のテキスト領域の内から、1つのテキスト領域を選択して、注目領域とする。ステップS203hにおいて、テキスト領域内の外周に位置する文字(すなわち、テキスト領域の外接矩形を構成する文字)に、ステップS203eで割り当てられた領域情報を埋め込む。なお、領域情報を埋め込む際には、本実施形態では、第1の実施形態と同様に、予め用意されたマスクパターンで文字をマスクすることにより埋め込む。   FIG. 10 is a diagram illustrating an example of the arrangement state of the region information, and FIG. 11 is a diagram illustrating a detailed operation procedure of step S203 according to the second embodiment. First, in step S203e, region information is assigned to each text region of the document image 100. Next, in step S203f, the counter I is set to 0 (I = 0). In step S203g, one text area is selected from a plurality of text areas included in the document image 100, and set as the attention area. In step S203h, the area information assigned in step S203e is embedded in characters located on the outer periphery of the text area (that is, characters constituting the circumscribed rectangle of the text area). When embedding the area information, in this embodiment, as in the first embodiment, the area information is embedded by masking characters with a mask pattern prepared in advance.

ステップS203iにおいて、ステップS203hで領域情報を埋め込んだ文字の内側に位置する文字には、カウンタに設定されている情報(以下、カウンタ情報と言う)を埋め込む。ここで、カウンタ情報は、後述するように、埋め込まれた後に毎回インクリメントされるため、透かし情報を抽出する順序を示す情報として機能する。すなわち、テキスト領域1000のように、同じ情報が埋め込まれる場合(領域情報が0、カウンタ情報が0)には、テキスト領域1000が同じマスクパターンでマスクされることになる。一方、テキスト領域1001のように、異なる情報が埋め込まれる場合(領域情報が0、カウンタ情報が2)には、テキスト領域1001が異なるマスクパターンでマスクされることになる。なお、テキスト領域1003のように、注目領域に含まれる文字のうち、テキスト領域の外接矩形を構成する文字の外接矩形の内部にテキスト領域の外接矩形を構成しない文字の外接矩形が無い場合には、カウンタ情報を埋め込まないことにする。   In step S203i, information set in the counter (hereinafter referred to as counter information) is embedded in the character located inside the character in which the area information is embedded in step S203h. Here, as will be described later, the counter information is incremented every time after being embedded, and thus functions as information indicating the order in which the watermark information is extracted. That is, when the same information is embedded as in the text area 1000 (area information is 0, counter information is 0), the text area 1000 is masked with the same mask pattern. On the other hand, when different information is embedded as in the text area 1001 (area information is 0, counter information is 2), the text area 1001 is masked with a different mask pattern. When there is no circumscribed rectangle of a character that does not constitute the circumscribed rectangle of the text area within the circumscribed rectangle of the character that constitutes the circumscribed rectangle of the text area among the characters included in the attention area, such as the text area 1003 The counter information is not embedded.

ステップS203jにおいて、注目領域が文書画像100に含まれる最後のテキスト領域であるか否かが判断される。ステップS203jで注目領域が最後のテキスト領域でないと判定された場合には、ステップS203kにおいて、カウンタをインクリメントし(I=I+1)、ステップS203gに戻り、次のテキスト領域を選択して、注目領域とする。一方、ステップS203jで注目領域が最後のテキスト領域であると判定された場合には、ステップS203の一連の処理を終了する。その後の処理(ステップS204及びステップS205)は、第1の実施形態と同様である。   In step S203j, it is determined whether or not the attention area is the last text area included in the document image 100. If it is determined in step S203j that the attention area is not the last text area, the counter is incremented in step S203k (I = I + 1), the process returns to step S203g, the next text area is selected, and the attention area and To do. On the other hand, if it is determined in step S203j that the attention area is the last text area, the series of processing in step S203 is terminated. Subsequent processing (step S204 and step S205) is the same as that of the first embodiment.

以上述べたとおり、本実施形態によれば、埋め込まれたカウンタ情報に従って、透かし情報をより正確に抽出することができる。   As described above, according to the present embodiment, watermark information can be extracted more accurately according to embedded counter information.

なお、第1の実施形態では、領域情報埋め込み部104で領域情報が埋め込まれた各テキスト領域に、領域情報埋め込み部104とは異なる埋め込みアルゴリズムに従って、透かし情報105を埋め込んだ。一方、本実施形態では、領域情報埋め込み部104で領域情報が埋め込まれた各テキスト領域に、領域情報埋め込み部104及び順序情報埋め込み部(不図示)とは異なる埋め込みアルゴリズムに従って、透かし情報105を埋め込むことになる。   In the first embodiment, the watermark information 105 is embedded in each text region in which the region information is embedded by the region information embedding unit 104 according to an embedding algorithm different from that of the region information embedding unit 104. On the other hand, in the present embodiment, the watermark information 105 is embedded in each text region in which the region information is embedded by the region information embedding unit 104 according to an embedding algorithm different from that of the region information embedding unit 104 and the order information embedding unit (not shown). It will be.

<第3の実施形態>
上述の各実施形態では、図1で示す情報埋め込み装置110及び図6で示す情報抽出装置610を構成する各部は、ハードウェアで構成されるものとして説明した。しかし、情報埋め込み装置110及び情報抽出装置610を構成する各部のうち、一部又は全部をソフトウェアで実行し、このソフトウェアをコンピュータに実行させることによって、各部の機能を実現させても構わない。
<Third Embodiment>
In each of the above-described embodiments, each unit configuring the information embedding device 110 illustrated in FIG. 1 and the information extracting device 610 illustrated in FIG. 6 has been described as configured by hardware. However, some or all of the units constituting the information embedding device 110 and the information extraction device 610 may be executed by software, and the software may be executed by a computer to realize the functions of the units.

図12は、コンピュータ1201のシステム構成を示す図である。コンピュータ1201は、一般に普及しているパーソナルコンピュータ等の汎用の情報処理装置であり、スキャナや複写機等の画像入力装置1217から読み取られた画像を入力し、編集や保管を行うことが可能である。   FIG. 12 is a diagram illustrating a system configuration of the computer 1201. A computer 1201 is a general-purpose information processing apparatus such as a personal computer that is widely used. The computer 1201 can input an image read from an image input device 1217 such as a scanner or a copying machine, and can edit or store the image. .

また、画像入力装置1217で得られた画像をプリンタ1216や複写機から印刷してもよい。なお、ユーザからの各種指示は、マウス(登録商標)1213やキーボード1214からの入力操作により行われる。コンピュータ1201の内部では、バス1207により後述する各領域が接続され、種々のデータの受け渡しが可能である。なお、コンピュータ1201を適用する装置によっては、図12に示す構成要素の全てが必須なものとは限らないため、適宜省略しても構わない。   Further, an image obtained by the image input device 1217 may be printed from a printer 1216 or a copying machine. Various instructions from the user are performed by an input operation from a mouse (registered trademark) 1213 or a keyboard 1214. Inside the computer 1201, areas described later are connected by a bus 1207 so that various data can be exchanged. Note that depending on the apparatus to which the computer 1201 is applied, all of the components shown in FIG. 12 are not necessarily required, and may be omitted as appropriate.

CPU1202は、主記憶装置1203にロードされているプログラムやデータを用いて、コンピュータ1201全体を制御すると共に、コンピュータ1201を適用した情報埋め込み装置110及び情報抽出装置610が行う上述の各処理を実行する。   The CPU 1202 controls the entire computer 1201 using programs and data loaded in the main storage device 1203 and executes the above-described processes performed by the information embedding device 110 and the information extraction device 610 to which the computer 1201 is applied. .

主記憶装置1203としては、例えばRAMが挙げられる。主記憶装置1203は、HDD(ハードディスクドライブ)1204、CD−ROMドライブ1209、DVD−ROMドライブ1210、FDD(フロッピー(登録商標)ディスクドライブ)1211からロードされたデータを一時的に記憶するエリアを有する。主記憶装置1203は、画像入力装置1217から、I/F(インターフェース)1215を介して取得した画像データを一時的に記憶するエリアを更に有する。また、主記憶装置1203は、CPU1202が各種の処理を実行する際に用いるワークエリアを更に有する。すなわち、主記憶装置1203は、各種のエリアを適宜提供することが可能である。   An example of the main storage device 1203 is a RAM. The main storage device 1203 has an area for temporarily storing data loaded from an HDD (hard disk drive) 1204, a CD-ROM drive 1209, a DVD-ROM drive 1210, and an FDD (floppy (registered trademark) disk drive) 1211. . The main storage device 1203 further has an area for temporarily storing image data acquired from the image input device 1217 via the I / F (interface) 1215. The main storage device 1203 further has a work area used when the CPU 1202 executes various processes. That is, the main storage device 1203 can provide various areas as appropriate.

HDD1204は、OS(オペレーティングシステム)や各種の画像(文書画像を含む)を格納可能である。更に、HDD1204には、コンピュータ1201を適用した情報埋め込み装置110及び情報抽出装置610が行う上述の各処理をCPU1202に実行させるプログラムやデータも格納可能である。HDD1204に格納されているプログラムやデータは、CPU1202による制御に従って、適宜に主記憶装置1203にロードされ、CPU1202による処理対象となる。なお、主記憶装置1203に記憶するものとして説明した情報の幾つかについては、HDD1204に格納するようにしても構わない。   The HDD 1204 can store an OS (operating system) and various images (including document images). Furthermore, the HDD 1204 can also store programs and data that cause the CPU 1202 to execute the above-described processes performed by the information embedding device 110 and the information extraction device 610 to which the computer 1201 is applied. Programs and data stored in the HDD 1204 are appropriately loaded into the main storage device 1203 under the control of the CPU 1202 and are processed by the CPU 1202. Note that some of the information described as being stored in the main storage device 1203 may be stored in the HDD 1204.

ビデオコントローラ1205は、主記憶装置1203やHDD1204等から受けた画像データや文字データのような表示データを信号としてモニタ1206に送信するものである。モニタ1206は、CRTや液晶画面等によって構成されており、ビデオコントローラ1205から受けた信号に基づいた画像や文字等を表示する。   The video controller 1205 transmits display data such as image data and character data received from the main storage device 1203 and the HDD 1204 as a signal to the monitor 1206. The monitor 1206 includes a CRT, a liquid crystal screen, and the like, and displays images, characters, and the like based on signals received from the video controller 1205.

I/F1208は、コンピュータ1201にプリンタ1216を接続する。コンピュータ1201は、I/F1208を介して、プリンタ1216に対して印刷データを送信したり、プリンタ1216から送信されるプリンタ1216の状態情報を受信したりする。   The I / F 1208 connects the printer 1216 to the computer 1201. The computer 1201 transmits print data to the printer 1216 via the I / F 1208 and receives status information of the printer 1216 transmitted from the printer 1216.

CD−ROMドライブ1209は、記憶媒体としてのCD−ROMに記憶されているプログラムやデータを読み出し、読み出したプログラムやデータをHDD1204や主記憶装置1203に送信する。   The CD-ROM drive 1209 reads programs and data stored in a CD-ROM as a storage medium, and transmits the read programs and data to the HDD 1204 and the main storage device 1203.

DVD−ROMドライブ1210は、記憶媒体としてのDVD−ROMに記憶されているプログラムやデータを読み出し、読み出したプログラムやデータをHDD1204や主記憶装置1203に送信する。   The DVD-ROM drive 1210 reads a program and data stored in a DVD-ROM as a storage medium, and transmits the read program and data to the HDD 1204 and the main storage device 1203.

FDD1211は、記憶媒体としてのフロッピー(登録商標)ディスクに記憶されているプログラムやデータを読み出し、読み出したプログラムやデータをHDD1204や主記憶装置1203に送出する。   The FDD 1211 reads programs and data stored in a floppy (registered trademark) disk as a storage medium, and sends the read programs and data to the HDD 1204 and the main storage device 1203.

マウス(登録商標)1213及びキーボード1214は、ユーザが各種の操作指示を入力する装置として機能する。コンピュータ1201のユーザは、マウス(登録商標)1213やキーボード1214を操作することで、各種の指示をCPU1202に対して入力することができる。例えば、ユーザが選択指示を入力する際には、このマウス(登録商標)1213やキーボード1214を用いる。   A mouse (registered trademark) 1213 and a keyboard 1214 function as devices for a user to input various operation instructions. A user of the computer 1201 can input various instructions to the CPU 1202 by operating a mouse (registered trademark) 1213 or a keyboard 1214. For example, when the user inputs a selection instruction, the mouse (registered trademark) 1213 or the keyboard 1214 is used.

I/F1212は、キーボード1214及びマウス(登録商標)1213をバスに接続する。マウス(登録商標)1213やキーボード1214から入力された操作指示は信号としてI/F1212を介してCPU1202に送出される。   The I / F 1212 connects a keyboard 1214 and a mouse (registered trademark) 1213 to the bus. An operation instruction input from a mouse (registered trademark) 1213 or a keyboard 1214 is sent as a signal to the CPU 1202 via the I / F 1212.

I/F1215は、原稿やフィルム等を読み取ることで画像データを生成する画像入力装置1217をコンピュータ1201に接続するためのものである。画像入力装置1217が生成した画像データは、I/F1215を介して、HDD1204や主記憶装置1203に送出される。   The I / F 1215 is for connecting an image input device 1217 that generates image data by reading a document, a film, or the like to the computer 1201. Image data generated by the image input device 1217 is sent to the HDD 1204 and the main storage device 1203 via the I / F 1215.

<その他の実施形態>
なお、本実施形態は、複数の機器(例えば、ホストコンピュータ、インターフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、1つの機器からなる装置(例えば、複写機、複合機、ファクシミリ装置等)に適用してもよい。
<Other embodiments>
Note that the present embodiment can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), and a device (for example, a copier, a multifunction peripheral, The present invention may be applied to a facsimile machine or the like.

また、本発明は、前述した実施形態の機能を実現するソフトウェアのコンピュータプログラムのコードを記憶したコンピュータ可読記憶媒体(又は記録媒体)を、システム又は装置に供給してもよい。また、そのシステム又は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み込み実行することに適用してもよい。この場合、記憶媒体から読み込まれたプログラムコード自体が前述の実施形態の機能を実現することになり、そのプログラムコードを記録した記憶媒体は本実施形態を構成することになる。また、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, the present invention may supply a computer-readable storage medium (or recording medium) that stores a computer program code of software that implements the functions of the above-described embodiments to a system or apparatus. Further, the present invention may be applied to the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium recording the program code constitutes the present embodiment. In addition, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments may be realized by the processing. Needless to say, it is included.

さらに、記憶媒体から読み込まれたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。   Further, the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Then, based on the instruction of the program code, the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. It goes without saying that it is included in the invention.

また、本実施形態を上述のコンピュータ可読記憶媒体に適用する場合、その記憶媒体には、前述のフローチャートや機能構成に対応するコンピュータプログラムのコードが格納されることになる。   When the present embodiment is applied to the above-described computer-readable storage medium, the storage medium stores computer program codes corresponding to the above-described flowcharts and functional configurations.

本発明の一実施形態に係る情報埋め込み装置110の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the information embedding apparatus 110 which concerns on one Embodiment of this invention. 情報埋め込み装置110の動作手順を示すフローチャートである。5 is a flowchart showing an operation procedure of the information embedding device 110. ステップS203の詳細な動作手順を示すフローチャートである。It is a flowchart which shows the detailed operation | movement procedure of step S203. 分割部102での処理の一例を示す図である。6 is a diagram illustrating an example of processing in a dividing unit 102. FIG. 領域情報埋め込み部104での処理の一例を示す図である。6 is a diagram illustrating an example of processing in a region information embedding unit 104. FIG. 本発明の一実施形態に係る情報抽出装置610の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the information extraction apparatus 610 which concerns on one Embodiment of this invention. 情報抽出装置610の動作手順を示すフローチャートである。5 is a flowchart illustrating an operation procedure of the information extraction device 610. ステップS704の詳細な動作手順を示すフローチャートである。It is a flowchart which shows the detailed operation | movement procedure of step S704. 領域情報埋め込み部104での処理の一例を示す図である。6 is a diagram illustrating an example of processing in a region information embedding unit 104. FIG. 領域情報の配置状態の一例を示す図である。It is a figure which shows an example of the arrangement | positioning state of area | region information. 第2の実施形態に係るステップS203の詳細な動作手順を示す図である。It is a figure which shows the detailed operation | movement procedure of step S203 which concerns on 2nd Embodiment. コンピュータ1201のシステム構成を示す図である。2 is a diagram illustrating a system configuration of a computer 1201. FIG.

符号の説明Explanation of symbols

100 文書画像
101 画像入力部
102 分割部
103 外接矩形抽出部
104 領域情報埋め込み部
105 透かし情報
106 透かし情報埋め込み部
DESCRIPTION OF SYMBOLS 100 Document image 101 Image input part 102 Dividing part 103 circumscribed rectangle extraction part 104 Area information embedding part 105 Water mark information 106 Water mark information embedding part

Claims (9)

文書画像に透かし情報を埋め込む画像処理装置であって、
前記文書画像を入力する入力手段と、
入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割手段と、
前記テキスト領域に含まれる文字に外接する外接矩形を抽出する抽出手段と、
各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合う前記テキスト領域には互いに異なる領域情報を、前記抽出手段で抽出した前記外接矩形に従って、各文字に埋め込む第1の埋め込み手段と、
前記第1の埋め込み手段で前記領域情報が埋め込まれた各テキスト領域に、前記第1の埋め込み手段とは異なる埋め込みアルゴリズムに従って、前記透かし情報を埋め込む第2の埋め込み手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for embedding watermark information in a document image,
Input means for inputting the document image;
A dividing unit that divides the input document image into a text area composed of characters and a non-text area other than the text area;
Extracting means for extracting a circumscribed rectangle circumscribing characters included in the text area;
A first embedding of information indicating which text area each character belongs to, and embedding different area information in at least the adjacent text area in each character according to the circumscribed rectangle extracted by the extracting means Means,
A second embedding unit that embeds the watermark information in each text region in which the region information is embedded by the first embedding unit, according to an embedding algorithm different from the first embedding unit;
An image processing apparatus comprising:
透かし情報が埋め込まれた文書画像から前記透かし情報を抽出する画像処理装置であって、
前記文書画像を入力する入力手段と、
入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割手段と、
前記テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する第1の抽出手段と、
注目するテキスト領域から異なる前記領域情報が抽出された場合には、前記注目するテキスト領域に同じ前記領域情報のみを含むように、前記注目するテキスト領域を再分割し、また、前記注目するテキスト領域に隣り合うテキスト領域から同じ前記領域情報が抽出された場合には、前記注目するテキスト領域と同じ前記領域情報が抽出されたテキスト領域とを合併するように訂正する訂正手段と、
前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する第2の抽出手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for extracting the watermark information from a document image in which watermark information is embedded,
Input means for inputting the document image;
A dividing unit that divides the input document image into a text area composed of characters and a non-text area other than the text area;
First extraction means for extracting region information indicating which text region each character belongs to for each circumscribed rectangle circumscribing the character included in the text region;
When different region information is extracted from the target text region, the target text region is subdivided so that only the same region information is included in the target text region, and the target text region Correction means for correcting so as to merge the text area from which the same area information is extracted with the text area of interest when the same area information is extracted from adjacent text areas;
Second extraction means for extracting the watermark information embedded for each text region;
An image processing apparatus comprising:
前記第1の埋め込み手段は、前記テキスト領域毎に含まれる各文字を前記領域情報に対応するマスクパターンでマスクすることにより、前記テキスト領域に前記領域情報を埋め込み、また、前記外接矩形間の前後間隔又は前記外接矩形で構成される行間の上下間隔を変更することにより、前記テキスト領域に前記透かし情報を埋め込むことを特徴とする請求項1に記載の画像処理装置。   The first embedding means embeds the area information in the text area by masking each character included in each text area with a mask pattern corresponding to the area information, and before and after the circumscribed rectangle. The image processing apparatus according to claim 1, wherein the watermark information is embedded in the text area by changing an interval or an upper and lower interval between lines constituted by the circumscribed rectangle. 前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する順序を示す順序情報を埋め込む第3の埋め込み手段を更に備え、
前記第1の埋め込み手段は、前記テキスト領域内の外周に位置する文字に前記領域情報を埋め込み、
前記第3の埋め込み手段は、前記テキスト領域内の外周に位置する文字以外の文字に前記順序情報を埋め込むことを特徴とする請求項1に記載の画像処理装置。
A third embedding unit for embedding order information indicating an order of extracting the watermark information embedded for each of the text areas;
The first embedding means embeds the region information in characters located on the outer periphery in the text region,
The image processing apparatus according to claim 1, wherein the third embedding unit embeds the order information in characters other than characters located on an outer periphery in the text area.
前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する順序を示す順序情報を抽出する第3の抽出手段を更に備え、
前記第3の抽出手段は、抽出された前記順序情報に従って、前記テキスト領域毎に埋め込まれた前記透かし情報を抽出することを特徴とする請求項2に記載の画像処理装置。
A third extracting means for extracting order information indicating an order of extracting the watermark information embedded in each text region;
The image processing apparatus according to claim 2, wherein the third extraction unit extracts the watermark information embedded for each of the text regions in accordance with the extracted order information.
文書画像に透かし情報を埋め込む画像処理方法であって、
前記文書画像を入力する入力工程と、
入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割工程と、
前記テキスト領域に含まれる文字に外接する外接矩形を抽出する抽出工程と、
各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合う前記テキスト領域には互いに異なる領域情報を、前記抽出工程で抽出した前記外接矩形に従って、各文字に埋め込む第1の埋め込み工程と、
前記第1の埋め込み工程で前記領域情報が埋め込まれた各テキスト領域に、前記第1の埋め込み工程とは異なる埋め込みアルゴリズムに従って、前記透かし情報を埋め込む第2の埋め込み工程と、
を備えることを特徴とする画像処理方法。
An image processing method for embedding watermark information in a document image,
An input step of inputting the document image;
A division step of dividing the input document image into a text area composed of characters and a non-text area other than the text area;
An extraction step of extracting a circumscribed rectangle circumscribing the characters included in the text region;
A first embedding of information indicating which text area each character belongs to, and embedding different area information in at least the adjacent text areas in each character according to the circumscribed rectangle extracted in the extraction step Process,
A second embedding step of embedding the watermark information in each text region in which the region information is embedded in the first embedding step, according to an embedding algorithm different from the first embedding step;
An image processing method comprising:
透かし情報が埋め込まれた文書画像から前記透かし情報を抽出する画像処理方法であって、
前記文書画像を入力する入力工程と、
入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割工程と、
前記テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する第1の抽出工程と、
注目するテキスト領域から異なる前記領域情報が抽出された場合には、前記注目するテキスト領域に同じ前記領域情報のみを含むように、前記注目するテキスト領域を再分割し、また、前記注目するテキスト領域に隣り合うテキスト領域から同じ前記領域情報が抽出された場合には、前記注目するテキスト領域と同じ前記領域情報が抽出されたテキスト領域とを合併するように訂正する訂正工程と、
前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する第2の抽出工程と、
を備えることを特徴とする画像処理方法。
An image processing method for extracting the watermark information from a document image in which watermark information is embedded,
An input step of inputting the document image;
A division step of dividing the input document image into a text area composed of characters and a non-text area other than the text area;
A first extraction step of extracting region information indicating which text region each character belongs to for each circumscribed rectangle circumscribing a character included in the text region;
When different region information is extracted from the target text region, the target text region is subdivided so that only the same region information is included in the target text region, and the target text region When the same area information is extracted from adjacent text areas, a correction step for correcting the merged text area from which the same text information is extracted as the target text area,
A second extraction step of extracting the watermark information embedded for each text region;
An image processing method comprising:
コンピュータが読み込み実行することで、請求項6又は7に記載の各工程をコンピュータに実行させるコンピュータプログラム。   The computer program which makes a computer perform each process of Claim 6 or 7 when a computer reads and executes. 請求項8に記載のコンピュータプログラムを格納したことを特徴とするコンピュータ可読記憶媒体。   A computer-readable storage medium storing the computer program according to claim 8.
JP2007313945A 2007-12-04 2007-12-04 Apparatus and method of processing image Withdrawn JP2009141525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007313945A JP2009141525A (en) 2007-12-04 2007-12-04 Apparatus and method of processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007313945A JP2009141525A (en) 2007-12-04 2007-12-04 Apparatus and method of processing image

Publications (1)

Publication Number Publication Date
JP2009141525A true JP2009141525A (en) 2009-06-25

Family

ID=40871728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007313945A Withdrawn JP2009141525A (en) 2007-12-04 2007-12-04 Apparatus and method of processing image

Country Status (1)

Country Link
JP (1) JP2009141525A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567938A (en) * 2010-12-23 2012-07-11 北大方正集团有限公司 Watermark image blocking method and device for western language watermark processing
CN115063279A (en) * 2022-03-25 2022-09-16 北京国隐科技有限公司 Method and device for preprocessing text watermark image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567938A (en) * 2010-12-23 2012-07-11 北大方正集团有限公司 Watermark image blocking method and device for western language watermark processing
CN115063279A (en) * 2022-03-25 2022-09-16 北京国隐科技有限公司 Method and device for preprocessing text watermark image
CN115063279B (en) * 2022-03-25 2023-03-14 北京国隐科技有限公司 Method and device for preprocessing text watermark image

Similar Documents

Publication Publication Date Title
JP4310288B2 (en) Image processing apparatus and method, program, and storage medium
JP2006251902A (en) Device, program, and method for generating translation document image
JP2005073015A (en) Device and method for image processing and computer program
JP2006050551A (en) Image processing apparatus, image processing method, program and storage medium
JP2001319240A (en) Device and method for recognizing image, and computer- readable recording medium with image recognizing program recorded thereon
KR100905857B1 (en) Information processing device and method of controlling the same
US8139237B2 (en) Image generating apparatus, image processing apparatus, recording medium and computer readable recording medium
US8493629B2 (en) Image processing apparatus, method, and computer program
US8660357B2 (en) Image processing apparatus, method, and computer program
JP2010056691A (en) Device and method for processing image
JP2009177618A (en) Detecting method and detecting device
JP2009141525A (en) Apparatus and method of processing image
JP4689570B2 (en) Image processing apparatus and image processing method
JP2003046746A (en) Method and apparatus for processing image
JP2006237858A (en) Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium
JP4998176B2 (en) Translation apparatus and program
US8125691B2 (en) Information processing apparatus and method, computer program and computer-readable recording medium for embedding watermark information
JP2006072839A (en) Image processing method, image processing apparatus, image processing program and recording medium
JP4552757B2 (en) Image processing apparatus, image processing method, and image processing program
JP3720748B2 (en) Image processing apparatus, control method therefor, computer program, and recording medium
JP2010009146A (en) Document processing method and document processor
JP2007249580A (en) Image processor, image processing program and image processing method
JP2007096503A (en) Image processing apparatus, image processing method, and image processing program
JP2008098947A (en) Image processor and image processing method
JP5173690B2 (en) Information processing apparatus, information processing method, computer program, and computer-readable recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110301