JP2009141525A - Apparatus and method of processing image - Google Patents
Apparatus and method of processing image Download PDFInfo
- Publication number
- JP2009141525A JP2009141525A JP2007313945A JP2007313945A JP2009141525A JP 2009141525 A JP2009141525 A JP 2009141525A JP 2007313945 A JP2007313945 A JP 2007313945A JP 2007313945 A JP2007313945 A JP 2007313945A JP 2009141525 A JP2009141525 A JP 2009141525A
- Authority
- JP
- Japan
- Prior art keywords
- information
- text
- region
- area
- embedding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、文書画像に情報を埋め込み、また、埋め込まれた情報を抽出する技術に関するものである。 The present invention relates to a technique for embedding information in a document image and extracting the embedded information.
入力された文書画像を、文字で構成されるテキスト領域と、文字以外の図形等で構成される非テキスト領域とに分割する技術がある(特許文献1)。また、テキスト領域に含まれる文字の間隔や大きさ等を変更することによって、文字単位で情報を埋め込む技術がある(特許文献2及び3)。
しかしながら、上述の特許文献2及び3に記載された技術は、文字単位で文字の間隔や大きさ等の特徴量を変更するため、情報を埋め込む際に文字の位置がずれてしまう。このため、情報の埋め込み前後で、文書画像の分割結果が異なることがある。例えば、2つ以上のテキスト領域が1つのテキスト領域として抽出されたり、1つのテキスト領域が複数のテキスト領域として抽出されたりする。このため、分割された領域数と抽出された領域数との間に差が生じてしまうため、埋め込まれた情報を埋め込まれた通りに抽出することが困難となることがあった。
However, since the techniques described in
従って、本発明の目的は、埋め込まれた情報をより正確に抽出可能としながら、テキスト領域に情報を埋め込むことにある。 Accordingly, an object of the present invention is to embed information in a text region while enabling the embedded information to be extracted more accurately.
本発明においては、文書画像に透かし情報を埋め込む画像処理装置であって、前記文書画像を入力する入力手段と、入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割手段と、前記テキスト領域に含まれる文字に外接する外接矩形を抽出する抽出手段と、各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合う前記テキスト領域には互いに異なる領域情報を、前記抽出手段で抽出した前記外接矩形に従って、各文字に埋め込む第1の埋め込み手段と、前記第1の埋め込み手段で前記領域情報が埋め込まれた各テキスト領域に、前記第1の埋め込み手段とは異なる埋め込みアルゴリズムに従って、前記透かし情報を埋め込む第2の埋め込み手段と、を備えることを特徴とする画像処理装置が提供される。 In the present invention, an image processing apparatus for embedding watermark information in a document image, the input means for inputting the document image, a text area composed of characters in the input document image, and other than the text area Information indicating which text area each character belongs to, a dividing unit that divides into non-text areas, an extraction unit that extracts a circumscribed rectangle circumscribing characters included in the text area, and at least adjacent to each other A first embedding unit that embeds different region information in each character in each character according to the circumscribed rectangle extracted by the extracting unit, and each text region in which the region information is embedded by the first embedding unit. And second embedding means for embedding the watermark information in accordance with an embedding algorithm different from that of the first embedding means. The image processing apparatus comprising: a is provided.
また、本発明においては、透かし情報が埋め込まれた文書画像から前記透かし情報を抽出する画像処理装置であって、前記文書画像を入力する入力手段と、入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割手段と、前記テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する第1の抽出手段と、注目するテキスト領域から異なる前記領域情報が抽出された場合には、前記注目するテキスト領域に同じ前記領域情報のみを含むように、前記注目するテキスト領域を再分割し、また、前記注目するテキスト領域に隣り合うテキスト領域から同じ前記領域情報が抽出された場合には、前記注目するテキスト領域と同じ前記領域情報が抽出されたテキスト領域とを合併するように訂正する訂正手段と、前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する第2の抽出手段と、を備えることを特徴とする画像処理装置が提供される。 The present invention is also an image processing apparatus for extracting the watermark information from a document image in which watermark information is embedded, the input means for inputting the document image, and the input document image made up of characters. Area information indicating which text area each character belongs to, for each circumscribed rectangle circumscribing a character included in the text area, and a dividing means for dividing the text area into a non-text area other than the text area When the different region information is extracted from the target text region, the target text region is re-established so that only the same region information is included in the target text region. And when the same area information is extracted from a text area adjacent to the text area of interest, the text area of interest is extracted. Correction means for correcting so as to merge the text area from which the same area information is extracted, and second extraction means for extracting the watermark information embedded for each text area, An image processing apparatus is provided.
また、本発明においては、文書画像に透かし情報を埋め込む画像処理方法であって、前記文書画像を入力する入力工程と、入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割工程と、前記テキスト領域に含まれる文字に外接する外接矩形を抽出する抽出工程と、各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合う前記テキスト領域には互いに異なる領域情報を、前記抽出工程で抽出した前記外接矩形に従って、各文字に埋め込む第1の埋め込み工程と、前記第1の埋め込み工程で前記領域情報が埋め込まれた各テキスト領域に、前記第1の埋め込み工程とは異なる埋め込みアルゴリズムに従って、前記透かし情報を埋め込む第2の埋め込み工程と、を備えることを特徴とする画像処理方法が提供される。 Further, in the present invention, there is provided an image processing method for embedding watermark information in a document image, the input step for inputting the document image, the text region composed of characters in the input document image, and the text region A division step of dividing into a non-text region other than, an extraction step of extracting a circumscribed rectangle circumscribing characters included in the text region, and information indicating which text region each character belongs to, In the adjacent text region, different region information is embedded in each character according to the circumscribed rectangle extracted in the extraction step, and each region information is embedded in the first embedding step. Second embedding the watermark information in a text area according to an embedding algorithm different from the first embedding step Image processing method characterized by comprising: a degree, is provided.
また、本発明においては、透かし情報が埋め込まれた文書画像から前記透かし情報を抽出する画像処理方法であって、前記文書画像を入力する入力工程と、入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割工程と、前記テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する第1の抽出工程と、注目するテキスト領域から異なる前記領域情報が抽出された場合には、前記注目するテキスト領域に同じ前記領域情報のみを含むように、前記注目するテキスト領域を再分割し、また、前記注目するテキスト領域に隣り合うテキスト領域から同じ前記領域情報が抽出された場合には、前記注目するテキスト領域と同じ前記領域情報が抽出されたテキスト領域とを合併するように訂正する訂正工程と、前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する第2の抽出工程と、を備えることを特徴とする画像処理方法が提供される。 Further, in the present invention, there is provided an image processing method for extracting the watermark information from a document image in which watermark information is embedded, the input step for inputting the document image, and the input document image being composed of characters. Area information indicating which text area each character belongs to, for each circumscribed rectangle circumscribing a character included in the text area, and a division step for dividing the text area into a non-text area other than the text area And when the different region information is extracted from the target text region, the target text region is regenerated so that only the same region information is included in the target text region. And when the same area information is extracted from a text area adjacent to the text area of interest, the text area of interest is extracted. And a correction step for correcting so as to merge the text region from which the same region information is extracted, and a second extraction step for extracting the watermark information embedded in each text region, An image processing method is provided.
本発明によれば、埋め込まれた情報をより正確に抽出可能としながら、テキスト領域に情報を埋め込むことができる。 According to the present invention, it is possible to embed information in a text area while allowing the embedded information to be extracted more accurately.
以下、添付図面に従って、本発明の好適な実施形態について、詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<第1の実施形態>
本実施形態では、文書画像100に情報を埋め込む情報埋め込み装置110、及び文書画像100に埋め込まれた情報を抽出する情報抽出装置610の構成と動作手順について、順を追って説明する。なお、文書画像100に埋め込むべき情報を、以下では透かし情報と呼ぶ。
<First Embodiment>
In the present embodiment, the configuration and operation procedure of the
[情報埋め込み装置110の構成]
図1は、本発明の一実施形態に係る情報埋め込み装置110の機能的構成を示すブロック図である。画像入力部101には、透かし情報105を埋め込む対象である文書画像100が入力される。文書画像100は、印刷物をスキャナ等から入力し、それをビットマップ化したものであってよいし、文書編集アプリケーションプログラムを利用して作成された電子データであってもよい。または、記憶媒体に記憶されたアプリケーションプログラム固有の形式、テキスト形式等をはじめとする種々の電子データを画像処理ソフト等によって変換し、ビットマップ化したものであってもよい。
[Configuration of Information Embedding Device 110]
FIG. 1 is a block diagram showing a functional configuration of an
分割部102は、入力された文書画像100を文字で構成されるテキスト領域とテキスト領域以外の領域(すなわち、文字以外の図形や写真等で構成される非テキスト領域)とに分割する。外接矩形抽出部103は、分割部102で分割されたテキスト領域に含まれる文字に外接する外接矩形を抽出する。
The dividing
なお、外接矩形は、本来は、文字認識を行う領域を示すものであるが、電子透かし技術においては、埋め込み操作の対象となる領域を示すものである。すなわち、文書画像100の各画素値を垂直座標軸に対して射影し、空白部分(黒色である文字のない部分)を探索して行を判別して行分割を行う。その後、行単位で文書画像100を水平座標軸に対して射影し、空白部分を探索して文字単位に分割する。これにより、各文字を外接矩形として切り出すことが可能となる。
The circumscribed rectangle originally indicates a region where character recognition is performed. However, in the digital watermark technique, the circumscribed rectangle indicates a region to be embedded. In other words, each pixel value of the
領域情報埋め込み部104は、各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合うテキスト領域には互いに異なる領域情報を、外接矩形抽出部103で抽出した外接矩形に従って、各文字に埋め込む。領域情報埋め込み部104は、第1の埋め込み手段として機能する。
The area
透かし情報埋め込み部106は、領域情報埋め込み部104で領域情報が埋め込まれた各テキスト領域に、領域情報埋め込み部104とは異なる埋め込みアルゴリズムに従って、透かし情報を埋め込み、透かし画像108を生成する。透かし情報埋め込み部106は、第2の埋め込み手段として機能する。画像出力部107は、透かし情報埋め込み部106で生成された透かし画像108を出力する。
The watermark
[情報埋め込み装置110の動作手順]
図2は、情報埋め込み装置110の動作手順を示すフローチャートであり、図3は、ステップS203の詳細な動作手順を示すフローチャートであり、図4は、分割部102での処理の一例を示す図である。また、図5及び図9は、領域情報埋め込み部104での処理の一例を示す図である。
[Operation Procedure of Information Embedding Device 110]
2 is a flowchart showing an operation procedure of the
まず、ステップS200において、透かし情報105の埋め込み対象となる文書画像100が、画像入力部101を介して、分割部102に入力される。
First, in step S <b> 200, the
ステップS201において、分割部102で、入力された文書画像100を複数の領域に分割する。これにより、テキスト領域及び非テキスト領域の外接矩形を抽出する。なお、この抽出手法には、公知の領域抽出技術(例えば、米国特許出願第08/17172号)を用いる。例えば、図4で示すように、文書画像401を複数の領域に分割すると、抽出結果402が得られる。ステップS202において、外接矩形抽出部103で、テキスト領域に含まれる文字の外接矩形が抽出される。ステップS203において、領域情報埋め込み部104で、テキスト領域に含まれる各外接矩形内の文字(又は文字画像)に領域情報を埋め込む。
In step S201, the dividing
ここで、ステップS203の詳細な動作手順について、図3を用いて説明する。まず、ステップS203aで、ステップS201で抽出されたテキスト領域に、ラスター走査の順序に従って、領域情報を割り当てる。領域情報を割り当てる際には、本実施形態では、0〜3の整数のうち、上下又は左右に隣り合う領域の番号が異なり、かつ、最小の番号を選択して割り当てるものとする。
Here, the detailed operation procedure of step S203 is demonstrated using FIG. First, in step S203a, region information is assigned to the text region extracted in step S201 according to the order of raster scanning. When assigning region information, in this embodiment, among the
例えば、図5で示すように、ラスター走査の読み取りが、紙面の左上から右方向に行われ、行の端部に達した際には、次の行に移動し、再び左端から右端に向けて行われるものとする。この場合には、ラスター走査による読み取りが1〜8の順序で行われることとなる。すなわち、ラスター走査の順序1のテキスト領域には、最小の領域情報0が割り当てられ、順序1のテキスト領域に隣り合う順序2のテキスト領域には、順序1のテキスト領域に割り当てられた領域情報0を除く最小の領域情報1が割り当てられる。このような処理を進めていき、順序8のテキスト領域には、上下又は左右に隣り合う順序4、6、及び7のテキスト領域に割り当てられた領域情報3、1、及び2を除く最小の領域情報0が割り当てられる。以上の処理により、隣り合う領域に異なる領域情報を割り当てることができる。なお、ここでは、0から3までの4つの数字を用いた例を示したが、必要に応じて、割り当てる整数の数を調整しても構わない。
For example, as shown in FIG. 5, raster scan reading is performed from the upper left to the right of the page. When the end of the line is reached, the line moves to the next line and again from the left end toward the right end. Shall be done. In this case, reading by raster scanning is performed in the order of 1-8. That is, the
次に、ステップS203bにおいて、文書画像から1つのテキスト領域を選択して、注目領域とする。その後、ステップS203cにおいて、ステップS203aで割り当てられた領域情報を注目領域内の各文字に埋め込む。すなわち、1つのテキスト領域内に含まれる各文字には、同じ領域情報が埋め込まれる。例えば、図9で示すように、文書画像901のテキスト領域にステップ203aで割り当てられた領域情報を埋め込むと、文書画像902となる。なお、領域情報の埋め込みの際には、本実施形態では、予め用意された互いに異なる4種類のマスクパターンの内から領域情報に対応するマスクパターンを選択することにより各外接矩形内の文字を構成して、領域情報を埋め込むこととする。なお、図9では、各外接矩形内に数字を記載することにより領域情報が埋め込まれている状態を模式的に示したが、実際には、文字が微細なマスクパターンで示されることにより領域情報が埋め込まれることとなる。
Next, in step S203b, one text area is selected from the document image and set as the attention area. Thereafter, in step S203c, the area information assigned in step S203a is embedded in each character in the attention area. That is, the same area information is embedded in each character included in one text area. For example, as shown in FIG. 9, when the area information assigned in step 203a is embedded in the text area of the
ステップS203dにおいて、注目領域が文書画像に含まれる最後のテキスト領域であるか否かが判定される。ステップS203で注目領域が最後のテキスト領域ではないと判定された場合には、ステップS203bに戻り、次のテキスト領域を注目領域として選択する。一方、ステップS203で注目領域が最後のテキスト領域であると判定された場合には、ステップS203の処理を終了させる。 In step S203d, it is determined whether or not the attention area is the last text area included in the document image. If it is determined in step S203 that the attention area is not the last text area, the process returns to step S203b to select the next text area as the attention area. On the other hand, if it is determined in step S203 that the attention area is the last text area, the processing in step S203 is terminated.
ここで、再び図2の説明に戻る。上述のように、テキスト領域毎に領域情報を埋め込んだ後、ステップS204において、同様に文書画像から1つのテキスト領域を選択して注目領域とし、この注目領域に透かし情報105を埋め込む。透かし情報105を埋め込む際には、本実施形態では、注目する外接矩形を水平方向にシフトさせて、前後の外接矩形との間隔に大小関係を設けることにより情報を埋め込む技術(文字間透かし)を用いる。
また、透かし情報105を埋め込む順番は、各領域に割り当てられた順番、すなわち、ラスター走査の順番に従うものとする。
Here, it returns to description of FIG. 2 again. As described above, after embedding the area information for each text area, in step S204, similarly, one text area is selected from the document image as an attention area, and the
The order in which the
このようにして、ステップS205において、透かし情報105が埋め込まれた透かし画像108が生成され、本実施形態では、プリンタ等の画像出力部107から紙媒体として出力される。
In this way, in step S205, the
なお、本実施形態では、異なるマスクパターンで各文字をマスクすることによって領域情報を埋め込み、文字間隔を変更することによって透かし情報105を埋め込んだが、この埋め込み方式に限定されるものではない。異なるマスクパターンで各文字をマスクすることによって透かし情報105を埋め込み、外接矩形間の前後間隔を変更することによって、領域情報を埋め込んでも構わない。更に、代替の埋め込み方式として、行間透かし又は地紋透かし等の種々の方式を用いても構わない。ここで、行間透かしとは、外接矩形で構成される行間の上下間隔を変更することにより情報を埋め込む技術であり、地紋透かしとは、レーザプリンタ等で紙に文書を印刷する際、余白領域に微細なドットパターンを描画して情報を埋め込む技術である。
In the present embodiment, the area information is embedded by masking each character with a different mask pattern, and the
また、透かし画像108は、本実施形態では、印刷して紙媒体として出力するものとしたが、記憶装置等に画像データとして記憶してもよい。更に、ネットワークを介して、他の端末等に送信しても構わない。
In this embodiment, the
[情報抽出装置610の構成]
図6は、本発明の一実施形態に係る情報抽出装置610の機能的構成を示すブロック図である。画像入力部600には、情報埋め込み装置110によって生成された透かし画像108が入力される。分割部601は、入力された透かし画像108を文字で構成されるテキスト領域と、テキスト領域以外の非テキスト領域とに分割する。外接矩形抽出部602は、抽出されたテキスト領域内の文字の外接矩形を抽出する。領域情報抽出部603は、テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する。領域情報抽出部603は、第1の抽出手段として機能する。
[Configuration of Information Extraction Device 610]
FIG. 6 is a block diagram illustrating a functional configuration of the
領域訂正部604は、注目するテキスト領域から異なる領域情報が抽出された場合には、注目するテキスト領域に同じ領域情報のみを含むように、注目するテキスト領域を再分割する。また、領域訂正部604は、注目するテキスト領域に隣り合うテキスト領域から同じ領域情報が抽出された場合には、注目するテキスト領域と同じ領域情報が抽出されたテキスト領域とを合併するように訂正する。透かし情報抽出部605は、透かし画像108のテキスト領域毎に埋め込まれた透かし情報606を抽出して出力する。透かし情報抽出部605は、第2の抽出手段として機能する。
When different region information is extracted from the target text region, the
[情報抽出装置610の動作手順]
図7は、情報抽出装置610の動作手順を示すフローチャートであり、図8は、ステップS704の詳細な動作手順を示すフローチャートである。まず、ステップS700において、透かし画像108が画像入力部600を介して、分割部601に入力される。ステップS701において、分割部601で、入力された透かし画像108からテキスト領域及び非テキスト領域を抽出する。
[Operation Procedure of Information Extraction Device 610]
FIG. 7 is a flowchart showing an operation procedure of the
ステップS702において、外接矩形抽出部602で、分割部601で抽出されたテキスト領域に含まれる文字の外接矩形が抽出される。次に、ステップS703において、領域情報抽出部603で各文字に埋め込まれた領域情報が抽出される。
In step S <b> 702, the circumscribed
ステップS704において、領域訂正部604で、抽出された領域情報に基づいて、テキスト領域の抽出結果を訂正する。
In step S704, the
ここで、ステップS704の詳細な動作手順について、図8を用いて説明する。まず、ステップS704aにおいて、透かし画像108内のテキスト領域を選択して、注目領域とする。次に、ステップS704bにおいて、注目領域内の各文字に埋め込まれた領域情報を、マスクパターンを識別することによって抽出する。
Here, the detailed operation procedure of step S704 will be described with reference to FIG. First, in step S704a, a text region in the
ステップS704cにおいて、注目領域内の各外接矩形から抽出された全ての領域情報が同じであるか否かが判定される。ステップS704cで全ての領域情報が同じではないと判定された場合には、ステップS704dにおいて、同じ領域情報を有する外接矩形のみが注目領域に含まれるように、テキスト領域を訂正する。 In step S704c, it is determined whether or not all area information extracted from each circumscribed rectangle in the attention area is the same. If it is determined in step S704c that all area information is not the same, in step S704d, the text area is corrected so that only the circumscribed rectangle having the same area information is included in the attention area.
次に、ステップS704eにおいて、注目領域が透かし画像108に含まれる最後のテキスト領域であるか否かが判定される。ステップS704eにおいて、注目領域が最後のテキスト領域でないと判定された場合には、ステップS704aに戻り、次のテキスト領域を選択して、注目領域とする。
Next, in step S704e, it is determined whether or not the attention area is the last text area included in the
一方、ステップS704eで注目領域が最後のテキスト領域であると判定された場合には、ステップS704fにおいて、再び透かし画像108内のテキスト領域を選択して、注目領域とする。次に、ステップS704gにおいて、注目領域及び隣り合う領域に埋め込まれた領域情報が同じであるか否かが判定される。ステップS704gで注目領域及び隣り合う領域の領域情報が同じであると判定された場合には、ステップS704hにおいて、注目領域と隣り合う領域とを合併する。
On the other hand, if it is determined in step S704e that the attention area is the last text area, in step S704f, the text area in the
次に、ステップS704iにおいて、注目領域が透かし画像108に含まれる最後のテキスト領域であるか否かが判定される。ステップS704iで注目領域が最後のテキスト領域でないと判定された場合には、ステップS704fに戻り、次のテキスト領域を選択して、注目領域とする。ステップS704iで注目領域が最後のテキスト領域であると判定された場合には、ステップS704の一連の処理を終了する。
Next, in step S704i, it is determined whether or not the attention area is the last text area included in the
ここで、再び図7の説明に戻る。ステップS705において、透かし情報抽出部605で、埋め込まれた透かし情報606を外接矩形間の間隔の大小関係を判定することにより抽出する。なお、透かし情報606は、領域訂正部604で訂正されたテキスト領域から抽出される領域情報が示す順序に従って、抽出されるものとする。
Here, it returns to description of FIG. 7 again. In step S705, the watermark
以上述べた通り、本実施形態によれば、隣り合う領域間で異なる領域情報を分割された各領域に含まれる文字にマスクパターンとして埋め込んだため、文字の位置をずらさずに領域情報を埋め込むことができる。一方、テキスト領域の分割が正確に行われなかった場合であっても、各文字に埋め込まれた領域情報に基づいて、その分割結果を訂正することができる。従って、埋め込まれた情報をより正確に抽出可能としながら、テキスト領域に情報を埋め込むことができる。 As described above, according to the present embodiment, since region information different between adjacent regions is embedded as a mask pattern in characters included in each divided region, the region information is embedded without shifting the character position. Can do. On the other hand, even if the text area is not correctly divided, the division result can be corrected based on the area information embedded in each character. Therefore, it is possible to embed information in the text area while making it possible to extract the embedded information more accurately.
なお、本実施形態では、テキスト領域のみに領域情報及び透かし情報を埋め込むこととしたが、非テキスト領域にも領域情報及び透かし情報を埋め込んでも構わない。 In the present embodiment, the area information and the watermark information are embedded only in the text area. However, the area information and the watermark information may be embedded in the non-text area.
<第2の実施形態>
上述の実施形態では、テキスト領域内の全ての文字に領域情報を埋め込んだが、本実施形態では、テキスト領域の外周に位置する文字にだけ領域情報を埋め込む点で異なる。なお、情報埋め込み装置110は、テキスト領域毎に透かし情報を読み込む順序を示す順序情報を埋め込む順序情報埋め込み部を更に備えており、また、情報抽出装置610は、テキスト領域毎に埋め込まれた順序情報を抽出する順序情報抽出部を更に備える。順序情報埋め込み部は、第3の埋め込み手段として機能し、順序情報抽出手段は、第3の抽出手段として機能する。また、動作手順については、ステップS203の動作手順が第1の実施形態から一部変更となるだけであるため、本実施形態では、その変更部分についてのみ説明する。
<Second Embodiment>
In the above-described embodiment, the region information is embedded in all characters in the text region. However, the present embodiment is different in that the region information is embedded only in characters located on the outer periphery of the text region. Note that the
図10は、領域情報の配置状態の一例を示す図であり、図11は、第2の実施形態に係るステップS203の詳細な動作手順を示す図である。まず、ステップS203eにおいて、文書画像100の各テキスト領域に領域情報を割り当てる。次に、ステップS203fにおいて、カウンタIを0に設定する(I=0)。ステップS203gにおいて、文書画像100に含まれる複数のテキスト領域の内から、1つのテキスト領域を選択して、注目領域とする。ステップS203hにおいて、テキスト領域内の外周に位置する文字(すなわち、テキスト領域の外接矩形を構成する文字)に、ステップS203eで割り当てられた領域情報を埋め込む。なお、領域情報を埋め込む際には、本実施形態では、第1の実施形態と同様に、予め用意されたマスクパターンで文字をマスクすることにより埋め込む。
FIG. 10 is a diagram illustrating an example of the arrangement state of the region information, and FIG. 11 is a diagram illustrating a detailed operation procedure of step S203 according to the second embodiment. First, in step S203e, region information is assigned to each text region of the
ステップS203iにおいて、ステップS203hで領域情報を埋め込んだ文字の内側に位置する文字には、カウンタに設定されている情報(以下、カウンタ情報と言う)を埋め込む。ここで、カウンタ情報は、後述するように、埋め込まれた後に毎回インクリメントされるため、透かし情報を抽出する順序を示す情報として機能する。すなわち、テキスト領域1000のように、同じ情報が埋め込まれる場合(領域情報が0、カウンタ情報が0)には、テキスト領域1000が同じマスクパターンでマスクされることになる。一方、テキスト領域1001のように、異なる情報が埋め込まれる場合(領域情報が0、カウンタ情報が2)には、テキスト領域1001が異なるマスクパターンでマスクされることになる。なお、テキスト領域1003のように、注目領域に含まれる文字のうち、テキスト領域の外接矩形を構成する文字の外接矩形の内部にテキスト領域の外接矩形を構成しない文字の外接矩形が無い場合には、カウンタ情報を埋め込まないことにする。
In step S203i, information set in the counter (hereinafter referred to as counter information) is embedded in the character located inside the character in which the area information is embedded in step S203h. Here, as will be described later, the counter information is incremented every time after being embedded, and thus functions as information indicating the order in which the watermark information is extracted. That is, when the same information is embedded as in the text area 1000 (area information is 0, counter information is 0), the
ステップS203jにおいて、注目領域が文書画像100に含まれる最後のテキスト領域であるか否かが判断される。ステップS203jで注目領域が最後のテキスト領域でないと判定された場合には、ステップS203kにおいて、カウンタをインクリメントし(I=I+1)、ステップS203gに戻り、次のテキスト領域を選択して、注目領域とする。一方、ステップS203jで注目領域が最後のテキスト領域であると判定された場合には、ステップS203の一連の処理を終了する。その後の処理(ステップS204及びステップS205)は、第1の実施形態と同様である。
In step S203j, it is determined whether or not the attention area is the last text area included in the
以上述べたとおり、本実施形態によれば、埋め込まれたカウンタ情報に従って、透かし情報をより正確に抽出することができる。 As described above, according to the present embodiment, watermark information can be extracted more accurately according to embedded counter information.
なお、第1の実施形態では、領域情報埋め込み部104で領域情報が埋め込まれた各テキスト領域に、領域情報埋め込み部104とは異なる埋め込みアルゴリズムに従って、透かし情報105を埋め込んだ。一方、本実施形態では、領域情報埋め込み部104で領域情報が埋め込まれた各テキスト領域に、領域情報埋め込み部104及び順序情報埋め込み部(不図示)とは異なる埋め込みアルゴリズムに従って、透かし情報105を埋め込むことになる。
In the first embodiment, the
<第3の実施形態>
上述の各実施形態では、図1で示す情報埋め込み装置110及び図6で示す情報抽出装置610を構成する各部は、ハードウェアで構成されるものとして説明した。しかし、情報埋め込み装置110及び情報抽出装置610を構成する各部のうち、一部又は全部をソフトウェアで実行し、このソフトウェアをコンピュータに実行させることによって、各部の機能を実現させても構わない。
<Third Embodiment>
In each of the above-described embodiments, each unit configuring the
図12は、コンピュータ1201のシステム構成を示す図である。コンピュータ1201は、一般に普及しているパーソナルコンピュータ等の汎用の情報処理装置であり、スキャナや複写機等の画像入力装置1217から読み取られた画像を入力し、編集や保管を行うことが可能である。
FIG. 12 is a diagram illustrating a system configuration of the
また、画像入力装置1217で得られた画像をプリンタ1216や複写機から印刷してもよい。なお、ユーザからの各種指示は、マウス(登録商標)1213やキーボード1214からの入力操作により行われる。コンピュータ1201の内部では、バス1207により後述する各領域が接続され、種々のデータの受け渡しが可能である。なお、コンピュータ1201を適用する装置によっては、図12に示す構成要素の全てが必須なものとは限らないため、適宜省略しても構わない。
Further, an image obtained by the image input device 1217 may be printed from a
CPU1202は、主記憶装置1203にロードされているプログラムやデータを用いて、コンピュータ1201全体を制御すると共に、コンピュータ1201を適用した情報埋め込み装置110及び情報抽出装置610が行う上述の各処理を実行する。
The
主記憶装置1203としては、例えばRAMが挙げられる。主記憶装置1203は、HDD(ハードディスクドライブ)1204、CD−ROMドライブ1209、DVD−ROMドライブ1210、FDD(フロッピー(登録商標)ディスクドライブ)1211からロードされたデータを一時的に記憶するエリアを有する。主記憶装置1203は、画像入力装置1217から、I/F(インターフェース)1215を介して取得した画像データを一時的に記憶するエリアを更に有する。また、主記憶装置1203は、CPU1202が各種の処理を実行する際に用いるワークエリアを更に有する。すなわち、主記憶装置1203は、各種のエリアを適宜提供することが可能である。
An example of the
HDD1204は、OS(オペレーティングシステム)や各種の画像(文書画像を含む)を格納可能である。更に、HDD1204には、コンピュータ1201を適用した情報埋め込み装置110及び情報抽出装置610が行う上述の各処理をCPU1202に実行させるプログラムやデータも格納可能である。HDD1204に格納されているプログラムやデータは、CPU1202による制御に従って、適宜に主記憶装置1203にロードされ、CPU1202による処理対象となる。なお、主記憶装置1203に記憶するものとして説明した情報の幾つかについては、HDD1204に格納するようにしても構わない。
The
ビデオコントローラ1205は、主記憶装置1203やHDD1204等から受けた画像データや文字データのような表示データを信号としてモニタ1206に送信するものである。モニタ1206は、CRTや液晶画面等によって構成されており、ビデオコントローラ1205から受けた信号に基づいた画像や文字等を表示する。
The
I/F1208は、コンピュータ1201にプリンタ1216を接続する。コンピュータ1201は、I/F1208を介して、プリンタ1216に対して印刷データを送信したり、プリンタ1216から送信されるプリンタ1216の状態情報を受信したりする。
The I /
CD−ROMドライブ1209は、記憶媒体としてのCD−ROMに記憶されているプログラムやデータを読み出し、読み出したプログラムやデータをHDD1204や主記憶装置1203に送信する。
The CD-
DVD−ROMドライブ1210は、記憶媒体としてのDVD−ROMに記憶されているプログラムやデータを読み出し、読み出したプログラムやデータをHDD1204や主記憶装置1203に送信する。
The DVD-
FDD1211は、記憶媒体としてのフロッピー(登録商標)ディスクに記憶されているプログラムやデータを読み出し、読み出したプログラムやデータをHDD1204や主記憶装置1203に送出する。
The
マウス(登録商標)1213及びキーボード1214は、ユーザが各種の操作指示を入力する装置として機能する。コンピュータ1201のユーザは、マウス(登録商標)1213やキーボード1214を操作することで、各種の指示をCPU1202に対して入力することができる。例えば、ユーザが選択指示を入力する際には、このマウス(登録商標)1213やキーボード1214を用いる。
A mouse (registered trademark) 1213 and a
I/F1212は、キーボード1214及びマウス(登録商標)1213をバスに接続する。マウス(登録商標)1213やキーボード1214から入力された操作指示は信号としてI/F1212を介してCPU1202に送出される。
The I /
I/F1215は、原稿やフィルム等を読み取ることで画像データを生成する画像入力装置1217をコンピュータ1201に接続するためのものである。画像入力装置1217が生成した画像データは、I/F1215を介して、HDD1204や主記憶装置1203に送出される。
The I /
<その他の実施形態>
なお、本実施形態は、複数の機器(例えば、ホストコンピュータ、インターフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、1つの機器からなる装置(例えば、複写機、複合機、ファクシミリ装置等)に適用してもよい。
<Other embodiments>
Note that the present embodiment can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), and a device (for example, a copier, a multifunction peripheral, The present invention may be applied to a facsimile machine or the like.
また、本発明は、前述した実施形態の機能を実現するソフトウェアのコンピュータプログラムのコードを記憶したコンピュータ可読記憶媒体(又は記録媒体)を、システム又は装置に供給してもよい。また、そのシステム又は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み込み実行することに適用してもよい。この場合、記憶媒体から読み込まれたプログラムコード自体が前述の実施形態の機能を実現することになり、そのプログラムコードを記録した記憶媒体は本実施形態を構成することになる。また、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, the present invention may supply a computer-readable storage medium (or recording medium) that stores a computer program code of software that implements the functions of the above-described embodiments to a system or apparatus. Further, the present invention may be applied to the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium recording the program code constitutes the present embodiment. In addition, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments may be realized by the processing. Needless to say, it is included.
さらに、記憶媒体から読み込まれたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。 Further, the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Then, based on the instruction of the program code, the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. It goes without saying that it is included in the invention.
また、本実施形態を上述のコンピュータ可読記憶媒体に適用する場合、その記憶媒体には、前述のフローチャートや機能構成に対応するコンピュータプログラムのコードが格納されることになる。 When the present embodiment is applied to the above-described computer-readable storage medium, the storage medium stores computer program codes corresponding to the above-described flowcharts and functional configurations.
100 文書画像
101 画像入力部
102 分割部
103 外接矩形抽出部
104 領域情報埋め込み部
105 透かし情報
106 透かし情報埋め込み部
DESCRIPTION OF
Claims (9)
前記文書画像を入力する入力手段と、
入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割手段と、
前記テキスト領域に含まれる文字に外接する外接矩形を抽出する抽出手段と、
各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合う前記テキスト領域には互いに異なる領域情報を、前記抽出手段で抽出した前記外接矩形に従って、各文字に埋め込む第1の埋め込み手段と、
前記第1の埋め込み手段で前記領域情報が埋め込まれた各テキスト領域に、前記第1の埋め込み手段とは異なる埋め込みアルゴリズムに従って、前記透かし情報を埋め込む第2の埋め込み手段と、
を備えることを特徴とする画像処理装置。 An image processing apparatus for embedding watermark information in a document image,
Input means for inputting the document image;
A dividing unit that divides the input document image into a text area composed of characters and a non-text area other than the text area;
Extracting means for extracting a circumscribed rectangle circumscribing characters included in the text area;
A first embedding of information indicating which text area each character belongs to, and embedding different area information in at least the adjacent text area in each character according to the circumscribed rectangle extracted by the extracting means Means,
A second embedding unit that embeds the watermark information in each text region in which the region information is embedded by the first embedding unit, according to an embedding algorithm different from the first embedding unit;
An image processing apparatus comprising:
前記文書画像を入力する入力手段と、
入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割手段と、
前記テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する第1の抽出手段と、
注目するテキスト領域から異なる前記領域情報が抽出された場合には、前記注目するテキスト領域に同じ前記領域情報のみを含むように、前記注目するテキスト領域を再分割し、また、前記注目するテキスト領域に隣り合うテキスト領域から同じ前記領域情報が抽出された場合には、前記注目するテキスト領域と同じ前記領域情報が抽出されたテキスト領域とを合併するように訂正する訂正手段と、
前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する第2の抽出手段と、
を備えることを特徴とする画像処理装置。 An image processing apparatus for extracting the watermark information from a document image in which watermark information is embedded,
Input means for inputting the document image;
A dividing unit that divides the input document image into a text area composed of characters and a non-text area other than the text area;
First extraction means for extracting region information indicating which text region each character belongs to for each circumscribed rectangle circumscribing the character included in the text region;
When different region information is extracted from the target text region, the target text region is subdivided so that only the same region information is included in the target text region, and the target text region Correction means for correcting so as to merge the text area from which the same area information is extracted with the text area of interest when the same area information is extracted from adjacent text areas;
Second extraction means for extracting the watermark information embedded for each text region;
An image processing apparatus comprising:
前記第1の埋め込み手段は、前記テキスト領域内の外周に位置する文字に前記領域情報を埋め込み、
前記第3の埋め込み手段は、前記テキスト領域内の外周に位置する文字以外の文字に前記順序情報を埋め込むことを特徴とする請求項1に記載の画像処理装置。 A third embedding unit for embedding order information indicating an order of extracting the watermark information embedded for each of the text areas;
The first embedding means embeds the region information in characters located on the outer periphery in the text region,
The image processing apparatus according to claim 1, wherein the third embedding unit embeds the order information in characters other than characters located on an outer periphery in the text area.
前記第3の抽出手段は、抽出された前記順序情報に従って、前記テキスト領域毎に埋め込まれた前記透かし情報を抽出することを特徴とする請求項2に記載の画像処理装置。 A third extracting means for extracting order information indicating an order of extracting the watermark information embedded in each text region;
The image processing apparatus according to claim 2, wherein the third extraction unit extracts the watermark information embedded for each of the text regions in accordance with the extracted order information.
前記文書画像を入力する入力工程と、
入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割工程と、
前記テキスト領域に含まれる文字に外接する外接矩形を抽出する抽出工程と、
各文字がいずれのテキスト領域に属するかを示す情報であって、少なくとも隣り合う前記テキスト領域には互いに異なる領域情報を、前記抽出工程で抽出した前記外接矩形に従って、各文字に埋め込む第1の埋め込み工程と、
前記第1の埋め込み工程で前記領域情報が埋め込まれた各テキスト領域に、前記第1の埋め込み工程とは異なる埋め込みアルゴリズムに従って、前記透かし情報を埋め込む第2の埋め込み工程と、
を備えることを特徴とする画像処理方法。 An image processing method for embedding watermark information in a document image,
An input step of inputting the document image;
A division step of dividing the input document image into a text area composed of characters and a non-text area other than the text area;
An extraction step of extracting a circumscribed rectangle circumscribing the characters included in the text region;
A first embedding of information indicating which text area each character belongs to, and embedding different area information in at least the adjacent text areas in each character according to the circumscribed rectangle extracted in the extraction step Process,
A second embedding step of embedding the watermark information in each text region in which the region information is embedded in the first embedding step, according to an embedding algorithm different from the first embedding step;
An image processing method comprising:
前記文書画像を入力する入力工程と、
入力された前記文書画像を文字で構成されるテキスト領域と、前記テキスト領域以外の非テキスト領域とに分割する分割工程と、
前記テキスト領域に含まれる文字に外接する外接矩形毎に、各文字がいずれのテキスト領域に属するかを示す領域情報を抽出する第1の抽出工程と、
注目するテキスト領域から異なる前記領域情報が抽出された場合には、前記注目するテキスト領域に同じ前記領域情報のみを含むように、前記注目するテキスト領域を再分割し、また、前記注目するテキスト領域に隣り合うテキスト領域から同じ前記領域情報が抽出された場合には、前記注目するテキスト領域と同じ前記領域情報が抽出されたテキスト領域とを合併するように訂正する訂正工程と、
前記テキスト領域毎に埋め込まれた前記透かし情報を抽出する第2の抽出工程と、
を備えることを特徴とする画像処理方法。 An image processing method for extracting the watermark information from a document image in which watermark information is embedded,
An input step of inputting the document image;
A division step of dividing the input document image into a text area composed of characters and a non-text area other than the text area;
A first extraction step of extracting region information indicating which text region each character belongs to for each circumscribed rectangle circumscribing a character included in the text region;
When different region information is extracted from the target text region, the target text region is subdivided so that only the same region information is included in the target text region, and the target text region When the same area information is extracted from adjacent text areas, a correction step for correcting the merged text area from which the same text information is extracted as the target text area,
A second extraction step of extracting the watermark information embedded for each text region;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007313945A JP2009141525A (en) | 2007-12-04 | 2007-12-04 | Apparatus and method of processing image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007313945A JP2009141525A (en) | 2007-12-04 | 2007-12-04 | Apparatus and method of processing image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009141525A true JP2009141525A (en) | 2009-06-25 |
Family
ID=40871728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007313945A Withdrawn JP2009141525A (en) | 2007-12-04 | 2007-12-04 | Apparatus and method of processing image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009141525A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102567938A (en) * | 2010-12-23 | 2012-07-11 | 北大方正集团有限公司 | Watermark image blocking method and device for western language watermark processing |
CN115063279A (en) * | 2022-03-25 | 2022-09-16 | 北京国隐科技有限公司 | Method and device for preprocessing text watermark image |
-
2007
- 2007-12-04 JP JP2007313945A patent/JP2009141525A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102567938A (en) * | 2010-12-23 | 2012-07-11 | 北大方正集团有限公司 | Watermark image blocking method and device for western language watermark processing |
CN115063279A (en) * | 2022-03-25 | 2022-09-16 | 北京国隐科技有限公司 | Method and device for preprocessing text watermark image |
CN115063279B (en) * | 2022-03-25 | 2023-03-14 | 北京国隐科技有限公司 | Method and device for preprocessing text watermark image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4310288B2 (en) | Image processing apparatus and method, program, and storage medium | |
JP2006251902A (en) | Device, program, and method for generating translation document image | |
JP2005073015A (en) | Device and method for image processing and computer program | |
JP2006050551A (en) | Image processing apparatus, image processing method, program and storage medium | |
JP2001319240A (en) | Device and method for recognizing image, and computer- readable recording medium with image recognizing program recorded thereon | |
KR100905857B1 (en) | Information processing device and method of controlling the same | |
US8139237B2 (en) | Image generating apparatus, image processing apparatus, recording medium and computer readable recording medium | |
US8493629B2 (en) | Image processing apparatus, method, and computer program | |
US8660357B2 (en) | Image processing apparatus, method, and computer program | |
JP2010056691A (en) | Device and method for processing image | |
JP2009177618A (en) | Detecting method and detecting device | |
JP2009141525A (en) | Apparatus and method of processing image | |
JP4689570B2 (en) | Image processing apparatus and image processing method | |
JP2003046746A (en) | Method and apparatus for processing image | |
JP2006237858A (en) | Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium | |
JP4998176B2 (en) | Translation apparatus and program | |
US8125691B2 (en) | Information processing apparatus and method, computer program and computer-readable recording medium for embedding watermark information | |
JP2006072839A (en) | Image processing method, image processing apparatus, image processing program and recording medium | |
JP4552757B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP3720748B2 (en) | Image processing apparatus, control method therefor, computer program, and recording medium | |
JP2010009146A (en) | Document processing method and document processor | |
JP2007249580A (en) | Image processor, image processing program and image processing method | |
JP2007096503A (en) | Image processing apparatus, image processing method, and image processing program | |
JP2008098947A (en) | Image processor and image processing method | |
JP5173690B2 (en) | Information processing apparatus, information processing method, computer program, and computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110301 |