JP2008085875A - Image processing method, and image processor - Google Patents

Image processing method, and image processor Download PDF

Info

Publication number
JP2008085875A
JP2008085875A JP2006265581A JP2006265581A JP2008085875A JP 2008085875 A JP2008085875 A JP 2008085875A JP 2006265581 A JP2006265581 A JP 2006265581A JP 2006265581 A JP2006265581 A JP 2006265581A JP 2008085875 A JP2008085875 A JP 2008085875A
Authority
JP
Japan
Prior art keywords
information
processing
image
sub
restoration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006265581A
Other languages
Japanese (ja)
Other versions
JP2008085875A5 (en
Inventor
Takashi Yamaguchi
隆 山口
Masaya Tokuda
真哉 徳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006265581A priority Critical patent/JP2008085875A/en
Publication of JP2008085875A publication Critical patent/JP2008085875A/en
Publication of JP2008085875A5 publication Critical patent/JP2008085875A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method and an image processor, wherein since a later restoring processing can be selected by identity information in a digital watermarking, auxiliary information is unwanted, and since the identity information can be restored by the restoring processing of a partial area, an overall processing time can be shortened. <P>SOLUTION: In the image processing method, sub-information is overlapped with main image information in a visible state, whereby the corresponding sub-information is buried in an invisible state to produce composite image information, and afterward the sub-information is restored from the composite image information. As digital watermarking burying information, the identity information which distinguishes the digital watermarking of two types or more and the burying information corresponding to the corresponding identity information are used. Upon a digital watermarking restoration, the identity information is first restored, and the later restoring processing, etc. are switched in response to the restored identity information. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、たとえば、可視状態の主画像情報(人物の顔画像など)に対して別の付加的な副情報(セキュリティ情報など)を不可視状態で埋め込み合成して合成画像情報を作成し、後でその合成画像情報から副情報を復元するための画像処理方法および画像処理装置に関する。   The present invention, for example, creates composite image information by embedding and synthesizing additional additional sub information (security information, etc.) in the invisible state with respect to the main image information (such as a human face image) in the visible state. The present invention relates to an image processing method and an image processing apparatus for restoring sub-information from the composite image information.

最近、情報の電子化やインターネットの普及に伴って、画像の偽造や変造防止のために電子透かし、電子署名などの技術が重要視されるようになってきている。特に、主画像情報に付加的な副情報を不可視状態で埋め込む電子透かし技術は、IDカードや著作権情報を埋め込んだ写真に対する不正コピー、偽造、改ざん対策として提案されている。
たとえば、主画像情報に色差情報を利用して副情報を重畳処理することにより当該副情報の埋め込みを行なう電子透かし方法が公知である(たとえば、特許文献1、特許文献2参照)。
特開2001−268346号公報 特開2005−184603号公報
Recently, with the digitization of information and the spread of the Internet, techniques such as digital watermarks and digital signatures have come to be regarded as important in order to prevent forgery and alteration of images. In particular, a digital watermark technique for embedding additional sub information in the main image information in an invisible state has been proposed as a measure against illegal copying, forgery, and falsification of a photo in which an ID card or copyright information is embedded.
For example, a digital watermark method for embedding the sub information by superimposing the sub information using color difference information in the main image information is known (see, for example, Patent Document 1 and Patent Document 2).
JP 2001-268346 A JP 2005-184603 A

電子透かしのセキュリティ性を高めるために、電子透かしシステム運用期間に応じて機能性を高めていくと、今度は電子透かしの復元処理等の互換性を保つことが困難になるため、それぞれの拡張機能に応じた復元処理を行なう必要が生じる。   In order to improve the security of the digital watermark, if the functionality is increased according to the operation period of the digital watermark system, it will be difficult to maintain compatibility such as the restoration process of the digital watermark. It is necessary to perform a restoration process according to the above.

通常状態では、電子透かしは人間の肉眼で不可視状態なので、復元時にどのような復元処理を用いるかを決定するには、電子透かし以外の補助情報が必要になる。   In the normal state, since the digital watermark is invisible to the human eye, auxiliary information other than the digital watermark is required to determine what type of restoration processing is used during restoration.

そこで、本発明は、電子透かし内の識別情報で後の復元処理を選択することが可能になるため補助情報は不要となり、かつ、識別情報は部分的な領域の復元処理で復元可能なため全体の処理時間の短縮が可能になる画像処理方法および画像処理装置を提供することを目的とする。   Therefore, the present invention makes it possible to select a later restoration process using the identification information in the digital watermark, so that auxiliary information is not necessary, and the identification information can be restored by a partial area restoration process. An object of the present invention is to provide an image processing method and an image processing apparatus capable of shortening the processing time.

本発明の画像処理方法は、可視状態の主画像情報に対して不可視状態で副情報を埋め込むことによって合成画像情報を作成する第1の画像処理方法、および、この第1の画像処理方法により作成された合成画像情報を取得して、その取得した合成画像情報から前記副情報を復元する第2の画像処理方法から構成される画像処理方法において、前記第1の画像処理方法は、副情報を復元する際に用いる鍵情報および複数の異なる種別の中の1つである副情報および当該副情報の種別を示す識別情報を基に埋め込み情報を作成する埋め込み情報作成ステップと、主画像情報に対して前記埋め込み情報作成ステップにより作成された埋め込み情報を不可視状態で埋め込んで合成画像情報を作成する合成画像作成ステップとを具備し、前記第2の画像処理方法は、前記第1の画像処理方法により作成された合成画像情報を取込む画像情報取込ステップと、この画像情報取込ステップにより取込まれた合成画像情報から前記識別情報を復元する第1の復元処理ステップと、この第1の復元処理ステップにより復元された識別情報を基に前記副情報を復元するための処理方法を選択する復元処理選択ステップと、この復元処理選択ステップにより選択された処理方法により復元処理を行ない、前記副情報を復元する第2の復元処理ステップと、この第2の復元処理ステップの処理結果を出力する出力処理ステップとを具備している。   An image processing method according to the present invention includes a first image processing method for creating composite image information by embedding sub-information in an invisible state with respect to main image information in a visible state, and the first image processing method. In the image processing method comprising the second image processing method for acquiring the combined image information obtained and restoring the sub information from the acquired composite image information, the first image processing method includes sub information An embedding information creating step for creating embedding information based on key information used for restoration, sub-information that is one of a plurality of different types, and identification information indicating the type of the sub-information, and main image information A composite image creating step for creating composite image information by embedding the embedded information created by the embedded information creating step in an invisible state, and the second image The processing method includes: an image information capturing step for capturing the composite image information created by the first image processing method; and a method for restoring the identification information from the composite image information captured by the image information capturing step. 1 restoration processing step, a restoration processing selection step for selecting a processing method for restoring the sub-information based on the identification information restored in the first restoration processing step, and a restoration processing selection step. And a second restoration processing step for restoring the sub information, and an output processing step for outputting a processing result of the second restoration processing step.

また、本発明の画像処理方法は、可視状態の主画像情報に対して不可視状態で副情報を埋め込むことによって合成画像情報を作成する第1の画像処理方法、および、この第1の画像処理方法により作成された合成画像情報を取得して、その取得した合成画像情報から前記副情報を復元する第2の画像処理方法から構成される画像処理方法において、前記第1の画像処理方法は、副情報を復元する際に用いる鍵情報および複数の異なる種別の中の1つである副情報および当該副情報の種別を示す識別情報を基に埋め込み情報を作成する埋め込み情報作成ステップと、前記識別情報を基にあらかじめ定められた複数の埋め込み処理方法の中から1つの処理方法を選択する埋め込み処理選択処理ステップと、この埋め込み処理選択処理ステップにより選択された処理方法により、主画像情報に対して前記埋め込み情報作成ステップにより作成された埋め込み情報を不可視状態で埋め込んで合成画像情報を作成する合成画像作成ステップとを具備し、前記第2の画像処理方法は、前記第1の画像処理方法により作成された合成画像情報を取込む画像情報取込ステップと、この画像情報取込ステップにより取込まれた合成画像情報から前記識別情報を復元する第1の復元処理ステップと、この第1の復元処理ステップにより復元された識別情報を基に前記副情報を復元するための処理方法を選択する復元処理選択ステップと、この復元処理選択ステップにより選択された処理方法により復元処理を行ない、前記副情報を復元する第2の復元処理ステップと、この第2の復元処理ステップの処理結果を出力する出力処理ステップとを具備している。   In addition, the image processing method of the present invention includes a first image processing method for creating composite image information by embedding sub-information in an invisible state with respect to main image information in a visible state, and the first image processing method. In the image processing method including the second image processing method for acquiring the composite image information created by the above-described method and restoring the sub information from the acquired composite image information, the first image processing method includes: An embedded information creating step for creating embedded information based on key information used when restoring information, sub-information which is one of a plurality of different types, and identification information indicating the type of the sub-information, and the identification information An embedding process selection processing step for selecting one processing method from a plurality of embedding processing methods determined in advance, and the embedding process selection processing step. A composite image creation step of creating composite image information by embedding the embedded information created by the embedded information creation step in the invisible state with respect to the main image information by the selected processing method, and the second image The processing method includes: an image information capturing step for capturing the composite image information created by the first image processing method; and a method for restoring the identification information from the composite image information captured by the image information capturing step. 1 restoration processing step, a restoration processing selection step for selecting a processing method for restoring the sub-information based on the identification information restored in the first restoration processing step, and a restoration processing selection step. A second restoration processing step of restoring the sub-information by performing the restoration processing according to the processing method, and the processing of the second restoration processing step And and an output processing step of outputting a result.

また、本発明の画像処理装置は、可視状態の主画像情報に対して不可視状態で副情報を埋め込むことによって合成画像情報を作成する第1の画像処理手段、および、この第1の画像処理手段により作成された合成画像情報を取得して、その取得した合成画像情報から前記副情報を復元する第2の画像処理手段から構成される画像処理装置において、前記第1の画像処理手段は、副情報を復元する際に用いる鍵情報および複数の異なる種別の中の1つである副情報および当該副情報の種別を示す識別情報を基に埋め込み情報を作成する埋め込み情報作成手段と、主画像情報に対して前記埋め込み情報作成手段により作成された埋め込み情報を不可視状態で埋め込んで合成画像情報を作成する合成画像作成手段とを具備し、前記第2の画像処理手段は、前記第1の画像処理手段により作成された合成画像情報を取込む画像情報取込手段と、この画像情報取込手段により取込まれた合成画像情報から前記識別情報を復元する第1の復元処理手段と、この第1の復元処理手段により復元された識別情報を基に前記副情報を復元するための処理方法を選択する復元処理選択手段と、この復元処理選択手段により選択された処理方法により復元処理を行ない、前記副情報を復元する第2の復元処理手段と、この第2の復元処理手段の処理結果を出力する出力処理手段とを具備している。   Further, the image processing apparatus of the present invention includes a first image processing unit that creates composite image information by embedding sub-information in an invisible state with respect to a main image information in a visible state, and the first image processing unit. In the image processing apparatus including the second image processing unit that acquires the composite image information created by the above-described method and restores the sub information from the acquired composite image information, the first image processing unit includes: Embedding information creating means for creating embedding information based on key information used when restoring information, sub-information which is one of a plurality of different types, and identification information indicating the type of the sub-information, and main image information The second image processing means, comprising: composite image creating means for creating composite image information by embedding the embedded information created by the embedded information creating means in an invisible state. The image information capturing means for capturing the composite image information created by the first image processing means, and the first information for restoring the identification information from the composite image information captured by the image information capturing means. A restoration processing means, a restoration processing selection means for selecting a processing method for restoring the sub-information based on the identification information restored by the first restoration processing means, and a process selected by the restoration processing selection means There is provided a second restoration processing means for performing restoration processing by the method and restoring the sub information, and an output processing means for outputting a processing result of the second restoration processing means.

さらに、本発明の画像処理装置は、可視状態の主画像情報に対して不可視状態で副情報を埋め込むことによって合成画像情報を作成する第1の画像処理手段、および、この第1の画像処理手段により作成された合成画像情報を取得して、その取得した合成画像情報から前記副情報を復元する第2の画像処理手段から構成される画像処理装置において、前記第1の画像処理手段は、副情報を復元する際に用いる鍵情報および複数の異なる種別の中の1つである副情報および当該副情報の種別を示す識別情報を基に埋め込み情報を作成する埋め込み情報作成手段と、前記識別情報を基にあらかじめ定められた複数の埋め込み処理方法の中から1つの処理方法を選択する埋め込み処理選択処理手段と、この埋め込み処理選択処理手段により選択された処理方法により、主画像情報に対して前記埋め込み情報作成手段により作成された埋め込み情報を不可視状態で埋め込んで合成画像情報を作成する合成画像作成手段とを具備し、前記第2の画像処理手段は、前記第1の画像処理手段により作成された合成画像情報を取込む画像情報取込手段と、この画像情報取込手段により取込まれた合成画像情報から前記識別情報を復元する第1の復元処理手段と、この第1の復元処理手段により復元された識別情報を基に前記副情報を復元するための処理方法を選択する復元処理選択手段と、この復元処理選択手段により選択された処理方法により復元処理を行ない、前記副情報を復元する第2の復元処理手段と、この第2の復元処理手段の処理結果を出力する出力処理手段とを具備している。   Furthermore, the image processing apparatus according to the present invention includes a first image processing unit that creates composite image information by embedding the sub information in an invisible state with respect to the main image information in the visible state, and the first image processing unit. In the image processing apparatus including the second image processing unit that acquires the composite image information created by the above-described method and restores the sub information from the acquired composite image information, the first image processing unit includes: Embedded information creating means for creating embedded information based on key information used when restoring information, sub-information that is one of a plurality of different types, and identification information indicating the type of the sub-information, and the identification information An embedding process selection processing means for selecting one processing method from a plurality of embedding processing methods determined in advance, and the embedding process selection processing means. The second image processing means includes a composite image creating means for creating composite image information by embedding the embedded information created by the embedded information creating means in an invisible state with respect to the main image information by a processing method. Image information capturing means for capturing the composite image information created by the first image processing means, and first restoration for recovering the identification information from the composite image information captured by the image information capturing means Processing means, restoration processing selection means for selecting a processing method for restoring the sub-information based on the identification information restored by the first restoration processing means, and a processing method selected by the restoration processing selection means And a second restoration processing means for restoring the sub information and an output processing means for outputting a processing result of the second restoration processing means.

本発明によれば、電子透かし内の識別情報で後の復元処理を選択することが可能になるため補助情報は不要となり、かつ、識別情報は部分的な領域の復元処理で復元可能なため全体の処理時間の短縮が可能になる画像処理方法および画像処理装置を提供できる。   According to the present invention, since it is possible to select a later restoration process using the identification information in the digital watermark, the auxiliary information is unnecessary, and the identification information can be restored by the partial area restoration process. It is possible to provide an image processing method and an image processing apparatus that can reduce the processing time.

以下、本発明の実施の形態について図面を参照して説明する。
なお、以下の説明では、たとえば、IDカードの個人認証用顔画像の処理に適用した場合について説明するが、本発明はこれに限定されるものではなく、他の画像の処理にも同様に適用可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following description, for example, a case where it is applied to processing of a face image for personal authentication of an ID card will be described. However, the present invention is not limited to this, and is similarly applied to processing of other images. Is possible.

まず、第1の実施の形態について説明する。
第1の実施の形態に係る画像処理装置(画像処理方法)は、図1に示す第1の画像処理手段(第1の画像処理方法)、および、図2に示す第2の画像処理手段(第2の画像処理方法)から構成される。
First, the first embodiment will be described.
The image processing apparatus (image processing method) according to the first embodiment includes a first image processing means (first image processing method) shown in FIG. 1 and a second image processing means (first image processing means) shown in FIG. Second image processing method).

図1は、第1の実施の形態に係る第1の画像処理手段としての埋め込み処理系の構成を概略的に示すものである。この埋め込み処理系は、肉眼で可視状態の主画像情報(顔画像)に副情報(セキュリティ情報など)を不可視状態で埋め込んで合成画像情報を作成する、いわゆる電子透かし埋め込み処理を行なうもので、後で詳細を述べる領域情報が格納されている領域情報格納部106、副情報を復元する際に用いる鍵情報および複数の異なる種別の中の1つである副情報および当該副情報の種別を示す識別情報を基に埋め込み情報を作成する埋め込み情報作成手段としての埋め込み情報作成部108、主画像情報に対して埋め込み情報作成部108により作成された埋め込み情報を不可視状態で埋め込んで合成画像情報を作成する合成画像作成手段としての合成画像作成部109、および、合成画像作成部109により作成された合成画像情報を記録媒体の記録面上に可視状態で記録(印刷)する記録手段としての記録部110によって構成されている。   FIG. 1 schematically shows a configuration of an embedding processing system as a first image processing means according to the first embodiment. This embedding processing system performs so-called digital watermark embedding processing that creates composite image information by embedding sub-information (security information, etc.) in the invisible state in the main image information (face image) that is visible to the naked eye. The area information storage unit 106 in which area information to be described in detail is stored, the key information used when restoring the sub information, the sub information which is one of a plurality of different types, and the identification indicating the type of the sub information An embedded information creating unit 108 as an embedded information creating unit that creates embedded information based on information, and creates embedded image information by embedding the embedded information created by the embedded information creating unit 108 into the main image information in an invisible state. A composite image creation unit 109 as a composite image creation unit, and the composite image information created by the composite image creation unit 109 Is configured of a recording surface by the recording section 110 as a recording means for recording (printing) in a visible state.

以下、このような構成において処理の流れについて説明する。
入力情報として、主画像情報101、識別情報102、副情報(電子透かし情報)103、第1の鍵情報104、第2の鍵情報105がある。主画像情報101は例えば個人認証用の顔画像、識別情報102は副情報の種別を示す情報、副情報103は主画像情報101のセキュリティ性を高める情報または真偽判定に用いる情報、さらには著作権管理に用いる情報など、第1、第2の鍵情報104,105は電子透かしとして埋め込んだ副情報102を後で取出して復元するときに用いる鍵となる電子透かしとして埋め込んだ副情報を後で取出すときの鍵となる情報で、第1の鍵情報104は副情報の復元用、第2の鍵情報105は識別情報の復元用である。
Hereinafter, the flow of processing in such a configuration will be described.
The input information includes main image information 101, identification information 102, sub information (digital watermark information) 103, first key information 104, and second key information 105. The main image information 101 is, for example, a face image for personal authentication, the identification information 102 is information indicating the type of sub information, the sub information 103 is information for improving the security of the main image information 101 or information used for authenticity determination, The first and second key information 104 and 105, such as information used for right management, will later be stored as sub information embedded as a digital watermark that will be used when the sub information 102 embedded as a digital watermark is later retrieved and restored. The first key information 104 is used for restoring sub-information, and the second key information 105 is used for restoring identification information.

まず、埋め込み情報作成部108は、識別情報102、副情報103、第1の鍵情報104、第2の鍵情報105、および領域情報格納部106内の領域情報を入力として埋め込み情報を作成する。このとき、領域情報格納部106内の領域情報を用いることにより、識別情報102および副情報103の埋め込み情報内でのレイアウト等を決定する。   First, the embedding information creation unit 108 creates embedding information using the identification information 102, the sub information 103, the first key information 104, the second key information 105, and the region information in the region information storage unit 106 as inputs. At this time, by using the region information in the region information storage unit 106, the layout or the like in the embedded information of the identification information 102 and the sub information 103 is determined.

次に、合成画像作成部109は、主画像情報101および埋め込み情報作成部108により作成された埋め込み情報を入力として合成画像情報を作成する。ここでは、主画像情報101に対して埋め込み情報作成部108により作成された埋め込み情報を重畳処理することにより合成画像情報を作成する。この合成画像情報が電子透かし情報が不可視状態で埋め込まれた画像情報である。   Next, the composite image creation unit 109 creates composite image information using the main image information 101 and the embedded information created by the embedded information creation unit 108 as inputs. Here, the composite image information is created by superimposing the embedded information created by the embedded information creation unit 108 on the main image information 101. This composite image information is image information in which digital watermark information is embedded in an invisible state.

次に、記録部110は、合成画像作成部109により作成された合成画像情報を可視画像として記録媒体に記録処理することにより、記録された合成画像情報(記録物)107が作成される。この場合の記録物とは例えば社員証等のIDカードを示す。
以降、上述した図1の副情報の埋め込み処理を電子透かし埋め込み処理と呼ぶ。
Next, the recording unit 110 records the composite image information created by the composite image creation unit 109 on a recording medium as a visible image, thereby creating recorded composite image information (recorded material) 107. The recorded material in this case indicates an ID card such as an employee ID card.
Hereinafter, the sub information embedding process in FIG. 1 is referred to as a digital watermark embedding process.

図2は、第1の実施の形態に係る第2の画像処理手段としての復元処理系の構成を概略的に示すものである。この復元処理系は、図1の電子透かし埋め込み処理系で作成された記録物107から副情報103を復元する、いわゆる電子透かし復元処理を行なうもので、記録物107に記録されている合成画像情報を取込み、デジタルの画像情報に変換する画像情報取込手段としての画像情報入力部201、画像情報入力部201により取込まれた合成画像情報から識別情報102を復元する第1の復元処理手段としての第1の復元処理部202、識別情報と復元処理方法とを関連づけた情報が格納されている復元処理テーブル203、第1の復元処理部202により復元された識別情報を基に副情報103を復元するための処理方法を選択する復元処理選択手段としての復元処理選択部204、復元処理選択部204により選択された復元処理方法により復元処理を行ない副情報103を復元する第2の復元処理手段としての第2の復元処理部205、第2の復元処理部205の処理結果を出力する出力処理手段としての結果表示部206によって構成されている。   FIG. 2 schematically shows a configuration of a restoration processing system as the second image processing means according to the first embodiment. This restoration processing system performs a so-called digital watermark restoration process for restoring the sub-information 103 from the recorded material 107 created by the digital watermark embedding processing system of FIG. 1, and the composite image information recorded in the recorded material 107. As an image information input unit 201 serving as an image information capturing unit that captures and converts to digital image information, as a first restoration processing unit that restores the identification information 102 from the composite image information captured by the image information input unit 201 The first restoration processing unit 202, the restoration processing table 203 in which the information relating the identification information and the restoration processing method is stored, and the sub information 103 based on the identification information restored by the first restoration processing unit 202. The restoration process selection unit 204 as restoration process selection means for selecting a processing method for restoration, and the restoration process method selected by the restoration process selection unit 204 The second restoration processing unit 205 as the second restoration processing unit that performs restoration processing and restores the sub information 103, and the result display unit 206 as the output processing unit that outputs the processing result of the second restoration processing unit 205 It is configured.

以下、このような構成において処理の流れについて説明する。
まず、画像情報入力部201は、記録物107に記録されている合成画像情報を光学的に読取り、デジタルの画像情報として入力する。次に、第1の復元処理部202は、入力された合成画像情報から不可視状態で埋め込まれている埋め込み情報内の識別情報のみを復元する。
Hereinafter, the flow of processing in such a configuration will be described.
First, the image information input unit 201 optically reads the composite image information recorded on the recorded material 107 and inputs it as digital image information. Next, the first restoration processing unit 202 restores only the identification information in the embedded information embedded in an invisible state from the input composite image information.

次に、復元処理選択部204は、第1の復元処理部202で復元された識別情報および識別情報と復元処理方法とを関連づけた情報が格納された復元処理テーブル203内の情報を基に埋め込まれている副情報の種類を特定することで、対応する復元処理方法を選択する。   Next, the restoration processing selection unit 204 embeds the identification information restored by the first restoration processing unit 202 and information stored in the restoration processing table 203 in which information relating the identification information and the restoration processing method is stored. The corresponding restoration processing method is selected by specifying the type of the sub information.

次に、第2の復元処理部205は、復元処理選択部204で選択された復元処理方法により復元処理を行ない、最初に取り込んだ合成画像情報から副情報103を復元する。最後に、結果表示処理部206は、第1の復元処理部202の復元処理結果を表示する。   Next, the second restoration processing unit 205 performs restoration processing by the restoration processing method selected by the restoration processing selection unit 204, and restores the sub information 103 from the composite image information captured first. Finally, the result display processing unit 206 displays the restoration processing result of the first restoration processing unit 202.

以降、上述した図2の副情報の復元処理を電子透かし復元処理と呼ぶ。   Hereinafter, the above-described restoration process of the sub information in FIG. 2 is referred to as a digital watermark restoration process.

図3は、作成されたIDカード301(記録物107に相当)の具体例を示している。IDカード301には、持ち主の個人認証用顔画像302が記録されているが、この顔画像302は図1で説明した処理によって作成され記録されたものである。また、識別番号(いわゆるID番号)、氏名、生年月日、有効期限などの個人管理情報303が記録されている。これらの個人管理情報303を、図1の電子透かし埋め込み処理における副情報103として用いることにより、IDカード301の認証用顔画像302と個人管理情報303とが関連付けられるため、IDカード301の一部を改ざんしたり、偽造したりすることが困難になり、セキュリティ性を高めることが可能になる。   FIG. 3 shows a specific example of the created ID card 301 (corresponding to the recorded material 107). The face card 302 for personal authentication of the owner is recorded on the ID card 301. The face image 302 is created and recorded by the process described with reference to FIG. In addition, personal management information 303 such as an identification number (so-called ID number), name, date of birth, and expiration date is recorded. By using these personal management information 303 as the sub-information 103 in the digital watermark embedding process of FIG. 1, the authentication face image 302 of the ID card 301 and the personal management information 303 are associated with each other. It becomes difficult to falsify or counterfeit and improve security.

図4は、重畳処理を利用した電子透かし埋め込み処理の例を示している。本実施の形態では、たとえば、特開2005−184603号公報等に記述されている色差および重畳処理を用いた電子透かし処理方法が適用できる。詳細については上記文献の記述内容を参照していただき、ここでは簡単な原理のみについて説明する。   FIG. 4 shows an example of digital watermark embedding processing using superimposition processing. In the present embodiment, for example, a digital watermark processing method using color difference and superimposition processing described in JP-A-2005-184603 can be applied. For details, please refer to the description in the above document, and only a simple principle will be described here.

最初に色差変調処理について説明する。
図1における第1の鍵情報104を下記式(A−1)〜(A−6)にしたがい色差変調処理することにより埋め込み情報を作成する。
KEY(x,y)=白画素の場合 → EMD(x,y)−R
+△CD−R……(A−1)
EMD(x,y)−G
−△CD−G……(A−2)
EMD(x,y)−B
−△CD−B……(A−3)
KEY(x,y)=黒画素の場合 → EMD(x,y)−R
−△CD−R……(A−4)
EMD(x,y)−G
+△CD−G……(A−5)
EMD(x,y)−B
+△CD−B……(A−6)
KEY(x,y):第1の鍵情報
EMD(x,y):埋め込み情報(色差変調処理結果)
ΔCD :色差量
色差変調処理の結果、鍵情報が白画素に対応している部分はレッド成分リッチ(R−rich)になり、黒画素に対応している部分はシアン成分リッチ(C−rich)になる。レッドとシアンは物理補色の関係にあるために、両者を足し合わせると無彩色になる。したがって、この画素ピッチを人間の肉眼の感知範囲を超えた高解像度(約300dpi以上)に設定することにより、色差変調処理結果である埋め込み情報は肉眼ではレッドとシアンが識別できず無彩色(灰色)となる。この性質を利用することにより、鍵情報のパターンを見かけ上無彩色情報に置き換えることができる。
First, the color difference modulation process will be described.
Embedded information is created by subjecting the first key information 104 in FIG. 1 to color difference modulation processing according to the following formulas (A-1) to (A-6).
When KEY (x, y) = white pixel → EMD (x, y) −R =
+ ΔCD- R (A-1)
EMD (x, y) −G =
-△ CD -G (A-2)
EMD (x, y) −B =
-ΔCD -B (A-3)
When KEY (x, y) = black pixel → EMD (x, y) −R =
-△ CD -R (A-4)
EMD (x, y) −G =
+ ΔCD -G (A-5)
EMD (x, y) −B =
+ ΔCD -B (A-6)
KEY (x, y): First key information
EMD (x, y): embedded information (color difference modulation processing result)
ΔCD: Color difference amount As a result of the color difference modulation processing, the portion corresponding to the white pixel in the key information is red component rich (R-rich), and the portion corresponding to the black pixel is cyan component rich (C-rich). become. Since red and cyan are in a relationship of physical complementary colors, adding them together results in an achromatic color. Therefore, by setting this pixel pitch to a high resolution (about 300 dpi or more) that exceeds the perceived range of the human naked eye, the embedded information that is the color difference modulation processing result cannot be distinguished from red and cyan by the naked eye, and is achromatic (gray) ) By utilizing this property, the key information pattern can be apparently replaced with achromatic information.

なお、上記式では鍵情報が白画素の場合にシアン成分リッチに、黒画素の場合にレッド成分リッチになるように色差変調を行なっているが、この関係は相対的なので、シアン成分リッチとレッド成分リッチが逆になっても原理上差し支えない。   In the above equation, the color difference modulation is performed so that the key information is rich in the cyan component when the pixel is white, and the red component is rich when the key information is black, but since this relationship is relative, the cyan component rich and red Even if the component rich is reversed, there is no problem in principle.

次に、重畳処理について説明する。
重畳処理は、画像の座標(x,y)における主画像情報、重畳用の埋め込み情報、合成画像情報を下記のように定義すると、
主画像情報 :SRC−C(x,y)……図4(a)に相当……(B−1)
埋め込み情報:EMD−C(x,y)……図4(b)に相当……(B−2)
合成画像情報:DES−C(x,y)……図4(c)に相当……(B−3)
x,yは画像の座標値(座標サイズは全て同じものとする)
C={R(赤)、G(緑)、B(青)}プレーンを示す
それぞれの値は24ビットカラー演算の場合は、0〜255の整数値
次式で表される。
Next, the superimposition process will be described.
The superimposition process defines the main image information, the embedding information for superimposition, and the composite image information at the coordinates (x, y) of the image as follows:
Main image information: SRC- C (x, y): equivalent to FIG. 4A (B-1)
Embedding information: EMD- C (x, y) ... corresponds to FIG. 4 (b) ... (B-2)
Composite image information: DES- C (x, y) ... corresponding to FIG. 4C (B-3)
x and y are coordinate values of the image (the coordinate sizes are all the same)
C = {R (red), G (green), B (blue)} plane
Each value is an integer value between 0 and 255 for 24-bit color operations.
It is expressed by the following formula.

DES−R(x,y)=SRC−R(x,y)+EMD−R(x,y)……(C−1)
DES−G(x,y)=SRC−G(x,y)+EMD−G(x,y)……(C−2)
DES−B(x,y)=SRC−B(x,y)+EMD−B(x,y)……(C−3)
この方式では、
(1)人間の視覚特性を利用
・画像の周波数が高くなるほど階調識別能力が低下
・輝度情報よりも色差情報の方が判別困難
(2)補色の関係例……赤色+シアン色=無彩色(白) (加法混色の場合)
(3)高周波キャリアパターン画像に補色の関係および色差情報を適用(色差変調処
理)
を用いることにより、画質劣化を招くことなく、主画像情報に副情報を不可視状態で埋め込むことが可能になっている。
DES- R (x, y) = SRC- R (x, y) + EMD- R (x, y) (C-1)
DES- G (x, y) = SRC- G (x, y) + EMD- G (x, y) (C-2)
DES- B (x, y) = SRC- B (x, y) + EMD- B (x, y) (C-3)
In this method,
(1) Utilizing human visual characteristics
・ The gradation discrimination ability decreases as the frequency of the image increases.
-Color difference information is more difficult to distinguish than luminance information
(2) Example of complementary colors: Red + cyan = achromatic (white) (in case of additive color mixture)
(3) Applying complementary color relationship and color difference information to the high frequency carrier pattern image (color difference modulation processing)
Reason)
By using the sub information, it is possible to embed the sub information in the main image information in an invisible state without causing image quality deterioration.

上記(2)の例でいえば、赤色とシアン色(=緑色+青色)は、加法混色の場合、補色の関係にあり、赤色とシアン色が隣り合っていても人間の目には判別しにくく無彩色に見える。   In the example of (2) above, red and cyan (= green + blue) are complementary colors in the case of additive color mixing, and even if red and cyan are adjacent to each other, they are not recognized by human eyes. It looks difficult and achromatic.

上記(3)のように、高周波キャリアパターン画像を用いることで、赤色リッチな画素とシアン色リッチな画素が繰り返し配置されているため、人間の目ではこれらの細かな色差の違いを識別できず、色差量はプラスマイナス「0」と判断してしまう人間の視覚特性を利用している。   As described in (3) above, by using the high-frequency carrier pattern image, red-rich pixels and cyan-rich pixels are repeatedly arranged, so that the human eye cannot identify these small color difference differences. The human visual characteristic that the color difference amount is determined to be plus or minus “0” is used.

図5は、領域情報格納部106に格納される領域情報の例を示している。図中の矩形領域501は主画像情報の大きさに対応していて、領域情報の1画素が主画像情報の1画素に対応している。ここでは分かりやすくするために、画素の対応を1:1としたが1:N(N:実数)でも差し支えない。図5において、矩形領域501は副情報埋め込み領域を示し、この領域内の四角に存在する斜線領域502は識別情報を埋め込み領域を示している。   FIG. 5 shows an example of area information stored in the area information storage unit 106. A rectangular area 501 in the figure corresponds to the size of the main image information, and one pixel of the area information corresponds to one pixel of the main image information. Here, for easy understanding, the correspondence of pixels is 1: 1, but 1: N (N: real number) may be used. In FIG. 5, a rectangular area 501 indicates a sub information embedding area, and a hatched area 502 existing in a square in this area indicates an embedding area of identification information.

図6は、識別情報102の例を示している。この例では、漢字の「田」の字のような2次元コードを使用している。この例では、正方形が4分割されていて、斜線部分が”1”を示し、非斜線部分が”0”を示している。この場合、左上→右上→右下→左下の順に2進数のビット列を構成していて、全部で4ビット表現可能なので「0〜15」までを表現でき、図6の例の場合は2進数の”0001”を表現している。   FIG. 6 shows an example of the identification information 102. In this example, a two-dimensional code such as the Chinese character “Ta” is used. In this example, the square is divided into four, the hatched portion indicates “1”, and the non-hatched portion indicates “0”. In this case, a binary bit string is constructed in the order of upper left → upper right → lower right → lower left, and since a total of 4 bits can be expressed, “0 to 15” can be expressed. In the example of FIG. “0001” is expressed.

下記表1に、識別情報と副情報の種類と復元処理方法との対応を示す情報の例を示す。図5の識別情報を利用した場合は、表1のNは最大「15」となる。このような情報が図2の復元処理テーブル203に格納されている。

Figure 2008085875
Table 1 below shows an example of information indicating the correspondence between the identification information, the type of sub information, and the restoration processing method. When the identification information of FIG. 5 is used, N in Table 1 is “15” at the maximum. Such information is stored in the restoration processing table 203 of FIG.
Figure 2008085875

第1の復元処理部202で識別情報のみを先に復元して、その結果を基に、復元処理選択部204が復元処理テーブル203から対応する復元処理方法を選択し、この選択された復元処理方法に対応する復元処理を第2の復元処理部205が行なうことにより、複数の副情報に対応した電子透かしの埋め込み処理および復元処理が可能になる。   The first restoration processing unit 202 restores only the identification information first, and based on the result, the restoration processing selection unit 204 selects a corresponding restoration processing method from the restoration processing table 203, and this selected restoration processing When the second restoration processing unit 205 performs restoration processing corresponding to the method, digital watermark embedding processing and restoration processing corresponding to a plurality of sub information can be performed.

次に、電子透かし復元処理について詳細な説明を行なう。
本実施の形態では、たとえば、特願2006−60636号等に記述されている電子透かし復元処理方法が適用できる。詳細については上記出願の記述内容を参照していただき、ここでは簡単な原理のみについて説明する。
Next, the digital watermark restoration process will be described in detail.
In the present embodiment, for example, a digital watermark restoration processing method described in Japanese Patent Application No. 2006-60636 can be applied. For details, please refer to the description of the above application, and only a simple principle will be described here.

図7は、第2の復元処理部205の構成を示すものである。第2の復元処理部205は、表1で示した復元処理方法の種類(N個)に対応する複数の復元処理部701a,701b,…701c、これら復元処理部701a,701b,…701cの後に設けられた複数の後画像処理部702a,702b,…702c、および、復元処理選択部204からの復元処理選択情報に基づき対応する特定の1つの復元処理部を有効にする有効/無効切換部703により構成されている。   FIG. 7 shows the configuration of the second restoration processing unit 205. The second restoration processing unit 205 includes a plurality of restoration processing units 701a, 701b,... 701c corresponding to the types (N) of restoration processing methods shown in Table 1, and after these restoration processing units 701a, 701b,. 702c and a plurality of provided post-image processing units 702a, 702b,... 702c, and a valid / invalid switching unit 703 that validates one specific corresponding restoration processing unit based on restoration processing selection information from the restoration processing selection unit 204. It is comprised by.

以下、このような構成において処理の流れについて説明する。
入力情報として、合成画像情報と復元処理選択情報がある。復元処理選択情報は、前述のようにどの復元処理方法を選択するかの信号なので、特定の1つの復元処理部を有効にして、その他の復元処理部を無効にする。たとえば、識別情報が「02」であった場合、前記表1から対応する復元処理方法は「復元処理2」であるので、その復元処理選択情報に基づき、有効/無効切換部703は復元処理部701bを有効としたものと仮定する。
Hereinafter, the flow of processing in such a configuration will be described.
The input information includes composite image information and restoration process selection information. Since the restoration processing selection information is a signal indicating which restoration processing method is selected as described above, one specific restoration processing unit is validated and the other restoration processing units are invalidated. For example, when the identification information is “02”, the restoration processing method corresponding to the table 1 is “restoration processing 2”, so that the valid / invalid switching unit 703 is based on the restoration processing selection information. Assume that 701b is validated.

有効になった復元処理部701bは、入力された合成画像情報を受取り、復元処理を行ない、その結果を後画像処理部702bに受け渡す。今回の例では、前記表1から、「復元処理2」は(復元→バーコード・デコード)処理を行なうことになっているので、後画像処理部702bでは、復元処理結果に対してバーコード・デコード処理を行ない、その結果を出力する。   The enabled restoration processing unit 701b receives the input composite image information, performs restoration processing, and passes the result to the subsequent image processing unit 702b. In this example, from Table 1 above, “restoration process 2” is to perform a (restoration → barcode decoding) process, so that the post-image processing unit 702b performs a bar code Decodes and outputs the result.

図8は、復元処理部701a,701b,…701cの構成を示すものである。復元処理部701a,701b,…701cは、入力される合成画像情報を複数の色成分、この例ではR(赤)、G(緑)、B(青)の3原色の色プレーンに分解する色分解手段としての色分解部801、色分解部801により色分解されたR、G、Bの画像情報を用いて副情報103の各色プレーン単位での周波数成分を抽出する複数の周波数成分抽出手段としての3つの周波数成分抽出部802a,802b,802c、周波数成分抽出部802a,802b,802cにより抽出された各周波数成分をそれぞれ平滑化処理する3つの平滑化処理手段としての平滑化処理部803a,803b,803c、平滑化処理部803a,803b,803cの各処理結果から1つの処理結果を選択する選択処理手段としての選択処理部804、および、選択処理部804により選択された処理結果を正規化処理する正規化処理手段としての正規化処理部805によって構成されている。   FIG. 8 shows the configuration of the restoration processing units 701a, 701b,... 701c. A restoration processing unit 701a, 701b,... 701c separates input composite image information into a plurality of color components, in this example, color planes of three primary colors R (red), G (green), and B (blue). A color separation unit 801 as a separation unit, and a plurality of frequency component extraction units that extract frequency components for each color plane of the sub-information 103 using the R, G, and B image information color-separated by the color separation unit 801. Smoothing processing sections 803a, 803b as three smoothing processing means for smoothing each frequency component extracted by the three frequency component extraction sections 802a, 802b, 802c and frequency component extraction sections 802a, 802b, 802c. , 803c, a selection processing unit 804 as selection processing means for selecting one processing result from the processing results of the smoothing processing units 803a, 803b, 803c, And it is constituted by a normalization processing unit 805 of the process result selected by the selection processing unit 804 as a normalization processing means for processing normalization.

以下、このような構成において処理の流れについて説明する。
最初に、色分解部801は、入力された画像情報をR、G、Bの3原色の色プレーンに色分解する。次に、周波数成分抽出部802a,802b,802cは、色分解部801によりR、G、Bの各色プレーンに分解されたそれぞれの画像情報に対し色プレーン単位で鍵情報の周波数成分を抽出する処理を行なう。
Hereinafter, the flow of processing in such a configuration will be described.
First, the color separation unit 801 separates the input image information into color planes of the three primary colors R, G, and B. Next, the frequency component extraction units 802a, 802b, and 802c extract the frequency components of the key information in units of color planes for the respective pieces of image information separated into the R, G, and B color planes by the color separation unit 801. To do.

次に、平滑化処理部803a,803b,803cは、周波数成分抽出部802a,802b,802cの各抽出結果に対しそれぞれ平滑化処理を行なう。次に、選択処理部804は、平滑化処理部803a,803b,803cの各処理結果から最適なものを選択し、正規化処理部805へ送る。
次に、正規化処理部805は、入力値(選択処理部804の選択結果)を輝度値「0」から「255」の範囲内に収まるように正規化処理を行なう。
Next, the smoothing processing units 803a, 803b, and 803c perform smoothing processing on the extraction results of the frequency component extraction units 802a, 802b, and 802c, respectively. Next, the selection processing unit 804 selects an optimum one from the processing results of the smoothing processing units 803a, 803b, and 803c, and sends it to the normalization processing unit 805.
Next, the normalization processing unit 805 performs normalization processing so that the input value (selection result of the selection processing unit 804) falls within the range of luminance values “0” to “255”.

なお、本実施の形態では、色分解部801にてR、G、Bの3原色の色プレーンに色分解しているが、他の組合わせ、たとえば、C(シアン)、M(マゼンタ)、Y(イエロー)等でも構わない。   In the present embodiment, the color separation unit 801 performs color separation into three primary color planes of R, G, and B, but other combinations such as C (cyan), M (magenta), Y (yellow) or the like may be used.

また、図6では、識別情報として漢字の「田」の字のような2次元コードを使用した例を示したが、識別情報に回転不変情報を用いることにより、第1の復元処理部202のデータ処理量を減少させて高速に行なうことが可能になる。   FIG. 6 shows an example in which a two-dimensional code such as the Chinese character “da” is used as identification information. However, by using rotation invariant information as identification information, the first restoration processing unit 202 can The amount of data processing can be reduced and the processing can be performed at high speed.

回転不変情報とは、回転させても変化のない特徴量を示すもので、たとえば、図9(a)では、円弧901を用いた例を示している。円弧901の有無や円の面積等は画像(図形)が回転してもしなくとも変化量は「0」である。また、図9(b)では、2点(重心)902,903間の距離904を記憶してそれを特徴量としている。その他、交わっている2つの線分の交差角等を回転不変情報として使用できる。   The rotation invariant information indicates a feature amount that does not change even when rotated. For example, FIG. 9A shows an example using an arc 901. The presence / absence of the arc 901, the area of the circle, and the like are “0” even if the image (figure) is not rotated. In FIG. 9B, a distance 904 between two points (centers of gravity) 902 and 903 is stored and used as a feature amount. In addition, the intersection angle of two intersecting line segments can be used as rotation invariant information.

ここで、回転不変情報を識別情報として利用した場合のメリットについて説明する。一般に、電子透かしの復元処理に限らず、画像処理全般において、対象画像の位置出し(検出)が重要になる。図6のような「田」の字のような2次元コードの場合は、画像情報として読取る際に位置出しマーク等を利用して上下左右の位置出しおよび時計周り、半時計周りの回転角を検出して、それを補正した後に画像処理を行なう必要がある。   Here, the merit when the rotation invariant information is used as the identification information will be described. In general, it is important to locate (detect) a target image not only in restoration processing of a digital watermark but also in general image processing. In the case of a two-dimensional code such as the “da” character as shown in FIG. 6, when reading it as image information, the positioning mark etc. are used to set the vertical and horizontal positioning and the clockwise and counterclockwise rotation angles. It is necessary to perform image processing after detection and correction.

しかし、回転不変情報を識別情報として利用する場合は、回転しても特徴量の変化はないので、回転角の検出作業が(ほとんど)必要なくなり、また円弧の有無や2点間の距離など特徴量をうまく選べば、上下左右の位置出しもあまり精度が問題にならなくなり、処理データ量が少なくなり、処理の高速化が図れるといったメリットが生じる。   However, when rotation invariant information is used as identification information, there is no change in the feature value even if it is rotated. Therefore, it is not necessary to detect the rotation angle (almost), and features such as the presence of an arc and the distance between two points If the amount is selected properly, the accuracy of positioning up, down, left, and right is not a problem, the processing data amount is reduced, and the processing speed can be increased.

特に、識別情報の復元処理は、識別情報そのものが重要ではなく、その後の第2の復元処理部205で行なう副情報103の復元が重要なので、ここで処理時間や処理リソースをかけるのは本末転倒になる可能性がある。   In particular, in the restoration process of the identification information, the identification information itself is not important, and the restoration of the sub information 103 performed by the second restoration processing unit 205 is important thereafter. There is a possibility.

たとえば、図10に示すように、識別情報を円弧の有無として、識別情報なしの場合は副情報Aを埋め込むこととして、識別情報有りの場合は副情報Bを埋め込むことする。この場合、おおよそ上下左右の位置合わせを行なったら、埋め込み情報の外周に位置する識別情報の有無を第1の復元処理部202にて検出する。   For example, as shown in FIG. 10, the identification information is set as the presence or absence of an arc, the sub information A is embedded when there is no identification information, and the sub information B is embedded when there is identification information. In this case, when the vertical and horizontal alignment is performed, the first restoration processing unit 202 detects the presence or absence of identification information located on the outer periphery of the embedded information.

この場合、図10で示す画像領域全体を第1の復元処理部202で処理しても構わないが、円弧の有無は回転不変特徴量なので、図10(c)に示すように画像領域の1/4、あるいは、画像領域の1/8(図示せず)を切取って第1の復元処理部202の処理を行なうことにより、全体分を処理するのに対して数分の1のデータ処理量となり、かつ、処理の高速化が図れる。   In this case, the entire image area shown in FIG. 10 may be processed by the first restoration processing unit 202. However, since the presence or absence of an arc is a rotation-invariant feature quantity, as shown in FIG. / 4 or 1/8 (not shown) of the image area is cut out and processed by the first restoration processing unit 202, so that the whole data is processed by a fraction of the data processing. And the processing speed can be increased.

以上説明したように第1の実施の形態によれば、電子透かし内の識別情報で後の復元処理を選択することが可能になるため補助情報は不要となり、しかも、識別情報は部分的な領域の復元処理で復元可能なため全体の処理時間の短縮が可能になる。
また、複数の副情報を切換えて使用するセキュリティ性の高い電子透かしシステムが構築でき、かつ、識別情報を用いることで、全体の復元処理もデータ処理量を減少させ、高速化することが可能になる。
As described above, according to the first embodiment, since it is possible to select a later restoration process using identification information in a digital watermark, auxiliary information is unnecessary, and the identification information is a partial area. Therefore, the entire processing time can be shortened.
In addition, it is possible to construct a highly secure digital watermarking system that uses a plurality of sub information by switching, and by using identification information, it is possible to reduce the data processing amount and speed up the entire restoration processing. Become.

次に、第2の実施の形態について説明する。
第2の実施の形態に係る画像処理装置(画像処理方法)は、図11に示す第1の画像処理手段(第1の画像処理方法)、および、図12に示す第2の画像処理手段(第2の画像処理方法)から構成される。
Next, a second embodiment will be described.
The image processing apparatus (image processing method) according to the second embodiment includes a first image processing means (first image processing method) shown in FIG. 11 and a second image processing means (first image processing means) shown in FIG. Second image processing method).

図11は、第2の実施の形態に係る第1の画像処理手段としての埋め込み処理系の構成を概略的に示すものである。第2の実施の形態に係る埋め込み処理系の第1の実施の形態と異なる点は、識別情報と埋め込み処理方法とを関連づけた情報が格納されている埋め込み処理テーブル112、識別情報102を基に埋め込み処理方法を選択する埋め込み処理選択手段としての埋め込み処理選択部111が追加された点にあり、その他は第1の実施の形態と同様であるので説明は省略する。   FIG. 11 schematically shows the configuration of an embedding processing system as the first image processing means according to the second embodiment. The difference from the first embodiment of the embedding processing system according to the second embodiment is based on the embedding processing table 112 and the identification information 102 in which information relating the identification information and the embedding processing method is stored. The embedding process selection unit 111 as an embedding process selection means for selecting an embedding process method is added, and the rest is the same as that of the first embodiment, and the description thereof is omitted.

以下、このような構成において処理の流れについて説明する。
まず、埋め込み情報作成部108は、識別情報102、副情報103、第1の鍵情報104、第2の鍵情報105、および領域情報格納部106内の領域情報を入力として埋め込み情報を作成する。このとき、領域情報格納部106内の領域情報を用いることにより、識別情報102および副情報103の埋め込み情報内でのレイアウト等を決定する。
Hereinafter, the flow of processing in such a configuration will be described.
First, the embedding information creation unit 108 creates embedding information using the identification information 102, the sub information 103, the first key information 104, the second key information 105, and the region information in the region information storage unit 106 as inputs. At this time, by using the region information in the region information storage unit 106, the layout or the like in the embedded information of the identification information 102 and the sub information 103 is determined.

次に、埋め込み処理選択部111は、識別情報102および識別情報102と埋め込み処理方法とを関連づけた情報が格納された埋め込み処理テーブル112内の情報を基に埋め込む副情報の種類を特定することで、対応する埋め込み処理方法を選択し、その選択結果を合成画像作成部109へ送る。   Next, the embedding process selection unit 111 identifies the type of sub-information to be embedded based on the information in the embedding process table 112 in which the identification information 102 and the information that associates the identification information 102 with the embedding process method are stored. The corresponding embedding processing method is selected, and the selection result is sent to the composite image creation unit 109.

次に、合成画像作成部109は、主画像情報101および埋め込み情報作成部108により作成された埋め込み情報を入力として、埋め込み処理選択部111で選択された埋め込み処理方法により埋め込みを行ない、合成画像情報を作成する。この合成画像情報が電子透かし情報が不可視状態で埋め込まれた画像情報である。   Next, the composite image creating unit 109 receives the embedding information created by the main image information 101 and the embedding information creating unit 108 and performs embedding according to the embedding processing method selected by the embedding process selecting unit 111, so that the composite image information Create This composite image information is image information in which digital watermark information is embedded in an invisible state.

次に、記録部110は、合成画像作成部109により作成された合成画像情報を可視画像として記録媒体に記録処理することにより、記録された合成画像情報(記録物)107が作成される。この場合の記録物とは例えば社員証等のIDカードを示す。   Next, the recording unit 110 records the composite image information created by the composite image creation unit 109 on a recording medium as a visible image, thereby creating recorded composite image information (recorded material) 107. The recorded material in this case indicates an ID card such as an employee ID card.

下記表2に、識別情報と副情報の種類と埋め込み処理方法との対応を示す情報の例を示す。図5の識別情報を利用した場合は、表2のNは最大「15」となる。このような情報が図11の埋め込み処理テーブル112に格納されている。

Figure 2008085875
Table 2 below shows an example of information indicating the correspondence between the identification information, the type of sub information, and the embedding processing method. When the identification information of FIG. 5 is used, N in Table 2 is “15” at the maximum. Such information is stored in the embedding process table 112 in FIG.
Figure 2008085875

図13は、合成画像作成部109の構成を示すものである。合成画像作成部109は、表2で示した埋め込み処理方法の種類(N個)に対応する複数の埋め込み処理部1201a,1201b,…1201c、および、埋め込み処理選択部111からの埋め込み処理選択情報に基づき対応する特定の1つの埋め込み処理部を有効にする有効/無効切換部1202により構成されている。   FIG. 13 shows the configuration of the composite image creation unit 109. The composite image creation unit 109 uses a plurality of embedding processing units 1201a, 1201b,... 1201c corresponding to the types (N) of embedding processing methods shown in Table 2 and embedding process selection information from the embedding process selection unit 111. Based on the valid / invalid switching unit 1202 for validating one specific embedding processing unit corresponding thereto.

以下、このような構成において処理の流れについて説明する。
入力情報として、主画像情報101、埋め込み情報作成部108により作成された埋め込み情報および埋め込み処理選択情報がある。埋め込み処理選択情報は、前述のようにどの埋め込み処理方法を選択するかの信号なので、特定の1つの埋め込み処理部を有効にして、その他の埋め込み処理部を無効にする。たとえば、識別情報が「01」であった場合、前記表2から対応する埋め込み処理方法は「埋め込み処理1」であるので、その埋め込み処理選択情報に基づき、有効/無効切換部1202は埋め込み処理部1201aを有効としたものと仮定する。
Hereinafter, the flow of processing in such a configuration will be described.
As input information, there are main image information 101, embedding information created by the embedding information creation unit 108, and embedding processing selection information. Since the embedding processing selection information is a signal indicating which embedding processing method is selected as described above, one specific embedding processing unit is enabled and the other embedding processing units are disabled. For example, when the identification information is “01”, the corresponding embedding processing method is “embedding processing 1” from Table 2, and therefore the valid / invalid switching unit 1202 is based on the embedding processing selection information. Assume that 1201a is valid.

有効になった埋め込み処理部1201aは、入力された主画像情報101および埋め込み情報を受取り、埋め込み処理を行なって合成画像情報を作成し、その合成画像情報を記録部110に受け渡す。   The enabled embedding processing unit 1201 a receives the input main image information 101 and the embedding information, performs embedding processing to create composite image information, and passes the composite image information to the recording unit 110.

図12は、第2の実施の形態に係る第2の画像処理手段としての復元処理系の構成を概略的に示すものである。第2の実施の形態に係る復元処理系は、図11の電子透かし埋め込み処理系で作成された記録物107から副情報103を復元する、いわゆる電子透かし復元処理を行なうもので、その構成は第1の実施の形態(図2)と同様であるので説明は省略する。   FIG. 12 schematically shows the configuration of a restoration processing system as the second image processing means according to the second embodiment. The restoration processing system according to the second embodiment performs a so-called digital watermark restoration process for restoring the sub information 103 from the recorded matter 107 created by the digital watermark embedding processing system in FIG. Since this is the same as that of the first embodiment (FIG. 2), description thereof is omitted.

以上説明したように第2の実施の形態によれば、電子透かし内の識別情報で後の復元処理を選択することが可能になるため補助情報は不要となり、しかも、識別情報は部分的な領域の復元処理で復元可能なため全体の処理時間の短縮が可能になる。
また、複数の副情報を切換えて使用するセキュリティ性の高い電子透かしシステムが構築でき、かつ、識別情報を用いることで、全体の復元処理もデータ処理量を減少させ、高速化することが可能になる。
As described above, according to the second embodiment, since it is possible to select a later restoration process using the identification information in the digital watermark, auxiliary information is unnecessary, and the identification information is a partial area. Therefore, the entire processing time can be shortened.
In addition, it is possible to construct a highly secure digital watermarking system that uses a plurality of sub information by switching, and by using identification information, it is possible to reduce the data processing amount and speed up the entire restoration processing. Become.

本発明の第1の実施の形態に係る画像処理装置の埋め込み処理系の構成を概略的に示すブロック図。1 is a block diagram schematically showing a configuration of an embedding processing system of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る画像処理装置の復元処理系の構成を概略的に示すブロック図。1 is a block diagram schematically showing a configuration of a restoration processing system of an image processing apparatus according to a first embodiment of the present invention. 作成されたIDカードの一例を模式的に示す平面図。The top view which shows an example of the produced ID card typically. 電子透かしの重畳処理を説明するための模式図。The schematic diagram for demonstrating the superimposition process of a digital watermark. 領域情報を説明するための模式図。The schematic diagram for demonstrating area | region information. 識別情報の例を説明するための模式図。The schematic diagram for demonstrating the example of identification information. 図2における第2の復元処理部の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the 2nd decompression | restoration process part in FIG. 図7における復元処理部の構成を概略的に示すブロック図。FIG. 8 is a block diagram schematically showing a configuration of a restoration processing unit in FIG. 7. 識別情報に回転不変情報を利用した場合を説明するための模式図。The schematic diagram for demonstrating the case where rotation invariant information is utilized for identification information. 識別情報と埋め込み情報を組み合わせた場合を説明するための模式図。The schematic diagram for demonstrating the case where identification information and embedding information are combined. 本発明の第2の実施の形態に係る画像処理装置の埋め込み処理系の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the embedding processing system of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る画像処理装置の復元処理系の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the decompression | restoration processing system of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 図11における合成画像作成部の構成を概略的に示すブロック図。FIG. 12 is a block diagram schematically showing the configuration of a composite image creation unit in FIG. 11.

符号の説明Explanation of symbols

101…主画像情報、102…識別情報、103…副情報(電子透かし情報)、104…第1の鍵情報、105…第2の鍵情報、106…領域情報格納部、107…記録物、108…埋め込み情報作成部(埋め込み情報作成手段)、109…合成画像作成部(合成画像作成手段)、110…記録部(記録手段)、111…埋め込み処理選択部(埋め込み処理選択手段)、112…埋め込み処理テーブル、201…画像情報入力部(画像情報取込手段)、202…第1の復元処理部、203…復元処理テーブル、204…復元処理選択部、205…第2の復元処理部、206…結果表示部、301…IDカード、302…認証用顔画像、303…個人管理情報、801…色分解部(色分解手段)、802a,802b,802c…周波数成分抽出部(周波数成分抽出手段)、803a,803b,803c…平滑化処理部(平滑化処理手段)、804…選択処理部(選択処理手段)、805…正規化処理部(正規化処理手段)。   DESCRIPTION OF SYMBOLS 101 ... Main image information, 102 ... Identification information, 103 ... Sub information (digital watermark information), 104 ... First key information, 105 ... Second key information, 106 ... Area information storage unit, 107 ... Recorded matter, 108 ... embedding information creation unit (embedding information creation unit), 109 ... composite image creation unit (composite image creation unit), 110 ... recording unit (recording unit), 111 ... embedding process selection unit (embedding process selection unit), 112 ... embedding Processing table 201... Image information input unit (image information fetching means) 202... First restoration processing unit 203. Restoration processing table 204. Restoration processing selection unit 205 205 Second restoration processing unit 206. Result display section, 301 ... ID card, 302 ... authentication face image, 303 ... personal management information, 801 ... color separation section (color separation means), 802a, 802b, 802c ... frequency component extraction Part (frequency component extracting means), 803a, 803b, 803 c ... smoothing processing section (smoothing means), 804 ... selection unit (selecting unit), 805 ... normalization processing unit (normalization processing unit).

Claims (10)

可視状態の主画像情報に対して不可視状態で副情報を埋め込むことによって合成画像情報を作成する第1の画像処理方法、および、この第1の画像処理方法により作成された合成画像情報を取得して、その取得した合成画像情報から前記副情報を復元する第2の画像処理方法から構成される画像処理方法において、
前記第1の画像処理方法は、
副情報を復元する際に用いる鍵情報および複数の異なる種別の中の1つである副情報および当該副情報の種別を示す識別情報を基に埋め込み情報を作成する埋め込み情報作成ステップと、
主画像情報に対して前記埋め込み情報作成ステップにより作成された埋め込み情報を不可視状態で埋め込んで合成画像情報を作成する合成画像作成ステップとを具備し、
前記第2の画像処理方法は、
前記第1の画像処理方法により作成された合成画像情報を取込む画像情報取込ステップと、
この画像情報取込ステップにより取込まれた合成画像情報から前記識別情報を復元する第1の復元処理ステップと、
この第1の復元処理ステップにより復元された識別情報を基に前記副情報を復元するための処理方法を選択する復元処理選択ステップと、
この復元処理選択ステップにより選択された処理方法により復元処理を行ない、前記副情報を復元する第2の復元処理ステップと、
この第2の復元処理ステップの処理結果を出力する出力処理ステップとを具備したことを特徴とする画像処理方法。
A first image processing method for creating composite image information by embedding sub-information in an invisible state with respect to main image information in a visible state, and the composite image information created by the first image processing method are acquired. In the image processing method constituted by the second image processing method for restoring the sub-information from the acquired composite image information,
The first image processing method includes:
An embedded information creating step for creating embedded information based on key information used when restoring the sub information, sub information that is one of a plurality of different types, and identification information indicating the type of the sub information;
A composite image creation step for creating composite image information by embedding the embedded information created by the embedded information creation step with respect to the main image information in an invisible state,
The second image processing method includes:
An image information capturing step for capturing composite image information created by the first image processing method;
A first restoration processing step for restoring the identification information from the composite image information fetched by the image information fetching step;
A restoration process selection step of selecting a processing method for restoring the sub-information based on the identification information restored in the first restoration process step;
A second restoration processing step for performing restoration processing by the processing method selected in the restoration processing selection step and restoring the sub information;
An image processing method comprising: an output processing step for outputting a processing result of the second restoration processing step.
可視状態の主画像情報に対して不可視状態で副情報を埋め込むことによって合成画像情報を作成する第1の画像処理方法、および、この第1の画像処理方法により作成された合成画像情報を取得して、その取得した合成画像情報から前記副情報を復元する第2の画像処理方法から構成される画像処理方法において、
前記第1の画像処理方法は、
副情報を復元する際に用いる鍵情報および複数の異なる種別の中の1つである副情報および当該副情報の種別を示す識別情報を基に埋め込み情報を作成する埋め込み情報作成ステップと、
前記識別情報を基にあらかじめ定められた複数の埋め込み処理方法の中から1つの処理方法を選択する埋め込み処理選択処理ステップと、
この埋め込み処理選択処理ステップにより選択された処理方法により、主画像情報に対して前記埋め込み情報作成ステップにより作成された埋め込み情報を不可視状態で埋め込んで合成画像情報を作成する合成画像作成ステップとを具備し、
前記第2の画像処理方法は、
前記第1の画像処理方法により作成された合成画像情報を取込む画像情報取込ステップと、
この画像情報取込ステップにより取込まれた合成画像情報から前記識別情報を復元する第1の復元処理ステップと、
この第1の復元処理ステップにより復元された識別情報を基に前記副情報を復元するための処理方法を選択する復元処理選択ステップと、
この復元処理選択ステップにより選択された処理方法により復元処理を行ない、前記副情報を復元する第2の復元処理ステップと、
この第2の復元処理ステップの処理結果を出力する出力処理ステップとを具備したことを特徴とする画像処理方法。
A first image processing method for creating composite image information by embedding sub-information in an invisible state with respect to main image information in a visible state, and the composite image information created by the first image processing method are acquired. In the image processing method constituted by the second image processing method for restoring the sub-information from the acquired composite image information,
The first image processing method includes:
An embedded information creating step for creating embedded information based on key information used when restoring the sub information, sub information that is one of a plurality of different types, and identification information indicating the type of the sub information;
An embedding process selection processing step of selecting one processing method from a plurality of embedding processing methods determined in advance based on the identification information;
A composite image creation step of creating composite image information by embedding the embedded information created by the embedded information creation step in the main image information in an invisible state by the processing method selected in the embedding process selection processing step. And
The second image processing method includes:
An image information capturing step for capturing composite image information created by the first image processing method;
A first restoration processing step for restoring the identification information from the composite image information fetched by the image information fetching step;
A restoration process selection step of selecting a processing method for restoring the sub-information based on the identification information restored in the first restoration process step;
A second restoration processing step for performing restoration processing by the processing method selected in the restoration processing selection step and restoring the sub information;
An image processing method comprising: an output processing step for outputting a processing result of the second restoration processing step.
前記第1の画像処理方法で用いる副情報の種別を示す識別情報は回転不変情報を用いることを特徴とする請求項1または請求項2記載の画像処理方法。   3. The image processing method according to claim 1, wherein rotation invariant information is used as identification information indicating the type of sub information used in the first image processing method. 前記第2の復元処理ステップは、
前記画像情報取込ステップにより取込まれた合成画像情報を複数の色成分に色分解する色分解ステップと、
この色分解ステップにより色分解された複数の色成分の画像情報を用いて前記副情報の各色成分単位での周波数成分を抽出する複数の周波数成分抽出ステップと、
この複数の周波数成分抽出ステップにより抽出された複数の周波数成分をそれぞれ平滑化処理する複数の平滑化処理ステップと、
この複数の平滑化処理ステップの各処理結果から1つの処理結果を選択する選択処理ステップと、
この選択処理ステップにより選択された処理結果を正規化処理する正規化処理ステップと、
を具備したことを特徴とする請求項1または請求項2記載の画像処理方法。
The second restoration processing step includes
A color separation step for color-separating the combined image information captured by the image information capturing step into a plurality of color components;
A plurality of frequency component extraction steps for extracting frequency components in units of each color component of the sub-information using image information of a plurality of color components color-separated by this color separation step;
A plurality of smoothing processing steps for smoothing each of the plurality of frequency components extracted by the plurality of frequency component extraction steps;
A selection processing step for selecting one processing result from the processing results of the plurality of smoothing processing steps;
A normalization processing step for normalizing the processing result selected in this selection processing step;
The image processing method according to claim 1, further comprising:
前記色分解ステップは、合成画像情報をR(赤)、G(緑)、B(青)あるいはC(シアン)、M(マゼンタ)、Y(イエロー)の3原色の色プレーンに分解することを特徴とする請求項4記載の画像処理方法。   In the color separation step, the composite image information is separated into color planes of three primary colors of R (red), G (green), B (blue), C (cyan), M (magenta), and Y (yellow). The image processing method according to claim 4, wherein: 可視状態の主画像情報に対して不可視状態で副情報を埋め込むことによって合成画像情報を作成する第1の画像処理手段、および、この第1の画像処理手段により作成された合成画像情報を取得して、その取得した合成画像情報から前記副情報を復元する第2の画像処理手段から構成される画像処理装置において、
前記第1の画像処理手段は、
副情報を復元する際に用いる鍵情報および複数の異なる種別の中の1つである副情報および当該副情報の種別を示す識別情報を基に埋め込み情報を作成する埋め込み情報作成手段と、
主画像情報に対して前記埋め込み情報作成手段により作成された埋め込み情報を不可視状態で埋め込んで合成画像情報を作成する合成画像作成手段とを具備し、
前記第2の画像処理手段は、
前記第1の画像処理手段により作成された合成画像情報を取込む画像情報取込手段と、
この画像情報取込手段により取込まれた合成画像情報から前記識別情報を復元する第1の復元処理手段と、
この第1の復元処理手段により復元された識別情報を基に前記副情報を復元するための処理方法を選択する復元処理選択手段と、
この復元処理選択手段により選択された処理方法により復元処理を行ない、前記副情報を復元する第2の復元処理手段と、
この第2の復元処理手段の処理結果を出力する出力処理手段とを具備したことを特徴とする画像処理装置。
First image processing means for creating composite image information by embedding sub information in an invisible state with respect to main image information in a visible state, and composite image information created by the first image processing means is acquired. In the image processing apparatus constituted by the second image processing means for restoring the sub information from the acquired composite image information,
The first image processing means includes
Embedded information creating means for creating embedded information based on key information used when restoring the sub information, sub information that is one of a plurality of different types, and identification information indicating the type of the sub information;
Comprising composite image creation means for creating composite image information by embedding the embedded information created by the embedded information creation means with respect to the main image information in an invisible state,
The second image processing means includes
Image information capturing means for capturing composite image information created by the first image processing means;
First restoration processing means for restoring the identification information from the composite image information captured by the image information capturing means;
Restoration processing selection means for selecting a processing method for restoring the sub-information based on the identification information restored by the first restoration processing means;
A second restoration processing means for performing restoration processing by the processing method selected by the restoration processing selection means and restoring the sub information;
An image processing apparatus comprising: output processing means for outputting a processing result of the second restoration processing means.
可視状態の主画像情報に対して不可視状態で副情報を埋め込むことによって合成画像情報を作成する第1の画像処理手段、および、この第1の画像処理手段により作成された合成画像情報を取得して、その取得した合成画像情報から前記副情報を復元する第2の画像処理手段から構成される画像処理装置において、
前記第1の画像処理手段は、
副情報を復元する際に用いる鍵情報および複数の異なる種別の中の1つである副情報および当該副情報の種別を示す識別情報を基に埋め込み情報を作成する埋め込み情報作成手段と、
前記識別情報を基にあらかじめ定められた複数の埋め込み処理方法の中から1つの処理方法を選択する埋め込み処理選択処理手段と、
この埋め込み処理選択処理手段により選択された処理方法により、主画像情報に対して前記埋め込み情報作成手段により作成された埋め込み情報を不可視状態で埋め込んで合成画像情報を作成する合成画像作成手段とを具備し、
前記第2の画像処理手段は、
前記第1の画像処理手段により作成された合成画像情報を取込む画像情報取込手段と、
この画像情報取込手段により取込まれた合成画像情報から前記識別情報を復元する第1の復元処理手段と、
この第1の復元処理手段により復元された識別情報を基に前記副情報を復元するための処理方法を選択する復元処理選択手段と、
この復元処理選択手段により選択された処理方法により復元処理を行ない、前記副情報を復元する第2の復元処理手段と、
この第2の復元処理手段の処理結果を出力する出力処理手段とを具備したことを特徴とする画像処理装置。
First image processing means for creating composite image information by embedding sub information in an invisible state with respect to main image information in a visible state, and composite image information created by the first image processing means is acquired. In the image processing apparatus constituted by the second image processing means for restoring the sub information from the acquired composite image information,
The first image processing means includes
Embedded information creating means for creating embedded information based on key information used when restoring the sub information, sub information that is one of a plurality of different types, and identification information indicating the type of the sub information;
An embedding process selection processing means for selecting one processing method from a plurality of embedding processing methods determined in advance based on the identification information;
A composite image creating means for creating composite image information by embedding the embedded information created by the embedded information creating means into the main image information in an invisible state by the processing method selected by the embedding process selection processing means; And
The second image processing means includes
Image information capturing means for capturing composite image information created by the first image processing means;
First restoration processing means for restoring the identification information from the composite image information captured by the image information capturing means;
Restoration processing selection means for selecting a processing method for restoring the sub-information based on the identification information restored by the first restoration processing means;
A second restoration processing means for performing restoration processing by the processing method selected by the restoration processing selection means and restoring the sub information;
An image processing apparatus comprising: output processing means for outputting a processing result of the second restoration processing means.
前記第1の画像処理手段で用いる副情報の種別を示す識別情報は回転不変情報を用いることを特徴とする請求項6または請求項7記載の画像処理装置。   8. The image processing apparatus according to claim 6, wherein rotation invariant information is used as identification information indicating the type of sub information used in the first image processing means. 前記第2の復元処理手段は、
前記画像情報取込手段により取込まれた合成画像情報を複数の色成分に色分解する色分解手段と、
この色分解手段により色分解された複数の色成分の画像情報を用いて前記副情報の各色成分単位での周波数成分を抽出する複数の周波数成分抽出手段と、
この複数の周波数成分抽出手段により抽出された複数の周波数成分をそれぞれ平滑化処理する複数の平滑化処理手段と、
この複数の平滑化処理手段の各処理結果から1つの処理結果を選択する選択処理手段と、
この選択処理手段により選択された処理結果を正規化処理する正規化処理手段と、
を具備したことを特徴とする請求項6または請求項7記載の画像処理装置。
The second restoration processing means includes
Color separation means for color-separating the composite image information captured by the image information capturing means into a plurality of color components;
A plurality of frequency component extraction means for extracting frequency components in units of each color component of the sub-information using image information of a plurality of color components color-separated by the color separation means;
A plurality of smoothing processing means for smoothing each of the plurality of frequency components extracted by the plurality of frequency component extracting means;
Selection processing means for selecting one processing result from the processing results of the plurality of smoothing processing means;
Normalization processing means for normalizing the processing result selected by the selection processing means;
The image processing apparatus according to claim 6 or 7, further comprising:
前記色分解手段は、合成画像情報をR(赤)、G(緑)、B(青)あるいはC(シアン)、M(マゼンタ)、Y(イエロー)の3原色の色プレーンに分解することを特徴とする請求項9記載の画像処理装置。   The color separation means separates the composite image information into three primary color planes of R (red), G (green), B (blue) or C (cyan), M (magenta), and Y (yellow). The image processing apparatus according to claim 9.
JP2006265581A 2006-09-28 2006-09-28 Image processing method, and image processor Pending JP2008085875A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006265581A JP2008085875A (en) 2006-09-28 2006-09-28 Image processing method, and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006265581A JP2008085875A (en) 2006-09-28 2006-09-28 Image processing method, and image processor

Publications (2)

Publication Number Publication Date
JP2008085875A true JP2008085875A (en) 2008-04-10
JP2008085875A5 JP2008085875A5 (en) 2009-04-16

Family

ID=39356223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006265581A Pending JP2008085875A (en) 2006-09-28 2006-09-28 Image processing method, and image processor

Country Status (1)

Country Link
JP (1) JP2008085875A (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182324A (en) * 1998-10-08 2000-06-30 Matsushita Electric Ind Co Ltd Data processor and data recording medium
JP2000287067A (en) * 1999-03-31 2000-10-13 Canon Inc Image processing system, information processing unit and computer-readable storage medium
JP2001223880A (en) * 2000-02-09 2001-08-17 Canon Inc Data processor, data processing method and storage medium
JP2001257865A (en) * 2000-03-10 2001-09-21 Hitachi Ltd Embedding method and extracting method for information using digital watermark
JP2001292303A (en) * 2000-04-10 2001-10-19 Minolta Co Ltd Image data processing apparatus
JP2002016781A (en) * 2000-06-28 2002-01-18 Nippon Telegr & Teleph Corp <Ntt> Contents management method, its system and its program recording medium
JP2002305646A (en) * 2001-04-05 2002-10-18 Fuji Xerox Co Ltd Image processor and image forming device
JP2003228631A (en) * 2001-11-28 2003-08-15 Canon Inc Information processing system, information processor, information processing method, its program and recording medium
JP2003280469A (en) * 2002-03-20 2003-10-02 Fuji Xerox Co Ltd Image reader and copying machine
JP2004343712A (en) * 2003-04-25 2004-12-02 Toshiba Corp Image processing system, image processing apparatus, and image processing method
JP2006186626A (en) * 2004-12-27 2006-07-13 Sanyo Electric Co Ltd Device and method for embedding watermark and for extracting it
JP2006211264A (en) * 2005-01-27 2006-08-10 Kyocera Mita Corp Image reading apparatus and image forming apparatus
JP2006222572A (en) * 2005-02-08 2006-08-24 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182324A (en) * 1998-10-08 2000-06-30 Matsushita Electric Ind Co Ltd Data processor and data recording medium
JP2000287067A (en) * 1999-03-31 2000-10-13 Canon Inc Image processing system, information processing unit and computer-readable storage medium
JP2001223880A (en) * 2000-02-09 2001-08-17 Canon Inc Data processor, data processing method and storage medium
JP2001257865A (en) * 2000-03-10 2001-09-21 Hitachi Ltd Embedding method and extracting method for information using digital watermark
JP2001292303A (en) * 2000-04-10 2001-10-19 Minolta Co Ltd Image data processing apparatus
JP2002016781A (en) * 2000-06-28 2002-01-18 Nippon Telegr & Teleph Corp <Ntt> Contents management method, its system and its program recording medium
JP2002305646A (en) * 2001-04-05 2002-10-18 Fuji Xerox Co Ltd Image processor and image forming device
JP2003228631A (en) * 2001-11-28 2003-08-15 Canon Inc Information processing system, information processor, information processing method, its program and recording medium
JP2003280469A (en) * 2002-03-20 2003-10-02 Fuji Xerox Co Ltd Image reader and copying machine
JP2004343712A (en) * 2003-04-25 2004-12-02 Toshiba Corp Image processing system, image processing apparatus, and image processing method
JP2006186626A (en) * 2004-12-27 2006-07-13 Sanyo Electric Co Ltd Device and method for embedding watermark and for extracting it
JP2006211264A (en) * 2005-01-27 2006-08-10 Kyocera Mita Corp Image reading apparatus and image forming apparatus
JP2006222572A (en) * 2005-02-08 2006-08-24 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
JP2005328528A (en) Processing method and system for secret mark of digital image
US8385592B2 (en) Digital watermarking system and method
US8175323B2 (en) Image processing method and image processing apparatus
US8045794B2 (en) Image processing method and device for restoring sub-information from composite image information
US20080205697A1 (en) Image-processing device and image-processing method
JP2003283805A (en) Method of embedding color information in printed documents using watermarking
CN116579908B (en) Method and device for implanting encrypted hidden information into image
JP2010136206A (en) Image processing method and image processing apparatus
JP4783003B2 (en) Personal authentication medium issuing device and personal authentication medium issuing method
JP4064863B2 (en) Image processing method
JP2008085875A (en) Image processing method, and image processor
JP4167372B2 (en) Digital watermark embedding method, extraction method, invisibility method, visualization method, and embedding device
JP3916984B2 (en) Digital watermarking device
Cheng et al. A new method for copyright and integrity protection for bitmap images by removable visible watermarks and irremovable invisible watermarks
JP4630765B2 (en) Image processing method and image processing apparatus
JP4881141B2 (en) Image processing apparatus and image processing apparatus control method
JP2017072958A (en) Image processing device, method and program for decoding information multiplexed on image
JP2001094755A (en) Image processing method
JP4829164B2 (en) Image processing apparatus and image processing method
TWI536312B (en) Anti - copy image generation system and its operation method
EP1887779A2 (en) System and method for embedding miniature security marks
Chareyron et al. Watermarking of color images based on a multi-layer process
JP2001309155A (en) Image processing unit, method and computer-readable recording medium
Chao et al. A novel color palette image authentication scheme
JP2009033694A (en) Image processing apparatus, image processing method, and recorded material

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110412