JP4201812B2 - 情報データ提供装置、および画像処理装置 - Google Patents

情報データ提供装置、および画像処理装置 Download PDF

Info

Publication number
JP4201812B2
JP4201812B2 JP2006511409A JP2006511409A JP4201812B2 JP 4201812 B2 JP4201812 B2 JP 4201812B2 JP 2006511409 A JP2006511409 A JP 2006511409A JP 2006511409 A JP2006511409 A JP 2006511409A JP 4201812 B2 JP4201812 B2 JP 4201812B2
Authority
JP
Japan
Prior art keywords
image
distortion
information
unit
digital watermark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006511409A
Other languages
English (en)
Other versions
JPWO2005093653A1 (ja
Inventor
泰彰 井上
亜輝臣 国狭
健一郎 三谷
孝介 辻田
悟 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Publication of JPWO2005093653A1 publication Critical patent/JPWO2005093653A1/ja
Application granted granted Critical
Publication of JP4201812B2 publication Critical patent/JP4201812B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/005Robust watermarking, e.g. average attack or collusion attack resistant
    • G06T1/0064Geometric transfor invariant watermarking, e.g. affine transform invariant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32352Controlling detectability or arrangements to facilitate detection or retrieval of the embedded information, e.g. using markers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0061Embedding of the watermark in each block of the image, e.g. segmented watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0083Image watermarking whereby only watermarked image required at decoder, e.g. source-based, blind, oblivious

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理技術に関し、特に画像を補正する画像補正装置と方法、その装置における画像補正データベース作成方法に関する。また、本発明は、情報データ提供装置、画像処理装置、情報端末、情報データベース装置に関する。
電子透かしが埋め込まれたデジタル画像を印刷媒体に印刷し、印刷された画像をデジタルカメラやスキャナ等で撮影して再度デジタル化して埋め込まれた電子透かしを検出するシステムがある。たとえば、チケットやカードを利用者に発行する際に、発行者や利用者に関する識別情報などを電子透かしとして視覚的に検知できないように画像に埋め込んでチケットやカードに印刷する。チケットやカードの利用時に、その電子透かしを検出することにより、偽造や不正入手などの不正行為を防止することができる。また、複写機やプリンタで画像を印刷する際に、著作権情報や機器の識別番号等を電子透かしとして埋めこんで印刷することにより、著作物、有価証券等の不正コピーを防止することができる。
一般にデジタルカメラやスキャナを用いて印刷画像を撮影してデジタル化すると、撮影画像には、撮影機器のレンズの形状や焦点距離に依存したレンズ歪みや、撮影時の光軸の傾きに起因する透視歪みが生じ、印刷画像と撮影画像の間で画素のずれが現れる。そのため、印刷画像に埋め込まれた電子透かしを撮影画像から正しく抽出することは困難であり、撮影画像の歪み補正が必要となる。
特許文献1には、較正パターンの画面中心付近の特徴点の位置ずれをもとに透視歪みに係る写像関数を作成し、さらに、その写像関数を用いて特徴点の理想的位置と画像上の実際の位置のずれを画面全体で評価し、レンズ歪みを補正するための補正関数を算出し、画像データの補正を行う画像補正装置が開示されている。
また、クライアントから送信されてきたデジタル画像データから、電子透かしで埋め込まれた情報を抽出し、その抽出された情報に基づいてクライアントにサービス(コンテンツのダウンロード、商品の販売などのサービス)を提供するシステムがある(例えば、特許文献2)。
図59は、その一例である、商品販売システム1200の構成図である。商品販売システム1200は、サーバ1201、通信機能付きカメラ(カメラ付き携帯電話1202)、及びカタログ(印刷物1203)で構成される。印刷物1203には、商品を表す様々なイラスト画像が印刷されている。これらのイラスト画像と、販売対象の商品とは、一対一に対応するものである。また、各イラスト画像中には、商品の識別情報(商品IDなど)が、電子透かしにより不可視に埋め込まれている。
このような商品販売システム1200において、クライアントがカメラ付き携帯電話1202により、印刷物1203のイラスト画像を撮影すると、カメラ付き携帯電話1202で生成された撮影画像のデータは、サーバ1201へ送信される。サーバ1201は、撮影画像のデータから電子透かしで埋め込まれた情報を抽出し、その抽出結果に応じ、クライアントが購入したい商品を判断する。
特許第2940736号公報 特表2002−544637号公報
撮影による画像歪みを補正するためには、撮影機器の歪み特性に関する情報や撮影時の光軸の傾きに関する情報を取得し、撮影画像に幾何学的な変換を施す必要がある。レンズの歪曲特性を詳細に示すプロファイルデータを利用して、精細な歪み補正をすることもできるが、プロファイルデータの記憶容量が大きくなり、処理に時間もかかる。
また、画像歪みをどの程度詳細に調べて補正すべきかは、透かしの画像歪みに対する耐性に依存する。画像歪みに対して透かしの耐性が比較的強い場合に、精細な歪み補正をすることは無駄になるが、画像歪みに対して透かしの耐性が弱い場合には、粗い歪み補正では透かしを正しく検出することができない。透かし埋め込み時の透かしの耐性と透かし抽出時の画像補正の精度とがミスマッチを起こした場合、透かしの検出精度や検出効率が悪化することになる。
また、上記の商品販売システム1200において、同型で色違いの商品を販売するような場合、印刷物1203には、カラーバリエーションの数だけ同型商品のイラスト画像を印刷しておく必要がある。そうすると印刷物1203の紙面がかさばるという問題がある。
そこで、商品画像と、色情報のみが埋め込まれた画像(例えば、8色のカラーバリエーションがある場合は、8枚の画像が別途用意されている)とを用意するようにすれば、紙面スペースを減らすことができる。例えば、赤色の商品を購入したい場合には、商品のイラストと赤色を示す画像の2つを連続して撮像する。この場合、必要な画像枚数は、商品数+色情報の種類で済み、個別の商品毎に色情報を持たせた方式(必要な画像枚数は、商品数×色情報)よりも少なくて済むので、紙面スペースは劇的に減少する。しかし、この場合だと、サーバ1201は、商品画像と、色情報の画像の両方についての処理を行う必要があり、負荷が大きい。
そこで、カラーバリエーションの数に対応したイラスト画像を印刷物1203に印刷するのではなく、商品に対応したイラスト画像のみを印刷物1203に印刷するようにし、クライアントは、撮影機器に附属のボタンを押下することにより、希望する商品の色を選択することが考えられる。
即ち、クライアントは、まず、カメラ付き携帯電話1202により、希望する商品のイラスト画像を撮影する。次にクライアントは、希望する商品の色をカメラ付き携帯電話1202に附属のボタンを押下することにより選択する。そして、撮影画像のデータと、ボタン押下により選択した情報とが、カメラ付き携帯電話1202から、サーバ1201に送信される。
しかし、このような方法によれば、クライアントは、撮影操作に続いてボタン押下による選択操作を行わなくてはならないので、操作が煩わしい。
本発明はこうした状況に鑑みてなされたもので、その目的は、画像歪みを高い精度で効率良く補正することのできる画像補正技術を提供することにある。また、別の目的は、電子透かしを利用した利便性の高い情報処理技術を提供することにある。
上記課題を解決するために、本発明のある態様の画像補正装置は、異なるズーム倍率で撮影された既知の画像にもとづいて、ズーム倍率毎にレンズ歪みの補正情報を算出するレンズ歪み算出部と、前記レンズ歪みの補正情報をズーム倍率に対応づけて記憶する記憶部とを含む。
ここで、「レンズ歪みの補正情報をズーム倍率に対応づけて記憶する」とは、レンズ歪みの補正情報が、必ずしもズーム倍率そのものに対応づけて記憶する場合だけでなく、実質的にズーム倍率に対応づけて記憶する場合も含む趣旨である。たとえば、被写体が撮像されるCCD(charge-coupled device)面やフィルム面の対角長が一定のもと、画角や焦点距離はそれぞれズーム倍率に応じて変化するものであるから、レンズ歪みの補正情報を画角や焦点距離に対応づけて記憶する場合も、ここでいう「ズーム倍率に対応づけて記憶する」に含めるものとする。
本発明の別の態様もまた、画像補正装置である。この装置は、レンズ歪みの補正情報をレンズのズーム倍率に対応づけて格納した記憶部と、入力された撮影画像の撮影時のズーム倍率に応じた前記レンズ歪みの補正情報を前記記憶部から選択する選択部と、選択された前記レンズ歪みの補正情報にもとづいて、前記撮影画像の撮影による歪みを補正する歪み補正部とを含む。
前記選択部は、前記撮影時のズーム倍率に応じて複数のレンズ歪みの補正情報を前記記憶部から候補として選択し、前記複数のレンズ歪みの補正情報の各々により前記撮影画像内の既知形状をなすサンプル点列を補正して、誤差を事前評価することにより、前記複数のレンズ歪みの補正情報の内、1つのレンズ歪みの補正情報を選択してもよい。
ここで、「既知形状をなすサンプル点列」とは、たとえば、撮影画像の画像枠上にとられたサンプル点列は撮影による歪みのない状態では直線上にあることがわかっているなど、撮影による歪みのない状態では、本来はどのような形状の上にサンプル点列があるかが既知であることをいう。別の例として、撮影された人物の顔の輪郭上のサンプル点列も、少なくともなめらかな曲線上にあることが既知である。
本発明のさらに別の態様もまた、画像補正装置である。この装置は、異なるズーム倍率で撮影された既知の画像にもとづいて、ズーム倍率毎にレンズ歪みの生じた画像内の点をレンズ歪みの生じていない画像内の点に写像するレンズ歪み補正関数とその逆関数の近似であるレンズ歪み関数を算出するレンズ歪み算出部と、前記レンズ歪み補正関数と前記レンズ歪み関数の対をズーム倍率に対応づけて記憶する記憶部とを含む。
ここで、「レンズ歪み補正関数とレンズ歪み関数の対をズーム倍率に対応づけて記憶する」とは、必ずしも関数の式と係数などの情報を記憶する場合に限らず、これらの関数の入力値と出力値の対応関係をテーブルにして記憶する場合も含む。たとえば、画像内の座標値とこれらの関数により写像された座標値との対応関係をテーブルにして記憶してもよい。
本発明のさらに別の態様もまた、画像補正装置である。この装置は、レンズ歪みの生じた画像内の点をレンズ歪みの生じていない画像内の点に写像するレンズ歪み補正関数とその逆関数の近似であるレンズ歪み関数の対をレンズのズーム倍率に対応づけて格納した記憶部と、入力された撮影画像の撮影時のズーム倍率に応じた前記レンズ歪み関数を前記記憶部から選択する選択部と、選択された前記レンズ歪み関数にもとづいて、前記撮影画像の撮影による歪みを補正する歪み補正部とを含む。この構成によれば、撮影によるレンズ歪みを補正することができる。
本発明のさらに別の態様もまた、画像補正装置である。この装置は、レンズ歪みの生じていない画像内の点をレンズ歪みの生じた画像内の点に写像するレンズ歪み関数をレンズのズーム倍率に対応づけて格納した記憶部と、入力された撮影画像の撮影時のズーム倍率に応じた前記レンズ歪み関数を前記記憶部から選択する選択部と、選択された前記レンズ歪み関数によりレンズ歪みの補正された画像を用いて、透視歪みの生じていない画像内の点を透視歪みの生じた画像内の点に写像する透視歪み関数を算出する透視歪み算出部と、前記透視歪み算出部により算出された透視歪み関数にもとづいて、前記撮影画像の撮影による歪みを補正する歪み補正部とを含む。この構成によれば、撮影による透視歪みとレンズ歪みを補正することができる。
本発明のさらに別の態様は、画像補正データベース作成方法である。この方法は、異なるズーム倍率で撮影された既知の画像にもとづいて、ズーム倍率毎にレンズ歪みの生じた画像内の点をレンズ歪みの生じていない画像内の点に写像するレンズ歪み補正関数とその逆関数の近似であるレンズ歪み関数を算出するステップと、前記レンズ歪み補正関数と前記レンズ歪み関数の対をズーム倍率に対応づけてデータベースに登録するステップとを含む。
本発明のさらに別の態様は、画像補正方法である。この方法は、レンズ歪みの生じた画像内の点をレンズ歪みの生じていない画像内の点に写像するレンズ歪み補正関数とその逆関数の近似であるレンズ歪み関数の対をレンズのズーム倍率に対応づけて登録したデータベースを参照し、入力された撮影画像の撮影時のズーム倍率に応じた前記レンズ歪み関数を選択するステップと、選択された前記レンズ歪み関数にもとづいて、前記撮影画像の撮影による歪みを補正するステップとを含む。
本発明のさらに別の態様もまた、画像補正方法である。この方法は、レンズ歪みの生じていない画像内の点をレンズ歪みの生じた画像内の点に写像するレンズ歪み関数とレンズのズーム倍率とが対応づけられて登録されているデータベースを参照し、入力された撮影画像の撮影時のズーム倍率に応じた前記レンズ歪み関数を選択するステップと、選択された前記レンズ歪み関数によりレンズ歪みの補正された画像を用いて、透視歪みの生じていない画像内の点を透視歪みの生じた画像内の点に写像する透視歪み関数を算出するステップと、算出された前記透視歪み関数にもとづいて、前記撮影画像の撮影による歪みを補正するステップとを含む。
本発明のさらに別の態様の情報提供装置は、撮像装置によって得た撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、前記撮像データから画像の歪みを検出する歪み検出手段と、情報データを格納する情報データ格納手段と、前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と、前記歪み検出手段にて検出された画像の歪みと、に基づいて、前記情報データ格納手段に格納されている情報データを選択する選択手段と、前記選択手段により選択された情報データを外部へ出力する出力手段と、を含む。
前記の情報データとは、文字データ、画像データ、動画データ、音声データなどのことを指すものである。
本発明のさらに別の態様の情報提供装置は、撮像装置によって得た撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、前記撮像データから画像の歪みを検出する歪み検出手段と、情報データを格納する情報データ格納手段と、前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と前記歪み検出手段にて検出された画像の歪みとに基づいて前記情報データ格納手段に格納されている情報データを選択する選択手段と、前記選択手段により選択された情報データの内容を表示する表示手段と、を含むことを特徴とする。
本発明のさらに別の態様の画像処理装置は、撮像装置によって得た撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、前記撮像データから画像の歪みを検出する歪み検出手段と、画像データを格納する画像データ格納手段と、前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と前記歪み検出手段にて検出された画像の歪みとに基づいて前記画像データ格納手段に格納されている画像データを選択する選択手段と、を含む。
本発明のさらに別の態様の画像処理装置は、撮像装置によって得た撮像データから画像の歪みを検出する歪み検出手段と、前記歪み検出手段により検出された画像の歪みに基づいて前記撮像データから画像の歪みを補正する歪み補正手段と、前記歪み補正手段により画像の歪みが補正された撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、画像データを格納する画像データ格納手段と、前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と前記歪み検出手段にて検出された画像の歪みとに基づいて前記画像データ格納手段に格納されている画像データを選択する選択手段と、を含む。
本発明のさらに別の態様の情報端末は、撮像手段と、前記撮像手段によって得た撮像データから画像の歪みを検出する歪み検出手段と、前記歪み検出手段により検出された画像の歪みに基づいて前記撮像データから画像の歪みを補正する歪み補正手段と、前記歪み補正手段により画像の歪みが補正された撮像データと前記歪み検出手段にて検出された画像の歪み情報とを外部へ送信する送信手段と、を含む。
本発明のさらに別の態様の画像処理装置は、情報端末が送信した撮像データと画像の歪み情報とを受信する受信手段と、前記撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、情報データを格納する情報データ格納手段と、前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と前記受信手段が受信した画像の歪み情報とに基づいて前記情報データ格納手段に格納されている情報データを選択する選択手段と、を含む。
本発明のさらに別の態様の情報端末は、撮像手段と、前記撮像手段によって得た撮像データから画像の歪みを検出する歪み検出手段と、前記歪み検出手段により検出された画像の歪みに基づいて前記撮像データから画像の歪みを補正する歪み補正手段と、前記歪み補正手段により画像の歪みが補正された撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、前記電子透かし抽出手段により抽出された電子透かし技術により埋め込まれた情報と前記歪み検出手段にて検出された画像の歪み情報とを外部へ送信する送信手段と、を含む。
本発明のさらに別の態様の情報データベース装置は、撮像装置によって得た撮像データから画像の歪みを検出する歪み検出手段と、情報データを格納する情報データ格納手段と、前記歪み検出手段にて検出された画像の歪みに基づいて前記情報データ格納手段に格納されている情報データを選択する選択手段と、を含むことを特徴とする。
本発明のさらに別の態様のデータ構造は、撮像手段を有する情報端末から送信されるデータ構造であって、前記撮像手段によって得た撮像データから検出された画像の歪みに関する情報を有することを特徴とする。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、撮像画像の歪みを高い精度で効率良く補正することができる。
また、本発明によれば、電子透かしを利用した情報システムにおいて、クライアントは、1回の撮影操作により、複数の情報(たとえば、電子透かし情報と、クライアント自身が選択した情報)を外部に伝達することができる。
また、本発明によれば、例えば、電子透かしが埋め込まれた印刷画像を収録したカタログを利用した商品販売システムにおいて、色違いの商品などにそれぞれ写真を用意する必要がなくなり、紙面を有効に使用できる。
実施の形態1に係る電子透かし埋め込み装置の構成図である。 図1のブロック埋め込み部によるブロック埋め込み方式を説明する図である。 図1の電子透かし埋め込み装置から出力される印刷画像を説明する図である。 実施の形態1に係る電子透かし抽出装置の構成図である。 図4の電子透かし抽出装置により撮影された印刷画像を説明する図である。 撮影による画素のずれを説明する図である。 図4のプロファイル生成部および画像補正部の詳細な構成を説明する図である。 画角とズームレンズの焦点距離との関係を説明する図である。 図7のプロファイルデータベースに格納されるレンズ歪み関数対を説明する図である。 電子透かし抽出装置によるプロファイルデータベースの生成手順を説明する図である。 較正パターンとして用いられる格子模様画像を説明する図である。 レンズ歪み関数対を説明する図である。 実施の形態1に係る電子透かし抽出手順の全体的な流れを示すフローチャートである。 図13の画像補正処理の大まかな流れを示すフローチャートである。 図14のレンズ歪み関数対の選択の詳細な手順を示すフローチャートである。 図14の画像補正メイン処理の詳細な手順を示すフローチャートである。 補正目標画像内の点が補正対象画像内の点に写像される様子を説明する図である。 レンズ歪み関数による写像先の点における輝度値の算出方法を説明する図である。 図13の画像領域判定処理の詳細な手順を示すフローチャートである。 レンズ歪み補正画像から特徴点が抽出される様子を説明する図である。 速度優先システム向け選択方法と精度優先システム向け選択方法を切り替え可能なレンズ歪み関数対の選択の詳細な手順を示すフローチャートである。 図21の補正関数の事前評価の詳細な手順を示すフローチャートである。 ベジェ曲線による近似誤差の評価の様子を説明する図である。 図22の特徴点間のサンプル点列の取得の詳細な手順を示すフローチャートである。 図25(a)は、原画像領域のエッジ検出処理の様子を説明する図であり、図25(b)は、原画像領域の各辺のスプライン近似を説明する図である。 実施の形態2に係る電子透かし抽出装置の構成図である。 図26のプロファイル生成部および画像補正部の詳細な構成を説明する図である。 実施の形態2に係る電子透かし抽出手順の全体的な流れを示すフローチャートである。 図28の画像補正処理の大まかな流れを示すフローチャートである。 図29の透視歪み関数の算出の詳細な手順を示すフローチャートである。 図29の画像補正メイン処理の詳細な手順を示すフローチャートである。 補正目標画像内の点が補正対象画像内の点に写像される様子を説明する図である。 実施の形態3の画像データ提供システムの構成図である。 透かし入り商品画像のイメージ図である。 実施の形態3におけるクライアントによる透かし入り商品画像の撮影方向を示す図である。 商品の一例であるデジタルカメラを前方からみたときのイメージ画像である。 商品の一例であるデジタルカメラを後方からみたときのイメージ画像である。 実施の形態3のカメラ付き携帯電話の構成図である。 実施の形態3のサーバの構成図である。 透かし入り商品画像を真上(図34のプラスz側)から撮影した場合の撮影画像である。 透かし入り商品画像を左上方(図34のプラスz−マイナスx側)から撮影した場合の撮影画像である。 透かし入り商品画像を右上方(図34のプラスz−プラスx側)から撮影した場合の撮影画像である。 実施の形態3のサーバの画像データ索引部の内容を示した図である。 実施の形態3のサーバ1001が行う処理をフローチャートで示したものである。 実施の形態3の変形例の撮影画像を示した図である。 実施の形態3の透かし入り商品画像を参照して、ζ軸、η軸について説明した図である。 実施の形態4のカメラ付き携帯電話の構成図である。 実施の形態4のサーバの構成図である。 実施の形態4のカメラ付き携帯電話が行う処理のフローチャートである。 実施の形態4のサーバが行う処理のフローチャートでである。 実施の形態5の商品購入システムの構成図である。 実施の形態5の透かし入り商品画像を示した図である。 実施の形態5の商品購入システムにおけるサーバの構成図である。 実施の形態5のサーバの商品データベースの内容を示した図である。 実施の形態5のサーバの商品購入システムの概念図である。 実施の形態5の変形例のサーバの商品購入システムの概念図である。 実施の形態6のクイズ回答システムの構成を示す図である 実施の形態6におけるクライアントによる透かし入り商品画像の撮影方向を示す図である。 電子透かしを利用した商品販売システムの構成図である。
符号の説明
10 画像形成部、 12 ブロック埋め込み部、 14 印刷部、 20 原画像領域、 22 埋め込みブロック、 24 印刷媒体、 26 撮影領域、 30 撮影部、 32 画像領域判定部、 34 画像補正部、 36 透かし抽出部、 38 プロファイル生成部、 40 プロファイルデータベース、 80 透視歪み関数算出部、 82 レンズ歪み関数対算出部、 84 レンズ歪み関数対登録部、 86 レンズ歪み関数対選択部、 87 透視歪み関数算出部、 88 レンズ歪み補正処理部、 89 透視歪み補正処理部、 100 電子透かし埋め込み装置、 200 電子透かし抽出装置、 1001 サーバ、 1002 カメラ付き携帯電話、 1003 印刷物、 1006 撮影画像、 1007 透かし入り商品画像、 1011 送受信部、 1012 特徴点検出部、 1013 透視歪み検出部、 1014 透視歪み補正部、 1015 透かし抽出部、 1016 画像データベース、 1017 画像データ索引部、 1018 制御部、 1100 画像データ提供システム。
実施の形態1.
本発明の実施の形態1に係る電子透かしシステムは、図1の電子透かし埋め込み装置100と図4の電子透かし抽出装置200とを含み、電子透かし埋め込み装置100によって電子透かしの埋め込まれた印刷画像が生成され、電子透かし抽出装置200によって印刷画像を撮影して、埋め込まれた電子透かしが抽出される。電子透かし埋め込み装置100は、たとえば、チケットやカードの発行に用いられ、電子透かし抽出装置200は、チケットやカードの偽造を発見するために用いられる。どちらの装置もネットワーク上の端末からアクセスされるサーバとして構成してもよい。
図1は、実施の形態1に係る電子透かし埋め込み装置100の構成図である。これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像処理機能および電子透かし埋め込み機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
画像形成部10は、入力されたデジタル画像Iを印刷時の解像度、ここでは横方向(x軸方向ともいう)にW画素、縦方向(y軸方向ともいう)にH画素の解像度に変換する。画像サイズW、Hの一例としては、W=640、H=480である。
ブロック埋め込み部12は、画像形成部10によって印刷時の解像度に変換されたデジタル画像Iに透かし情報Xを埋め込む。ここで、ブロック埋め込み部12は、デジタル画像Iを所定サイズの正方ブロックに分割して、ブロックに同一の透かしビットを重複して埋め込む。この透かし情報Xのデジタル画像Iへの埋め込み方式を「ブロック埋め込み方式」と呼び、透かしビットの埋め込まれたデジタル画像Iのブロックを「埋め込みブロック」と呼ぶ。一例として、ブロックサイズNは4である。
図2(a)〜(d)は、ブロック埋め込み部12によるブロック埋め込み方式を説明する図である。図2(a)は、デジタル画像Iのブロック分割を説明する図である。横W画素、縦H画素をもつデジタル画像Iは、縦横N画素の埋め込みブロック22に分割される。
ブロック埋め込み部12は、透かし情報Xを構成する透かしビットの各々を埋め込むための埋め込みブロック22をデジタル画像Iから選択する。ブロック埋め込み部12は、各埋め込みブロック22において、同一の透かしビットを重複して埋め込む。図2(b)は、透かしビットが埋め込まれたデジタル画像Iを説明する図である。同図では、透かし情報Xが透かしビット列(0,1,1,0)で構成されている場合を例に説明する。ブロック埋め込み部12は、デジタル画像Iから第1透かしビット0を埋め込むための埋め込みブロック22a、第2透かしビット1を埋め込むための埋め込みブロック22b、第3透かしビット1を埋め込むための埋め込みブロック22c、第4透かしビット0を埋め込むための埋め込みブロック22dを選択し、これらの埋め込みブロック22a〜dにそれぞれの透かしビットを重複して埋め込む。
図2(c)は、埋め込みブロック22に埋め込まれる透かしビットを説明する図である。ここでは、ブロックサイズNが4で、透かしビットが1の場合を例に説明する。同図のように、埋め込みブロック22には、透かしビット1が重複して16個埋め込まれる。
図2(d)は、透かしビットの抽出時における画素のずれとそれが透かしビットの検出に与える影響を説明する図である。原画像における埋め込みブロック22の理想的な端点23に対して、撮影画像において検出される埋め込みブロック28の実際の端点29が、同図のように横方向に1画素ずれていたとする。この場合でも、原画像の埋め込みブロック22と撮影画像の埋め込みブロック28の重複領域では、同一の透かしビット1が重複して12個検出される。したがって、ブロック全体で多数決により正しい透かしビットの値を検出することが可能である。このようにブロック埋め込み方式により、画素のずれに対する耐性が高まる。
印刷部14は、ブロック埋め込み部12により透かし情報Xが埋め込まれたデジタル画像Iを紙やカードなどの印刷媒体に印刷し、印刷画像Pを生成する。なお、同図では、印刷部14は電子透かし埋め込み装置100の構成要素であるが、印刷部14を電子透かし埋め込み装置100の外部に設け、プリンタによって構成してもよく、その場合は、電子透かし埋め込み装置100とプリンタは、周辺機器の接続ケーブルまたはネットワークで接続される。
図3は、出力された印刷画像Pを説明する図である。印刷媒体24上に電子透かしの埋め込まれたデジタル画像I(原画像ともいう)が印刷されており、原画像が印刷された領域20(以下、単に原画像領域20という)の周囲には通常、印刷媒体24の余白部分が存在する。
図4は、実施の形態1に係る電子透かし抽出装置200の構成図である。撮影部30は、電子透かしの埋め込まれた印刷画像Pまたは格子模様画像Rを撮影して電子化する。プロファイル生成部38は、異なるズーム倍率で撮影された格子模様画像Rの格子点の位置ずれを検出して、画像に生じた歪みの補正情報を生成し、その補正情報をズーム倍率に対応づけてプロファイルデータベース40に登録する。画像補正部34は、印刷画像Pの撮影時のズーム倍率に応じた補正情報をプロファイルデータベース40から選択し、印刷画像Pの撮影画像に生じた歪みを補正する。画像領域判定部32は、歪み補正された撮影画像内の原画像領域20を判定する。透かし抽出部36は、歪み補正された撮影画像内の原画像領域20をブロックに分割して、各ブロックに埋め込まれた透かしビットを検出することにより、透かし情報Xを抽出する。これらの構成も、CPU、メモリなどのハードウエア、画像処理機能および電子透かし抽出機能のあるソフトウエアの任意の組み合わせによっていろいろな形で実現することができる。
電子透かし抽出装置200におけるプロファイル生成部38、画像補正部34、およびプロファイルデータベース40は、本発明の画像補正装置の一例である。
撮影部30は、電子透かし埋め込み装置100により生成された印刷画像Pを撮影し、印刷画像Pをデジタル化する。同図では、撮影部30は電子透かし抽出装置200の構成要素であるが、撮影部30を電子透かし抽出装置200の外部に設け、デジタルカメラやスキャナによって構成してもよく、その場合は、電子透かし抽出装置200と、デジタルカメラまたはスキャナは、周辺機器の接続ケーブルまたはネットワークで接続される。特にデジタルカメラに無線通信機能がある場合は、デジタルカメラで取り込まれた撮影画像が無線で電子透かし抽出装置200に送信される。
図5は、撮影された印刷画像Pを説明する図である。撮影部30は、印刷画像Pを撮影するとき、印刷媒体24の原画像領域20全体を撮影するが、通常、原画像領域20の周囲の余白部分も撮影する。すなわち撮影領域26は、一般に、印刷媒体24上で原画像領域20よりも広い範囲である。このように撮影部30による撮影画像には、印刷媒体24の余白部分も含まれているため、撮影画像の歪み補正をした後、原画像領域20の切り出しが必要となる。
画像補正部34は、撮影画像全体の歪み補正を行う。撮影部30によって印刷画像Pを取り込む際、撮影画像にはレンズ歪みや透視歪みが生じる。画像補正部34は、埋め込まれた電子透かしを正確に抽出できるように、画像に生じた歪みを補正する。歪み補正には、プロファイルデータベース40に格納された歪みを補正するための関数が利用される。
画像領域判定部32は、画像補正部34により歪み補正された撮影画像にエッジ抽出処理などを施して原画像の領域を判定する。これにより、図5の撮影領域26から余白部分を取り除いた原画像領域20が切り出される。
透かし抽出部36は、画像領域判定部32により判定された原画像領域20を縦横N画素のブロックに分割して、各ブロックから透かしビットを検出することにより、透かし情報Xを抽出する。ブロック埋め込み方式で埋め込まれた透かしビットを検出する際、埋め込みブロックに歪みがあると、透かしの検出が困難になるが、画像補正部34により歪みが補正されているため、透かしの検出精度が保証される。また、仮に、歪み補正後に画素のずれが多少残っていたとしても、各ブロックには透かしビットが重複して埋め込まれているため、正しい透かしビットを検出することができる。
図6は、撮影による画素のずれを説明する図である。原画像の埋め込みブロック50に対して、撮影画像の埋め込みブロック60が同図のようにずれているとする。原画像の埋め込みブロック50における端点52に対して、撮影画像の埋め込みブロック60の端点62は、縦横に1画素ずつずれている。このような状況でも、原画像の埋め込みブロック50と撮影画像の埋め込みブロック60の重複領域では、同一の透かしビット(ここでは1で示す)が重複して検出されるので、透かし抽出部36は正しい透かしビットを検出することができる。
図7は、プロファイル生成部38および画像補正部34の詳細な構成を説明する図である。プロファイル生成部38は、透視歪み関数算出部80、レンズ歪み関数対算出部82、およびレンズ歪み関数対登録部84を含む。画像補正部34は、レンズ歪み関数対選択部86およびレンズ歪み補正処理部88を含む。
まず、補正情報のプロファイルデータベース40への登録について説明する。レンズ歪みを測定するために、撮影部30は、格子模様画像Rを撮影し、プロファイル生成部38に与える。ズームレンズを利用して撮影する場合は、ズーム倍率を変えて、複数の画角θのもとで、格子模様画像Rを撮影する。プロファイル生成部38の透視歪み関数算出部80は、格子模様画像Rの画像領域の入力を受け、格子模様画像Rの模様の交点の透視歪みによる位置ずれを検出することにより、透視歪みの生じていない画像内の点を透視歪みの生じた画像内の点に写像する透視歪み関数gを算出する。
レンズ歪み関数対算出部82は、透視歪み関数算出部80が算出した透視歪み関数gの入力を受け、透視歪みを考慮した上で、格子模様画像Rの模様の交点のレンズ歪みによる位置ずれを検出することにより、画角θのもとでのレンズ歪み補正関数fおよびレンズ歪み関数f −1を算出する。ここでレンズ歪み補正関数fは、レンズ歪みの生じた画像内の点をレンズ歪みの生じていない画像内の点に写像するものである。レンズ歪み関数f −1は、レンズ歪み補正関数fの逆関数の近似であり、レンズ歪みの生じていない画像内の点をレンズ歪みの生じた画像内の点に写像するものである。レンズ歪み補正関数fとレンズ歪み関数f −1の組をレンズ歪み関数対(f,f −1)と呼ぶ。
レンズ歪み関数対登録部84は、レンズ歪み関数対算出部82により算出されたレンズ歪み関数対(f,f −1)を画角θに対応付けてプロファイルデータベース40に登録する。
次に、上記のプロファイルデータベース40を利用した画像の補正について説明する。撮影部30は撮影した印刷画像Pを画像補正部34に与える。画像補正部34のレンズ歪み関数対選択部86は、印刷画像Pの撮影画像の入力を受け、画像情報から撮影時の画角θを判定し、プロファイルデータベース40から撮影時の画角θに対応するレンズ歪み関数対(F,F−1)を選択し、レンズ歪み補正処理部88にレンズ歪み関数F−1を与える。レンズ歪み補正処理部88は、レンズ歪み関数F−1を用いて、撮影画像全体のレンズ歪みを補正し、補正後の撮影画像を画像領域判定部32に与える。
図8(a)、(b)は、画角とズームレンズの焦点距離との関係を説明する図である。図8(a)は被写体90にレンズ94のピントが合っている状態を示し、被写体90の頂点Vは、CCD96の撮像面では被写体の像の頂点vに対応している。ここで主点95はレンズ94の中心であり、焦点距離fは、レンズの法線方向に入射した平行光が1点に収束する点(焦点という)と主点95までの距離である。光軸92は、主点95を通りレンズ94の法線方向を傾きとしてもつ直線である。光軸92と、主点と被写体90の頂点Vを結ぶ直線とがなす角度ωを半画角といい、ωの2倍を画角という。本願では、半画角ωを単に「画角」と呼ぶ。
ピントを合わせたい被写体90の高さをYとし、CCD96の撮像面に写っている被写体の像の高さをyとする。倍率mは、被写体90の実際の高さYに対するCCD96に撮像される被写体の像の高さyの割合であり、m=y/Yで求められる。ここで、ピントが完全に合っている状態を次のように定義する。
定義1 被写体にピントが完全に合っている
被写体にピントが完全に合っているとは、被写体の頂点とCCD面に写った被写体の像の頂点を結ぶ直線が主点を通っており、かつ、主点からCCD面までのレンズに対する法線方向の距離が焦点距離に等しいことをいう。
定義1の意味でピントが完全に合っている状態において、光軸92とCCD96の撮像面が交わる点をピント中心98と呼ぶ。
レンズは、大きく分けて単焦点レンズとズームレンズの2種類に分類される。単焦点レンズでは焦点距離fの変更が不可能である。これに対し、ズームレンズでは、2枚以上のレンズの組合せにより構成されていて、レンズ間の距離や各レンズのCCD96の撮像面からの距離を調節することで、焦点距離fや主点などを自由に変更することができる。ズームレンズを用いた被写体の倍率変更を説明する。まず、倍率の変更を次のように定義する。
定義2 倍率の変更
倍率の変更とは、被写体面とCCD面の間の距離を変更せず、ピントが完全に合った状態を維持したまま、CCD面に写っている被写体の像の高さを変更することをいう。
ここで、「被写体面とCCD面の間の距離を変更しない」点と、「ピントが完全に合った状態を維持している」点が重要である。たとえば、カメラを持った人が被写体から遠ざかることにより、CCD面に写る像は小さくなるが、これは被写体面とCCD面間の距離が変化しているから、倍率の変更ではない。
定義1および2にしたがって、レンズ94の焦点距離をfからf’に変更し、倍率を変えた例を図8(b)に示す。焦点距離の変更により、レンズ94の主点97が移動する。被写体90の頂点VとCCD96の撮像面に写った被写体の像の頂点v’を結ぶ直線は、焦点距離変更後のレンズ94の主点97を通っている。被写体90とCCD96間の距離は、図8(a)と同じであり、定義1の意味においてピントが完全に合っている。
このとき、CCD96の撮像面に写る被写体の像の高さはyからy’(>y)に変わり、倍率がm=y’/Yに変更された。またこのとき、画角もωからω’(>ω)に変更される。なお、実際のカメラではズームレンズは2枚以上のレンズの組み合わせにより構成されており、レンズ間の距離や各レンズのCCD面からの距離を調節することで、焦点距離と主点の位置を調整し、倍率を変更する。
補正対象となるレンズ歪みあるいは歪曲収差は、画角ωに依存することが知られている。この性質は、岸川利郎著「光学入門」(オプトロニクス社、1990年)に記されている。焦点距離が変更不可能な単焦点レンズの場合、画角が変わることはないため、レンズ歪み関数対は1つだけ用意して、プロファイルデータベース40に登録しておけばよい。一方、ズームレンズの場合は、ピントが完全に合った状態を保ちつつ、倍率を変更し、いろいろな画角θのもとで、レンズ歪み関数対(f,f −1)を求め、プロファイルデータベース40に登録しておく必要がある。
図9(a)、(b)は、プロファイルデータベース40に格納されるレンズ歪み関数対を説明する図である。図9(a)は、単焦点レンズの場合のレンズ歪み関数対のデータベースの構造を示す。単焦点レンズの場合、カメラの機種名にレンズ歪み関数対を対応づけて格納したテーブル42がプロファイルデータベース40に設けられる。ここでは、機種名Aには、レンズ歪み関数対(f,f −1)が対応づけられ、機種名Bには、レンズ歪み関数対(f,f −1)が対応づけられている。
図9(b)は、ズームレンズの場合のレンズ歪み関数対のデータベースの構造を示す。ズームレンズの場合、カメラの機種名にカメラのCCDの対角長とレンズ歪み関数対テーブルへのポインタを対応づけて格納したテーブル44がプロファイルデータベース40に設けられる。ここでは、機種名AにCCDの対角長dとレンズ歪み関数対テーブル46へのポインタが対応づけられている。
レンズ歪み関数対テーブル46は、機種名Aのカメラのズームレンズの倍率を変化させた場合の画角をラベル付けし、ラベルi、画角θ、レンズ歪み関数対(f,f −1)を対応づけて格納したものである。このレンズ歪み関数対テーブル46は、画角の代わりに、焦点距離またはズーム倍率に対応づけてレンズ歪み関数対(f,f −1)を格納するものであってもよい。その場合θを式により計算してレンズ歪み補正関数対を選択しなくても、焦点距離から一意にレンズ歪み関数を選択可能なため、CCDの対角長dをデータベース内に保持しない構成をとってもよい。
図10は、電子透かし抽出装置200によるプロファイルデータベース40の生成手順を説明する図である。
プロファイル生成部38は、変数iを0に初期化し、定数Mの値をM=(Max−Min)/rにより求める(S200)。ここで、Min、Maxはそれぞれズームレンズの最小倍率、最大倍率であり、rは倍率を変更するときの最小単位である。単焦点レンズの場合は、M=0とする。
撮影部30は、格子模様画像Rを撮影する(S202)。図11は、較正パターンとして用いられる格子模様画像Rを説明する図である。格子模様画像Rは、一例として、市松模様であり、縦横L画素のサイズの格子模様で構成される。格子模様画像Rの格子サイズLは、電子透かし埋め込み装置100による透かしのブロック埋め込み方式におけるブロックサイズNと同程度のサイズである。一例として、ブロックサイズNが8である場合、格子サイズLも8程度とすればよい。なお、ブロックサイズNは、当該電子透かしシステムで統一的に決められているか、何らかの形で電子透かし抽出装置200側に通知されているものとする。
格子模様画像Rの撮影は以下の条件のもとで行われる。
[撮影条件]
(1)格子模様画像RのCCD面上における像の高さが、撮影機器固有の値であるCCDの対角長dと等しくなるようにする。言い換えれば、CCD面全体に格子模様画像Rが撮像され、撮影機器の表示画面全体に格子模様画像Rが表示されるようにする。
(2)定義1の意味において格子模様画像Rを含む平面にピントが完全に合っているようにする。
格子模様画像Rをカメラで撮影する場合、正確に真上から撮影することは難しく、光軸のずれにより透視歪みが生じる。そこで、まず透視歪みを補正する処理が行われる。
透視歪み関数算出部80は、格子模様画像Rの撮影画像における格子模様の交点の撮像位置を検出する(S204)。検出された格子模様の交点の個数をNとし、各交点の座標を(X,Y)(k=0,…,N−1)とする。
次に、透視歪み関数算出部80は、検出された各交点(X,Y)(k=0,…,N−1)に対応する格子模様画像Rにおけるパターン位置(m,n)(k=0,…,N−1)を決定する(S206)。パターン位置(m,n)とは、歪みの生じていない格子模様画像Rにおける格子模様の交点の座標である。格子模様画像Rの格子配列が既知であることより、格子模様画像Rの撮影画像上の交点の座標(X,Y)に対応するパターン位置(m,n)は容易に決定できる。
透視歪み関数算出部80は、格子模様画像Rの撮影画像上の交点の位置(X,Y)とそれに対応するパターン位置(m,n)の関係をもとにして、透視歪み関数gを算出する(S208)。ここで、透視歪み関数gを求める際、交点の全部は利用せずに、格子模様画像Rの撮影画像の中心に近い交点のみを用いる。たとえば、中心付近の交点として、全体の1/4の交点を用いる。これは、中心に近い部分は、レンズ歪みの影響が少なく、透視歪み関数gを正確に求めることができるからである。
格子模様画像Rの撮影画像上の交点の撮像位置(X,Y)とそれに対応するパターン位置(m,n)の間には、次のような関係があることが知られている。この性質は、金谷健一著「画像理解 3次元認識の数理」(森北出版株式会社、1990年)に記されている。
=(cm+dn+e)/(am+bn+1)
=(fm+gn+h)/(am+bn+1)
対応する点の組{(X,Y)},{(m,n)},k=0,…,(N−1)/4が与えられたとき、上記の関係式の係数a〜hを求めるために次の最小二乗法を用いる。
J=Σk=0 (N−1)/4[(X(am+bn+1)−(cm+dn+e))+(Y(am+bn+1)−(fm+gn+h))]→min
上式において、∂J/∂a=0,…,∂J/∂h=0を解くことにより、Jが最小となる係数a〜hを求めることができる。
このようにして、パターン位置(m,n)を格子模様画像Rの撮影画像上の交点の基準位置(X’,Y’)に写像する透視歪み関数gが得られる。
(X’,Y’)=g(m,n),k=0,…,N−1
次に、算出された透視歪み関数gにもとづいて、レンズ歪み関数対を求める処理が行われる。レンズ歪み関数対算出部82は、算出された透視歪み関数gを用いて、すべてのパターン位置(m,n)(k=0,…,N−1)を写像し、基準位置(X’,Y’)(k=0,…,N−1)を求める。
格子模様画像Rの撮影画像上の交点の撮像位置(X,Y)は、透視歪みとレンズ歪みの両方の影響を受けて元の位置からずれているが、パターン位置(m,n)を透視歪み関数gで写像した基準位置(X’,Y’)は、透視歪みの影響のみを受けて元の位置からずれている。したがって、基準位置(X’,Y’)と撮影画像上の交点の撮像位置(X,Y)のずれは、レンズ歪みによるものであり、両者の関係を調べることにより、レンズ歪みを解消するためのレンズ歪み補正関数fを求めることができる。
レンズ歪み関数対算出部82は、対応する点の組{(X’,Y’)},{(X,Y)}(k=0,…,N−1)に対して、次の多項式によりレンズ歪み補正関数fを算出する(S210)。
’=a +b +c +d +e +g +h +i +j +k +l+m +n+o+p
’=a +b +c +d +e +g +h +i +j +k +l+m +n+o+p
ここで、各係数a〜p、a〜pは次の最小二乗法により算出される。
J=Σk=0 N−1[(X’−(a +b +c +d +e +g +h +i +j +k +l+m +n+o+p))
+(Y’−(a +b +c +d +e +g +h +i +j +k +l+m +n+o+p))]→min
このようにして、撮影画像上の交点の位置(X,Y)と基準位置(X’,Y’)の関係を示すレンズ歪み補正関数fが得られる。画像補正時に双方向の演算が必要になることから、レンズ歪み補正関数fの逆関数の近似であるレンズ歪み関数f −1も求めておく。レンズ歪み関数f −1の算出にはレンズ歪み補正関数fの算出と同様に最小二乗法を用いる。
(X’,Y’)=f(X,Y),k=0,…,N−1
(X,Y)=f −1(X’,Y’),k=0,…,N−1
図12は、レンズ歪み関数対(f,f −1)を説明する図である。一般に、レンズの歪曲収差により撮影された画像は樽型や糸巻き型に変形する。撮影によりレンズ歪みの生じた画像300は、レンズ歪み補正関数fにより、レンズ歪みのない画像310に変換される。逆に、レンズ歪みのない画像310は、レンズ歪み関数f −1により、レンズ歪みの生じた画像300に変換される。
再び図10を参照する。レンズ歪み関数対算出部82は、撮影時の画角θを焦点距離fとCCD面の対角長dを用いて、次式により求める(S212)。格子模様画像Rの撮影画像がEXIF(Exchangeable Image File Format)で与えられた場合、画像データに含まれるEXIF情報から撮影時の焦点距離fを取得することができる。
θ=tan−1(d/2f
レンズ歪み関数対登録部84は、レンズ歪み関数対(f,f −1)を画角θに対応づけてプロファイルデータベース40に登録する(S214)。
変数iを1だけインクリメントし(S216)、変数iがMより小さい場合(S218のY)、ステップS202に戻って、ズーム倍率を1段階上げた状態で格子模様画像Rを再度撮影し、透視歪み関数gとレンズ歪み関数対(f,f −1)を算出する処理を行う。変数iがMより小さくなくなった場合(S218のN)、プロファイルデータベース40の生成処理を終了する。
これにより、単焦点レンズの場合は、1つのレンズ歪み関数対(f,f−1)がプロファイルデータベース40に登録され、ズームレンズの場合は、各倍率に対して、画角θとレンズ歪み関数対(f,f −1)が対応づけられてプロファイルデータベース40に登録される。
以上の構成による電子透かし抽出装置200による電子透かし抽出手順を説明する。
図13は、電子透かし抽出手順の全体的な流れを示すフローチャートである。撮影部30は印刷画像Pを撮影する(S10)。画像補正部34は、補正回数counterを初期化して、counter=0とする(S12)。
画像補正部34は、撮影部30による印刷画像Pの撮影画像に対して、後に詳述する画像補正処理を行う(S14)。以下では、歪みが生じている補正対象の画像を「補正対象画像」と呼び、補正目標となる歪みが生じていない状態の画像を「補正目標画像」と呼ぶ。画像補正処理S14は、プロファイルデータベース40に格納されたレンズ歪み関数によって、補正目標画像の座標(i,j)を補正対象画像の座標(xij,yij)に変換し、座標(xij,yij)における輝度値をバイリニア補間などにより求め、補正目標画像の元の座標(i,j)における輝度値として設定するものである。
画像領域判定部32は、画像補正部34により歪み補正された撮影画像の原画像領域20を判定する(S15)。透かし抽出部36は、画像領域判定部32により判定された原画像領域20から透かし情報Xを検出する処理を行う(S16)。この透かし検出処理は、原画像領域20のブロック単位で透かしビットを検出することで行われる。透かし抽出部36は、意味のある透かし情報Xが得られたかどうかを調べ、透かし検出の成否を判定する(S18)。
透かし検出に成功した場合(S18のY)、終了する。透かし検出に失敗した場合(S18のN)、補正回数counterを1だけインクリメントし(S20)、ステップS14に戻り、画像補正処理をやり直し、再度透かしの検出を試みる。透かし検出に失敗した場合、閾値などのパラメータを調整して、プロファイルデータベース40からレンズ歪み関数を再選択して画像補正処理を行い、透かし検出を再度試みる。透かし検出が成功するまで、補正回数counterをインクリメントしながら、画像補正と透かし検出の処理を繰り返す。
図14は、図13の画像補正処理S14の大まかな流れを示すフローチャートである。画像補正部34は、印刷画像Pの撮影画像全体を補正対象画像とし、補正対象画像の画像サイズ(W’,H’)を取得し(S30)、次に補正目標画像の画像サイズ(W,H)を設定する(S32)。撮影画像は、歪み補正により最終的に横方向W画素,縦方向H画素の画像に変換される。
画像補正部34のレンズ歪み関数対選択部86は、プロファイルデータベース40に問い合わせを行い、撮影時の画角に対応したレンズ歪み関数対を取得する(S34)。レンズ歪み補正処理部88は、レンズ歪み関数対選択部86により取得されたレンズ歪み関数を用いて、画像補正メイン処理を行う(S38)。
図15は、図14のレンズ歪み関数対の選択S34の詳細な手順を示すフローチャートである。まず、レンズ歪み関数対選択部86は、撮影に使われたカメラのレンズがズームレンズかどうかを判定する(S50)。これは補正対象画像に含まれるEXIF情報に焦点距離に関する項目があるかどうかで判定することができる。
ズームレンズでない場合(S50のN)、レンズ歪み関数対選択部86は、撮影に使われたカメラの機種名を補正対象画像のEXIF情報から取得し、機種名をキーとしてプロファイルデータベース40に問い合わせを行い、機種名に対応づけられたレンズ歪み関数対を取得し(S52)、終了する。
ズームレンズである場合(S50のY)、レンズ歪み関数対選択部86は、補正対象画像に含まれるEXIF情報より画角θを算出する(S54)。画角θの算出は、次の前提条件が成立するものとして行われる。
[前提条件]
被写体にピントが完全に合っている。
すなわち、ピントの合っていない写真の補正時には誤差が生じることになる。上記の前提条件のもとで、レンズ歪み関数対選択部86は、プロファイルデータベース40からカメラのCCDの対角長dを取得し、補正対象画像のEXIF情報から撮影時の焦点距離fを取得し、画角θを次式により算出する。
θ=tan−1(d/2f)
レンズ歪み関数対選択部86は、EXIF情報から得られる機種名と、ステップS54で算出された画角θをキーとしてプロファイルデータベース40を検索し、プロファイルデータベース40に登録されている画角θと算出された画角θの差分|θ−θ|が最も小さいラベルiに対応するレンズ歪み関数対(f,f −1)を選択し(S58)、終了する。
このようにして、レンズ歪み関数対選択部86がプロファイルデータベース40から取得したレンズ歪み関数対を以下(F,F−1)と書く。
図16は、図14の画像補正メイン処理S38の詳細な手順を示すフローチャートである。レンズ歪み補正処理部88は、補正目標画像のy座標値jを0に初期化する(S80)。次に、補正目標画像のx座標値iを0に初期化する(S82)。
レンズ歪み補正処理部88は、レンズ歪み関数F−1によって、補正目標画像における点P(i,j)を補正対象画像内の点Q(xij,yij)に写像する(S86)。
(xij,yij)=F−1(i,j)
図17は、補正目標画像内の点が補正対象画像内の点に写像される様子を説明する図である。補正目標画像320は、レンズ歪みの生じていない画像であり、補正対象画像340は、レンズ歪みの生じた画像である。補正目標画像320における点P(i,j)は、レンズ歪み関数F−1により、補正対象画像340における点Q(xij,yij)に写像される。
レンズ歪み補正処理部88は、点Q(xij,yij)における輝度値L(xij,yij)を周辺の画素の輝度値によりバイリニア(bi-linear)補間法などによって補間して算出し、算出された輝度値L(xij,yij)を補正目標画像の点P(i,j)における輝度値として設定する(S88)。
図18は、レンズ歪み関数F−1による写像先の点Q(xij,yij)における輝度値L(xij,yij)の算出方法を説明する図である。点Q(xij,yij)の近傍に4画素p、q、r、sがあり、それらの座標がそれぞれ(x’,y’)、(x’,y’+1)、(x’+1,y’)、(x’+1,y’+1)であるとする。点Qから辺pr、辺qsに下ろした垂線の足をそれぞれ点e、fとし、点Qから辺pq、辺rsに下ろした垂線の足を点g、hとする。
点Qは、線分efを内分比v:(1−v)で分け、線分ghを内分比w:(1−w)で分ける点である。点Qにおける輝度値L(xij,yij)を4点p、q、r、sの輝度値L(x’,y’)、L(x’,y’+1)、L(x’+1,y’)、L(x’+1,y’+1)を用いたバイリニア補間により次式のように求める。
L(xij,yij)=(1−v)×{(1−w)×L(x’,y’)+w×L(x’+1,y’)}+v×{(1−w)×L(x’,y’+1)+w×L(x’+1,y’+1)}
ここでは、点Qの輝度値をバイリニア補間により近傍の4画素の輝度値から補間して求めたが、補間方法はこれに限られない。また、4画素以上の点を用いて補間してもよい。
図16を参照し、ステップS88の処理の後、x座標値iを1だけインクリメントする(S90)。x座標値iが補正対象画像の幅W’よりも小さいなら(S92のN)、ステップS86に戻り、x軸方向に座標値を進めながら、画素の輝度値を求める処理を繰り返す。
x座標値iが補正対象画像の幅W’以上なら(S92のY)、現在のy座標値jのもとでのx軸方向の画素の輝度値が得られたので、次に、y座標値jを1だけインクリメントする(S94)。y座標値jが補正対象画像の高さH’以上なら(S96のY)、補正目標画像のすべての画素について補間により輝度値が得られたので、終了する。y座標値jが補正対象画像の高さH’よりも小さいなら(S96のN)、ステップS82に戻り、x座標値を再び0に初期化し、新しいy座標値jのもとでx軸方向に座標値を進めながら、画素の輝度値を求める処理を繰り返す。
図19は、図13の画像領域判定処理S15の詳細な手順を示すフローチャートである。画像領域判定部32は、画像補正部34によりレンズ歪みが補正された画像から特徴点を抽出し、画像サイズ(w,h)を算出する(S120)。
図20は、レンズ歪み補正画像350から特徴点が抽出される様子を説明する図である。同図の補正目標画像322は、レンズ歪み補正画像350の原画像領域20に対応する画像であり、幅W、高さHの大きさである。画像領域判定部32は、レンズ歪み補正画像350の特徴点として、黒丸で示した原画像領域20の4隅の頂点や各辺上の点を検出する。レンズ歪み補正画像350は画像補正部34によりレンズ歪みが除去されているため、4辺は直線になっているため、エッジ抽出処理などによる検出が容易であり、検出された特徴点列から4隅の頂点の座標値(x0,y0)、(x1,y1)、(x2,y2)、(x3,y3)を正確に求めることができる。これら4隅の頂点の座標値を用いて、原画像領域20の幅w、高さhを次式により算出することができる。
w=x2−x0=x3−x1
h=y1−y0=y3−y2
画像領域判定部32は、補正目標画像のy座標値jを0に初期化する(S122)。次に、補正目標画像のx座標値iを0に初期化する(S124)。
画像領域判定部32は、図20に示すように、補正目標画像の点P(i,j)を次式によりレンズ歪み補正画像内の点Q(xij,yij)に写像する(S126)。
ij=i×w/(W−1)+x0
ij=j×h/(H−1)+y0
画像領域判定部32は、点Q(xij,yij)における輝度値L(xij,yij)を周辺の画素の輝度値によりバイリニア補間法などによって補間して算出し、算出された輝度値L(xij,yij)を補正目標画像の点P(i,j)における輝度値として設定する(S128)。
画像領域判定部32は、x座標値iを1だけインクリメントする(S130)。x座標値iが補正目標画像の幅Wよりも小さいなら(S132のN)、ステップS126に戻り、x軸方向に座標値を進めながら、画素の輝度値を求める処理を繰り返す。
x座標値iが補正目標画像の幅W以上なら(S132のY)、現在のy座標値jのもとでのx軸方向の画素の輝度値が得られたので、次に、y座標値jを1だけインクリメントする(S134)。y座標値jが補正目標画像の高さH以上なら(S136のY)、補正目標画像のすべての画素について補間により輝度値が得られたので、終了する。y座標値jが補正目標画像の高さHよりも小さいなら(S136のN)、ステップS124に戻り、x座標値を再び0に初期化し、新しいy座標値jのもとでx軸方向に座標値を進めながら、画素の輝度値を求める処理を繰り返す。
本実施の形態の変形例を説明する。図15のレンズ歪み関数対の選択S34において、現実には、被写体にピントが完全に合っているという前提条件が成り立つことは難しく、ステップS54で算出される画角θには誤差が生じる。また、レンズ歪み関数算出時に誤差が生じている場合もある。これらシステムの誤差の影響により、算出された画角θに対応するレンズ歪み関数対をプロファイルデータベース40から選択しても、必ずしも最適なレンズ歪み関数対が選択されているとは限らない。そこで算出された画角θをキーとしたプロファイルデータベース40への問い合わせ方法をシステムの要求や電子透かしの埋め込み方法に応じて次の2通りの方法から選択する。
[速度優先システム向け選択方法]
上記のシステムの誤差を許容できる場合の方法であり、処理速度を優先し、図15のステップS58のように、単純にプロファイルデータベース40に登録されている画角θと算出された画角θの差分|θ−θ|が最も小さいラベルiに対応するレンズ歪み関数対(f,f −1)を選択する。
[精度優先システム向け選択方法]
システムの誤差を許容できない場合の方法であり、算出された画角θを基準として、プロファイルデータベース40から複数のレンズ歪み関数対の候補を取得し、どのレンズ歪み関数対がもっとも精度よく画像を補正できるかを事前評価し、評価のもっとも良いレンズ歪み関数対を選択する。
たとえば、速度優先システム向け選択方法は、透かしの埋め込みブロックのサイズNが大きく、システムの誤差の影響が小さいときに利用され、精度優先システム向け選択方法は、透かしの埋め込みブロックのサイズNが小さく、システムの誤差の影響が大きいときに利用される。もしくは、本発明の適用先アプリケーションの性質によって指定してもよい。例えばアミューズメント向けのアプリケーションに適用されている場合は、透かし検出率よりも反応速度が優先されるため、速度優先が選択される。また、精度優先が選択されるアプリケーションとしてチケットの認証システムなどが考えられる。
図21は、速度優先システム向け選択方法と精度優先システム向け選択方法を切り替え可能なレンズ歪み関数対の選択S34の詳細な手順を示すフローチャートである。図15と違う点のみ説明する。レンズ歪み関数対選択部86は、速度優先かどうかを判定する(S56)。たとえば、レンズ歪み関数対選択部86は、透かしの埋め込みブロックのサイズNの大小によって、自動的に速度優先、精度優先のいずれかを選択する。別の方法として、ユーザが速度優先モードか精度優先モードのいずれかを指定してもよい。
速度優先である場合(S56のY)、図15と同様にステップS58が実行される。速度優先でない場合(S56のN)、補正関数の事前評価がなされる(S60)。
図22は、図21の補正関数の事前評価S60の詳細な手順を示すフローチャートである。レンズ歪み関数対選択部86は、プロファイルデータベース40に登録されている画角θと算出された画角θの差分|θ−θ|が最も小さいラベルiを含めて、その前後のN個のラベルのレンズ歪み補正関数f(j=0,1,…,N−1)を候補として取得する(S62)。
補正対象画像においてM個の特徴点を定め、補正対象画像の特徴点間のP個のサンプル点列(X,Y)(m=0,1,…,P−1)を取得する(S64)。一例として、長方形の補正対象画像の場合、特徴点は4隅の頂点であり、特徴点間のサンプル点列は、隣り合う頂点を結ぶ各辺上でサンプルされた点列である。ここでサンプル点列には両端の特徴点を含むものとする。すなわち、(X,Y)、(XP−1,YP−1)はそれぞれ特徴点である。また、別の例として、補正対象画像内の人物などのオブジェクトのエッジ上の点列をサンプル点列としてもよい。たとえば、人物の顔や目の輪郭上にサンプル点列を設けてもよい。
サンプル点の個数Pは、市松模様などの格子模様画像Rの格子サイズLを基準として定められ、たとえばLの値は、16、32などである。M個の特徴点の中から2個の特徴点を選び、その2個の特徴点間でサンプル点列を決めるため、最大の特徴点の組み合わせがありうるが、その組み合わせの中で有効なものは、特徴点を結んだ線の形状が既知である場合に限られる。
変数jを0に初期化する(S66)。サンプル点列(X,Y)(m=0,1,…,P−1)をレンズ歪み補正関数fにより写像する(S68)。レンズ歪み補正関数fにより写像されたサンプル点列を(X ,Y )(m=0,1,…,P−1)とする。
(X ,Y )=f(X,Y),m=0,1,…,P−1
次に、写像されたサンプル点列(X ,Y )(m=0,1,…,P−1)を制御点とするq次のベジェ曲線H’を算出する(S70)。次数qは、特徴点間のサンプル点列が、レンズ歪みがなければ、本来どのような線上に並んでいるかによって決められる。補正目標画像が長方形であり、特徴点が4隅の頂点である場合、特徴点間のサンプル点列は本来、長方形の辺上にある。この場合、次数q=1と決める。ベジェ曲線の定義より、1次のベジェ曲線は、特徴点間を結ぶ直線となる。
算出されたベジェ曲線と制御点間の誤差の和Dを次式により算出する(S72)。
=Σm=0 P−1[(Y −(H’(X )))
上式は、x方向にサンプリングされた場合に、ベジェ曲線による近似誤差を評価する式である。
図23(a)〜(c)は、ベジェ曲線による近似誤差の評価の様子を説明する図である。図23(a)は5個のサンプル点を示し、図23(b)は、図23(a)のサンプル点列をレンズ歪み補正関数fにより写像したものである。図23(c)は、q=1のベジェ曲線、すなわち直線を写像後のサンプル点列に当てはめた様子を示し、各サンプル点列において誤差dj0〜dj4が生じている。誤差の和DはD=dj0+dj1+dj2+dj3+dj4により求められる。
再び図22を参照する。変数jを1だけインクリメントし(S74)、jがNより小さいなら(S76のY)、ステップS68に戻り、次のレンズ歪み補正関数fについて誤差の和Dを算出する処理を行う。jがNより小さくない場合(S76のN)、誤差の和D(j=0,1,…,N−1)が最小となるラベルjに対応するレンズ歪み関数対(f,f −1)を選択し(S78)、終了する。
図24は、図22の特徴点間のサンプル点列の取得S64の詳細な手順を示すフローチャートである。ここでは、一例として補正対象画像すなわち原画像領域20の画像枠を検出して、サンプル点列を抽出する方法を説明する。
まず、ステップS40において、エッジ判定に用いる閾値Tを設定する。ここでは、T=T0−counter×Δにより、閾値Tを設定する。counterとは図13のフローチャートから分かるように補正回数のことであり、T0とは初回補正時の閾値である。すなわち、補正回数が増えるごとに閾値TをΔずつ下げて、図13のステップS14、ステップS15、およびステップS16の処理を行う。
一例として、余白領域の端の画素Aの輝度値は200、原画像領域20の端にあり前記画素Aに隣接する画素Bの輝度値は90、T0は115、Δは10であるとする。前記画素Aと画素Bの輝度値の差が閾値Tよりも大きいときに、画素Aと画素Bの間にエッジがあると判定する場合、1回目の補正時(counter=0)では、前記輝度値の差が110であるのに対し、閾値Tは115であるため、画素Aと画素Bの間にエッジがあるとは判定されない。しかし、2回目の補正時(counter=1)では、閾値Tは105となるため、画素Aと画素Bの間にエッジがあると判定される。
次にステップS42において、画像補正部34がエッジ検出処理を行う。隣接する画素の輝度の差分値と、ステップS40で設定した閾値Tとを比較し、差分値の方が大きければ該画素がエッジとみなす。図25(a)は、原画像領域20のエッジ検出処理の様子を説明する図である。撮影領域26の左上の頂点を原点にとり、横方向をx軸、縦方向をy軸とした座標系を用いる。斜線で示した原画像領域20の4頂点A〜Dの座標は、それぞれ(X0,Y0)、(X1,Y1)、(X2,Y2)、(X3,Y3)である。x軸上の点E((X0+X2)/2,0)を走査開始点としてy軸方向に画素を走査し、y軸方向に並ぶ2画素の輝度値の差が閾値Tよりも大きい場合に、その2画素の境界地点をエッジとして判定する。以降、その地点を開始点としてx軸方向に左右に走査して、同様にy軸方向に並ぶ2画素の輝度値の差が閾値Tよりも大きくなる場所を探索し、原画像領域20の横方向のエッジを検出する。
縦方向のエッジも同様に検出する。y軸上の点F(0,(Y0+Y1)/2)を走査開始点としてx軸方向に画素を走査し、x軸方向に並ぶ2画素の輝度値の差が閾値Tよりも大きくなる場所を探索し、原画像領域20の縦方向のエッジを検出する。
なお、ここではy軸方向またはx軸方向に並ぶ2画素の輝度値の差に基づき原画像領域20の縦方向または横方向のエッジを検出するものとしたが、これに代えて、エッジ検出テンプレートを利用してエッジを検出するものであってもよい。たとえばPrewittのエッジ検出器を用いたマッチングによる計算値と閾値Tとの比較結果に基づき、エッジを検出するものであってもよい。
なお、補正回数counterの値が大きくなると、閾値Tが初期値T0から小さくなっていくため、補正回数の増加とともにエッジ判定の条件が徐々に緩くなる。高い閾値Tを用いてエッジを抽出しようとすると、撮影画像のノイズにより、正しくエッジを検出できないことがあり、そのような場合は、閾値Tがより小さい値に設定されることにより、判定条件を緩めてエッジ検出がなされる。
図24に戻り、画像補正部34は、原画像領域20の各辺を曲線近似するための標本点数Nを決定する(S44)。たとえば、N=Nmin+counter×N0と設定する。ここで、Nminはスプライン曲線の次数に応じて決める値、N0は定数である。補正回数counterが増加すると、標本点数Nが増えるため、各辺の近似精度が高まる。画像補正部34は、ステップS42で検出されたエッジ点列から固定パラメータN点分だけ標本点を選択し、原画像領域20の各辺をスプライン近似する(S46)。サンプル点列は、こうして得られたスプライン曲線上の点をサンプルすることにより得られる。あるいは、スプライン曲線の制御点でもあるN個の標本点をそのままサンプル点列としてもよい。
図25(b)は、原画像領域20の各辺のスプライン近似を説明する図である。原画像領域20の各辺71、72、73、74は、たとえば、各辺上の3点と両端の2頂点を標本点とする3次スプライン曲線a+b+cx+dにより近似される。この場合、スプライン曲線のパラメータは4つあるため、Nmin=2と設定される。補正回数が増えると、画像補正部34は、標本点数Nを増やすとともに、スプライン曲線の次数を大きくしてもよい。次数を増やすことにより、撮影された印刷画像Pにおける原画像領域20の各辺の形状をより正確に求めることができる。
以上述べたように、本実施の形態の電子透かし抽出装置200では、あらかじめ、画角毎にレンズ歪み関数対をデータベースに用意しておき、撮影時の画角に応じたレンズ歪み関数対を利用してレンズ歪みを補正する。そのため、高い精度で画像に生じた歪みを補正することができ、電子透かしの検出頻度を高めることができる。
また、算定される画角や、登録されているレンズ歪み補正関数には誤差が含まれるが、レンズ歪み補正関数を事前評価することで、より適切なレンズ歪み補正関数を選択することができる。また、電子透かしの埋め込みブロックのサイズの大小に応じて、レンズ歪み補正関数の事前評価をするかどうかを決めることができるため、画像歪みに対する電子透かしの耐性に見合った精度で画像歪みを補正することができ、無駄な歪み補正処理を避けて、透かしの検出精度を維持することができる。
実施の形態2.
実施の形態1では、補正対象画像に透視歪みがないか、もしくは透視歪みによる影響が無視できるほど小さいものとして、レンズ歪み補正だけを行ったが、実施の形態2では、補正対象画像の透視歪みの補正も行う。その他の構成と動作は実施の形態1と同じであるから、実施の形態1と異なる点だけを説明する。
図26は、実施の形態2に係る電子透かし抽出装置200の構成図である。図4に示した実施の形態1に係る電子透かし抽出装置200では、画像補正部34が撮影画像のレンズ歪みを補正をした後に、画像領域判定部32がレンズ歪み補正画像から原画像領域20を切り出す処理を行ったが、本実施の形態では、画像領域判定部32の構成は含まれない。これは画像補正部34における透視歪みの補正処理において、原画像領域20を切り出す処理が合わせて行われるからである。したがって、本実施の形態では、画像補正部34がレンズ歪みと透視歪みが補正された後の原画像領域20を透かし抽出部36に直接与え、透かし抽出部36が歪み補正された原画像領域20に埋め込まれた透かし情報Xを抽出する。
図27は、実施の形態2のプロファイル生成部38および画像補正部34の詳細な構成を説明する図である。プロファイル生成部38の構成は、図7に示した実施の形態1のプロファイル生成部38と同じである。
本実施の形態の画像補正部34は、レンズ歪み関数対選択部86、レンズ歪み補正処理部88、透視歪み関数算出部87、および透視歪み補正処理部89を含む。
撮影部30は撮影した印刷画像Pを画像補正部34に与える。画像補正部34のレンズ歪み関数対選択部86は、印刷画像Pの撮影画像の入力を受け、画像情報から撮影時の画角θを判定し、プロファイルデータベース40から画角θに対応するレンズ歪み関数対(F,F−1)を選択し、レンズ歪み補正処理部88にレンズ歪み補正関数Fを与える。
レンズ歪み補正処理部88は、レンズ歪み関数F−1を利用して、撮影画像に生じたレンズ歪みを補正し、レンズ歪みが補正された画像を透視歪み関数算出部87に与える。透視歪み関数算出部87は、レンズ歪み補正画像を利用して、撮影画像内の原画像領域20の透視歪みを表現する透視歪み関数Gを算出し、算出された透視歪み関数Gを透視歪み補正処理部89に与える。
透視歪み補正処理部89は、透視歪み関数Gを用いて、原画像領域20の透視歪みを補正し、補正後の原画像領域20を透かし抽出部36に与える。
図28は、電子透かし抽出手順の全体的な流れを示すフローチャートである。図13に示した実施の形態1に係る電子透かし抽出手順と異なるのは、原画像領域20を抽出するための画像領域判定処理S15がない点であり、それ以外は実施の形態1と同じである。本実施の形態では、原画像領域20の抽出は、画像補正処理S14において透視歪みの補正の際に行われることになる。
図29は、本実施の形態の画像補正部34による画像補正処理S14の大まかな流れを示すフローチャートである。図14に示した実施の形態1における画像補正処理S14と異なるのは、レンズ歪み関数対の選択S34の後、レンズ歪みが補正され(S35)、さらにレンズ歪み補正後に透視歪み関数が算出され(S36)、画像補正メイン処理S38において、透視歪み関数を使って画像補正がなされる点である。
レンズ歪みの補正S35の手順を説明する。レンズ歪み補正処理部88は、実施の形態1の図16で説明した手順と同様に、レンズ歪み関数F−1により写像することにより、補正対象画像全体に生じたレンズ歪みを補正する。
図30は、図29の透視歪み関数の算出S36の詳細な手順を示すフローチャートである。画像補正部34は、印刷画像Pの撮影画像全体を補正対象画像とし、補正目標画像における特徴点の個数Mとそのパターン位置(cm,cn)(k=0,1,…,M−1)を設定する(S100)。特徴点の位置は補正目標画像において既知であるとする。一例として、長方形の補正目標画像における4隅の頂点を特徴点として設定するなら、M=4で、特徴点は(0,0),(W−1,0),(0,H−1),(W−1,H−1)となる。別の例として、長方形の補正目標画像の各辺上に等間隔で目印をつけ特徴点としてもよい。また、補正目標画像内の人物などのオブジェクトのエッジ上の点を特徴点としてもよい。
透視歪み関数算出部87は、ステップS100で設定した特徴点情報に基づき、レンズ歪み補正後の補正対象画像において、対応する特徴点を検出する処理を行い、補正対象画像内の特徴点の撮像位置(CX,CY)(k=0,1,…,M−1)を求める(S104)。たとえば、補正対象画像である原画像領域20から4隅の頂点を特徴点として検出する場合、一例として、原画像領域20のエッジをエッジフィルタなどの手法で追跡して、原画像領域20の頂点を見つけ、さらに、頂点近傍の画素をフーリエ変換して、位相角を検出することにより頂点の正確な位置を特定する。また、補正対象画像の各辺上の点を特徴点とする場合は、原画像領域20の画像枠上に存在する目印の検出処理を行う。
透視歪み関数算出部87は、ステップS104で検出された特徴点(CX,CY)とそれに対応する補正目標画像上のパターン位置(cm,cn)の関係から最小二乗法により透視歪み関数Gを算出する(S106)。この透視歪み関数Gの算出には、図10の透視歪み関数gの算出S208と同じ手順が用いられる。すなわち、レンズ歪み補正後の補正対象から検出された特徴点(CX,CY)にはレンズ歪みの影響がないため、検出された特徴点(CX,CY)とそれに対応する補正目標画像上のパターン位置(cm,cn)のずれは、透視歪みによるものであり、両者の間には、図10の透視歪み関数gの算出S208で述べた透視歪みの関係式が成り立つ。透視歪み関数算出部87は、この透視歪みの関係式の係数を求めることで、透視歪み関数Gを算出することができる。
図31は、本実施の形態の画像補正メイン処理S38の詳細な手順を示すフローチャートである。透視歪み補正処理部89は、補正目標画像のy座標値jを0に初期化する(S80)。次に、補正目標画像のx座標値iを0に初期化する(S82)。
透視歪み補正処理部89は、補正目標画像における点P(i,j)を透視歪み関数Gにより写像する(S84)。透視歪み関数Gにより写像された点の座標を点Q(xij,yij)とする。
(xij,yij)=G(i,j)
図32は、補正目標画像内の点が補正対象画像内の点に写像される様子を説明する図である。図32(a)の補正目標画像322は撮影画像内の原画像領域20に対応する画像であり、幅W、高さHの大きさである。図32(c)の補正対象画像342は、レンズ歪みと透視歪みのある撮影画像であり、原画像領域20を含め、撮影領域26全体にレンズ歪みと透視歪みが生じている。図29のステップS35において、レンズ歪み補正処理部88がレンズ歪み関数F−1を用い、図32(c)の補正対象画像342のレンズ歪みを補正し、図32(b)のレンズ歪み補正画像330へと変換する。レンズ歪み補正画像330においては、原画像領域20を含め、撮影領域26全体のレンズ歪みが除去されているが、透視歪みは残っている。
図31のステップS84において、補正目標画像322における点P(i,j)は、図32に示すように、透視歪み関数Gにより、透視歪みの生じているレンズ歪み補正画像330内の点Q(xij,yij)に写像される。
透視歪み補正処理部89は、点Q(xij,yij)における輝度値L(xij,yij)を周辺の画素の輝度値によりバイリニア補間法などによって補間して算出し、算出された輝度値L(xij,yij)を補正目標画像の点P(i,j)における輝度値として設定する(S88)。
x座標値iを1だけインクリメントする(S90)。x座標値iが補正目標画像の幅Wよりも小さいなら(S92のN)、ステップS84に戻り、x軸方向に座標値を進めながら、画素の輝度値を求める処理を繰り返す。
x座標値iが補正目標画像の幅W以上なら(S92のY)、現在のy座標値jのもとでのx軸方向の画素の輝度値が得られたので、次に、y座標値jを1だけインクリメントする(S94)。y座標値jが補正目標画像の高さH以上なら(S96のY)、補正目標画像のすべての画素について補間により輝度値が得られたので、終了する。y座標値jが補正目標画像の高さHよりも小さいなら(S96のN)、ステップS82に戻り、x座標値を再び0に初期化し、新しいy座標値jのもとでx軸方向に座標値を進めながら、画素の輝度値を求める処理を繰り返す。
以上述べたように、本実施の形態の電子透かし抽出装置200では、レンズ歪み補正関数を利用して、特徴点の透視歪みによる位置ずれを検出し、撮影時の透視歪み関数をその都度正確に求めることができる。これにより、レンズ歪みの他に透視歪みが生じた画像であっても、レンズ歪みと透視歪みを切り分けて処理することにより、正確に歪みを補正することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
そのような変形例として、上記の説明では、透視歪みを補正するために、透視歪み関数を算出したが、その変わりに、透視歪みのいくつかのパターンを示す格子形状のプロファイルデータをプロファイルデータベース40に格納しておいてもよい。たとえば、格子模様画像Rを撮影するときの光軸をいろいろな方向と角度で傾けて、透視歪みが生じた複数の格子パターンを撮影し、プロファイルデータベース40に登録しておき、画像補正時に最も合う格子パターンを利用して透視歪みを補正する。
また、上記の説明では、レンズ歪み関数対をプロファイルデータベース40に登録したが、関数の形ではなく、補正目標画像内の点と補正対象画像内の点の対応関係を示すテーブルの形でプロファイルデータベース40に格納してもよい。この場合、補正目標画像を透かしの埋め込みブロックのサイズに合わせて、格子状に区切り、格子点の対応関係だけをレンズ歪みのプロファイルデータとしてプロファイルデータベース40に登録すればよい。
上記の透かし検出手順では、透かし検出に失敗した場合、閾値などのパラメータを調整して画像補正処理をやり直し、透かし検出を再度試みるが、透かし検出に失敗した場合、あるいは補正回数が所定回数を超えた場合に、画像補正部34は、撮影部30に印刷画像Pの再撮影を要求してもよい。
レンズ歪み関数対のデータは、デジタルカメラやスキャナなどの撮影機器の機種別にプロファイルデータベース40に格納されてもよい。電子透かし抽出装置200は、撮影機器の機種情報を取得して、印刷画像Pの撮影に使用された機種に合ったレンズ歪み関数対のデータを選択して使用することができる。
上記の実施例は、電子透かしが「ブロック埋め込み方式」で埋め込まれた画像の原画像領域20の画像補正を例に説明したものであったが、これは本発明の画像補正技術の一実施例に過ぎない。上記実施例で説明した構成や処理手順によれば、電子透かしが他の方式で埋め込まれた画像の補正をすることもできる。また、上記実施例で説明した画像補正に係る構成と処理手順によれば、電子透かしが埋め込まれていない一般的な画像を補正することも可能である。たとえば、印刷画像の撮影画像に限らず、カメラで人物や風景などの被写体を実写した画像の補正にも本発明の画像補正技術を適用することができる。
実施の形態3.
図33は、本願発明が適用される画像データ提供システム1100の構成図である。この画像データ提供システム1100は、3次元物体である商品(ここでは、デジタルカメラ)を各視点から見たときの2次元画像をクライアントに提供するものである。
商品の画像データ提供システム1100は、サーバ1001、カメラ付き携帯電話1002、及び印刷物1003で構成される。印刷物1003には、透かし入り商品画像1007が印刷されている。
図34は、透かし入り商品画像1007のイメージを示したものである。この透かし入り商品画像1007は、3次元物体である商品(ここでは、デジタルカメラ)の側面図であり、この画像中には、商品に対応する識別情報が電子透かしにより埋め込まれている。
本実施の形態では、同図で示すように、透かし入り商品画像1007の横方向をx方向、透かし入り商品画像1007の縦方向をy方向、透かし入り商品画像1007に対して垂直であって、その画像の裏側から表側に貫く方向をz方向として、以後の説明を進める。
クライアントは、商品の2次元画像を見たい視点に応じてカメラ(カメラ付き携帯電話1002)を傾けて、透かし入り商品画像1007を撮影する。この撮影により得られたデジタル画像データはサーバ1001へ送信される。
この画像データを受信したサーバ1001は、クライアントがカメラを傾けて撮影したことにより生じた、前記画像データの透視歪みを補正する。次に、補正された画像データから、電子透かし技術により埋め込まれた情報を検出する。そして、電子透かし技術により埋め込まれた情報と、補正時に得られた透視歪み情報と、に基づいて、該当する商品の一視点(斜め上、斜め横など)から見た2次元画像データを、サーバ1001の画像データベースから選択する。画像データベースから選択された2次元画像データは、カメラ付き携帯電話1002に返信される。
例えば、図35(a)のように、クライアントが透かし入り商品画像1007を左上方(プラスz−マイナスx側)から撮影した場合、サーバ1001は、商品を前方からみたときの2次元画像データ(図36)をクライアントのカメラ付き携帯電話1002に送信する。
図35(b)のように、クライアントが透かし入り商品画像1007を右上方(プラスz−プラスx側)から撮影した場合、サーバ1001は、商品を後方からみたときの2次元画像データ(図37)をクライアントのカメラ付き携帯電話1002に送信する。
また、図35(c)のように、クライアントが透かし入り商品画像1007を真上(プラスz側)から撮影した場合、サーバ1001は、商品を側面からみたときの高解像度の2次元画像データ(図示しない)をクライアントのカメラ付き携帯電話1002に送信する。
図38は、本実施の形態のカメラ付き携帯電話1002の構成図である。カメラ付き携帯電話1002は、CCD1021、画像処理回路1022、制御回路1023、LCD1024、送受信部1025、操作部1026、などを有する。なお、同図にはカメラ付き携帯電話1002に係る、カメラ機能やサーバ1001との通信に必要な構成のみを示し、その他の構成は図示省略している。
CCD1021により撮影された撮影画像1006(図34参照)の撮像データは、画像処理回路1022によりデジタル変換処理され、デジタル画像データが生成される。
送受信部1025は、外部とのデータ通信処理を行う。具体的には、前記デジタル画像データをサーバ1001へ送信したり、サーバ1001が送信したデータを受信したりする。
LCD1024は、前記デジタル画像データや、外部から送信されてきたデータを表示する。
操作部1026は、通話を行うためのボタンに加え、撮影時に必要なシャッターボタンなどを有している。
画像処理回路1022、LCD1024、送受信部1025、操作部1026は、制御回路1023に接続されている。
図39は、本実施の形態のサーバ1001の構成図である。サーバ1001は、送受信部1011、特徴点検出部1012、透視歪み検出部1013、透視歪み補正部1014、透かし抽出部1015、画像データベース1016、画像データ索引部1017、制御部1018などからなる。
送受信部1011は、外部との送受信処理を行う。具体的には、カメラ付き携帯電話1002から送信されてきたデジタル画像データを受信したり、カメラ付き携帯電話1002へ情報データを送信したりする。
特徴点検出部1012は、送受信部1011が受信したデジタル画像データから、透かし入り商品画像1007の領域を切り出すために用いられる特徴点(例えば、透かし入り商品画像1007のフレームの四隅に存在する4つの特徴点)を検出する処理を行う。この特徴点を検出する方法については、例えば、本願出願人による特許出願(特願2003−418272号)の明細書に記載されている。
また、特徴点検出部1012は、必要に応じ、特徴点検出処理の前に画像の復号処理を行う。例えば、デジタル画像データがJPEG形式の画像データであれば、特徴点検出処理の前に、JPEG形式の画像データを、各座標における濃度値を表す2次元配列データに変換する,復号処理を行う必要がある。
透視歪み検出部1013は、カメラ付き携帯電話1002から送信されてきたデジタル画像データから透視歪みを検出する。そして、この透視歪みに基づいて、カメラ付き携帯電話1002による撮影時における、撮影方向を推定する。以下に撮影方向の推定方法について説明する。
図40は、透かし入り商品画像1007を真上(図34のプラスz側)から撮影した場合の撮影画像1006である。図41は、透かし入り商品画像1007を左上方(図34のプラスz−マイナスx側)から撮影した場合の撮影画像1006である。図42は、透かし入り商品画像1007を右上方(図34のプラスz−プラスx側)から撮影した場合の撮影画像1006である。図40から図42においては、撮影画像1006の横方向をx’方向、縦方向をy’方向であるとしている。
図40(又は図41、図42)を参照して、撮影方向の検出は、第1の特徴点(透かし入り商品画像1007の領域の左上(マイナスx’側−プラスy’側)のコーナー)と第3の特徴点(透かし入り商品画像1007の領域の左下(マイナスx’側−マイナスy’側)のコーナー)の間の距離d13と、第2の特徴点(透かし入り商品画像1007の領域の右上(プラスx’側−プラスy’側)のコーナー)と第4の特徴点(透かし入り商品画像1007の領域の右下(プラスx’側−マイナスy’側)のコーナー)の間の距離d24の大小関係に基づいて行われる。
図40を参照して、透かし入り商品画像1007を真上から撮影した場合、d13=d24となる。したがって、特徴点検出部1012により検出された特徴点間の距離がd13=d24の関係であった場合、透視歪み検出部1013は撮影画像1006は透かし入り商品画像1007を真上(図34のプラスz側)から撮影したときの画像と認識する。
図41を参照して、透かし入り商品画像1007を左上方から撮影した場合、d13>d24となる。したがって、特徴点検出部1012により検出された特徴点間の距離がd13>d24の関係であった場合、透視歪み検出部1013は撮影画像1006は透かし入り商品画像1007を左上方(図34のプラスz−マイナスx側)から撮影したときの画像と認識する。
図42を参照して、透かし入り商品画像1007を右上方から撮影した場合、d13<d24となる。したがって、特徴点検出部1012により検出された特徴点間の距離がd13<d24の関係であった場合、透視歪み検出部1013は撮影画像1006は透かし入り商品画像1007を右上方(図34のプラスz−プラスx側)から撮影したときの画像と認識する。
尚、透視歪み検出部1013は、上記のように、
13=d24のとき、真上から撮影したもの、
13<d24のとき、右上方から撮影したもの、
13>d24のとき、左上方から撮影したもの、
と認識する代わりに、ある正の値を有するαがあって、
|d13−d24|<αのとき、真上から撮影したものと認識、
24−d13≧αのとき、右上方から撮影したものと認識、
13−d24≧αのとき、左上方から撮影したものと認識、
と認識するものであっても良い。但し、αは撮影時に発生する透視歪みのずれを許容するパラメータである。
また、透視歪み検出部1013は、ある正の値を有するβ(但し、β>α)があって、
|d13−d24|>β のとき、後に行う透視歪みの補正、もしくは透かしの検出が不可能であると判断し、これ以降のデジタル画像データの処理を中止させるものであっても良い。
透視歪み補正部1014は、透視歪み検出部1013で検出されたデジタル画像データの透視歪みを補正する。透視歪み補正の方法については、例えば本願出願人による特許出願(特願2003−397502号)の明細書などに記載されている。
透かし抽出部1015は、透視歪み補正部1014で透視歪みが補正されたデジタル画像データから、電子透かし技術により埋め込まれた情報を抽出する。この電子透かし情報を抽出する方法については、例えば、本願出願人による特許出願の公開公報(特開2003−244419号公報)などに記載されている。
画像データベース1016は、3次元物体である様々な商品を、様々な角度から撮影した2次元画像データを収録している。
画像データ索引部1017は、画像データベース1016に収録されている2次元画像データの索引情報を収録している。より具体的には、図43を参照して、画像データ索引部1017は、商品の形式/型番を表す商品識別IDと、透視歪み情報の2つを索引キーとして、2次元画像データの内容に関する情報と、画像データベース1016における2次元画像データの先頭アドレスに関する情報とを収録している。前記商品識別IDは、透かし抽出部1015によりデジタル画像データから抽出された、デジタル画像データ中に埋め込まれた電子透かし情報に対応するものである。また、先頭アドレスに関する情報は画像を索引するために使用され、画像を一意に識別できるものであればよい。
前記透視歪み情報は、透視歪み検出部1013により検出された透視歪みであり、クライアントの撮影時における撮影方向に対応するものである。クライアントが真上の方向から透かし入り商品画像1007を撮影した場合、透視歪み情報は「0」である。クライアントが左上の方向から透かし入り商品画像1007を撮影した場合、透視歪み情報は「1」である。クライアントが右上の方向から透かし入り商品画像1007を撮影した場合、透視歪み情報は「2」である。
制御部1018は、サーバ1001の各構成部を制御する。
なお、これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像処理機能および電子透かし埋め込み機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
図44は、本実施の形態のサーバ1001が行う処理をフローチャートで示したものである。
ステップS1001では、送受信部1011が、カメラ付き携帯電話1002から送信されてきたデジタル画像データを受信する。ステップS1002では、特徴点検出部1012が、送受信部1011で受信したデジタル画像データから透かし入り商品画像1007の領域を切り出すために用いられる特徴点(例えば、透かし入り商品画像1007のフレームの四隅に存在する4つの特徴点)を検出する処理を行う。このとき、特徴点検出部1012は、必要に応じ特徴点検出処理の前に画像の復号処理を行う。
ステップS1003では、カメラ付き携帯電話1002から送信されてきたデジタル画像データにおける透視歪みの検出を、透視歪み検出部1013が行う。透視歪みの検出方法については、上記で説明したとおりである。
ステップS1004では、透視歪み検出部1013で検出された透視歪みを、透視歪み補正部1014が補正する。
ステップS1005では、透視歪み補正部1014で透視歪みが補正されたデジタル画像データから、電子透かし技術により埋め込まれた情報を抽出する処理を、透かし抽出部1015が行う。
ステップS1006では、透かし抽出部1015により抽出された情報と、透視歪み検出部1013で検出された透視歪み情報とを索引キーとして、画像データ索引部1017を参照し、クライアントが要求する2次元画像データの種類を特定する。
ステップS1007では、前記ステップS1006において特定された2次元画像データを獲得すべく、画像データベース1016を参照する。
ステップS1008では、画像データベース1016から獲得した2次元画像データをカメラ付き携帯電話1002に送信する処理を、送受信部1011が行う。
本実施の形態によれば、クライアントは、1回の撮影操作により、複数の情報(見たい商品と、見たい視点)を画像データベースのサーバに伝達することができる。従来、クライアントは、見たい商品の透かし入り画像を撮影後、見たい視点をボタン押下により選択する必要があった。或いは、画像データベースの管理者は、商品と視点の組合せに対応した枚数の透かし入り画像を用意する必要があった。
したがって、本実施の形態によれば、クライアントの操作負担を軽減させるだけでなく、画像データベースの管理者の経済効率も向上させることができる。
実施の形態3の変形例1.
実施の形態3は、3次元物体である商品の2次元画像を見たい視点に応じてカメラを傾けて、透かし入り商品画像1007を撮影するものであるが、撮影方向は、上記例の3方向に限定されるものではない。
例えば、クライアントが、商品の上方(天井側)から見たときの画像を見たい場合、クライアントは、透かし入り商品画像1007を、図34のプラスz−プラスy側から撮影することで、天井側から見たときの画像をサーバ1001から獲得することができる。
或いは、商品の下方(床側)から見たときの画像を見たい場合、クライアントは、透かし入り商品画像1007を、プラスz−マイナスy側から撮影することで、床側から見たときの画像をサーバ1001から獲得することができる。
このような場合、撮影方向の検出は、図45を参照して、第1の特徴点(透かし入り商品画像1007の領域の左上(マイナスx’側−プラスy’側)のコーナー)と第2の特徴点(透かし入り商品画像1007の領域の右上(プラスx’側−プラスy’側)のコーナー)の間の距離d12と、第3の特徴点(透かし入り商品画像1007の領域の左下(マイナスx’側−マイナスy’側)のコーナー)と第4の特徴点(透かし入り商品画像1007の領域の右下(プラスx’側−マイナスy’側)のコーナー)の間の距離d34の大小関係に基づいて行われる。
即ち、サーバ1001は、
i)d12>d34のとき、画像はプラスz−プラスy側から撮影されたものと認識し、クライアントは商品を上方(天井側)から見たときの画像を欲しているものと認識する。
ii)d12<d34のとき、画像はプラスz−マイナスy側から撮影されたものと認識し、クライアントは商品を下方(床側)から見たときの画像を欲しているものと認識する。
実施の形態3の変形例2.
いま、図46に示すように透かし入り商品画像1007の2つの対角線をそれぞれζ軸、η軸とする。ここで、クライアントが商品の背面を天井側からみたときの画像を欲している場合、透かし入り商品画像1007をプラスz−プラスζ側から撮影することにより、当該画像を獲得することができるようにしても良い。或いは、クライアントが、商品の背面を床側からみたときの画像を欲している場合、透かし入り商品画像1007をプラスz−プラスη側から撮影することにより、当該画像を獲得することができるようにしても良い。
このような場合、サーバ1001は、
iii)d12>d34、かつ、d13<d24のとき、画像はプラスz−プラスζ側から撮影されたものと認識し、
iv)d12<d34、かつ、d13<d24のとき、画像はプラスz−プラスη側から撮影されたものと認識する。
実施の形態3の変形例3.
上記例は、3次元物体であるデジタルカメラを各視点から見たときの画像をクライアントに提供するシステムに関するものであったが、本願の発明は3次元物体である乗用車を各視点から見たときの画像をクライアントに提供するシステムにも適用できるものである。
実施の形態3の実験例.
実施の形態3に記載された画像データ提供システム1100と同様の構成のシステムを構築し、実験を行った。この実験では、被写体画像(実施の形態3の透かし入り商品画像1007に対応)の対角線の長さを70.0mm、CCDの対角線の長さを8.86mm(1/1.8型)、カメラのレンズの焦点距離を7.7mm、被写体からレンズ中心への距離を70〜100mmとした。
その結果、被写体画像の法線とカメラ光軸の角度が20°以下であれば、撮影された被写体画像に透視歪みがあっても、その透視歪みを補正することにより、電子透かし技術により埋め込まれた情報を抽出することが可能であった。
もしも、真上方向から大きくずれた角度から撮影した場合、電子透かし技術により埋め込まれた情報が抽出できないのであれば、本願発明の実用性は低いものとなってしまうが、上記実験結果が示すように、真上方向から20°もずれた角度から撮影しても、画像に電子透かし技術により埋め込まれた情報が抽出することができるため、本願発明の実用性は高いものである。
また、この実験では、被写体画像の法線とカメラ光軸の角度の大きさが5°未満の場合、被写体撮影は真上から行われたものとし、被写体画像の法線とカメラ光軸のなす角度の大きさが5°以上の場合、被写体撮影は斜めから行われたものと判断するように当該実験システムを設定したが、当該実験において、撮影方向の誤認識が生じることはなかった。
実施の形態4.
実施の形態3では、サーバ1001が、カメラ付き携帯電話1002から送信されてきたデジタル画像データの透視歪み検出やその補正を行っていた。
これに対し、本実施の形態は、カメラ付き携帯電話1002が、デジタル画像データをサーバ1001に送信する前に、透視歪み検出やその補正を行っておくものである。検出された透視歪み情報は、デジタル画像データのヘッダ領域に格納される。デジタル画像データのデータ領域には、透視歪み補正後の画像データが格納される。
図47は、本実施の形態のカメラ付き携帯電話1002の構成図である。
カメラ付き携帯電話1002は、カメラ付き携帯電話1002は、CCD1021、画像処理回路1022、制御回路1023、LCD1024、送受信部1025、操作部1026、特徴点検出部1027、透視歪み検出部1028、透視歪み補正部1029、ヘッダ付加部1030などを有する。なお、同図にはカメラ付き携帯電話1002に係るカメラ機能や、透視歪み補正機能、及び、サーバ1001との通信に必要な構成のみを示し、その他の構成は図示省略している。
CCD1021、画像処理回路1022、制御回路1023、LCD1024、操作部1026、実施の形態3におけるカメラ付き携帯電話1002のそれらと同様であるので、詳細な説明は省略する。
特徴点検出部1027は、画像処理回路1022により生成されたデジタル画像データから透かし入り商品画像1007の領域の特徴点を検出する処理を行う。ここで言う特徴点とは、透かし入り商品画像1007のフレームの四隅に存在する4つの特徴点のことである。
透視歪み検出部1028は、デジタル画像データの透視歪みを検出する。透視歪みの検出方法については、実施の形態3のサーバ1001の透視歪み検出部1013が行う方法と同様であるので、詳細な説明は省略する。
透視歪み補正部1029は、透視歪み検出部1028で検出された透視歪みを補正する。補正方法については、実施の形態3のサーバ1001の透視歪み補正部1014と同様、特願2003−397502号の明細書に記載された技術などがある。
ヘッダ付加部1030は、透視歪み検出部1028で検出された透視歪み情報をデジタル画像データのヘッダ領域に付加する。
透視歪み情報が付加されたデジタル画像データは、送受信部22によりサーバ1001に送信される。
なお、透視歪み検出部1028により検出された透視歪みの情報は、LCD1024に表示されるものであっても良い。そうすることにより、クライアントは、自身の撮影動作に、自身の選択が反映されているかどうかを、サーバ1001にデジタル画像データを送信する前に確認することができる。
なお、これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像処理機能および電子透かし埋め込み機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
図48は、本実施の形態のサーバ1001の構成図である。サーバ1001は、送受信部1011、透かし抽出部1015、画像データベース1016、画像データ索引部1017、制御部1018、ヘッダ情報検出部1019などを有する。
送受信部1011は、実施の形態3のサーバ1001と同様、データの送受信処理を行う。
透かし抽出部1015は、送受信部1011が受信したデジタル画像データから、電子透かし技術により埋め込まれた情報を抽出する。
ヘッダ情報検出部1019は、カメラ付き携帯電話1002から送信されてきたデジタル画像データのヘッダ領域に格納された透視歪み情報を検出する。
画像データベース1016は、実施の形態3のサーバ1001と同様、3次元物体である様々な商品を、様々な角度から撮影した2次元画像データなどを収録している。
画像データ索引部1017も、実施の形態3のサーバ1001と同様、画像データベース1016に収録されている2次元画像データの索引情報を収録している(図43参照)。但し、索引キーの1つである透視歪み情報は、ヘッダ情報検出部1019により検出された情報である点が、実施の形態3のサーバ1001と異なる。
なお、これらの構成も、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像処理機能および電子透かし埋め込み機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
図49は、本実施の形態のカメラ付き携帯電話1002が行う処理をフローチャートで示したものである。
クライアントが操作部1026のシャッタボタンを押下することにより、CCD1021が撮像処理を行うと(ステップS1011)、ステップS1012では、画像処理回路1022が撮像データに対しデジタル変換処理を行う。
ステップS1013では、特徴点検出部1027が、画像処理回路1022により生成されたデジタル画像データから、透かし入り商品画像1007の領域の特徴点(ここでは、透かし入り商品画像1007のフレームの四隅に存在する4つの特徴点のことを指す)を検出する処理を行う。
ステップS1014では、透視歪み検出部1028が、デジタル画像データの透視歪みを検出する。ステップS1015では、透視歪み補正部1029が、透視歪み検出部1028で検出されたデジタル画像データの透視歪みを補正する。
ステップS1016では、ヘッダ付加部1030が、透視歪み検出部1028で検出された透視歪み情報を、透視歪み補正部1029により歪み補正されたデジタル画像データのヘッダ領域に付加する。
ステップS1017では、送受信部1025が、ヘッダ付加部1030により透視歪み情報が付加されたデジタル画像データを、サーバ1001に送信する処理を行う。
図50は、本実施の形態のサーバ1001が行う処理をフローチャートで示したものである。
ステップS1021では、送受信部1011が、カメラ付き携帯電話1002から送信されてきたデジタル画像データを受信する。ステップS1022では、ヘッダ情報検出部1019が、カメラ付き携帯電話1002から送信されてきたデジタル画像データのヘッダ部に格納された透視歪み情報を検出する。
ステップS1023では、透かし抽出部1015が、送受信部1011が受信したデジタル画像データから、電子透かし技術により埋め込まれた情報を抽出する。
ステップS1024では、透かし抽出部1015により抽出された情報と、ヘッダ情報検出部1019で検出された透視歪み情報とを索引キーとして、画像データ索引部1017を参照し、クライアントの要求する2次元画像データの種類を特定する。
ステップS1025では、前記ステップS1024において特定された2次元画像データを獲得すべく、画像データベース1016を参照する。
ステップS1026では、画像データベース1016から獲得した2次元画像データをカメラ付き携帯電話1002に送信する処理を、送受信部1011が行う。
本実施の形態によれば、クライアント側の端末で透視歪みの検出と、その補正を行っておくので、実施の形態3と比較して、透かし検出を行うサーバの負担を軽減させることができる。
実施の形態4の変形例1.
実施の形態4では、クライアント側の端末で、透視歪みの検出と、その補正の両方を行っていたが、これに代えて、クライアント側の端末では、透視歪みの検出のみを行い、その補正はサーバ側に委ねるものであっても良い。そのような場合において、デジタル画像データに含まれる透視歪みが大きすぎると端末が認識した場合、その画像データをサーバに送信するのではなく、端末はクライアントに再撮影を要求する旨をLCDに表示するものであっても良い。
実施の形態4の変形例2.
実施の形態4では、クライアント側の端末で、透視歪みの検出と、その補正を行い、サーバ側で電子透かしの抽出を行っていた。これに代えて、電子透かし抽出もクライアント側の端末で行うものであっても良い。このとき、クライアント側の端末からは、電子透かし技術により埋め込まれた情報(商品の識別情報)と、検出された透視歪みの情報(クライアントが見たい視点に対応した情報)とがサーバへ送信される。サーバは、クライアント側の端末から送信されてきた商品識別情報と、クライアントが見たい視点についての情報に基づいて、クライアントに提供する2次元画像データの種類を決定する。
実施の形態4の変形例3.
上記実施の形態4の変形例2のクライアント側の端末は、更に、画像データベースを有していて、電子透かし技術により埋め込まれた情報(商品の識別情報)と、検出された透視歪みの情報(クライアントが見たい視点に対応した情報)とに基づいて、画像データベースにある画像を選択し、その選択された画像を端末の表示部に表示させるものであっても良い。あるいは選択された画像のサムネイルを表示部に表示させても良い。
実施の形態5.
実施の形態3、4においては、クライアントは、見たい視点に応じてカメラを傾けて透かし入り商品画像を撮影することにより、その視点から見たときの商品の2次元画像データをサーバから獲得することができた。
本実施の形態では、クライアントは、透かし入りの商品画像を撮影することにより、購入する商品のオプション機能(包装紙の種類)を選択することができる。
図51は、本実施の形態の商品購入システム1300の構成図である。商品購入システム1300は、サーバ1020、カメラ付き携帯電話1002、及び印刷物1003で構成される。
図52を参照して、印刷物1003には、透かし入り商品画像1008が印刷されている。実施の形態3と同様、本実施の形態でも、透かし入り商品画像1008の横方向をx方向、透かし入り商品画像1007の縦方向をy方向、透かし入り商品画像1008に対して垂直であって、その画像の裏側から表側に貫く方向をz方向として、以後の説明を進める。
図53は、本実施の形態のサーバ1020の構成図である。サーバ1020は、送受信部1011、特徴点検出部1012、透視歪み検出部1013、透視歪み補正部1014、透かし抽出部1015、商品情報データベース1036、制御部1018などからなる。送受信部1011、特徴点検出部1012、透視歪み検出部1013、透視歪み補正部1014、透かし抽出部1015、及び、制御部1018は、実施の形態3におけるサーバ1001のそれらと同様であるので、詳細な説明は省略する。
図54は、本実施の形態のサーバ1020の商品データベース1036の内容を示したものである。商品データベース1036は、商品IDと、透視歪み情報の2つを索引キーとして、商品に関する情報を収録している。本実施の形態では、商品とはギフト商品のことを想定している。商品IDとは、商品の種類(型番、形式など)に対応したものであり、透視歪み情報は、その商品を包装する包装紙の色に関する情報である。
図55は、本実施の形態の商品購入システム1300の概念図である。商品の購入を希望するクライアントが、その商品を白の包装紙で包装されることを希望する場合、クライアントは、左上方(マイナスx‐プラスz側)からx‐y平面に配置された透かし入り商品画像1008を通信機能付きカメラ(カメラ付き携帯電話1002)で撮影する(図55の(1a)参照)。透かし入り商品画像1008には、商品のIDが電子透かしにより埋め込まれている。
商品の購入を希望するクライアントが、その商品を黒の包装紙で包装されることを希望する場合、クライアントは、右上方(プラスx‐プラスz側)から透かし入り商品画像1008をカメラ付き携帯電話1002で撮影する(図55の(1b)参照)。
撮影された画像にデジタル変換処理を施したデジタル画像データは、サーバ1001へ送信される(図55の(2)参照)。サーバ1020の透視歪み補正部1014は、透視歪み検出部1013により検出された透視歪み情報に基づいて、前記デジタル画像データの透視歪みを補正する。次に、透かし抽出部1015は透視歪み補正されたデジタル画像データから、電子透かしにより埋め込まれた商品のID情報を抽出する(図55の(3)参照)。そして、サーバ1020は、商品のID情報と透視歪み情報に基づいて、商品情報データベース1036を参照し、クライアントに配送する商品と、その包装方法とを決定する(図55の(4)参照)。
このように、本実施の形態の商品購入システム1300は、撮影角度により、クライアントが商品の包装紙の色を選択することを可能としたものである。
実施の形態5の変形例.
上記実施の形態では、印刷物1003を斜め上(2方向のいずれか)から撮影することで、クライアントが商品の包装紙の色を黒か白かを選択するものであった。商品購入システム1300を利用するクライアントは、上記実施の形態で述べた以外の方向から印刷物1003を撮影することにより、黒と白以外の色の包装紙を選択することもできる。
例えば、商品の購入を希望するクライアントが、その商品を青の包装紙で包装されることを希望する場合、クライアントは、プラスz‐マイナスy側から透かし入り商品画像1008をカメラ付き携帯電話1002で撮影する(図56(a)参照)。商品の購入を希望するクライアントが、その商品を赤の包装紙で包装されることを希望する場合、クライアントは、プラスz‐プラスy側から透かし入り商品画像1008をカメラ付き携帯電話1002で撮影する(図56(b)参照)。
このような場合、撮影方向の検出は、図45を参照して説明した、実施の形態3の変形例1で述べた方法と同じやり方で行うことができる。
実施の形態6.
対話型のシステムにおけるクライアントの意思表示手段として、カメラの撮影角度を利用することができる。
図57は、そのような対話型のシステムの一例である、クイズ回答システム1400の構成を示す図である。クイズ回答システム1400は、サーバ1010、カメラ付き携帯電話1002、質問カード1009などで構成される。
クライアントは、カメラ付き携帯電話1002の撮影角度を変えて、質問カード1009を撮影することにより、質問カード1009に印刷されているクイズに対する回答を行う。質問カード1009には、クイズ問題が印刷されており、質問カード1009は、そのクイズ問題に対応して領域分割されている。例えば、質問1は、質問カード1009の領域Q1に印刷されており、質問2は、質問カード1009の領域Q2に印刷されている。各領域Q1、Q2、・・、の中には、質問カード1009の識別番号と、クイズ問題の番号とが、電子透かしにより埋め込まれている。例えば、領域Q1の中には、質問カード1009の識別番号と、クイズ問題番号1である旨の情報が電子透かしにより埋め込まれている。
また、質問カードの各領域は太い枠線で囲まれているので、撮影画像に表れる枠線の歪みにより、サーバ1010は、撮影画像の透視歪みを検出することができる。
このようなクイズ回答システム1400における、クライアントの操作例を、以下に説明する。図57の質問カード1009の質問1、「米国の初代大統領は」という問いに対し、「1:ワシントン」を選択する場合は、図58(a)のように、左上方から質問カード1009の領域Q1を撮影する。「2:リンカーン」を選択する場合は、図58(b)のように、右上方から質問カード1009の領域Q2を撮影する。
カメラ付き携帯電話1002で撮影された質問カード1009のデジタル画像データは、サーバ1010へ送信される。サーバ1010は、前記デジタル画像データの透視歪みを補正すると共に、この歪み補正の際に検出された歪み方向(クライアントの選択した回答番号)を記憶しておく。そして、サーバ1010は、歪み補正されたデジタル画像データから電子透かしにより埋め込まれた質問カード1009の識別番号と、クイズ問題番号とを抽出する。
更にサーバ1010は、抽出されたクイズ問題番号と、検出された回答番号とに基づいて、データベース(質問番号と、これに対応する正答番号とが収録されたデータベース)を参照し、クライアントの回答が正しいかどうかを判断する。
なお、上記例では、印刷物である質問カード1009にクイズ問題を表した文字情報と、電子透かし情報(クイズ問題番号等)が含まれているものであるとした。これに代えて、印刷物ではなく、テレビ放送の画面中に、クイズ問題を表した文字情報と、電子透かし情報(クイズ問題番号等)とを含むものであっても良い。このような実施の形態によれば、視聴者参加型オンラインのクイズ番組を実現することができる。また、このような実施の形態はテレビ番組中に見られる、電話投票によるアンケート調査にも応用することが可能である。
その他の変形例.
これ以外にも、以下のような変形例が考えられる。
(1)レストランのメニューへの適用:料理写真や貯蔵品の写真に透かし情報を埋め込む。レストランメニューの場合、撮影すると料理に関する詳細な情報やお客さんの評価などが表示される。もしくは料理の香りなどでも可。
(2)美術館、博物館のガイドブックへの適用:美術館、博物館の場合、撮影すると貯蔵品に関する音声ガイドや映像ガイドが流れる。
上記、(1)、(2)の両者とも、撮影角度により、英語、日本語、仏語など表示言語を切り替えられる。例えば、同一の透かし入り画像を斜め前から撮影すると日本語、斜め後ろからとると英語の解説が表示される。このことにより、言語毎にメニューやパンフレットを用意する必要がなくなる、というメリットがある。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
なお、上記の各実施の形態では、クライアントが透かし入り商品画像を斜め方向から撮影するものとして説明したが、クライアントはカメラを透かし入り画像の真上方向に配置した状態でカメラを傾けて当該画像を撮影しても良い。例えば、クライアントがカメラの左側を上に、右側を下に傾けて撮影したとき、撮影画像においては、透かし入り画像の領域の左側の輪郭の長さ(図42で言えば、第1の特徴点と第3の特徴点との距離)が、右側の輪郭の長さ(図42の第2の特徴点と第4の特徴点との距離)よりも短くなる。このような場合、サーバはクライアントが透かし入り画像を右上の方向(図34のプラスz−プラスx方向)から撮影したものと判断する。
また、上記では、商品情報が電子透かし技術により埋め込まれた画像を、クライアントが斜め方向から撮影する実施の形態を説明したが、商品情報が1次元または2次元バーコードにより埋め込まれた印刷物を、クライアントが斜め方向から撮影しても良い。この場合、本願の電子透かし抽出部は、1次元または2次元バーコードリーダに置き換わることとなる。
或いは、撮像装置によって得た撮像データから画像の歪みを検出する歪み検出部と、情報データを格納する情報データ格納部と、前記歪み検出手段にて検出された画像の歪みに基づいて前記情報データ格納部に格納されている情報データを選択する選択部と、で構成される情報データベース装置もあって良い。
本発明は、画像処理の分野に適用することができる。

Claims (10)

  1. 撮像装置によって得た撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、
    前記撮像データから画像の歪みを検出する歪み検出手段と、
    情報データを格納する情報データ格納手段と、
    前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と、前記歪み検出手段にて検出された画像の歪みと、に基づいて、前記情報データ格納手段に格納されている情報データを選択する選択手段と、
    前記選択手段により選択された情報データを外部へ出力する出力手段と、
    を含むことを特徴とした、情報データ提供装置。
  2. 撮像装置によって得た撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、
    前記撮像データから画像の歪みを検出する歪み検出手段と、
    情報データを格納する情報データ格納手段と、
    前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と、前記歪み検出手段にて検出された画像の歪みと、に基づいて、前記情報データ格納手段に格納されている情報データを選択する選択手段と、
    前記選択手段により選択された情報データの内容を表示する表示手段と、
    を含むことを特徴とした、情報データ提供装置。
  3. 撮像装置によって得た撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、
    前記撮像データから画像の歪みを検出する歪み検出手段と、
    画像データを格納する画像データ格納手段と、
    前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と、前記歪み検出手段にて検出された画像の歪みと、に基づいて、前記画像データ格納手段に格納されている画像データを選択する選択手段と、
    を含むことを特徴とした、画像処理装置。
  4. 撮像装置によって得た撮像データから画像の歪みを検出する歪み検出手段と、
    前記歪み検出手段により検出された画像の歪みに基づいて、前記撮像データから画像の歪みを補正する歪み補正手段と、
    前記歪み補正手段により画像の歪みが補正された撮像データから電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、
    画像データを格納する画像データ格納手段と、
    前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と、前記歪み検出手段にて検出された画像の歪みと、に基づいて、前記画像データ格納手段に格納されている画像データを選択する選択手段と、
    を含むことを特徴とした、画像処理装置。
  5. 情報端末が送信した撮像データと、画像の歪み情報と、を受信する受信手段と、
    前記撮像データから、電子透かし技術により埋め込まれた情報を抽出する電子透かし抽出手段と、
    情報データを格納する情報データ格納手段と、
    前記電子透かし抽出手段にて抽出された電子透かし技術により埋め込まれた情報と、前記受信手段が受信した画像の歪み情報と、に基づいて、前記情報データ格納手段に格納されている情報データを選択する選択手段と、
    を含むことを特徴とした、画像処理装置。
  6. 撮像装置によって得た撮像データからバーコード技術により埋め込まれた情報を抽出する抽出手段と、
    前記撮像データから画像の歪みを検出する歪み検出手段と、
    情報データを格納する情報データ格納手段と、
    前記抽出手段にて抽出されたバーコード技術により埋め込まれた情報と、前記歪み検出手段にて検出された画像の歪みと、に基づいて、前記情報データ格納手段に格納されている情報データを選択する選択手段と、
    前記選択手段により選択された情報データを外部へ出力する出力手段と、
    を含むことを特徴とした、情報データ提供装置。
  7. 撮像装置によって得た撮像データからバーコード技術により埋め込まれた情報を抽出する抽出手段と、
    前記撮像データから画像の歪みを検出する歪み検出手段と、
    情報データを格納する情報データ格納手段と、
    前記抽出手段にて抽出されたバーコード技術により埋め込まれた情報と、前記歪み検出手段にて検出された画像の歪みと、に基づいて、前記情報データ格納手段に格納されている情報データを選択する選択手段と、
    前記選択手段により選択された情報データの内容を表示する表示手段と、
    を含むことを特徴とした、情報データ提供装置。
  8. 撮像装置によって得た撮像データからバーコード技術により埋め込まれた情報を抽出する抽出手段と、
    前記撮像データから画像の歪みを検出する歪み検出手段と、
    画像データを格納する画像データ格納手段と、
    前記抽出手段にて抽出されたバーコード技術により埋め込まれた情報と、前記歪み検出手段にて検出された画像の歪みと、に基づいて、前記画像データ格納手段に格納されている画像データを選択する選択手段と、
    を含むことを特徴とした、画像処理装置。
  9. 撮像装置によって得た撮像データから画像の歪みを検出する歪み検出手段と、
    前記歪み検出手段により検出された画像の歪みに基づいて、前記撮像データから画像の歪みを補正する歪み補正手段と、
    前記歪み補正手段により画像の歪みが補正された撮像データからバーコード技術により埋め込まれた情報を抽出する抽出手段と、
    画像データを格納する画像データ格納手段と、
    前記抽出手段にて抽出されたバーコード技術により埋め込まれた情報と、前記歪み検出手段にて検出された画像の歪みと、に基づいて、前記画像データ格納手段に格納されている画像データを選択する選択手段と、
    を含むことを特徴とした、画像処理装置。
  10. 情報端末が送信した撮像データと、画像の歪み情報と、を受信する受信手段と、
    前記撮像データから、バーコード技術により埋め込まれた情報を抽出する抽出手段と、
    情報データを格納する情報データ格納手段と、
    前記抽出手段にて抽出されたバーコード技術により埋め込まれた情報と、前記受信手段が受信した画像の歪み情報と、に基づいて、前記情報データ格納手段に格納されている情報データを選択する選択手段と、
    を含むことを特徴とした、画像処理装置。
JP2006511409A 2004-03-25 2005-03-01 情報データ提供装置、および画像処理装置 Expired - Fee Related JP4201812B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2004089684 2004-03-25
JP2004089684 2004-03-25
JP2004185659 2004-06-23
JP2004185659 2004-06-23
JP2004329826 2004-11-12
JP2004329826 2004-11-12
PCT/JP2005/003398 WO2005093653A1 (ja) 2004-03-25 2005-03-01 画像補正装置と方法、画像補正データベース作成方法、情報データ提供装置、画像処理装置、情報端末、および情報データベース装置

Publications (2)

Publication Number Publication Date
JPWO2005093653A1 JPWO2005093653A1 (ja) 2008-02-14
JP4201812B2 true JP4201812B2 (ja) 2008-12-24

Family

ID=35056397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006511409A Expired - Fee Related JP4201812B2 (ja) 2004-03-25 2005-03-01 情報データ提供装置、および画像処理装置

Country Status (3)

Country Link
US (1) US20070171288A1 (ja)
JP (1) JP4201812B2 (ja)
WO (1) WO2005093653A1 (ja)

Families Citing this family (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10176559B2 (en) * 2001-12-22 2019-01-08 Lenovo (Beijing) Co., Ltd. Image processing method applied to an electronic device with an image acquiring unit and electronic device
US8471852B1 (en) 2003-05-30 2013-06-25 Nvidia Corporation Method and system for tessellation of subdivision surfaces
US20050097046A1 (en) 2003-10-30 2005-05-05 Singfield Joy S. Wireless electronic check deposit scanning and cashing machine with web-based online account cash management computer application system
TWI289809B (en) * 2005-07-05 2007-11-11 Compal Electronics Inc A method for undistorting image frame
US8933889B2 (en) * 2005-07-29 2015-01-13 Nokia Corporation Method and device for augmented reality message hiding and revealing
US8571346B2 (en) 2005-10-26 2013-10-29 Nvidia Corporation Methods and devices for defective pixel detection
US7750956B2 (en) 2005-11-09 2010-07-06 Nvidia Corporation Using a graphics processing unit to correct video and audio data
JP4872317B2 (ja) * 2005-11-10 2012-02-08 富士ゼロックス株式会社 情報処理システム
US8588542B1 (en) 2005-12-13 2013-11-19 Nvidia Corporation Configurable and compact pixel processing apparatus
US8737832B1 (en) 2006-02-10 2014-05-27 Nvidia Corporation Flicker band automated detection system and method
US8594441B1 (en) 2006-09-12 2013-11-26 Nvidia Corporation Compressing image-based data using luminance
US7885451B1 (en) 2006-10-31 2011-02-08 United Services Automobile Association (Usaa) Systems and methods for displaying negotiable instruments derived from various sources
US8799147B1 (en) 2006-10-31 2014-08-05 United Services Automobile Association (Usaa) Systems and methods for remote deposit of negotiable instruments with non-payee institutions
US8708227B1 (en) 2006-10-31 2014-04-29 United Services Automobile Association (Usaa) Systems and methods for remote deposit of checks
US7873200B1 (en) 2006-10-31 2011-01-18 United Services Automobile Association (Usaa) Systems and methods for remote deposit of checks
US8351677B1 (en) 2006-10-31 2013-01-08 United Services Automobile Association (Usaa) Systems and methods for remote deposit of checks
US7876949B1 (en) 2006-10-31 2011-01-25 United Services Automobile Association Systems and methods for remote deposit of checks
US10380559B1 (en) 2007-03-15 2019-08-13 United Services Automobile Association (Usaa) Systems and methods for check representment prevention
US8959033B1 (en) 2007-03-15 2015-02-17 United Services Automobile Association (Usaa) Systems and methods for verification of remotely deposited checks
US8723969B2 (en) 2007-03-20 2014-05-13 Nvidia Corporation Compensating for undesirable camera shakes during video capture
US9349153B2 (en) * 2007-04-25 2016-05-24 Digimarc Corporation Correcting image capture distortion
US8538124B1 (en) 2007-05-10 2013-09-17 United Services Auto Association (USAA) Systems and methods for real-time validation of check image quality
US8433127B1 (en) 2007-05-10 2013-04-30 United Services Automobile Association (Usaa) Systems and methods for real-time validation of check image quality
US8724895B2 (en) 2007-07-23 2014-05-13 Nvidia Corporation Techniques for reducing color artifacts in digital images
US9058512B1 (en) 2007-09-28 2015-06-16 United Services Automobile Association (Usaa) Systems and methods for digital signature detection
US8570634B2 (en) 2007-10-11 2013-10-29 Nvidia Corporation Image processing of an incoming light field using a spatial light modulator
US8358826B1 (en) 2007-10-23 2013-01-22 United Services Automobile Association (Usaa) Systems and methods for receiving and orienting an image of one or more checks
US9892454B1 (en) 2007-10-23 2018-02-13 United Services Automobile Association (Usaa) Systems and methods for obtaining an image of a check to be deposited
US9898778B1 (en) 2007-10-23 2018-02-20 United Services Automobile Association (Usaa) Systems and methods for obtaining an image of a check to be deposited
US9159101B1 (en) 2007-10-23 2015-10-13 United Services Automobile Association (Usaa) Image processing
US7996316B1 (en) 2007-10-30 2011-08-09 United Services Automobile Association Systems and methods to modify a negotiable instrument
US7996315B1 (en) 2007-10-30 2011-08-09 United Services Automobile Association (Usaa) Systems and methods to modify a negotiable instrument
US8046301B1 (en) 2007-10-30 2011-10-25 United Services Automobile Association (Usaa) Systems and methods to modify a negotiable instrument
US7996314B1 (en) 2007-10-30 2011-08-09 United Services Automobile Association (Usaa) Systems and methods to modify a negotiable instrument
US8001051B1 (en) 2007-10-30 2011-08-16 United Services Automobile Association (Usaa) Systems and methods to modify a negotiable instrument
US8320657B1 (en) 2007-10-31 2012-11-27 United Services Automobile Association (Usaa) Systems and methods to use a digital camera to remotely deposit a negotiable instrument
US8290237B1 (en) 2007-10-31 2012-10-16 United Services Automobile Association (Usaa) Systems and methods to use a digital camera to remotely deposit a negotiable instrument
US7900822B1 (en) 2007-11-06 2011-03-08 United Services Automobile Association (Usaa) Systems, methods, and apparatus for receiving images of one or more checks
US7896232B1 (en) 2007-11-06 2011-03-01 United Services Automobile Association (Usaa) Systems, methods, and apparatus for receiving images of one or more checks
US9177368B2 (en) * 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US8780128B2 (en) 2007-12-17 2014-07-15 Nvidia Corporation Contiguously packed data
US10528925B2 (en) 2008-01-18 2020-01-07 Mitek Systems, Inc. Systems and methods for mobile automated clearing house enrollment
US10102583B2 (en) 2008-01-18 2018-10-16 Mitek Systems, Inc. System and methods for obtaining insurance offers using mobile image capture
US10685223B2 (en) 2008-01-18 2020-06-16 Mitek Systems, Inc. Systems and methods for mobile image capture and content processing of driver's licenses
US9298979B2 (en) 2008-01-18 2016-03-29 Mitek Systems, Inc. Systems and methods for mobile image capture and content processing of driver's licenses
US8983170B2 (en) 2008-01-18 2015-03-17 Mitek Systems, Inc. Systems and methods for developing and verifying image processing standards for mobile deposit
US9842331B2 (en) 2008-01-18 2017-12-12 Mitek Systems, Inc. Systems and methods for mobile image capture and processing of checks
US7978900B2 (en) * 2008-01-18 2011-07-12 Mitek Systems, Inc. Systems for mobile image capture and processing of checks
US20130085935A1 (en) 2008-01-18 2013-04-04 Mitek Systems Systems and methods for mobile image capture and remittance processing
US10380562B1 (en) 2008-02-07 2019-08-13 United Services Automobile Association (Usaa) Systems and methods for mobile deposit of negotiable instruments
US8698908B2 (en) 2008-02-11 2014-04-15 Nvidia Corporation Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera
US9379156B2 (en) 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
KR100972640B1 (ko) * 2008-05-07 2010-07-30 선문대학교 산학협력단 모아레를 이용한 3차원 측정장치의 기준격자 획득방법 및장치
US8351678B1 (en) 2008-06-11 2013-01-08 United Services Automobile Association (Usaa) Duplicate check detection
JP4871918B2 (ja) * 2008-06-12 2012-02-08 日本電信電話株式会社 画像変換装置、画像変換方法、画像変換プログラム及び画像変換プログラムを記録したコンピュータ読み取り可能な記録媒体
US8422758B1 (en) 2008-09-02 2013-04-16 United Services Automobile Association (Usaa) Systems and methods of check re-presentment deterrent
US10504185B1 (en) 2008-09-08 2019-12-10 United Services Automobile Association (Usaa) Systems and methods for live video financial deposit
US7974899B1 (en) 2008-09-30 2011-07-05 United Services Automobile Association (Usaa) Atomic deposit transaction
US7885880B1 (en) 2008-09-30 2011-02-08 United Services Automobile Association (Usaa) Atomic deposit transaction
US7962411B1 (en) 2008-09-30 2011-06-14 United Services Automobile Association (Usaa) Atomic deposit transaction
US8275710B1 (en) 2008-09-30 2012-09-25 United Services Automobile Association (Usaa) Systems and methods for automatic bill pay enrollment
US8391599B1 (en) 2008-10-17 2013-03-05 United Services Automobile Association (Usaa) Systems and methods for adaptive binarization of an image
US7970677B1 (en) 2008-10-24 2011-06-28 United Services Automobile Association (Usaa) Systems and methods for financial deposits by electronic message
US7949587B1 (en) 2008-10-24 2011-05-24 United States Automobile Association (USAA) Systems and methods for financial deposits by electronic message
TWI441514B (zh) * 2008-11-12 2014-06-11 Avisonic Technology Corp 魚眼影像校正及減輕透視變形的影像處理方法及相關影像處理裝置
JP5153593B2 (ja) 2008-12-02 2013-02-27 株式会社Pfu 画像処理装置および画像処理方法
US8373718B2 (en) 2008-12-10 2013-02-12 Nvidia Corporation Method and system for color enhancement with color volume adjustment and variable shift along luminance axis
US8452689B1 (en) 2009-02-18 2013-05-28 United Services Automobile Association (Usaa) Systems and methods of check detection
WO2010102040A1 (en) * 2009-03-03 2010-09-10 Digimarc Corporation Narrowcasting from public displays, and related arrangements
US10956728B1 (en) 2009-03-04 2021-03-23 United Services Automobile Association (Usaa) Systems and methods of check processing with background removal
US8749662B2 (en) 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
JP5223792B2 (ja) * 2009-06-24 2013-06-26 富士ゼロックス株式会社 画像処理装置、撮影装置、撮影システムおよびプログラム
TW201101152A (en) * 2009-06-30 2011-01-01 Avisonic Technology Corp Light pointing touch panel display device and related touch panel detecting method
US8542921B1 (en) 2009-07-27 2013-09-24 United Services Automobile Association (Usaa) Systems and methods for remote deposit of negotiable instrument using brightness correction
US9779392B1 (en) 2009-08-19 2017-10-03 United Services Automobile Association (Usaa) Apparatuses, methods and systems for a publishing and subscribing platform of depositing negotiable instruments
US8977571B1 (en) 2009-08-21 2015-03-10 United Services Automobile Association (Usaa) Systems and methods for image monitoring of check during mobile deposit
US8699779B1 (en) 2009-08-28 2014-04-15 United Services Automobile Association (Usaa) Systems and methods for alignment of check during mobile deposit
JP5128563B2 (ja) * 2009-09-17 2013-01-23 株式会社日立製作所 文書検証システム、文書検証方法、文書検証プログラム及び記録媒体
US8698918B2 (en) 2009-10-27 2014-04-15 Nvidia Corporation Automatic white balancing for photography
US11403739B2 (en) * 2010-04-12 2022-08-02 Adobe Inc. Methods and apparatus for retargeting and prioritized interpolation of lens profiles
US9208393B2 (en) 2010-05-12 2015-12-08 Mitek Systems, Inc. Mobile image quality assurance in mobile document image processing applications
US10891475B2 (en) 2010-05-12 2021-01-12 Mitek Systems, Inc. Systems and methods for enrollment and identity management using mobile imaging
US9129340B1 (en) 2010-06-08 2015-09-08 United Services Automobile Association (Usaa) Apparatuses, methods and systems for remote deposit capture with enhanced image detection
US8995012B2 (en) 2010-11-05 2015-03-31 Rdm Corporation System for mobile image capture and processing of financial documents
TWI423659B (zh) * 2010-11-09 2014-01-11 Avisonic Technology Corp 影像校正方法與相關影像校正系統
JP2012134662A (ja) * 2010-12-20 2012-07-12 Samsung Yokohama Research Institute Co Ltd 撮影装置
US9541382B2 (en) * 2011-12-19 2017-01-10 Kabushiki Kaisha Topcon Rotation angle detecting apparatus and surveying instrument
US9571794B2 (en) * 2011-12-19 2017-02-14 Kabushiki Kaisha Topcon Surveying apparatus
US10380565B1 (en) 2012-01-05 2019-08-13 United Services Automobile Association (Usaa) System and method for storefront bank deposits
US9798698B2 (en) 2012-08-13 2017-10-24 Nvidia Corporation System and method for multi-color dilu preconditioner
US9311549B2 (en) * 2012-08-17 2016-04-12 Evernote Corporation Using surfaces with printed patterns for identification of imaging and data processing activities
US9508318B2 (en) 2012-09-13 2016-11-29 Nvidia Corporation Dynamic color profile management for electronic devices
US9307213B2 (en) 2012-11-05 2016-04-05 Nvidia Corporation Robust selection and weighting for gray patch automatic white balancing
US10552810B1 (en) 2012-12-19 2020-02-04 United Services Automobile Association (Usaa) System and method for remote deposit of financial instruments
US10883303B2 (en) 2013-01-07 2021-01-05 WexEnergy LLC Frameless supplemental window for fenestration
US9230339B2 (en) 2013-01-07 2016-01-05 Wexenergy Innovations Llc System and method of measuring distances related to an object
US9845636B2 (en) 2013-01-07 2017-12-19 WexEnergy LLC Frameless supplemental window for fenestration
US9691163B2 (en) 2013-01-07 2017-06-27 Wexenergy Innovations Llc System and method of measuring distances related to an object utilizing ancillary objects
US10196850B2 (en) 2013-01-07 2019-02-05 WexEnergy LLC Frameless supplemental window for fenestration
US8923650B2 (en) 2013-01-07 2014-12-30 Wexenergy Innovations Llc System and method of measuring distances related to an object
US10963535B2 (en) 2013-02-19 2021-03-30 Mitek Systems, Inc. Browser-based mobile image capture
US9418400B2 (en) 2013-06-18 2016-08-16 Nvidia Corporation Method and system for rendering simulated depth-of-field visual effect
US9826208B2 (en) 2013-06-26 2017-11-21 Nvidia Corporation Method and system for generating weights for use in white balancing an image
US9756222B2 (en) 2013-06-26 2017-09-05 Nvidia Corporation Method and system for performing white balancing operations on captured images
KR20150015680A (ko) * 2013-08-01 2015-02-11 씨제이씨지브이 주식회사 특징점의 생성을 이용한 이미지 보정 방법 및 장치
US11138578B1 (en) 2013-09-09 2021-10-05 United Services Automobile Association (Usaa) Systems and methods for remote deposit of currency
US9286514B1 (en) 2013-10-17 2016-03-15 United Services Automobile Association (Usaa) Character count determination for a digital image
KR101502143B1 (ko) * 2013-11-04 2015-03-12 주식회사 에스원 이미지 변환 방법 및 그 장치
US9465778B1 (en) * 2014-09-11 2016-10-11 State Farm Mutual Automobile Insurance Company Automated governance of data applications
US10402790B1 (en) 2015-05-28 2019-09-03 United Services Automobile Association (Usaa) Composing a focused document image from multiple image captures or portions of multiple image captures
US9300678B1 (en) 2015-08-03 2016-03-29 Truepic Llc Systems and methods for authenticating photographic image data
US10296502B1 (en) 2015-08-24 2019-05-21 State Farm Mutual Automobile Insurance Company Self-management of data applications
US10182170B1 (en) * 2016-02-03 2019-01-15 Digimarc Corporation Methods and arrangements for adaptation of barcode reading camera systems for digital watermark decoding
JP7212037B2 (ja) 2017-05-30 2023-01-24 ウェクスエナジー リミテッド ライアビリティ カンパニー 採光用開口のためのフレームレス補助窓
JP2019012361A (ja) * 2017-06-29 2019-01-24 キヤノン株式会社 情報処理装置、プログラム及び情報処理方法
CN107610038B (zh) * 2017-09-29 2022-05-10 新华三技术有限公司 水印的显示方法、装置及***
US10375050B2 (en) 2017-10-10 2019-08-06 Truepic Inc. Methods for authenticating photographic image data
US10726511B2 (en) * 2018-03-22 2020-07-28 Fuji Xerox Co., Ltd. Systems and methods for tracking copying of printed materials owned by rights holders
US11030752B1 (en) 2018-04-27 2021-06-08 United Services Automobile Association (Usaa) System, computing device, and method for document detection
US10360668B1 (en) 2018-08-13 2019-07-23 Truepic Inc. Methods for requesting and authenticating photographic image data
US10361866B1 (en) 2018-08-13 2019-07-23 Truepic Inc. Proof of image authentication on a blockchain
US11018939B1 (en) * 2018-12-10 2021-05-25 Amazon Technologies, Inc. Determining product compatibility and demand
CN110807454B (zh) * 2019-09-19 2024-05-14 平安科技(深圳)有限公司 基于图像分割的文字定位方法、装置、设备及存储介质
CN112541853A (zh) * 2019-09-23 2021-03-23 阿里巴巴集团控股有限公司 数据处理方法、装置及设备
CN110660034B (zh) * 2019-10-08 2023-03-31 北京迈格威科技有限公司 图像校正方法、装置及电子设备
US11037284B1 (en) * 2020-01-14 2021-06-15 Truepic Inc. Systems and methods for detecting image recapture
JP7473449B2 (ja) 2020-10-28 2024-04-23 Kddi株式会社 歪曲収差補正装置、方法及びプログラム
US11900755B1 (en) 2020-11-30 2024-02-13 United Services Automobile Association (Usaa) System, computing device, and method for document detection and deposit processing
CN113963072B (zh) * 2021-12-22 2022-03-25 深圳思谋信息科技有限公司 双目摄像头标定方法、装置、计算机设备和存储介质
CN116777999A (zh) * 2023-06-28 2023-09-19 深圳市度申科技有限公司 面阵相机多适应性高级平场校正方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5994180A (ja) * 1982-11-22 1984-05-30 Hitachi Ltd 画像入力装置
US5661816A (en) * 1991-10-22 1997-08-26 Optikos Corporation Image analysis system
US5367614A (en) * 1992-04-01 1994-11-22 Grumman Aerospace Corporation Three-dimensional computer image variable perspective display system
IL107835A (en) * 1993-12-02 1996-07-23 Genop Ltd Method and system for testing the performance of a device for use with an electro-optical system
JP3298299B2 (ja) * 1994-05-16 2002-07-02 ミノルタ株式会社 画像処理装置
KR100292434B1 (ko) * 1996-04-12 2002-02-28 이중구 선형시시디를이용한카메라렌즈자동검사장치및그방법
US5966209A (en) * 1997-12-16 1999-10-12 Acer Pheripherals, Inc. Lens module testing apparatus
JPH11252431A (ja) * 1998-02-27 1999-09-17 Kyocera Corp ディストーション補正機能を有するディジタル撮像装置
JP3530906B2 (ja) * 2001-03-30 2004-05-24 ミノルタ株式会社 結像位置検出プログラムおよびカメラ
US6900884B2 (en) * 2001-10-04 2005-05-31 Lockheed Martin Corporation Automatic measurement of the modulation transfer function of an optical system
JP2003348327A (ja) * 2002-03-20 2003-12-05 Fuji Photo Film Co Ltd 情報検出方法および装置並びにプログラム
US7071966B2 (en) * 2003-06-13 2006-07-04 Benq Corporation Method of aligning lens and sensor of camera
JP2005191387A (ja) * 2003-12-26 2005-07-14 Fujitsu Ltd 撮像素子試験方法及び装置

Also Published As

Publication number Publication date
WO2005093653A1 (ja) 2005-10-06
JPWO2005093653A1 (ja) 2008-02-14
US20070171288A1 (en) 2007-07-26

Similar Documents

Publication Publication Date Title
JP4201812B2 (ja) 情報データ提供装置、および画像処理装置
JP4183669B2 (ja) 電子透かし埋め込み装置と方法ならびに電子透かし抽出装置と方法
JP4556813B2 (ja) 画像処理装置、及びプログラム
Farid Image forgery detection
KR100723653B1 (ko) 화상의 비뚤어짐을 보정하는 화상처리장치, 촬영장치, 화상처리방법 및 관련 프로그램을 기록한 기록매체
JP4363151B2 (ja) 撮影装置、その画像処理方法及びプログラム
RU2421814C2 (ru) Способ формирования составного изображения
JP5026484B2 (ja) 携帯端末装置、画像出力装置、撮像画像処理システム、携帯端末装置の制御方法、画像出力方法、プログラム、および記録媒体
JP4948593B2 (ja) 以前に圧縮された画像における合成の検出
EP1922693B1 (en) Image processing apparatus and image processing method
WO2004036498A1 (ja) 複数の画像データのパノラマ合成処理
JP6322099B2 (ja) 画像処理装置、及び、画像処理方法
JP2011055467A (ja) 撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
EP2090092A2 (en) Providing a desired resolution color image
US7593597B2 (en) Alignment of lens array images using autocorrelation
EP2177039A1 (en) Pixel aspect ratio correction using panchromatic pixels
Kumar et al. Image forgery detection based on physics and pixels: a study
Gourrame et al. A zero-bit Fourier image watermarking for print-cam process
Sharma et al. Comprehensive analyses of image forgery detection methods from traditional to deep learning approaches: an evaluation
JP6907047B2 (ja) 情報処理装置、その制御方法およびプログラム
JP5878451B2 (ja) マーカー埋め込み装置、マーカー検出装置、マーカー埋め込み方法、マーカー検出方法、及びプログラム
JP2005275447A (ja) 画像処理装置、画像処理方法及びプログラム
JP4363154B2 (ja) 撮影装置、その画像処理方法及びプログラム
Pollard et al. Building cameras for capturing documents
JP4363153B2 (ja) 撮影装置、その画像処理方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080909

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081007

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111017

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees