JP2004363760A - Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus - Google Patents

Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus Download PDF

Info

Publication number
JP2004363760A
JP2004363760A JP2003157719A JP2003157719A JP2004363760A JP 2004363760 A JP2004363760 A JP 2004363760A JP 2003157719 A JP2003157719 A JP 2003157719A JP 2003157719 A JP2003157719 A JP 2003157719A JP 2004363760 A JP2004363760 A JP 2004363760A
Authority
JP
Japan
Prior art keywords
image data
reference image
difference
unit
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003157719A
Other languages
Japanese (ja)
Inventor
Hiroaki Takano
博明 高野
Jo Nakajima
丈 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2003157719A priority Critical patent/JP2004363760A/en
Publication of JP2004363760A publication Critical patent/JP2004363760A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method for recording imaged image data for stereoscopic vision display with high versatility/convenience, effectively utilizing an information amount of the imaging data for the stereoscopic vision display and enhancing the image quality. <P>SOLUTION: The image processing method is characterized in including the steps of: selecting at least one of reference image data among a plurality of imaged image data; extracting difference image data including difference contents between the selected reference image data and the other imaged image data; attaching the extracted difference image data to the reference image data; and adding photographing condition setting information denoting added identification information, denoting addition of the difference image data to the reference image data, and photographing conditions of a plurality of the imaged image data to the reference image data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、立体視表示に用いる撮像画像データを記録するデジタルカメラ等の撮像装置、立体視表示に用いる撮像画像データの画像処理方法、前記画像処理方法を用いた画像処理装置及び画像記録装置に関する。
【0002】
【従来の技術】
平面に配置された画像により3次元(立体)画像表示を行う立体視表示が知られている。立体視表示には様々な方式があるが、共通して視差を生じさせる為の2枚の画像を必要とする。
【0003】
立体視表示のための2枚の画像は、同一の被写体を異なる視点から撮影したものであり、自然な遠近感をつけるために、視点間距離、すなわちレンズ間の距離は、人間の両目間の距離と等しい約6、7cmに設定される。
【0004】
ステレオペアと称される立体視表示では、上述した視差を生じさせる2枚の画像が、最低でも人間の両目間の距離と同じ約6〜7cmの距離に保たれるよう、夫々の画像の大きさを調整し、平面上に並べて配置される。
【0005】
平面に配置された立体視表示の画像の観察方法には、右に置かれた画像の一つを右目で観る並行法と、右に置かれた画像の一つを左目で観る交差法とがある。並行法は観察時、目に余計な力が不要で楽に観られる反面、大きな画像を観ることは出来ない。一方、交差法は、寄り目にして観るので目が疲れ易い反面、大きな画像を観ることが出来る。
【0006】
近年、急激なデジタルカメラの普及に伴い、デジタルカメラで上述した立体視表示に用いる画像を撮影し、立体視表示を楽しむ機会も増えている。例えば、撮影光学系を1つしか持たない一般的なデジタルカメラにおいて、同一被写体に関し連続して2度の撮影を行い、2度目の撮影前に、撮影者の立ち位置を横にずらして立体視表示用の撮像画像データを撮影させる補助機能を備えたデジタルカメラが提案されている。
【0007】
立体視表示用の画像を記録する際には、例えば、特許文献1〜3のように2つの画像の差分を利用する技術が提案されている。
【0008】
また、立体視表示用の撮像画像データを、立体地図を作成する為の高度計測データや、医療現場における診断データ(例えばX線写真)を取得することに利用したり、昆虫標本の選別に用いたりするなど、立体視表示画像を用いた画像処理方法や新規な活用事例が数多く提案されつつある。
【0009】
一方、デジタルカメラで撮影された撮像画像データは、CD−R(Compact Disc Recordable)、フロッピー(登録商標)ディスク、メモリカードなどの記憶デバイスやインターネット経由で配信され、CRT(Cathode Ray Tube)、液晶、プラズマ等のディスプレイモニタや携帯電話の小型液晶モニタの表示デバイスに表示されたり、デジタルプリンタ、インクジェットプリンタ、サーマルプリンタ等の出力デバイスを用いてハードコピー画像としてプリントされたりするなど、その表示・プリント方法は多種多様化してきている。
【0010】
また、撮像画像データを鑑賞用途で表示・出力する際には、鑑賞に使用するディスプレイモニタ上、或いはハードコピー上において所望の画質が得られるように階調調整、輝度調整、カラーバランス調整、鮮鋭性強調に代表される種々の画像処理を施す事が一般に行われている。
【0011】
こうした多様の表示・プリント方法に対応して、撮像画像データの汎用性を高める努力がなされてきた。その一環として、デジタルRGB信号が表現する色空間を撮像装置特性に依存しない色空間に標準化する試みがあり、現在では多くの撮像画像データが標準化された色空間として「sRGB」を採用している(「Multimedia Systems and Equipment−Colour Measurment and Management−Part2−1:Colour Management−Default RGB Colour Space−sRGB」IEC”61966−2−1を参照)。このsRGBの色空間は標準的なCRTディスプレイモニタの色再現領域に対応して設定されている。
【0012】
一般的なデジタルカメラは、CCD(電荷結合素子(charge coupled device))と電荷転送機構と、市松模様のカラーフィルタとを組み合わせ感色性を付与した、光電変換機能を有する撮像素子(CCD型撮像素子、以下単に「CCD」とも称す)を備えている。
【0013】
デジタルカメラにより出力される撮像画像データは、CCDを介して変換された電気的な元信号に、撮像素子の光電変換機能の補正(例えば、階調補正、分光感度のクロストーク補正、暗電流ノイズ抑制、鮮鋭化、ホワイトバランス調整、彩度調整等の画像処理)が施され、画像編集ソフトでの読み取り・表示が可能なように規格化された所定形式のデータフォーマットへのファイル変換・圧縮処理等を経たものである。
【0014】
このようなデータフォーマットとしては、例えばExifファイルの非圧縮ファイルとして採用されている「Baseline Tiff Rev.6.0RGB Full Color Image」、及びJPEGフォーマットに準拠した圧縮データファイル形式が知られている。
【0015】
前記Exifファイルは、前記sRGBに準拠したものであり、前記撮像素子の光電変換機能の補正は、sRGBに準拠するディスプレイモニタ上で最も好適な画質となるよう設定されている。
【0016】
例えば、どのようなデジタルカメラであっても、sRGB信号に準拠したディスプレイモニタの標準色空間(以下、「モニタプロファイル」とも称す)で表示する事を示すタグ情報、や画素数、画素配列、及び1画素当たりのビット数などの機種依存情報を示す付加情報を撮像画像データのファイルヘッダにメタデータとして書き込む機能、及びそのようなデータフォーマット形式を採用してさえいれば、前記撮像画像データをディスプレイモニタに表示する画像編集ソフト(例えば、Adobe社製Photoshop)はタグ情報を解析し、モニタプロファイルのsRGBへの変更を促したり、自動的に変更処置を施すことが出来るため、異なるディスプレイ間の差異を低減したり、デジタルカメラで撮影された撮像画像データの最適な状態での鑑賞を可能にしている。
【0017】
また前記付加情報としては、前記機種依存情報以外にも、例えばカメラ名称やコード番号など、カメラ種別(機種)に直接関係する情報、或いは露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度などの撮影条件設定や、被写体の種類に関する情報などを示すタグ(コード)が用いられており、画像編集ソフトや出力デバイスは、これらの付加情報を読み取り、ハードコピー画像の画質をより好適なものとする機能を備えている。
【0018】
【特許文献1】
特開平10−28274号公報
【特許文献2】
特開平6−30445号公報
【特許文献3】
特開平7−30924号公報
【0019】
【発明が解決しようとする課題】
ところで、上述の如く、立体視表示がより身近なものとなり、活用の機会も増える一方、立体視表示用に撮影された撮像画像データの汎用性や利便性への対応が、立ち遅れているのが現状である。
【0020】
例えば、複数の撮像画像データの中から立体視表示用の撮像画像データを自動検索したり、一連の写真プリント作成処理の流れの中で、通常の写真プリントと、立体視表示の写真プリントとを同時に処理したりすることができない。
【0021】
また、立体視表示の画像のハードコピー作成に対応していない出力デバイスにおいて、一方の画像のみを用いて通常のハードコピーを作成するなどの処理を効率的に実行することができない。
【0022】
また、立体視表示用に撮影された撮像画像データのもつ情報量を有効に活用することによって、より高画質な1枚の写真プリントを作成する手段が要求されている。
【0023】
本発明の課題は、立体視表示用の撮像画像データを汎用性・利便性の高い方法で記録し、かつ立体視表示用の撮像画像データのもつ情報量を有効に活用できるようにし、画質の向上を図ることである。
【0024】
【課題を解決するための手段】
上記課題を解決するため、請求項1に記載の発明は、
同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データから、1つの撮像画像データを出力する画像処理方法であって、
前記複数の撮像画像データの中から基準画像データを少なくとも1つ選定する工程と、
前記選定された基準画像データと他の撮像画像データとの差分内容を含む差分画像データを抽出する工程と、
前記抽出された差分画像データを前記基準画像データに添付する工程と、
前記差分画像データが添付されていることを示す添付識別情報及び前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を前記基準画像データに添付する工程と、
を含むことを特徴としている。
【0025】
請求項2に記載の発明は、請求項1に記載の発明において、
前記添付識別情報及び前記撮影条件設定情報を、前記基準画像データのヘッダ領域にタグ情報として記録することにより、前記基準画像データに添付する工程を含むことを特徴としている。
【0026】
請求項3に記載の発明は、
入力撮像データを出力媒体上で鑑賞するのに最適な画像データに処理して出力する画像処理方法において、
同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データのうちの基準画像データと他の撮像画像データとの差分内容を含む差分画像データ、この差分画像データが添付された基準画像データ、前記基準画像データに前記差分画像データが添付されていることを示す添付識別情報、及び、前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を入力する工程と、
前記添付識別情報に基づいて、前記基準画像データと前記差分画像データを分離する工程と、
前記撮影条件設定情報に基づいて、前記分離された基準画像データ及び差分画像データを用いて視差画像データを生成する工程と、
前記基準画像データ及び前記視差画像データに基づいて、立体視表示用の画像データを生成する工程と、
を含むことを特徴としている。
【0027】
請求項4に記載の発明は、請求項3に記載の発明において、
前記添付識別情報及び前記撮影条件設定情報が、前記入力された撮像画像データのヘッダ領域に記録されたタグ情報であることを特徴としている。
【0028】
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の発明において、
前記撮影条件が、撮像素子の感度設定であることを特徴としている。
【0029】
請求項6に記載の発明は、
同一被写体を異なる視点、かつ、異なる撮影条件で撮影して複数の撮像画像データを得る撮像装置において、
前記複数の撮像画像データの中から基準画像データを少なくとも1つ選定する基準画像データ選定手段と、
前記選定された基準画像データと他の撮像画像データとの差分内容を含む差分画像データを抽出する差分画像データ生成手段と、
前記抽出された差分画像データを前記基準画像データに添付し、更に、前記差分画像データが添付されていることを示す添付識別情報及び前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を前記基準画像データに添付する添付処理手段と、
を備えたことを特徴としている。
【0030】
請求項7に記載の発明は、請求項6に記載の発明において、
前記添付処理手段は、前記添付識別情報及び撮影条件設定情報を、前記基準画像データのヘッダ領域にタグ情報として記録することにより、前記基準画像データに添付することを特徴としている。
【0031】
請求項8に記載の発明は、請求項6又は7に記載の発明において、
前記撮影条件が、撮像素子の感度設定であることを特徴としている。
【0032】
請求項9に記載の発明は、
同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データから、1つの撮像画像データを出力する画像処理装置において、
前記複数の撮像画像データは、それぞれ撮影条件が異なり、
前記複数の撮像画像データの中から基準画像データを少なくとも1つ選定する基準画像データ選定手段と、
前記基準画像データと他の撮像画像データとの差分内容を含む差分画像データを抽出する差分画像データ抽出手段と、
前記抽出された差分画像データを前記基準画像データに添付する差分画像データ添付手段と、
前記差分画像データが添付されていることを示す添付識別情報及び前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を前記基準画像データに添付する情報添付手段と、
を備えたことを特徴としている。
【0033】
請求項10に記載の発明は、請求項9に記載の発明において、
前記情報添付手段は、前記添付識別情報及び前記撮影条件設定情報を、前記基準画像データのヘッダ領域にタグ情報として記録することにより、前記基準画像データに添付することを特徴としている。
【0034】
請求項11に記載の発明は、
入力撮像データを出力媒体上で鑑賞するのに最適な画像データに処理して出力する画像処理装置において、
同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データのうちの基準画像データと他の撮像画像データとの差分内容を含む差分画像データ、この差分画像データが添付された基準画像データと、前記基準画像データに前記差分画像データが添付されていることを示す添付識別情報、及び、前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を入力する入力手段と、
前記添付識別情報及び前記撮影条件設定情報を判別する判別手段と、
前記判別された添付識別情報に基づいて、前記基準画像データと前記差分画像データを分離するデータ分離手段と、
前記判別された撮影条件設定情報に基づいて、前記分離された基準画像データ及び差分画像データを用いて視差画像データを生成する視差画像データ生成手段と、
前記基準画像データ及び前記視差画像データに基づいて、立体視表示用の画像データを生成する立体視表示用画像データ生成手段と、
を備えたことを特徴としている。
【0035】
請求項12に記載の発明は、請求項11に記載の発明において、
前記添付識別情報及び撮影条件設定情報が、前記入力された撮像画像データのヘッダ領域に記録されたタグ情報であることを特徴としている。
【0036】
請求項13に記載の発明は、請求項9〜12の何れか一項に記載の発明において、
前記撮影条件が、撮像素子の感度設定であることを特徴としている。
【0037】
請求項14に記載の発明は、
入力撮像データを出力媒体上で鑑賞するのに最適な画像データに処理して出力媒体上に鑑賞画像を形成する画像記録装置において、
同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データのうちの基準画像データと他の撮像画像データとの差分内容を含む差分画像データ、この差分画像データが添付された基準画像データ、前記基準画像データに前記差分画像データが添付されていることを示す添付識別情報、及び、前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を入力する入力手段と、
前記添付識別情報及び前記撮影条件設定情報を判別する判別手段と、
前記判別された添付識別情報に基づいて、前記基準画像データと前記差分画像データを分離するデータ分離手段と、
前記判別された撮影条件設定情報に基づいて、前記分離された基準画像データ及び差分画像データを用いて視差画像データを生成する視差画像データ生成手段と、
前記基準画像データ及び前記視差画像データに基づいて、立体視表示用の画像データを生成する立体視表示用画像データ生成手段と、
前記生成された立体視表示用の画像データに基づいて、出力媒体上に立体視表示用の鑑賞画像を形成する画像形成手段と、
を備えたことを特徴としている。
【0038】
請求項15に記載の発明は、請求項14に記載の発明において、
前記添付識別情報及び前記撮影条件設定情報が、前記入力された撮像画像データのヘッダ領域に記録されたタグ情報であることを特徴としている。
【0039】
請求項16に記載の発明は、請求項14又は15に記載の発明において、
前記撮影条件が、撮像素子の感度設定であることを特徴としている。
【0040】
請求項1、6、9に記載の画像処理方法、撮像装置、画像処理装置によれば、同一被写体を異なる視点、かつ、異なる視点で撮影して得られた複数の撮像画像データの中から基準画像データを少なくとも1つ選定し、選定された基準画像データと他の撮像画像データとの差分画像データを抽出し、抽出された差分画像データを基準画像データに添付し、差分画像データが添付されていることを示す添付識別情報及び複数の撮像画像データの撮影条件を示す撮影条件設定情報を基準画像データに添付する。
【0041】
従って、同一被写体を異なる視点で撮影して得られた複数の撮像画像データ、即ち、立体視表示用に撮影された複数の撮像画像データを単一の撮像画像データとして扱うことが可能となり、複数の撮像画像データの中から立体視表示用に撮影された撮像画像データを検索する際の検索効率の向上、立体視表示に対応していないプリンタでの基準画像データでの1枚の写真プリントとしての出力等が可能となる。その結果、立体視表示用に撮影された撮像画像データと、同一被写体を一つの視点から撮影した通常の撮像画像データとの互換性を向上し、立体視表示用の撮像画像データの汎用性、利便性を向上することができる。
【0042】
また、基準画像データには撮影条件設定情報が添付されており、基準画像データに添付される差分画像データには、基準画像データと他の撮像画像データとの撮影条件設定の違いによる差分情報が含まれるので、他の画像処理装置や画像記録装置において、これらの情報、データを利用して、立体視表示用画像を生成する際に画質向上を図ることができる。
【0043】
請求項3、11、14に記載の画像処理方法、画像処理装置、画像記録装置によれば、同一被写体を異なる視点かつ異なる撮影条件で撮影して得られた複数の撮像画像データのうちの基準画像データと他の撮像画像データとの差分内容を含む差分画像データ、この差分画像データが添付された基準画像データ、基準画像データに差分画像データが添付されていることを示す添付識別情報、及び、複数の撮像画像データの撮影条件を示す撮影条件設定情報が入力されると、添付識別情報に基づいて、基準画像データと差分画像データを分離し、撮影条件設定情報に基づいて、分離された基準画像データ及び差分画像データを用いて視差画像データを生成し、基準画像データ及び視差画像データに基づいて、立体視表示用の画像データを生成する。更に、本発明の画像記録装置は、生成された立体視表示用の画像データを出力媒体上に形成する。
【0044】
従って、入力された撮像画像データが、差分画像データが添付された、立体視表示用に撮影された基準画像データ、即ち、請求項1、6、9に記載の発明の画像処理方法、撮像装置、画像処理装置により生成された形式のデータであることを自動的に判別し、基準画像データと差分画像データから立体視表示用画像データを生成することができ、効率的な立体視表示用画像データの生成が可能となる。更に、撮影条件設定情報に基づいて、基準画像データと差分画像データを用いて視差画像データを生成するので、双方の撮像画像データのもつ情報を有効に活用して、立体視表示用画像データの画質の向上を図ることができる。
【0045】
本発明の添付識別情報は、撮像画像データのヘッダ領域にタグ情報として記録されることが好ましい。また、異なる撮影条件としては、例えば、撮像素子の感度設定の違いが挙げられる。複数の撮像画像データが異なる感度設定で撮影されている場合、画像の領域の輝度に応じて最適な感度設定の撮像画像データの情報を用いることで、画質の向上を図ることができる。
【0046】
次に、本発明の記載において使用される用語について詳細に説明する。
【0047】
本発明の記載において、「同一被写体を異なる視点から撮影して得られた複数の撮像画像データ」とは、撮像装置によって撮影された、ステレオペアによる立体視表示に必要な、少なくとも2枚からなる撮像画像データである。本明細書の記載において、「立体視表示用の複数の撮像画像データ」を同義として用いる。
【0048】
立体視表示用の複数の撮像画像データの取得には、下記3つの方法が挙げられる。
1.1台の撮像装置の位置を変えて、少なくとも2回の撮影によって行う方法
2.2台の撮像装置の間隔を開けて配置して、夫々1回の撮影により行う方法
3.所定の間隔で配置された2つの撮像光学系を有する1台の撮像装置を用いる方法
【0049】
請求項1に記載の画像処理方法で用いる複数の撮像画像データの取得、並びに請求項6の撮像装置には、上記3.の2つの撮像光学系を有する1台の撮像装置を用いることが望ましい。
【0050】
また、本発明で用いる「撮像画像データ」は、シーン参照画像データであることが望ましい。以下、シーン参照データについて詳細を述べる。
【0051】
「シーン参照画像データ」とは、少なくとも撮像素子自体の分光感度に基づく各色チャンネルの信号強度を「scRGB」(relative scene RGB color space)、「RIMM RGB」(Reference Input Medium Metric RGB)や「ERIMM RGB」(Extended Reference Input Medium Metric RGB)などの標準色空間にマッピング済みであり、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上する為にデータ内容を改変する画像処理が省略された状態の画像データを意味する。またシーン参照画像データは、撮像装置の光電変換特性(ISO1452が定義するopto−electronic conversion function, 例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編449頁参照)の補正を行ったものである事が好ましい。
【0052】
シーン参照画像データの情報量(例えば階調数)はA/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照画像データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。
【0053】
また、「異なる視点」の間の距離(以下、「視点間距離」と称す)、すなわちレンズ間の距離は、特殊な場合を除き、自然な遠近感をつけるために人間の両目間の距離と同じ約6、7cmに設定されていることが望ましい。特殊な例としては、撮影位置から遠くに配置された被写体の立体感を強調したいといった場合がある。このような場合、視点間距離を倍に設定することで、被写体までの距離を半分にしたのと同じ効果が得られる。逆に、小さいものを接写のように撮影する場合では、視点間距離を縮めることにより、立体感が強調される。
【0054】
立体視表示用の撮像画像データを取得する際の主要被写体までの距離は、視点間距離が6cmである場合、図3に示すように、1〜4m程度とすることが望ましい。これを被写体までの角度(輻湊角)にすると、約1〜4度の範囲となる。
【0055】
例えば小さな被写体を、距離が10cmのところに置いた場合、被写体までの角度を4度以下にするには視点間距離を6mm以下に調整しなければならない。これとは正反対に、100m先でも十分に視認される大きな被写体である場合、被写体までの角度を4度に設定するには視点間距離を約6mに調整しなければならない。
【0056】
よって、前記2つの撮像光学系が約6cm間隔で配置された1台の撮像装置を用いて、十分な立体感を得るには、撮像装置から1〜4mの距離において、撮影可能な大きさの被写体であることが望ましい。
【0057】
「複数の撮像画像データから、1つの撮像画像データを出力する」とは、ステレオペアによる立体視表示の為に必要な少なくとも2つの撮像画像データを、立体視表示時以外では、ただ1つの撮像画像データとして扱うことが出来るよう、所定のファイル形式に加工することである。
【0058】
「異なる撮影条件で撮影し」とは、複数の撮像画像データを、視点間距離以外の撮影条件を変えて撮影することである。例えば、上記3.の2つの撮像光学系を有する1台の撮像装置を用いた場合、2つの撮像光学系の夫々で、視点間距離以外の撮影条件を変えて撮影する。撮影条件としては、撮像素子の感度設定を例に挙げることが出来る。
【0059】
「基準画像データを少なくとも1つ選定する」とは、ステレオペアによる立体視表示の為に必要な少なくとも2つの撮像画像データの中から、立体視表示以外の表示、或いはハードコピー出力を行うための撮像画像データを少なくとも1つ決定することである。
【0060】
基準画像データの選定には、画像解析等を用いる。撮影条件が感度設定違いである場合、撮像画像データのヒストグラム解析により、感度設定の適正度が評価され、最も適正度が高いと評価された撮像画像データを基準画像データとして選択する。勿論、これらの操作は、自動的に処理されても良いし、ユーザーによるマニュアル操作で処理されても良い。自動的に処理されるようにするには、撮影条件設定を識別する手段を備える必要がある。このような識別手段としては、例えばファイルのヘッダ情報を活用する方法がある。
【0061】
なお、この基準画像データは、立体視表示の写真プリント注文を受け付けない店舗、或いは顧客が立体視表示のプリント注文を顧客が依頼しない場合など、ステレオペアによる立体視表示ではなく、1枚のみの写真プリントを作成する際に好適に用いることができる。
【0062】
「差分画像データ」とは、立体視表示用の複数の撮像画像データのうち選定された基準画像データと他の撮像画像データとの差分内容として視差情報及び撮影条件の違いによる差分情報が保持されたデジタル画像データである。
【0063】
「基準画像データと他の撮像画像データとの差分内容を含む差分画像データを抽出し」とは、基準画像データと他の撮像画像データとの視差情報を含む差分情報を抽出することであり、下記演算式を処理例に挙げることが出来る。
なお、本明細書の記載において、基準画像データに対する他の撮像画像データを視差画像データと称する。
(式1)B=A1−A2
A1:基準画像データ、A2:視差画像データ(他の撮像画像データ)、B:差分画像データ
【0064】
「(差分画像データを)基準画像データに添付する」とは、基準画像データの一部に記録することであり、ファイル領域を区切って記録するファイルフォーマットの例を図5(c)に示す。
【0065】
「差分画像データが添付されていることを示す添付識別情報及び(前記)複数の撮像画像データの撮影条件を示す撮影条件設定情報を(前記)基準画像データに添付する」とは、撮像画像データの内容を示す指標や、再処理時に必要な付加情報を、被写体に関する情報が記録された領域とは異なる領域に記録することである。請求項2、7、10に記載のように、添付識別情報及び撮影条件設定情報は、基準画像データのヘッダ領域にタグ情報として記録することが望ましい(図5(a)参照)。
【0066】
本発明の記載において、「出力媒体上で鑑賞するのに最適な画像データ」、即ち「立体視表示用画像データ」は、鑑賞画像参照データであることが望ましい。以下、鑑賞画像参照データについて詳細を述べる。
【0067】
「鑑賞画像参照データ」とは、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において、最適な画像が得られるよう「最適化処理」の施されたデジタル画像データである。なお鑑賞画像参照データは、シーン参照画像データを入力データとする画像処理装置、或いは画像記録装置内において、シーン参照画像データから、表示デバイス、出力媒体毎に「最適化処理」を施し生成される。
【0068】
上記「最適化処理」の具体例としては、sRGB規格に準拠したCRTディスプレイモニタに表示することを前提とした場合の、sRGB規格の色域内への変換処理がある。よって銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また前記色域の圧縮の以外にも、16bitから8bitへの階調圧縮、出力画素数の低減、及び出力デバイスの出力特性(LUT)への対応処理等も含まれる。さらにノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、或いは覆い焼き処理等の画像処理が行われることは言うまでもない。
【0069】
鑑賞画像参照データを生成した後、シーン参照画像データと鑑賞画像参照との差分データ(シーン参照画像データ再現用データ)を求め、視差情報の差分画像データと共に、鑑賞画像参照データに添付しても良い。この場合のファイルフォーマットの例を図5(b)に示す。
【0070】
「前記添付識別情報に基づいて、前記基準画像データと前記差分画像データを分離する」とは、基準画像データのタグ情報を解析し、差分画像データを有していた場合、ファイルフォーマットの所定の領域から、差分画像データを読み出し、基準画像データと差分画像データをいつでも画像処理可能な状態にすることである。
【0071】
「前記分離された基準画像データ及び差分画像データに基づいて、視差画像データを生成する」とは、基準画像データと対を成す視差画像データを生成することである。
視差画像データは、例えば、下記演算式により求めることができる。
(式2)A2=A1+B
A1:基準画像データ、A2:視差画像データ、B:差分画像データ
更に、上記演算式で求められた視差画像データに、撮影条件設定情報に基づいて画質調整処理を施して、視差画像データを生成する。
【0072】
「前記基準画像データ及び前記視差画像データに基づいて、立体視表示用の画像データを生成する」とは、基準画像と視差画像が、最低でも人間の両目間の距離と同じ約6〜7cmの距離に保たれるよう、夫々の画像の大きさを調整し、並行法、又は交差法の観察条件に応じて正しく平面上に並べて配置されるように、ステレオペアの立体視表示用のデジタル画像データ(以下、「立体視表示用画像データ」を同義として用いる)を準備することである(図9)。
【0073】
本発明の撮像装置には、デジタルカメラを用いる以外に、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルムを用いるアナログカメラと、写真感光材料の駒画像情報を読み取りデジタル画像データを得るフィルムスキャナ、或いは銀塩印画紙上に再現された画像情報を読み取りデジタル画像データを得るフラットベットスキャナから構成されていても良い。
【0074】
また、「撮像画像データ」の入力には、コンパクトフラッシュ(登録商標)、メモリスティック、スマートメディア、マルチメディアカード、フロッピー(登録商標)ディスク、光磁気記憶媒体(MO)、或いはCD−Rなど、公知のあらゆる可搬式の「記憶メディア」用いることが出来る。
【0075】
他の実施態様として、ネットワークなどの通信手段を介してデジタル画像データを遠隔地より取得しても良いし、或いは撮像装置と画像処理装置、画像記録装置とを有線で接続し、デジタル画像データを直接送信する方式であっても良い。
【0076】
更に、本発明の撮像装置、画像処理装置、ならびに画像記録装置において、Exifファイルの付加情報を、撮像画像データのヘッダ記録情報として用いても良い。
前記付加情報としては、例えば、機種依存情報、カメラ名称やコード番号などカメラ種別(機種)に直接関係する情報、或いは露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度などの撮影条件設定や、被写体の種類に関する情報などを示すタグ(コード)が用いられている。
【0077】
【発明の実施の形態】
以下、本発明に係る撮像装置の好ましい実施形態ついて、図面に基づいて説明する。
【0078】
<撮像装置30の構成>
まず、構成を説明する。
図1は、本発明に係る撮像装置30の機能的構成を示すブロック図である。撮像装置30は、同一の被写体に対し、異なる視点から同時又は逐次撮影を行い、立体視表示用の複数の撮像画像データを記録可能なデジタルカメラである。図1に示すように、撮像装置30は、第一撮像部21、第二撮像部22、一時記憶メモリ6、画像処理部7、添付処理部8、記憶デバイス9、制御部11、基準画像データ選定部12、差分画像データ生成部13、操作部14、表示部15、ストロボ駆動回路16、ストロボ17、撮影条件設定情報生成部23等を備えて構成されている。
【0079】
第一撮像部21、第二撮像部22は、同一被写体を異なる視点から撮影するために、所定の間隔で配置されており、それぞれレンズ1、絞り2、CCD(固体撮像素子)3、アナログ処理回路4、A/D変換器5、CCD駆動回路10、焦点距離調整回路18、自動焦点駆動回路19、モータ20等を備えて構成され、制御部11の制御により、撮影を行う。
【0080】
レンズ1は、フォーカスの調節を行い、被写体の光画像を結像する。絞り2は、レンズ1を透過した光束の光量を調節する。CCD3は、レンズ1により受光面上に結像された被写体光を、CCD3内の各センサ毎に光の入射量に応じた量の電気的な信号(撮像信号)へ光電変換する。そして、CCD3は、CCD駆動回路10から出力されるタイミングパルスに制御されることにより、この撮像信号をアナログ処理回路4へ順次出力する。
【0081】
アナログ処理回路4は、CCD3から入力された撮像信号に対して、R、G、B信号の増幅やノイズの低減処理等を行う。A/D変換器5は、アナログ処理回路4から入力された撮像信号をデジタルの撮像画像データに変換して一時記憶メモリ6へ出力する。
【0082】
CCD駆動回路10は、制御部11から出力される制御信号をもとにタイミングパルスを出力し、CCD3の駆動制御を行う。
【0083】
焦点距離調整回路18は、制御部11からの制御信号により、レンズ1を移動させて焦点距離を調整するためのモータ20の制御を行う。
【0084】
自動焦点駆動回路19は、制御部11からの制御信号により、レンズ1を移動させてフォーカス(ピント)を調整するためのモータ20の制御を行う。
【0085】
ここで、第一撮像部21と第二撮像部22のレンズ1間の距離(視点間距離)は、特殊な場合を除き、自然な遠近感をつけるために人間の両目間の距離と同じ約6、7cmに設定されていることが望ましい。
【0086】
特殊な例としては、撮像装置30から遠くに配置された被写体の立体感を強調したいといった場合がある。このような場合、視点間距離を倍に設定することで、被写体までの距離を半分にしたのと同じ効果が得られる。逆に、小さいものを接写のように撮影する場合では、視点間距離を縮めることにより、立体感が強調される。
【0087】
立体視表示用の複数の撮像画像データを取得する際の主要被写体までの距離は、視点間距離が6cmである場合、図3に示すように、1〜4m程度とすることが望ましい。これを被写体までの角度(輻湊角)にすると、約1〜4度の範囲となる。
【0088】
例えば小さな被写体を、距離が10cmのところに置いた場合、被写体までの角度を4度以下にするには視点間距離を6mm以下に調整しなければならない。
これとは正反対に、100m先でも十分に視認される大きな被写体である場合、被写体までの角度を4度に設定するには視点間距離を約6mに調整しなければならない。
【0089】
よって、第一撮像部21と第二撮像部22のレンズ1間が約6cm間隔で配置されている場合、十分な立体感を得るには、撮像装置30から1〜4mの距離において、撮影可能な大きさの被写体であることが望ましい。
【0090】
なお、撮像装置30は、第一撮像部21と第二撮像部22の双方を備える構成としてもよいし、一方の撮像部、例えば第二撮像部22をアダプタ付きのアタッチメントとして撮像装置30に着脱自在に構成し、立体視表示用の複数の撮像画像データを撮影する際に、第二撮像部22を、アダプタを介して取り付けるようにしてもよい。また、一方の撮像部を撮像装置30の長手方向にスライド可能に構成することで、視点間距離を調整したり、視点間距離の異なる複数の画像を撮影したりすることができる。
【0091】
第一撮像部21、第二撮像部22により得られた撮像画像データはバッファメモリ等の一時記憶メモリ6へ出力され、それぞれ一時的に格納される。
【0092】
画像処理部7は、一時記憶メモリ6へ記憶された各撮像画像データに撮像装置特性補正処理を施して、シーン参照画像データを生成する。撮像装置特性補正処理には、撮像素子の撮像素子固有の分光感度に基づく各色チャンネルの信号強度を、例えばscRGB、RIMM RGBやERIMM RGBなどの標準色空間にマッピングする処理が含まれる。その他、階調変換処理、平滑化処理、鮮鋭化処理、ノイズ除去及びモアレ除去等の周波数処理演算等を施す。
【0093】
また、画像処理部7は、生成されたシーン参照画像データに対して、表示部15での鑑賞に最適な画像を得るための最適化処理を施して鑑賞画像参照データを生成する。最適化処理には、例えば、sRGB、ROMM RGB(Reference Output Medium Metric RGB)等、表示部15に適した色域への圧縮、16bitから8bitへの階調圧縮、出力画素数の低減、表示部15の出力特性(LUT)への対応処理等が含まれる。更に、ノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、覆い焼き処理等の画像処理が含まれる。画像処理部7は、その他、画像サイズの変更、トリミング、アスペクト変換等を行う。シーン参照画像データの出力を指定する操作信号が操作部14より入力されると、制御部11の制御により、この画像処理部7における、鑑賞画像参照データの生成が省略される。
【0094】
添付処理部8は、差分画像データ生成部13で生成された差分画像データを基準画像データ選定部12で選定された基準画像データの一部に記録して添付済みのデータファイルを生成するとともに、データファイルのヘッダ領域に対し、差分画像データが添付されていることを示す添付識別情報、撮影条件設定情報生成部23で生成された、各撮像画像データの撮影条件を示す撮影条件設定情報をタグ情報として書き込み処理する。
【0095】
記憶デバイス9は、不揮発性の半導体メモリ等により構成されており、撮像画像データを記録するメモリカード等の、撮像装置30に着脱可能に構成された記憶メディアと、撮像装置30の制御プログラムが記憶された読み出し可能な記憶デバイスとにより構成されている。
【0096】
制御部11は、CPU(Central Processing Unit)等により構成され、記憶デバイス9に記憶されている撮像装置30の制御プログラムを読み出して、読み出したプログラムに従って撮像装置30全体の制御を行う。具体的には、制御部11は、操作部14からの操作信号に応じて、撮影条件設定に基づいて、第一撮像部21、第二撮像部22、ストロボ駆動回路16等の制御を行い、撮影を行う。
【0097】
また、制御部11は、操作部14によりシーン参照画像データによる立体視表示用の撮像画像データの出力が指定されると、後述する立体視表示用画像撮影・記録処理を実行する。
【0098】
基準画像データ選定部12は、撮影により得られた立体視表示用の複数の撮像画像データから、基準画像データを選定し、結果を差分画像データ生成部13、添付処理部8へ出力する。基準画像データの選定は、画像解析結果に基づいて、1枚の撮像画像データとして最も好適な画像が選定される。例えば、撮影条件設定が感度設定違い(後述するステレオ感度変更モード)である場合、各撮像画像データをヒストグラム解析し、この結果に基づき各撮像画像データの感度設定の適正度を評価し、最も適正度が高いと評価された撮像画像データを基準画像データとして選定する。例えば、各撮像画像データの輝度値が0〜255で表される場合、ヒストグラムで輝度値が0側に収束している場合は白とびがない、ヒストグラムがダブルピークであれば逆光やストロボが強く当っている可能性がある等を判断し、これらの判断により感度設定の適正度を評価する。勿論、これらの選定は、自動的に処理されても良いし、ユーザによるマニュアル操作で処理されても良い。
【0099】
差分画像データ生成部13は、基準画像データ選定部12により基準画像データとして選定された撮像画像データと、立体視表示の際に基準画像データと対をなす他の撮像画像データ(視差画像データと称する)との差分画像データを下記の演算式により抽出し、添付処理部8に出力する。
A1:基準画像データ
A2:視差画像データ
B:差分画像データ
B=A1−A2
【0100】
操作部14には、図示しないレリーズボタン、電源のON/OFFボタン、ズームボタン、撮影条件(モード)設定ボタン等の各種機能ボタン、カーソルキー等が設けられ、各ボタンやキーに対応する操作信号を入力信号として制御部11に出力する。また、操作部14は、表示部15の表示画面上を覆うタッチパネルを有し、手指やタッチペン等で押下された表示画面上の力点のXY座標を電圧値で検出し、検出された位置信号を操作信号として制御部11に出力する。
【0101】
操作部14の撮影条件(モード)設定ボタンは、第一撮像部21及び第二撮像部22を用いて複数の撮像画像データを撮影する際の撮影条件設定を行うためのボタンである。撮影条件設定の入力方法としては、各撮像画像データに対する撮影条件の設定をユーザがマニュアルで入力するようにしてもよいが、本実施の形態においては、予め各撮像部の撮影条件設定をモードに対応付けておき、撮影条件(モード)設定ボタンによりモード設定が入力されると、入力されたモードに基づいて各撮像部における撮影条件が自動的に設定される。モードとしては、例えば、複数の撮影を行う際に、各撮影において、視点のみを変更して撮影するステレオ写真モード、視点及び撮像素子の感度を変更して撮影するステレオ感度変更モード、シャッタースピードを変更して撮影するスポーツモード、絞りを変更する風景モード等がある。例えば、操作部14によりステレオ感度変更モードに設定された場合には、制御部11により第一撮像部21のCCD3が低感度(高感度)、第二撮像部22のCCD3が高感度(低感度)になるように制御され、2つの撮像部により異なる視点から異なる感度で被写体が撮影される。
【0102】
表示部15は、制御部11からの制御信号により、撮像画像データを表示するとともに、撮像装置30の使用者が撮影に関する設定や条件を確認するための情報や設定や条件を入力するための表示画面を表示する。
【0103】
ストロボ駆動回路16は、制御部11からの制御信号により、被写体輝度が低い時にストロボ17を駆動制御して発光させる。
ストロボ17は、電池電圧を所定の高電圧に昇圧させ、電荷としてコンデンサに蓄える。そして、ストロボ駆動回路16により駆動されることにより、コンデンサに蓄えられた電荷によりX管を発光して、被写体に対して補助光を照射する。
【0104】
撮影条件設定情報生成部23は、各撮像画像データが撮影された際の撮影条件を示す撮影条件設定情報を生成し、添付処理部8へ出力する。
【0105】
<撮像装置30の動作>
次に、動作について説明する。
図4は、操作部14により、シーン参照画像データによる立体視表示用の複数の撮像画像データの出力が設定され、レリーズスイッチが押下された際に、制御部11の制御により実行される立体視表示用画像撮影・記録処理を示すフローチャートである。以下、図4を参照して立体視表示用画像撮影・記録処理について説明する。
【0106】
操作部14のレリーズボタンが押下されると、操作部14の撮影条件設定ボタンからのモード設定に基づいて、制御部11により第一撮像部21と第二撮像部22それぞれの絞り2、CCD3、シャッター速度等が制御され、同一被写体が異なる視点から撮影される(ステップS1)。この撮影により得られた立体視表示用の複数の撮像画像データは、それぞれ画像処理部7において撮像装置特性補正処理が施され、RIMM RGBやERIMM RGBの標準色空間にマッピングされ、立体視表示用のシーン参照画像データが生成され、差分画像データ生成部13に出力される(ステップS2)。
【0107】
一方、撮影条件設定情報生成部23により、撮影時の撮影条件に基づいて、撮影条件設定情報が生成され、添付処理部8へ出力される(ステップS3)。
【0108】
次いで、基準画像データ選定部12において、撮影により得られた立体視表示用の複数の撮像画像データ(シーン参照画像データ)から1枚の撮像画像として鑑賞するのに最も好適な撮像画像データが基準画像データとして選定される(ステップS4)。基準画像データの選定は、画像解析結果に基づいて行われる。例えば、モードがステレオ感度変更モードに設定されており、撮影条件設定が感度設定違いである場合、各撮像画像データがヒストグラム解析され、この結果に基づき各撮像画像データの感度設定の適正度が評価され、最も適正度が高いと評価された撮像画像データが基準画像データとして選定される。
【0109】
次いで、差分画像データ生成部13において、選定された基準画像データと、他の撮像画像データである視差画像データとの差分を抽出することにより差分画像データが生成される(ステップS5)。差分画像データには、基準画像データと視差画像データの視差情報及び撮影条件設定の違いによる差分情報が含まれている。基準画像データ及び生成された差分画像データは添付処理部8に出力され、差分画像データが基準画像データの一部に記録されることにより、差分画像データが基準画像データに添付され(ステップS6)、JPEG方式で圧縮され、DCF(Design rule for Camera File system)規格に準拠したファイルフォーマットの添付済みデータファイルが生成される(ステップS7)。さらに、差分画像データの添付された基準画像データのファイルのヘッダ領域に対し、添付識別情報及び撮影条件設定情報がタグ情報として記録され(ステップS8)、記憶デバイス9の記憶メディアに記録される(ステップS9)。ここで、添付識別情報は、差分画像データの添付を示すフラグや、差分画像データの領域を示す情報等、再処理時に必要な付加情報である。
【0110】
図5(a)は、ステップS9で記憶デバイス9の記憶メディアに記録されるデータファイルのデータ構造を示す図である。図5(a)に示すように、記憶メディアに記録されるデータファイルは、基準画像データ領域、差分画像データ領域、ヘッダ領域を有している。この記憶メディアを撮像装置30から取り出して、画像処理装置や画像記録装置等の外部装置に装着することにより、基準画像データ、差分画像データ、ヘッダ領域のタグ情報をこれらの外部装置に出力し、外部装置で利用することができる。
【0111】
以上説明したように、撮像装置30によれば、立体視表示用の複数の撮像画像データをそれぞれの撮影条件設定を変えて撮影し、その中から1枚の撮像画像として最も好適な撮像画像データを基準画像データとして選定し、この基準画像データと、これに対する視差画像データとの差分を抽出して差分画像データとして基準画像データに添付する。従って、立体視表示用の複数の撮像画像データのうち、最も好適な撮像画像データを単一の撮像画像データとして扱うことが可能となるとともに、立体視表示用ではない通常の撮像画像データと同様のファイルフォーマットでの保存、ファイルの名称設定等が可能となる。また、ファイルのヘッダ領域に添付識別情報を記録しているので、複数のファイルの中から立体視表示用の撮像画像データのファイルを検索する際の検索効率を改善することができる。
【0112】
このように、撮像装置30によれば、立体視表示用の撮像画像データと通常の撮像画像データとの互換性、立体視表示用の撮像画像データの汎用性、利便性を向上することができる。基準画像データ及び差分画像データをDCF規格に準拠したファイルフォーマットで記録することにより、より立体視表示用の撮像画像データの汎用性、利便性を向上することができる。
【0113】
また、基準画像データとこれに対する視差画像データをそのまま保存するのではなく、差分画像データを基準画像データに添付するようにしたことで、使用するファイル容量が少なくてすみ、撮影枚数を大幅に増加させることができる。更に、基準画像データ及び視差画像データは、シーン参照画像データとして記録されるので、撮像装置30が取得した広い色域・輝度域の情報の損失を防止することができる。
【0114】
更に、基準画像データとして、異なる撮影条件の撮像画像データの中から好適な撮像画像データが選定されるので、立体視表示用の撮像画像データを1枚の写真プリントとして出力したり表示したりする場合に、画質の向上を図ることができる。また、撮像装置30から出力されるデータファイルのヘッダ領域に撮影条件設定情報が記録され、基準画像データに添付される差分画像データに、視差情報とともに基準画像データと視差画像データとの撮影条件設定の違いによる差分情報が含まれるので、これらの情報、データを利用して、他の画像処理装置や画像記録装置において、基準画像データと視差画像データの情報の補間等を行うことにより、更なる画質向上を図ることができる。基準画像データを1枚の撮像画像として利用する際にも、差分画像データを利用して情報の補間等を行うことにより、更なる画質向上を図ることができる。
【0115】
なお、上記実施の形態においては、ファイルのヘッダ領域に添付識別情報をタグ情報として記録することとしたが、何視点分の差分画像データが記憶されているかの情報や、各差分画像データの基準画像データとの視点間距離等をヘッダ領域に記録することが望ましい。
【0116】
また、上記実施の形態においては、撮像画像データをシーン参照画像データとして記憶メディアに記録する例を示したが、撮像画像データに画像処理部7で最適化処理を施して鑑賞画像参照データを生成し、この鑑賞画像参照データについて基準画像データを選定し、差分画像データを生成して添付するようにしてもよい。
【0117】
<画像処理装置100の構成>
次に、本発明の画像処理装置の実施形態について説明する。
まず、構成を説明する。
図6は本発明に係る画像処理装置100の機能的構成を示すブロック図である。図6に示すように、画像処理装置100は、入力部101、基準画像データ選定部102、差分画像データ抽出部103、差分画像データ生成部104、差分画像データ添付部105、一時記憶メモリ106、ヘッダ情報記録部107、一時記憶メモリ108、撮影条件設定取得部111により構成されており、さらに、記憶デバイス110が接続可能な状態となっている。以上の各構成要素はCPU等により構成される制御部109の統括的な制御下において動作する。
【0118】
入力部101は、記憶メディア装着部(図示せず)を備えている。この装着部に、デジタルカメラ等の撮像装置により記録された立体視表示用の複数の撮像画像データが記録された記憶メディアが装着されると、入力部101は、データを読み出して基準画像データ選定部102へ入力する。なお、本実施の形態においては、入力部101は、装着された記憶メディアからデータを読み出して入力することとして説明するが、データ通信ケーブルや、無線又は有線の通信手段を備え、これらの通信手段を介してデータを入力するようにしてもよい。
【0119】
基準画像データ選定部102は、入力部101から入力された立体視表示用の複数の撮像画像データの中から基準画像データを選定する。基準画像データの選定は、各撮像画像データの画像解析を行い、その結果に基づいて、1枚の撮像画像データとして最も好適な画像を選定する。例えば、各撮像画像データの撮影条件が感度設定違いである場合、各撮像画像データをヒストグラム解析し、この結果に基づき各撮像画像データの感度設定の適正度を評価し、最も適正度が高いと評価された撮像画像データを基準画像データとして選定する。ヒストグラム解析による適正度の評価は、例えば、各撮像画像データの輝度値が0〜255で表される場合、ヒストグラムで輝度値が0側に収束している場合は白とびがないと判断し、ヒストグラムがダブルピークであれば逆光やストロボが強く当っている可能性があることを判断し、これらの判断により感度設定の適正度を評価する。この選定は自動的に処理されても良いし、ユーザによるマニュアル操作で処理されても良い。自動的に処理するようにするには、撮影条件設定を識別する手段を備える必要がある。このような識別手段としては、入力部101から入力された各撮像画像データのヘッダ領域等に記録されている撮影条件設定情報を利用する方法がある。
【0120】
差分画像データ抽出部103は、基準画像データ選定部102により選定された基準画像データと、立体視表示の際に基準画像データと対をなす他の撮像画像データである視差画像データとの差分画像データを下記の演算式により抽出し、差分画像データ生成部104に出力する。
A1:基準画像データ
A2:視差画像データ
B:差分画像データ
B=A1−A2
【0121】
差分画像データ生成部104は、差分画像データ抽出部103から抽出された差分画像データを添付用の差分画像データに加工する。
【0122】
差分画像データ添付部105は、加工された差分画像データを、基準画像データの一部として基準画像データに添付し、差分画像データの添付された基準画像データをJPEG方式で圧縮し、DCF(Design rule for Camera File system)規格に準拠したファイルフォーマットの添付済みデータファイルを生成し、一時記憶メモリ106へ出力する。
【0123】
一時記憶メモリ106は、差分画像データ添付部105から出力された添付済みデータファイルを一時的に記憶する。
【0124】
ヘッダ情報記録部107は、情報添付手段として、差分画像データの添付された基準画像データのヘッダ領域に対し、差分画像データが添付されていることを示す添付識別情報及び撮影条件設定取得部111により入力された、各撮像画像データの撮影条件を示す撮影条件設定情報をタグ情報として記録する。ここで、添付識別情報は、差分画像データの添付を示すフラグや、差分画像データの領域を示す情報等、再処理時に必要な付加情報である。ヘッダ領域への情報記録の終了した基準画像データのファイルは、一時記憶メモリ108に一時的に記憶された後、単一の撮像画像データとして記憶デバイス110へ出力される。
【0125】
撮影条件設定取得部111は、入力部101から入力された各撮像画像データの撮影条件を示す、撮影条件設定情報を取得する。例えば、撮影条件設定情報が入力部101から入力されるデータファイルのヘッダ領域にタグ情報として記載されている場合、撮影条件設定入力部111は、入力部101から入力されたデータファイルのヘッダ領域から撮影条件設定情報を読み出して取得し、ヘッダ情報記録部107へ出力する。
【0126】
以上の、基準画像データ生成部102、差分画像データ抽出部103、差分画像データ生成部104、差分画像データ添付部105、ヘッダ情報記録部107、撮影条件設定取得部111という区分は、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。
【0127】
<画像処理装置100の動作>
図7は、画像処理装置100の各部が連携することにより実行される基準画像データ出力処理を示すフロー図である。以下、図7を参照して画像処理装置100の動作について説明する。
【0128】
立体視表示用の複数の撮像画像データが記録された記憶メディアが装着されると、入力部101により、記憶メディアに記録された複数の撮像画像データが入力される(ステップ11)。入力される撮像画像データは、シーン参照画像データであっても、鑑賞画像参照データであっても対応可能である。基準画像データ選定部102により、入力された複数の撮像画像データの中から基準画像データが選定される(ステップS12)。基準画像データの選定は、各撮像画像データの画像解析を行い、その結果に基づいて、1枚の撮像画像データとして最も好適な画像が選定される。次いで、差分画像データ抽出部103により、選定された基準画像データと、入力された他の撮像画像データである視差画像データの差分を求めることにより、差分画像データが抽出され、差分画像データ生成部104において画像処理可能な差分画像データに加工されて差分画像データが生成される(ステップS13)。
【0129】
基準画像データ及び差分画像データは差分画像データ添付部105に出力され、差分画像データが基準画像データの一部に記録されて、差分画像データが基準画像データに添付され(ステップS14)、JPEG方式で圧縮され、DCF規格に準拠したファイルフォーマットの添付済みデータファイルが生成される(ステップS15)。さらに撮影条件設定取得部111により撮影条件設定情報が取得され、ヘッダ情報記録部107へ出力され(ステップS16)、差分画像データの添付された基準画像データのファイルのヘッダ領域に対し、撮影条件設定情報及び添付識別情報がタグ情報として記録され(ステップS17)、記憶デバイス110に基準画像データが単一の撮像画像データとして出力される(ステップS18)。
【0130】
上述した基準画像データ出力処理により、図5(a)に示したものと同様のデータ構造のファイルを記憶デバイス110に出力することができる。
【0131】
以上説明したように、画像処理装置100によれば、立体視表示用の複数の撮影条件の異なる撮像画像データから撮像画像として最も好適な撮像画像データを基準画像データとして選定し、この基準画像データと、立体視表示の際に基準画像データと対をなす他の撮像画像データである視差画像データとの差分画像データを基準画像データに添付してファイルを作成するとともに、差分画像データが添付されていることを示す添付識別情報及び各撮像画像データの撮影条件を示す撮影条件設定情報をファイルのヘッダ領域にタグ情報として記録する。
【0132】
従って、立体視表示用の複数の撮像画像データのうち、最も好適な撮像画像データを単一の撮像画像データとして扱うことが可能となるとともに、立体視表示用ではない通常の撮像画像データと同様のファイルフォーマットでの保存、ファイルの名称設定等が可能となる。また、ファイルのタグ情報として添付識別情報を記録しているので、複数のファイルの中から立体視表示用の撮像画像データのファイルを検索する際の検索効率を改善することができる。また、立体視表示用の撮像画像データのファイルと通常の撮像画像データのファイルをヘッダ領域の参照により自動的に判別することが可能となるので、両者が混在した状態でも効率的にプリント作成を行うことが可能となる。また、立体視表示に未対応の画像記録装置(プリンタ)を用いて、立体視表示用の撮像画像データから通常の2次元の写真プリント作成が可能となる。
【0133】
このように、画像処理装置100によれば、立体視表示用の撮像画像データと通常の撮像画像データとの互換性を向上し、立体視表示用の撮像画像データの汎用性、利便性を向上することができる。
【0134】
更に、画像処理装置100によって、撮像装置内で基準画像データの選定、差分画像データの生成、基準画像データへの差分画像データへの添付等を行う必要がなくなり、処理負荷の軽減によりバッテリー消費量が大幅に減少され、撮影可能枚数を増加させる。また、立体視表示用の撮像画像データの保存に必要な記憶デバイスの容量を少なくすることができる。
【0135】
更に、基準画像データとして、異なる撮影条件の撮像画像データの中から好適な撮像画像データが選定されるので、1枚の写真プリントとして出力したり表示したりする場合に、画質の向上を図ることができる。また、画像処理装置100から出力されるデータファイルのヘッダ領域に撮影条件設定情報が記録され、差分画像データとして基準画像データ及び基準画像データと異なる撮影条件設定で撮影された視差画像データとの差分情報が含まれているので、これらの情報、データを利用して、他の画像処理装置や画像記録装置において、基準画像データと視差画像データの補間等を行うことにより、更なる画質向上を図ることができる。基準画像データを1枚の撮像画像として利用する際にも、差分画像データを利用して補間等を行うことにより、更なる画質向上を図ることができる。
【0136】
<画像処理装置200の構成>
次に、本発明の画像処理装置の一実施形態について説明する。
まず、構成を説明する。
図8は本発明に係る画像処理装置200の機能的構成を示すブロック図である。図8に示すように、画像処理装置200は、入力部201、ヘッダ情報解析部202、入力された撮像画像データから視差画像データを生成するための第一処理部211、基準画像データと視差画像データから立体視表示用画像データを生成する第二処理部212により構成されている。第一処理部211と、第二処理部212にはヘッダ情報解析部202が夫々接続されており、さらに第二処理部212には、記憶デバイス213が接続可能な状態となっている。以上の各構成要素はCPU等により構成される制御部214の統括的な制御下において動作する。
【0137】
入力部201は、記憶メディア装着部(図示せず)を備えている。この装着部に、上述した撮像装置30や画像処理装置100により記録された撮像画像データ(差分画像データが添付され、ヘッダ領域へ添付識別情報及び撮影条件設定情報がタグ情報として記録されている基準画像データ)のデータファイルが記録された記憶メディアが装着されると、入力部201は、記憶メディアに記憶されたファイルを読み出してヘッダ情報解析部202へ入力する。なお、本実施の形態においては、入力部201は、装着された記憶メディアからデータを読み出して入力することとして説明するが、データ通信ケーブルや、無線又は有線の通信手段を備え、これらの通信手段を介してデータを入力するようにしてもよい。
【0138】
ヘッダ情報解析部202は、判別手段として、入力部201から入力された基準画像データのファイルフォーマットのヘッダ情報(ヘッダ領域のタグ情報)を解析することにより、基準画像データに差分画像データが添付されていることを示す添付識別情報、撮影条件を示す撮影条件設定情報を判別し、結果を差分画像データ読み出し部203、視差画像データ生成部205、基準画像データ生成部207、撮影条件設定読み出し部217へ出力する。
【0139】
第一処理部211は、図8に示すように、差分画像データ読み出し部203、差分画像データ生成部204、視差画像データ生成部205、一時記憶メモリ206、撮影条件設定読み出し部217を有して構成されている。
【0140】
差分画像データ読み出し部203は、分離手段として、ヘッダ情報解析部202の解析による添付識別情報の判別結果に基づいて、入力されたファイルの所定の領域から差分画像データを読み出して、基準画像データと差分画像データを分離する。差分画像データ生成部204は、読み出された差分画像データを画像処理可能な状態に加工する。
【0141】
視差画像データ生成部205は、差分画像データと基準画像データから、立体視表示において基準画像データと対をなす視差画像データを生成する。視差画像データは、下記の演算式により生成される。
A1:基準画像データ
A2:視差画像データ
B:差分画像データ
A2=A1+B
また、視差画像データ生成部205は、上記演算により求められた視差画像データに対して、撮影条件設定読み出し部217から入力された撮影条件設定情報に基づいて画質調整処理を施す。例えば、基準画像データと視差画像データの撮影条件の違いが感度設定であり、基準画像データが高感度設定で、差分画像データが低感度設定である場合、輝度の低い領域について基準画像データの情報で補間する等を行い、視差画像データに感度調整処理を施す。
【0142】
一時記憶メモリ206は、視差画像データ生成部205で生成された視差画像データを一時的に記憶する。
【0143】
撮影条件設定読み出し部217は、ヘッダ情報解析部202において、ヘッダ領域へ撮影条件設定情報が記録されていると解析された場合に、入力されたファイルのヘッダ領域から撮影条件設定情報を読み出して、視差画像データ生成部205に出力する。
【0144】
第二処理部212は、図8に示すように、基準画像データ生成部207、立体視表示用画像データ生成部208、出力条件設定入力部209、一時記憶メモリ210を有して構成されている。
【0145】
基準画像データ生成部207は、入力されたデータファイルから基準画像データを読み出して、画像処理可能な状態に加工する。
【0146】
立体視表示用画像データ生成部208は、出力条件設定入力部209から入力された出力条件設定に従って、基準画像データと一時記憶メモリ206に記憶されている視差画像データから立体視表示用の画像を生成する。具体的には、図9に示すように、基準画像と視差画像の2つの画像の視点間距離が、最低でも人間の両目間の距離と同じ約6〜7cmの距離に保たれるよう、夫々の画像の大きさを調整し、並行法、又は交差法の観察条件に応じて正しく平面上に並べて配置されるように、立体視表示用画像データを生成する。
【0147】
出力条件設定入力部209は、キーボードやLCD上に構成されたタッチパネル等のユーザインターフェースにより構成され、本画像処理装置200にて生成される立体視表示用画像データの出力設定(例えば、出力先のデバイスの種類、出力サイズ等)に関する情報が入力されると、この情報を立体視表示用画像データ生成部208へ出力する。
【0148】
一時記憶メモリ210は、立体視表示用画像データ生成部208で生成された立体視表示用画像データを一時的に記憶する。この一時記憶メモリ210に一時的に記憶された立体視表示用画像データは、記憶デバイス213に出力される。
【0149】
以上の、ヘッダ情報解析部202、差分画像データ読み出し部203、差分画像データ生成部204、視差画像データ生成部205、基準画像データ生成部207、立体視表示用画像データ生成部208、撮影条件設定読み出し部217という区分は、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。
【0150】
<画像処理装置200の動作>
図10は、画像処理装置200の各部が連携することにより実行される立体視表示用画像データ生成処理Aを示すフロー図である。以下、図10を参照して画像処理装置200の動作について説明する。
【0151】
図5(a)に示す基準画像データのファイルが記録された記憶メディアが記憶メディア装着部に装着されると、入力部201により、記憶メディアに記録された基準画像データが入力される(ステップS21)。次いで、ヘッダ情報解析部202により基準画像データのファイルのヘッダ領域のタグ情報が解析され、添付識別情報及び撮影条件設定情報が判別される(ステップS22)。ヘッダ情報解析部202の判別の結果に基づき、撮影条件設定読み出し部217によりこの情報が読み出され、視差画像データ生成部205へ出力される(ステップS23)。また、ヘッダ情報解析部202の判別の結果に基づき、差分画像データ読み出し部203により、ファイルの所定領域から差分画像データが読み出されて基準画像データと差分画像データが分離され(ステップS24)、差分画像データ生成部204により加工が施されて画像処理可能な差分画像データが生成され(ステップS25)、視差画像データ生成部205へ出力される。
【0152】
次いで、視差画像データ生成部205において、基準画像データと差分画像データから視差画像データが生成され(ステップS26)、撮影条件設定情報に基づいて、視差画像データに対して画質調整処理が施される(ステップS27)。そして、立体視表示用画像データ生成部208において、出力条件設定入力部209より入力された出力条件に基づいて、基準画像データと生成された視差画像データの2つの画像の大きさと配置が立体視表示に最適なように調整され、一時記憶メモリ210を介して、一つの立体視表示用画像データとして記憶デバイス213に出力される(ステップS28)。
【0153】
以上説明したように、画像処理装置200によれば、ヘッダ情報解析部202の解析による添付識別情報の判別に基づいて、差分画像データ読み出し部203により基準画像データのファイルの所定領域から差分画像データを読み出して基準画像データと差分画像データを分離し、基準画像データと差分画像データから、立体視表示において基準画像データと対を成す視差画像データを生成し、基準画像データと生成された視差画像データの2つの画像の大きさと配置が立体視表示に最適なように調整して立体視表示用画像データを生成して記録デバイス213に出力する。ヘッダ情報解析部202によりデータファイルのヘッダ領域に撮影条件設定情報が判別された場合には、これを読み出して、視差画像データ生成の際に、撮影条件設定情報に基づいて画質調整処理を施す。
【0154】
従って、入力されたデータが、差分画像データが添付された、立体視表示に用いる基準画像データであることを自動的に判別し、基準画像データと差分画像データから立体視表示用画像データを生成することができる。即ち、上述した撮像装置30や画像処理装置100で生成されたデータ構造の基準画像データのファイルが入力されたことを自動的に判別して立体視表示用画像データを生成することができる。これにより、プリンタ等の画像記録装置で出力媒体上に立体視表示用画像を形成して出力する際の画像記録装置側での処理負荷を軽減することができる。
【0155】
更に、視差画像データに対して、撮影条件に基づいて画質調整処理を施すので、立体視表示画像の画質向上を図ることができる。
【0156】
なお、視差画像データの情報を用いて基準画像データに対して更に画質調整処理を施すようにしてもよい。例えば、基準画像データが高感度設定で、視差画像データが低感度設定である場合、輝度の高い領域では高感度設定の基準画像データではダイナミックレンジが不足し、信号が飽和しやすいため、視差画像データの情報で補間することで画質の向上を図ることができる。
【0157】
<画像処理装置200Aの構成>
次に、入力された基準画像データ(差分画像データが添付され、添付識別情報及び撮影条件設定情報がヘッダ領域にタグ情報として記録されているデータ)がシーン参照画像データである場合に好適な処理を行うことが可能な画像処理装置200Aについて説明する。図11に、画像処理装置200Aの機能的構成を示す。
【0158】
図11に示すように、画像処理装置200Aは、上述した画像処理装置200の構成に、鑑賞画像参照データ生成部215及びシーン参照画像データ再現用データ生成部216を追加した構成である。
【0159】
鑑賞画像参照データ生成部215は、基準画像データ生成部207から入力されたシーン参照画像データの基準画像データと、第一処理部211で生成されたシーン参照画像データの視差画像データの双方に対して、出力条件設定入力部209から入力された情報に基づいて、出力媒体上(CRT、液晶ディスプレイ、プラズマディスプレイ、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等)で最適な鑑賞画像が得られるよう最適化処理を施し、上記それぞれのデータを鑑賞画像参照データに変換する。
【0160】
シーン参照画像データ再現用データ生成部216は、シーン参照画像データの基準画像データと、鑑賞画像参照データに変換された基準画像データとの差分を計算し、シーン参照画像データ再現用の差分データ(以下、シーン参照画像データ再現用データと称する)を抽出する。そして、差分画像データと、抽出されたシーン参照画像データ再現用データとを鑑賞画像参照データの基準画像データに添付して添付済みデータファイルを作成するとともに、生成されたファイルのヘッダ領域に、添付識別情報、基準画像データが鑑賞画像参照データであることを示す情報、シーン参照画像データ再現用のデータが添付されていることを示す情報をタグ情報として記録する。
【0161】
その他の画像処理装置200Aの構成は画像処理装置200と同様であるので、説明を省略する。
【0162】
<画像処理装置200Aの動作>
図12は、画像処理装置200Aの各部が連携することにより実行される立体視表示用画像データ生成処理Bを示すフロー図である。以下、図12を参照して画像処理装置200Aの動作について説明する。
【0163】
図5(a)に示すシーン参照画像データの基準画像データのファイルが記録された記憶メディアが装着されると、入力部201により、記憶メディアに記録された基準画像データが入力される(ステップ31)。次いで、ヘッダ情報解析部202により基準画像データのファイルのヘッダ領域のタグ情報が解析され、添付識別情報及び撮影条件設定情報が判別される(ステップS32)。ヘッダ情報解析部202の判別の結果に基づき、撮影条件設定読み出し部217によりこの情報が読み出され、視差画像データ生成部205へ出力される(ステップS33)。また、ヘッダ情報解析部202の判別の結果に基づき、差分画像データ読み出し部203により、ファイルの所定領域から差分画像データが読み出されて基準画像データと差分画像データが分離され(ステップS34)、差分画像データ生成部204により加工が施されて画像処理可能な差分画像データが生成され(ステップS35)、視差画像データ生成部205へ出力される。
【0164】
次いで、視差画像データ生成部205において、シーン参照画像データの基準画像データと差分画像データから、シーン参照画像データの視差画像データが生成され(ステップS36)、撮影条件設定情報に基づいて、視差画像データに対して画質調整処理が施される(ステップS37)。そして、鑑賞画像参照データ生成部215において、シーン参照画像データの基準画像データ及び視差画像データのそれぞれに、出力条件設定入力部209より入力された出力条件に基づいて、出力媒体上で最適な鑑賞画像が得られるよう最適化処理が施され、鑑賞画像参照データに変換される(ステップS38)。
【0165】
鑑賞画像参照データに変換された基準画像データ及び差分画像データは、立体視表示用画像データ生成部208において、出力条件設定入力部209より入力された出力条件に基づいて、基準画像データと生成された視差画像データの2つの画像の大きさと配置がステレオペアの立体視表示に最適なように調整され、一時記憶メモリ210を介して、一つの立体視表示用画像データとして記憶デバイス213に出力される(ステップS39)。
【0166】
一方、シーン参照画像データ再現用データ生成部216において、シーン参照画像データの基準画像データと鑑賞画像参照データに変換された基準画像データとの差分画像データが抽出され(ステップS40)、シーン参照画像データ再現用データが生成される(ステップS41)。そして、差分情報、即ち抽出されたシーン参照画像データ再現用データとステップS35で生成された差分画像データが鑑賞画像参照データの基準画像データに添付され(ステップS42)、更に、生成されたファイルのヘッダ領域に、添付識別情報、基準画像データが鑑賞画像参照データであることを示す情報、シーン参照画像データ再現用のデータが添付されていることを示す情報がタグ情報として記録されて添付済みデータファイルが作成され(ステップS43)、鑑賞画像参照データの基準画像データとして一時記憶メモリを介して記憶デバイス213に出力される(ステップS44)。
【0167】
図5(b)は、画像処理装置200Aで作成されるデータファイルのデータ構造を示す図である。図5(b)に示すように、画像処理装置200Aにより、基準画像データ領域、シーン参照画像データ再現用データ領域、差分画像データ領域、ヘッダ領域を有するデータファイルを生成することができる。
【0168】
以上説明したように、画像処理装置200Aによれば、シーン参照画像データの基準画像データから、出力媒体上で最適な鑑賞画像となるように最適化された立体視表示用画像データを生成することができる。また、鑑賞画像参照データに変換された基準画像データに、シーン参照画像データ再現用データ及び視差画像データ生成用の差分画像データを添付したファイルを生成し、生成されたファイルのヘッダ領域に、添付識別情報、基準画像データが鑑賞画像参照データであることを示す情報、シーン参照画像データ再現用のデータが添付されていることを示す情報をタグ情報として記録することができるので、鑑賞画像参照データの基準画像データから、他の画像処理装置や画像記録装置で出力条件に応じて最適化した立体視表示用画像データを生成することができる。更に、視差画像データに対して、撮影条件設定情報に基づいて画質調整処理を施すので、立体視表示画像の画質向上を図ることができる。
【0169】
なお、視差画像データの情報を用いて基準画像データに対して更に画質調整処理を施すようにしてもよい。例えば、基準画像データが高感度設定で、視差画像データが低感度設定である場合、輝度の高い領域では高感度の基準画像データではダイナミックレンジが不足し、信号が飽和しやすいため、視差画像データの情報で補間することで画質の向上を図ることができる。
【0170】
<画像記録装置301の構成>
次に、本発明に係る画像記録装置の好ましい実施の形態について説明する。
図13は本発明に係る画像記録装置301の外観構成を示す斜視図である。この実施の形態における画像記録装置301は、表示デバイスであるCRTディスプレイモニタと、銀塩印画紙を出力媒体として用いる出力デバイスとを備えた例である。
【0171】
画像記録装置301において、本体302の左側面にマガジン装填部303が設けられ、本体302内には出力媒体である銀塩印画紙に露光する露光処理部304と、露光された銀塩印画紙を現像処理して乾燥し、プリントを作成するプリント作成部305が備えられている。作成されたプリントは本体302の右側面に設けられたトレー306に排出される。さらに、本体302の内部には、露光処理部304の上方位置に制御部307が備えられている。
【0172】
また、本体302の上部には、CRT308が配置されている。このCRT308は、プリントを作成しようとする画像情報の画像を画面に表示する表示手段としての機能を有している。CRT308の左側に透過原稿読み込み装置であるところのフィルムスキャナ部309が配置され、右側に反射原稿入力装置310が配置されている。
【0173】
フィルムスキャナ部309や反射原稿入力装置310から読み込まれる原稿として写真感光材料がある。この写真感光材料としては、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等が挙げられ、アナログカメラにより撮像した駒画像情報が記録される。フィルムスキャナ部309のフィルムスキャナは、この記録された駒画像情報をデジタル画像データに変換し、駒画像データとすることができる。又、写真感光材料が銀塩印画紙であるカラーペーパーの場合、反射原稿入力装置310のフラットベッドスキャナで駒画像データに変換することができる。
【0174】
本体302の制御部307の配置位置には、画像読込部314が設けられている。画像読込部314はPCカード用アダプタ314a、FD(フロッピー(登録商標)ディスク)用アダプタ314bを備え、PCカード313aやFD(フロッピー(登録商標)ディスク)313bが差し込み可能になっている。PCカード313aは、デジタルカメラで撮像して複数の駒画像データ(撮像画像データ)が記憶されたメモリを有する。FD313bは、例えばデジタルカメラで撮像された複数の駒画像データが記憶されている。
【0175】
CRT308の前方には、操作部311が配置され、この操作部311は情報入力手段312を備える。情報入力手段312は、例えばタッチパネル等で構成される。
【0176】
前記以外の駒画像データを有する記憶媒体としては、マルチメディアカード、メモリスティック、MDデータ、CD−ROM等が挙げられる。なお、操作部311、CRT308、フィルムスキャナ部309、反射原稿入力装置310、画像読込部314は、本体302に一体的に設けられて装置の構造となっているが、いずれか1つ以上を別体として設けてもよい。
【0177】
更に、本体302の制御部307の配置位置には、画像書込部315が設けられている。画像書込部315にはFD用アダプタ315a、MO用アダプタ315b、光ディスク用アダプタ315cが備えられ、FD316a、MO316b、光ディスク316cが差し込み可能になっており、画像情報を記憶メディアに書き込むことができるようになっている。
【0178】
更に、制御部307は通信手段340、341を備え、施設内の別のコンピュータやインターネット等を介した遠方のコンピュータから直接、撮像画像を表す画像データとプリント命令を受信し、所謂ネットワーク画像記録装置として機能することが可能になっている。
【0179】
<画像記録装置301の内部構成>
次に、画像記録装置301の内部構成について説明する。
図14は画像記録装置301の内部構成を示すブロック図である。
【0180】
画像記録装置301の制御部307は、CPU(Central Processing Unit)、記憶部等により構成される。CPUは、記憶部に記憶されている各種制御プログラムを読み出し、該制御プログラムに従って、画像記録装置301を構成する各部の動作を集中制御する。
【0181】
また、制御部307は、画像処理部370を有し、操作部311の情報入力手段312からの入力信号に基づいて、フィルムスキャナ部309や反射原稿入力装置310により原稿画像の読み込みを行わせて取得した画像データ、画像読込部314から読み込まれた画像データ、及び通信手段(入力)340(図15に図示)を介して外部機器より入力された画像データに画像処理を施す。また、画像処理部370において、画像処理された画像データに対して出力形態に応じた変換処理を施して、プリントP1、P2、P3として、或いはCRT308、画像書込部315、通信手段(出力)341等により出力する。
【0182】
操作部311には、情報入力手段312が設けられている。情報入力手段312は、例えばタッチパネル等により構成されており、情報入力手段312の押下信号を入力信号として制御部307に出力する。また、操作部311は、キーボードやマウスを備えて構成するようにしてもよい。
【0183】
フィルムスキャナ部309は、アナログカメラにより撮像されたネガフィルムを現像して得られる現像済のネガフィルムNからの駒画像データを読み込み、反射原稿入力装置310からは駒画像を銀塩印画紙であるカラーペーパーに焼き付けて現像処理したプリントPからの駒画像データを読み込む。
【0184】
画像読込部314は、デジタルカメラにより撮像して記録されたPCカード313aやFD313bの駒画像データを読み出して転送する機能を有する。即ち、画像読込部314は、画像転送手段330としてPCカード用アダプタ、FD用アダプタ等を備え、PCカード用アダプタ314aに装着されたPCカード313aや、FD用アダプタ314bに装着されたFD313bに記録された駒画像データを読み取り、制御部307へ転送する。PCカード用アダプタ314aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。
【0185】
データ蓄積手段371は、画像情報とそれに対応する注文情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)とを記憶し順次蓄積する。
【0186】
テンプレート記憶手段372は、サンプル識別情報D1、D2、D3に対応してサンプル画像データ(背景画像やイラスト画像等を示すデータ)を記憶すると共に、該サンプル画像データとの合成領域を設定するテンプレートのデータを少なくとも1つ記憶する。ここで、オペレータの操作(このオペレータの操作は、クライアントの指示に基づく)によりテンプレート記憶手段372に予め記憶された複数のテンプレートから所定のテンプレートが選択されると、制御部307は、駒画像データと当該選択されたテンプレートとを合成し、次いで、オペレータの操作(このオペレータの操作は、クライアントの指示に基づく)によりサンプル識別情報D1、D2、D3が指定されると、当該指定されたサンプル識別情報D1、D2、D3に基づいてサンプル画像データを選択し、当該選択されたサンプル画像データと、クライアントにより注文された画像データ及び/又は文字データとを合成して、結果としてクライアントが所望するサンプル画像データに基づくプリントを作成する。このテンプレートによる合成は、周知のクロマキー法によって行なわれる。
【0187】
なお、サンプル識別情報は、サンプル識別情報D1、D2、D3の3種類に限らず、3種類より多くても、また、少なくてもよい。
また、プリントのサンプルを指定するサンプル識別情報D1、D2、D3は、操作部311から入力される様に構成されているが、サンプル識別情報D1、D2、D3が、プリントのサンプル、又は注文シートに記録されているから、OCR等の読み取り手段により読み取ることができる。あるいはオペレータがキーボードから入力することもできる。
【0188】
このようにプリントのサンプルを指定するサンプル識別情報D1に対応してサンプル画像データを記録しておき、プリントのサンプルを指定するサンプル識別情報D1を入力し、この入力されるサンプル識別情報D1に基づきサンプル画像データを選択し、この選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、種々の実物大のサンプルをユーザが実際に手にしてプリントの注文ができ、幅広いユーザの多様な要求に応じることができる。
【0189】
また、第1のサンプルを指定する第1のサンプル識別情報D2と第1のサンプルの画像データを記憶し、又第2のサンプルを指定する第2のサンプル識別情報D3と第2のサンプルの画像データを記憶し、指定される第1及び第2のサンプル識別情報D2、D3とに基づいて選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、さらに多種多様の画像を合成することができ、より一層幅広いユーザの多様な要求に応じたプリントを作成することができる。
【0190】
露光処理部304は、画像処理部370で画像データを画像処理して生成された出力用の画像データに応じて感光材料に画像の露光を行い、この感光材料をプリント作成部305に送る。プリント作成部305は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1はサービスサイズ、ハイビジョンサイズ、パノラマサイズ等であり、プリントP2はA4サイズ、プリントP3は名刺サイズのプリントである。
なお、プリントサイズは、プリントP1、P2、P3に限らず、他のサイズのプリントであってもよい。
【0191】
CRT308は、制御部307から入力される画像情報を表示する。
【0192】
画像書込部315は、画像搬送部331としてFD用アダプタ315a、MO用アダプタ315b、光ディスク用アダプタ315cが備えられ、FD316a、MO316b、光ディスク316cが差し込み可能になっており、画像データを記憶メディアに書き込むことができるようになっている。
【0193】
更に、画像処理部370は、通信手段(入力)340(図15に図示)を用いて、施設内の別のコンピュータやインターネット等を介した遠方のコンピュータから直接、撮像画像を表す画像データとプリント等の作業命令を受信し、遠隔操作で画像処理を実施したりプリントを作成したりすることも可能になっている。
【0194】
また、画像処理部370は、通信手段341(出力)(図15に図示)を用いて、本発明の画像処理を施した後の撮影画像を表す画像データと付帯するオーダー情報を、施設内の別のコンピュータやインターネット等を介した遠方のコンピュータに対して送付することも可能になっている。
【0195】
このように画像記録装置301は、各種デジタルメディアの画像、及び画像原稿を分割測光して得られた画像情報を取り込む入力手段と、この入力手段から取り入れた入力画像の画像情報を「出力画像の大きさ」と「出力画像における主要被写体の大きさ」という情報を取得又は推定して出力媒体上で画像を観察する際に好ましい印象を与える画像となるように処理を行う画像処理手段と、処理済の画像を表示、又はプリント出力、あるいは記憶メディアに書き込む画像形成手段、及び通信回線を介して施設内の別のコンピュータやインターネット等を介した遠方のコンピュータに対して画像データと付帯するオーダー情報を送信する通信手段(出力)341とを有する。
【0196】
<画像処理部370の構成>
図15は、本発明に係る画像処理部370の機能的構成を示すブロック図である。フィルムスキャナ部309から入力された画像データは、フィルムスキャンデータ処理部702において、フィルムスキャナ部固有の校正操作・ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、粒状ノイズ除去、鮮鋭化強調などが施され、画像調整処理部701に送られる。又、フィルムサイズ、ネガポジ種別、フィルムに光学的或いは磁気的に記録された主要被写体に関わる情報、撮影条件に関する情報(例えばAPSの記載情報内容)などが、併せて画像調整処理部701に出力される。
【0197】
反射原稿入力装置310から入力された画像データは、反射原稿スキャンデータ処理部703において、反射原稿入力装置固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、ノイズ除去、鮮鋭化強調などが施され、画像調整処理部701に出力される。
【0198】
画像転送手段330及び通信手段(入力)340から入力された画像データは、画像データ書式解読処理部704において、そのデータのデータ書式に従い必要に応じて圧縮符号の復元・色データの表現方法の変換等が行われ、画像処理部370内の演算に適したデータ形式に変換されて画像調整処理部701に出力される。また、画像データ書式解読処理部704において、入力された画像データが、差分画像データが添付された基準画像データであると判別されると、入力された画像データが基準画像データ処理部401に出力される。ここで、入力される基準画像データは、シーン参照画像データであっても鑑賞画像参照データであってもよい。入力された画像データがシーン参照画像データである場合は、本画像記録装置301により撮像画像情報の情報損失を伴うことなく最適化された鑑賞画像の立体視表示画像が得られるので好ましい。
【0199】
出力画像の大きさについての指定は操作部311から入力されるが、この他に通信手段(入力)340に送信された出力画像の大きさについての指定や、画像転送手段330により取得された画像データのヘッダ領域のタグ情報に埋め込まれた出力画像の大きさについての指定があった場合には、画像データ書式解読処理部704が該情報を検出し、画像調整処理部701へ転送する。
【0200】
基準画像データ処理部401は、ヘッダ情報解析部402、差分画像データ読み出し部403、差分画像データ生成部404、視差画像データ生成部405、基準画像データ生成部406、立体視表示用画像データ生成部407、撮影条件設定読み出し部409を有しており、出力条件設定入力部408が接続されている。
【0201】
ヘッダ情報解析部402は、判別手段として、画像データ書式解読処理部704から入力された基準画像データのファイルのヘッダ情報(ヘッダ領域のタグ情報)を解析して添付識別情報及び撮影条件設定情報を判別し、結果を差分画像データ読み出し部403、視差画像データ生成部405、基準画像データ生成部406、撮影条件設定読み出し部409へ出力する。
【0202】
差分画像データ読み出し部403は、分離手段として、ヘッダ情報解析部402による添付識別情報の判別結果に基づいて、入力されたファイルの所定の領域から差分画像データを読み出して基準画像データと差分画像データを分離する。差分画像データ生成部404は、読み出された差分画像データを画像処理可能な状態に加工する。
【0203】
視差画像データ生成部405は、差分画像データと基準画像データから、立体視表示において基準画像データと対をなす視差画像データを生成する。視差画像データは、下記の演算式により生成される。
A1:基準画像データ
A2:視差画像データ
B:差分画像データ
A2=A1+B
また、視差画像データ生成部405は、上記演算により求められた視差画像データに対して、撮影条件設定読み出し部403から入力された撮影条件設定情報に基づいて画質調整処理を施す。例えば、基準画像データと視差画像データの撮影条件の違いが感度設定であり、基準画像データが高感度設定で、差分画像データが低感度設定である場合、輝度の低い領域について基準画像データの情報で補間する等を行い、視差画像データに感度調整処理を施す。
【0204】
基準画像データ生成部406は、入力されたファイルフォーマットから基準画像データを読み出して、画像処理可能な状態に加工する。
【0205】
立体視表示用画像データ生成部407は、出力条件設定入力部408から入力された出力条件設定に従って、基準画像データと視差画像データから立体視表示用の画像を生成する。具体的には、図9に示すように、基準画像と視差画像の2つの画像の視点間距離が、最低でも人間の両目間の距離と同じ約6〜7cmの距離に保たれるよう、夫々の画像の大きさを調整し、並行法、又は交差法の観察条件に応じて正しく平面上に並べて配置されるように、ステレオペアの立体視表示用画像データを生成する。
【0206】
なお、立体視表示用画像データ生成部407は、入力された基準画像データがシーン参照画像データである場合には、基準画像データと視差画像データの双方に対して、出力条件設定入力部408から入力された情報に基づいて、出力媒体上(CRT、液晶ディスプレイ、プラズマディスプレイ、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等)で最適な鑑賞画像が得られるよう最適化処理を施し、上記それぞれのデータを鑑賞画像参照データに変換した後、基準画像と視差画像の2つの画像の視点間距離が、最低でも人間の両目間の距離と同じ約6〜7cmの距離に保たれるよう、それぞれの画像の大きさを調整し、並行法、又は交差法の観察条件に応じて正しく平面上に並べて配置されるように、ステレオペアの立体視表示用画像データを生成する。
【0207】
出力条件設定入力部408は、キーボードやLCD上に構成されたタッチパネル等のユーザインターフェースにより構成され、本画像処理装置301にて生成されたデジタル画像データの出力設定(例えば、出力先のデバイスの種類、出力サイズ等)に関する情報が入力されると、この情報を立体視表示用画像データ生成部407へ出力する。なお、出力条件設定入力部409は、操作部311と一体であってもよい。
【0208】
撮影条件設定読み出し部409は、ヘッダ情報解析部402における撮影条件設定情報の判別結果に基づき、入力されたファイルのヘッダ領域から撮影条件設定情報を読み出して、視差画像データ生成部405に出力する。
【0209】
基準画像データ処理部401で生成された立体視表示用画像データは、画像調整処理部701へ出力される。
【0210】
画像調整処理部701では、テンプレート処理が必要な場合にはテンプレート記憶手段372から所定の画像データ(テンプレート)を呼び出す。テンプレート処理部705に画像データを転送し、テンプレートと合成しテンプレート処理後の画像データを再び受け取る。又、画像調整処理部701では、操作部311又は制御部307の指令に基づき、フィルムスキャナ部309、反射原稿入力装置310、画像転送手段330、通信手段(入力)340、テンプレート処理部705、基準画像データ処理部401から受け取った画像データに対して、出力媒体上で画像を観察する際に好ましい印象を与える画像となるように画像処理を行って出力用のデジタル画像データを生成し、CRT固有処理部706、プリンタ固有処理部(1)707、画像データ書式作成処理部709、データ蓄積手段371へ送出する。
【0211】
CRT固有処理部706では、画像調整処理部701から受け取った画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を行い、制御情報等表示が必要な情報と合成した表示用の画像データを画像形成手段としてのCRT308に送出する。プリンタ固有処理部(1)707では、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等を行い、画像形成手段としての露光処理部351に画像データを送出する。本発明の画像記録装置301に、さらに、画像形成手段としての大判インクジェットプリンタなど、外部プリンタ装置351を接続する場合には、接続するプリンタ装置ごとにプリンタ固有処理部(2)708を設け、適正なプリンタ固有の校正処理、カラーマッチング、画素数変更等を行うようにする。
【0212】
画像データ書式作成処理部709においては、画像調整処理部701から受け取った画像データに対して、必要に応じてJPEG、TIFF、Exif等に代表される各種の汎用画像フォーマットへの変換を行い、画像搬送部331や通信手段(出力)341へ画像データを転送する。
【0213】
なお、基準画像データ処理部401において作成される立体視表示用画像データは、上記CRT固有処理部706、プリンタ固有処理部(1)707、プリンタ固有処理部(2)708、画像データ書式作成処理部709における処理を前提としたものであり、画像データ書式作成処理部709においては、立体視表示用画像データの書式に基づき、CRT用、露光出力部用、外部プリンタ用、通信手段(出力)用等、最適化した画像データであることを示すステータスファイルを添付した上で、個々に画像搬送部に送信され、保存することが可能である。
【0214】
以上の、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703、画像データ書式解読処理部704、画像調整処理701、CRT固有処理部706、プリンタ固有処理部(1)707、プリンタ固有処理部(2)708、画像データ書式作成処理部709、という区分は、画像処理部370の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、たとえば単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。
【0215】
また、ヘッダ情報解析部402、差分画像データ読み出し部403、差分画像データ生成部404、視差画像データ生成部405、基準画像データ生成部406、立体視表示用画像データ生成部407、撮影条件設定読み出し部409という区分は、画像処理部370における本発明の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、たとえば単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。
【0216】
<画像処理部370の動作>
図16は、画像処理部370の各部が連携することにより実行される立体視表示用画像形成処理を示すフローチャートである。以下、図16を参照して画像処理部370各部の動作について説明する。
【0217】
画像転送手段330又は通信手段(入力)340から画像処理部370にデータが入力され、画像データ書式解読処理部704により当該入力データが立体視表示用の基準画像データのファイルであると判別されると(ステップS51)、ヘッダ情報解析部402により基準画像データのファイルのヘッダ領域のタグ情報が解析され、添付識別情報及び撮影条件設定情報が判別される(ステップS52)。ヘッダ情報解析部402の判別の結果に基づき、撮影条件設定読み出し部409により撮影条件設定情報が読み出され、視差画像データ生成部405へ出力される(ステップS53)。また、ヘッダ情報解析部402の判別の結果に基づき、差分画像データ読み出し部403により、ファイルの所定領域から差分画像データが読み出されて基準画像データと差分画像データが分離され(ステップS54)、差分画像データ生成部404により差分画像データに加工が施されて画像処理可能な差分画像データが生成され(ステップS55)、視差画像データ生成部405へ出力される。
【0218】
次いで、視差画像データ生成部405において、基準画像データと差分画像データから、視差画像データが生成され(ステップS56)、撮影条件設定情報に基づいて、視差画像データに対して画質調整処理が施される(ステップS57)。そして、立体視表示用画像データ生成部407において、基準画像データ及び視差画像データのそれぞれに、出力条件設定入力部408より入力された出力条件に基づいて、出力媒体上で最適な鑑賞画像が得られるよう最適化処理が施され、鑑賞画像参照データに変換される(ステップS58)。なお、入力された基準画像データが鑑賞画像参照データである場合は、当該ステップを省略してもよい。
【0219】
次いで、立体視表示用画像データ生成部407において、出力条件設定入力部408より入力された出力条件に基づいて、基準画像データと視差画像データの2つの画像の大きさと配置がステレオペアの立体視表示に最適なように調整され、立体視表示用画像データが生成される(ステップS59)。そして、立体視表示用画像データは出力先に応じてCRT固有処理部706、プリンタ固有処理部707、プリンタ固有処理部708、画像データ書式作成処理部709の何れかの処理部に出力され、出力された処理部において、出力先に応じた固有の処理が施され(ステップS60)、出力条件設定入力部408により指定された出力先において、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙等の出力媒体上に、立体視表示用の鑑賞画像が形成される(ステップS61)。
【0220】
以上説明した様に、本発明の画像記録装置301によれば、入力された画像データを解読し、入力された画像データが立体視表示用の基準画像データである場合には、基準画像データと、基準画像データに添付されている差分画像データから立体視表示用画像データを生成し、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙等の出力媒体上に鑑賞画像を形成する。従って、立体視表示用に撮影された撮像画像データと、立体視表示用ではない通常の撮像画像データの両者が混在した状態での効率的なプリント作成が可能となる。更に、視差画像データに対して、撮影条件設定情報に基づいて画質調整処理を施すので、立体視表示画像の画質向上を図ることができる。
【0221】
視差画像データの情報を用いて基準画像データに対して更に画質調整処理を施すようにしてもよい。例えば、基準画像データが高感度設定で、視差画像データが低感度設定である場合、輝度の高い領域では高感度の基準画像データではダイナミックレンジが不足し、信号が飽和しやすいため、視差画像データの情報で補間することで画質の向上を図ることができる。
【0222】
なお、上記実施の形態における記述内容は、本発明の撮像装置、画像処理装置、画像記録装置の好適な一例であり、これに限定されるものではない。また、各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。
【0223】
【発明の効果】
請求項1、6、9に記載の画像処理方法、撮像装置、画像処理装置によれば、同一被写体を異なる視点、かつ、異なる視点で撮影して得られた複数の撮像画像データの中から基準画像データを少なくとも1つ選定し、選定された基準画像データと他の撮像画像データとの差分画像データを抽出し、抽出された差分画像データを基準画像データに添付し、差分画像データが添付されていることを示す添付識別情報及び複数の撮像画像データの撮影条件を示す撮影条件設定情報を基準画像データに添付する。
【0224】
従って、同一被写体を異なる視点で撮影して得られた複数の撮像画像データ、即ち、立体視表示用に撮影された複数の撮像画像データを単一の撮像画像データとして扱うことが可能となり、複数の撮像画像データの中から立体視表示用に撮影された撮像画像データを検索する際の検索効率の向上、立体視表示に対応していないプリンタでの基準画像データでの1枚の写真プリントとしての出力等が可能となる。その結果、立体視表示用に撮影された撮像画像データと、同一被写体を一つの視点から撮影した通常の撮像画像データとの互換性を向上し、立体視表示用の撮像画像データの汎用性、利便性を向上することができる。
【0225】
また、基準画像データには撮影条件設定情報が添付されており、基準画像データに添付される差分画像データには、基準画像データと他の撮像画像データとの撮影条件設定の違いによる差分情報が含まれるので、他の画像処理装置や画像記録装置において、これらの情報、データを利用して、立体視表示用画像を生成する際に画質向上を図ることができる。
【0226】
請求項3、11、14に記載の画像処理方法、画像処理装置、画像記録装置によれば、同一被写体を異なる視点かつ異なる撮影条件で撮影して得られた複数の撮像画像データのうちの基準画像データと他の撮像画像データとの差分内容を含む差分画像データ、この差分画像データが添付された基準画像データ、基準画像データに差分画像データが添付されていることを示す添付識別情報、及び、複数の撮像画像データの撮影条件を示す撮影条件設定情報が入力されると、添付識別情報に基づいて、基準画像データと差分画像データを分離し、撮影条件設定情報に基づいて、分離された基準画像データ及び差分画像データを用いて視差画像データを生成し、基準画像データ及び視差画像データに基づいて、立体視表示用の画像データを生成する。更に、本発明の画像記録装置は、生成された立体視表示用の画像データを出力媒体上に形成する。
【0227】
従って、入力された撮像画像データが、差分画像データが添付された、立体視表示用に撮影された基準画像データ、即ち、上述した請求項1、6、9に記載の発明の画像処理方法、撮像装置、画像処理装置により生成された形式のデータであることを自動的に判別し、基準画像データと差分画像データから立体視表示用画像データを生成することができ、効率的な立体視表示用画像データの生成が可能となる。更に、撮影条件設定情報に基づいて、基準画像データと差分画像データを用いて視差画像データを生成するので、双方の撮像画像データのもつ情報を有効に活用して、立体視表示用画像データの画質の向上を図ることができる。
【0228】
本発明の添付識別情報は、撮像画像データのヘッダ領域にタグ情報として記録されることが好ましい。また、異なる撮影条件としては、例えば、撮像素子の感度設定の違いが挙げられる。複数の撮像画像データが異なる感度設定で撮影されている場合、画像の領域の輝度に応じて最適な感度設定の撮像画像データの情報を用いることで、画質の向上を図ることができる。
【図面の簡単な説明】
【図1】本発明に係る撮像装置30の機能的構成を示すブロック図である。
【図2】図1の第一撮像部21、第二撮像部22の内部構成を示すブロック図である。
【図3】視点間距離が6cmである場合、立体視表示用の撮像画像データを取得する際に望ましい主要被写体までの距離、角度の関係を示す図である。
【図4】図1の制御部11の制御により実行される立体視表示用画像撮影・記録処理を示すフローチャートである。
【図5】(a)は、撮像装置30、画像処理装置100により生成されるファイルのデータ構造を示す図、(b)は画像処理装置200Aにより生成されるファイルのデータ構造を示す図、(c)は基準画像データに差分画像データを添付する際の一例を示す図である。
【図6】本発明に係る画像処理装置100の機能的構成を示すブロック図である。
【図7】図6の画像処理装置100の各部が連携することにより実行される基準画像データ出力処理を示すフローチャートである。
【図8】本発明に係る画像処理装置200の機能的構成を示すブロック図である。
【図9】立体視表示用画像データにおける、基準画像と差分画像の配置例を示す図である。
【図10】図8の画像処理装置200の各部が連携することにより実行される立体視表示用画像データ生成処理Aを示すフローチャートである。
【図11】本発明に係る画像処理装置200Aの機能的構成を示すブロック図である。
【図12】図11の画像処理装置200Aの各部が連携することにより実行される立体視表示用画像データ生成処理Bを示すフローチャートである。
【図13】本発明に係る画像記録装置301の外観斜視図である。
【図14】図13の画像記録装置301の内部構成を示す図である。
【図15】図14の画像処理部370の機能的構成を示すブロック図である。
【図16】図14の画像記録装置301の各部が連携することにより実行される立体視表示用画像データ形成処理を示すフローチャートである。
【符号の説明】
1 レンズ
2 絞り
3 CCD
4 アナログ処理回路
5 A/D変換器
6 一時記憶メモリ
7 画像処理部
8 添付処理部
9 記憶デバイス
10 CCD駆動回路
11 制御部
12 基準画像データ選定部
13 差分画像データ生成部
14 操作部
15 表示部
16 ストロボ駆動回路
17 ストロボ
18 焦点距離調整回路
19 自動焦点駆動回路
20 モータ
21 第一撮像部
22 第二撮像部
23 撮影条件設定情報生成部
30 撮像装置
100、200、200A 画像処理装置
101、201 入力部
102 基準画像データ選定部
103 差分画像データ抽出部
104、204 差分画像データ生成部
105 差分画像データ添付部
106、108、206、210 一時記憶メモリ
107 ヘッダ情報記録部
109、214 制御部
110、213 記憶デバイス
111 撮影条件設定取得部
202 ヘッダ情報解析部
203 差分画像データ読み出し部
205 視差画像データ生成部
207 基準画像データ生成部
208 立体視表示用画像データ生成部
209 出力条件設定入力部
211 第一処理部
212 第二処理部
215 鑑賞画像参照データ生成部
216 シーン参照画像データ再現用データ生成部
217 撮影条件設定読み出し部
301 画像記録装置
302 本体
303 マガジン装填部
304 露光処理部
305 プリント作成部
306 トレー
307 制御部
308 CRT
309 フィルムスキャナ部
310 反射原稿入力装置
311 操作部
312 情報入力手段
313a PCカード
313b FD
314 画像読込部
314a PCカード用アダプタ
314b FD用アダプタ
315 画像書込部
315a FD用アダプタ
315b MO用アダプタ
315c 光ディスク用アダプタ
316a FD
316b MO
316c 光ディスク
330 画像転送手段
331 画像搬送部
340 通信手段(入力)
341 通信手段(出力)
351 外部プリンタ
370 画像処理部
371 データ蓄積手段
372 テンプレート記憶手段
701 画像調整処理部
702 フィルムスキャンデータ処理部
703 反射原稿スキャンデータ処理部
704 画像データ書式解読処理部
705 テンプレート処理部
706 CRT固有処理部
707 プリンタ固有処理部1
708 プリンタ固有処理部2
709 画像データ書式作成処理部
401 基準画像データ処理部
402 ヘッダ情報解析部
403 差分画像データ読み出し部
404 差分画像データ生成部
405 視差画像データ生成部
406 基準画像データ生成部
407 立体視表示用画像データ生成部
408 出力条件設定入力部
409 撮影条件設定読み出し部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device such as a digital camera for recording captured image data used for stereoscopic display, an image processing method for captured image data used for stereoscopic display, an image processing device using the image processing method, and an image recording device. .
[0002]
[Prior art]
2. Description of the Related Art There is known a stereoscopic display in which a three-dimensional (stereoscopic) image is displayed using images arranged on a plane. There are various types of stereoscopic display, but two images for generating parallax in common are required.
[0003]
The two images for the stereoscopic display are obtained by photographing the same subject from different viewpoints. In order to give a natural perspective, the distance between the viewpoints, that is, the distance between the lenses, is set between the human eyes. It is set to about 6,7 cm, which is equal to the distance.
[0004]
In the stereoscopic display called a stereo pair, the size of each image is set so that the two images causing the above-described parallax are kept at a distance of at least about 6 to 7 cm, which is the same as the distance between human eyes. Adjust the height and place them side by side on a plane.
[0005]
There are two methods of observing the stereoscopic display image arranged on a plane: a parallel method in which one of the images placed on the right is viewed with the right eye, and a crossing method in which one of the images placed on the right is viewed with the left eye. is there. The parallel method does not require extra power for the eyes during observation, and is easy to watch, but cannot observe large images. On the other hand, in the crossing method, the eyes are easily tired because the eyes are looked sideways, but a large image can be seen.
[0006]
2. Description of the Related Art In recent years, with the rapid spread of digital cameras, opportunities for capturing images used for the above-described stereoscopic display with a digital camera and enjoying stereoscopic display have been increasing. For example, in a general digital camera having only one photographing optical system, the same subject is photographed twice in succession, and before the second photographing, the photographer's standing position is shifted laterally to perform stereoscopic vision. 2. Description of the Related Art A digital camera having an auxiliary function of shooting captured image data for display has been proposed.
[0007]
When recording an image for stereoscopic display, for example, a technique using a difference between two images has been proposed as in Patent Documents 1 to 3.
[0008]
In addition, the captured image data for stereoscopic display is used for obtaining altitude measurement data for creating a stereoscopic map, diagnostic data (for example, an X-ray photograph) at a medical site, and for selecting insect specimens. Many image processing methods using stereoscopically displayed images and new use cases have been proposed.
[0009]
On the other hand, image data captured by a digital camera is distributed via a storage device such as a compact disc recorder (CD-R), a floppy (registered trademark) disk, a memory card, or the Internet, and is distributed over a CRT (Cathode Ray Tube) and a liquid crystal. Display / printing, such as display on a display monitor such as a plasma monitor or a small LCD monitor of a mobile phone, or printing as a hard copy image using an output device such as a digital printer, an ink jet printer, or a thermal printer. Methods are becoming increasingly diverse.
[0010]
Also, when displaying and outputting captured image data for viewing purposes, gradation adjustment, brightness adjustment, color balance adjustment, sharpness adjustment, etc. are performed so that desired image quality can be obtained on a display monitor used for viewing or on a hard copy. Generally, various image processes represented by gender emphasis are performed.
[0011]
Efforts have been made to increase the versatility of captured image data in response to these various display and print methods. As part of this, there is an attempt to standardize the color space represented by digital RGB signals into a color space that does not depend on the characteristics of the imaging device. Currently, “sRGB” is adopted as a standardized color space for many captured image data. (See "Multimedia Systems and Equipment-Color Measurement and Management-Part 2-1: Color Management-Default RGB Color Space Space-sRGB". It is set corresponding to the color reproduction area.
[0012]
2. Description of the Related Art A general digital camera is an image pickup device having a photoelectric conversion function (CCD type image pickup device) having a color sensitivity by combining a CCD (charge coupled device), a charge transfer mechanism, and a checkered color filter. (Hereinafter simply referred to as “CCD”).
[0013]
The captured image data output by the digital camera is converted into an electrical original signal converted via a CCD, by correcting the photoelectric conversion function of the image sensor (for example, gradation correction, spectral sensitivity crosstalk correction, and dark current noise). Image processing such as suppression, sharpening, white balance adjustment, saturation adjustment, etc.), and file conversion / compression processing to a standardized data format that can be read and displayed by image editing software And so on.
[0014]
As such a data format, for example, “Baseline Tiff Rev. 6.0 RGB Full Color Image”, which is adopted as an uncompressed file of an Exif file, and a compressed data file format based on the JPEG format are known.
[0015]
The Exif file is based on the sRGB, and the correction of the photoelectric conversion function of the image sensor is set so as to have the most suitable image quality on a display monitor based on the sRGB.
[0016]
For example, regardless of the type of digital camera, tag information indicating display in a standard color space of a display monitor (hereinafter, also referred to as “monitor profile”) conforming to the sRGB signal, the number of pixels, the pixel arrangement, and A function of writing additional information indicating model-dependent information such as the number of bits per pixel as metadata in a file header of captured image data, and displaying the captured image data on a display as long as such a data format format is adopted. Image editing software (for example, Photoshop manufactured by Adobe) displayed on the monitor analyzes the tag information and prompts the user to change the monitor profile to sRGB, or can automatically perform the change processing, so that the difference between the different displays is different. To reduce the number of images captured by a digital camera. Is it possible to watch in Thailand.
[0017]
As the additional information, in addition to the model-dependent information, information directly related to a camera type (model), such as a camera name and a code number, or an exposure time, a shutter speed, an aperture value (F number), and an ISO sensitivity , Brightness value, subject distance range, light source, presence / absence of strobe light, subject area, white balance, zoom magnification, subject configuration, shooting scene type, amount of reflected light from strobe light source, shooting saturation, etc. A tag (code) indicating information about the type of the image is used, and the image editing software and the output device have a function of reading the additional information and making the image quality of the hard copy image more suitable.
[0018]
[Patent Document 1]
JP-A-10-28274
[Patent Document 2]
JP-A-6-30445
[Patent Document 3]
JP-A-7-30924
[0019]
[Problems to be solved by the invention]
By the way, as described above, the stereoscopic display becomes more familiar and the use opportunity increases, but the correspondence to the versatility and convenience of the captured image data taken for the stereoscopic display is behind. It is the current situation.
[0020]
For example, a plurality of captured image data are automatically searched for captured image data for stereoscopic display, and a normal photo print and a photo print for stereoscopic display are displayed in a series of photo print creation processing flows. Cannot be processed at the same time.
[0021]
Further, in an output device that does not support hard copy creation of a stereoscopic display image, it is not possible to efficiently execute processing such as creating a normal hard copy using only one image.
[0022]
There is also a need for a means for creating a higher quality single photographic print by effectively utilizing the amount of information of captured image data captured for stereoscopic display.
[0023]
An object of the present invention is to record captured image data for stereoscopic display in a highly versatile and convenient manner, and to effectively utilize the information amount of the captured image data for stereoscopic display, thereby improving image quality. It is to improve.
[0024]
[Means for Solving the Problems]
In order to solve the above problems, the invention described in claim 1 is
An image processing method for outputting one captured image data from a plurality of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions,
Selecting at least one reference image data from the plurality of captured image data;
Extracting difference image data including the difference content between the selected reference image data and other captured image data,
Attaching the extracted difference image data to the reference image data,
Attachment to the reference image data attachment identification information indicating that the difference image data is attached and shooting condition setting information indicating shooting conditions of the plurality of shot image data,
It is characterized by including.
[0025]
The invention according to claim 2 is the invention according to claim 1,
A step of recording the attachment identification information and the photographing condition setting information in the header area of the reference image data as tag information, thereby attaching the tag information to the reference image data.
[0026]
The invention according to claim 3 is:
In an image processing method for processing and outputting input image data into image data optimal for appreciation on an output medium,
Different image data including the difference between reference image data and other captured image data of a plurality of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions, Attaching reference image data, attached identification information indicating that the difference image data is attached to the reference image data, and inputting shooting condition setting information indicating shooting conditions of the plurality of shot image data; and ,
Based on the attached identification information, separating the reference image data and the difference image data,
Based on the shooting condition setting information, generating parallax image data using the separated reference image data and difference image data,
Based on the reference image data and the parallax image data, a step of generating image data for stereoscopic display,
It is characterized by including.
[0027]
The invention according to claim 4 is the invention according to claim 3,
The attached identification information and the imaging condition setting information are tag information recorded in a header area of the input captured image data.
[0028]
The invention according to claim 5 is the invention according to any one of claims 1 to 4,
The imaging condition is a sensitivity setting of an image sensor.
[0029]
The invention according to claim 6 is
In an imaging apparatus that obtains a plurality of captured image data by capturing the same subject at different viewpoints and under different capturing conditions,
Reference image data selecting means for selecting at least one reference image data from the plurality of captured image data;
Difference image data generating means for extracting difference image data including the difference content between the selected reference image data and other captured image data,
The extracted difference image data is attached to the reference image data, and further, attachment identification information indicating that the difference image data is attached and shooting condition setting information indicating shooting conditions of the plurality of pieces of captured image data. Attachment processing means attached to the reference image data,
It is characterized by having.
[0030]
The invention according to claim 7 is the invention according to claim 6, wherein
The attachment processing unit attaches the attached identification information and the photographing condition setting information to the reference image data by recording the information as tag information in a header area of the reference image data.
[0031]
The invention according to claim 8 is the invention according to claim 6 or 7,
The imaging condition is a sensitivity setting of an image sensor.
[0032]
The invention according to claim 9 is
An image processing apparatus that outputs one captured image data from a plurality of captured image data obtained by capturing the same subject under different viewpoints and under different capturing conditions,
Each of the plurality of captured image data has different shooting conditions,
Reference image data selecting means for selecting at least one reference image data from the plurality of captured image data;
Difference image data extraction means for extracting difference image data including the difference content between the reference image data and other captured image data,
Difference image data attaching means for attaching the extracted difference image data to the reference image data,
Information attaching means for attaching, to the reference image data, attachment identification information indicating that the difference image data is attached and shooting condition setting information indicating a shooting condition of the plurality of shot image data,
It is characterized by having.
[0033]
The invention according to claim 10 is the invention according to claim 9, wherein
The information attaching means attaches the attached identification information and the photographing condition setting information to the reference image data by recording the information as tag information in a header area of the reference image data.
[0034]
The invention according to claim 11 is
In an image processing device that processes input image data into image data optimal for viewing on an output medium and outputs the image data,
Different image data including the difference between reference image data and other captured image data of a plurality of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions, Input for inputting the attached reference image data, attached identification information indicating that the difference image data is attached to the reference image data, and shooting condition setting information indicating shooting conditions of the plurality of shot image data. Means,
Determining means for determining the attached identification information and the imaging condition setting information;
Based on the determined attached identification information, a data separation unit that separates the reference image data and the difference image data,
A parallax image data generating unit configured to generate parallax image data using the separated reference image data and the differential image data based on the determined imaging condition setting information;
Based on the reference image data and the parallax image data, a stereoscopic display image data generating unit that generates image data for stereoscopic display,
It is characterized by having.
[0035]
The invention according to claim 12 is the invention according to claim 11,
The attached identification information and the imaging condition setting information are tag information recorded in a header area of the input captured image data.
[0036]
The invention according to claim 13 is the invention according to any one of claims 9 to 12,
The imaging condition is a sensitivity setting of an image sensor.
[0037]
The invention according to claim 14 is
In an image recording apparatus that processes input image data into optimal image data for viewing on an output medium to form a viewing image on an output medium,
Different image data including the difference between reference image data and other captured image data of a plurality of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions, Input means for inputting the attached reference image data, attachment identification information indicating that the difference image data is attached to the reference image data, and shooting condition setting information indicating shooting conditions of the plurality of shot image data. When,
Determining means for determining the attached identification information and the imaging condition setting information;
Based on the determined attached identification information, a data separation unit that separates the reference image data and the difference image data,
A parallax image data generating unit configured to generate parallax image data using the separated reference image data and the differential image data based on the determined imaging condition setting information;
Based on the reference image data and the parallax image data, a stereoscopic display image data generating unit that generates image data for stereoscopic display,
Image forming means for forming a viewing image for stereoscopic display on an output medium, based on the generated image data for stereoscopic display,
It is characterized by having.
[0038]
The invention according to claim 15 is the invention according to claim 14, wherein
The attached identification information and the imaging condition setting information are tag information recorded in a header area of the input captured image data.
[0039]
The invention according to claim 16 is the invention according to claim 14 or 15,
The imaging condition is a sensitivity setting of an image sensor.
[0040]
According to the image processing method, the imaging device, and the image processing device according to claim 1, 6, 9 or 10, a reference is selected from a plurality of pieces of captured image data obtained by capturing the same subject from different viewpoints and different viewpoints. At least one image data is selected, difference image data between the selected reference image data and other captured image data is extracted, and the extracted difference image data is attached to the reference image data, and the difference image data is attached. Is attached to the reference image data.
[0041]
Therefore, a plurality of captured image data obtained by capturing the same subject from different viewpoints, that is, a plurality of captured image data captured for stereoscopic display can be treated as a single captured image data. Of retrieval efficiency when retrieving captured image data taken for stereoscopic display from captured image data of a single image, as one photo print with reference image data by a printer that does not support stereoscopic display Can be output. As a result, the compatibility between captured image data captured for stereoscopic display and normal captured image data of the same subject captured from one viewpoint is improved, and the versatility of captured image data for stereoscopic display is improved. Convenience can be improved.
[0042]
In addition, shooting condition setting information is attached to the reference image data, and difference information due to a difference in shooting condition settings between the reference image data and the other shot image data is included in the difference image data attached to the reference image data. Since such information and data are used in other image processing apparatuses and image recording apparatuses, image quality can be improved when a stereoscopic display image is generated.
[0043]
According to the image processing method, the image processing apparatus, and the image recording apparatus according to Claims 3, 11, and 14, a reference among a plurality of pieces of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions. Difference image data including the difference content between the image data and the other captured image data, reference image data to which the difference image data is attached, attachment identification information indicating that the difference image data is attached to the reference image data, and When photographing condition setting information indicating photographing conditions of a plurality of photographed image data is input, the reference image data and the difference image data are separated based on the attached identification information, and separated based on the photographing condition setting information. Parallax image data is generated using the reference image data and the difference image data, and image data for stereoscopic display is generated based on the reference image data and the parallax image data. Further, the image recording apparatus of the present invention forms the generated image data for stereoscopic display on an output medium.
[0044]
Therefore, the input captured image data is reference image data captured for stereoscopic display to which the difference image data is attached, that is, the image processing method and the image capturing apparatus according to the inventions of claims 1, 6, and 9. The image processing apparatus can automatically determine that the data is in a format generated by the image processing apparatus, and generate stereoscopic display image data from the reference image data and the difference image data. Data can be generated. Further, since parallax image data is generated using the reference image data and the difference image data based on the shooting condition setting information, the information of both of the captured image data is effectively used to generate the stereoscopic display image data. Image quality can be improved.
[0045]
It is preferable that the attached identification information of the present invention is recorded as tag information in a header area of the captured image data. Further, as the different photographing conditions, for example, there is a difference in sensitivity setting of the image sensor. When a plurality of pieces of captured image data are captured with different sensitivity settings, the image quality can be improved by using information of the captured image data having the optimal sensitivity setting according to the luminance of the image area.
[0046]
Next, terms used in the description of the present invention will be described in detail.
[0047]
In the description of the present invention, “a plurality of captured image data obtained by capturing the same subject from different viewpoints” includes at least two images required for stereoscopic display by a stereo pair captured by an imaging device. This is captured image data. In the description of this specification, “a plurality of captured image data for stereoscopic display” is used synonymously.
[0048]
Acquisition of a plurality of captured image data for stereoscopic display includes the following three methods.
1. A method in which the position of one imaging device is changed and photographing is performed at least twice
2. A method of arranging two imaging devices at an interval and performing each imaging operation once
3. Method of using one imaging device having two imaging optical systems arranged at a predetermined interval
[0049]
The acquisition of a plurality of pieces of captured image data used in the image processing method according to the first aspect and the imaging apparatus according to the sixth aspect include the above-described item 3. It is desirable to use one imaging device having the two imaging optical systems.
[0050]
It is desirable that the “captured image data” used in the present invention is scene reference image data. Hereinafter, the scene reference data will be described in detail.
[0051]
The “scene reference image data” means that at least the signal intensity of each color channel based on the spectral sensitivity of the image sensor itself is “scRGB” (relative scene RGB color space), “RIMM RGB” (Reference Input Medium Metric RGB), or “ERIMM RGB”. (Extended Reference Input Medium Metric RGB) or other standard color space, and an image whose data content is modified in order to improve the effects at the time of image appreciation such as gradation conversion, sharpness enhancement, and saturation enhancement. This means image data in a state where processing is omitted. Further, the scene reference image data is used to correct the photoelectric conversion characteristics of the imaging apparatus (opto-electronic conversion function defined by ISO 1452, for example, see “Fine Imaging and Digital Photography” by Corona Co., Ltd., page 449 of the Japan Society of Photographic Society Press). It is preferable that this is performed.
[0052]
The information amount (for example, the number of gradations) of the scene reference image data is preferably equal to or more than the information amount (for example, the number of gradations) required for the viewing image reference data in accordance with the performance of the A / D converter. For example, when the gradation number of the viewing image reference data is 8 bits per channel, the gradation number of the scene reference image data is preferably 12 bits or more, more preferably 14 bits or more, and further preferably 16 bits or more.
[0053]
Also, the distance between “different viewpoints” (hereinafter referred to as “inter-viewpoint distance”), that is, the distance between lenses, is different from the distance between human eyes in order to give a natural perspective, except in special cases. It is desirable that the distance is set to about 6,7 cm. As a special example, there is a case where it is desired to emphasize the stereoscopic effect of a subject arranged far from the shooting position. In such a case, by doubling the distance between viewpoints, the same effect as halving the distance to the subject can be obtained. Conversely, when a small object is photographed like a close-up, the stereoscopic effect is emphasized by reducing the distance between viewpoints.
[0054]
The distance to the main subject when acquiring captured image data for stereoscopic display is desirably about 1 to 4 m as shown in FIG. 3 when the distance between viewpoints is 6 cm. If this is set to the angle to the subject (convergence angle), it will be in the range of about 1 to 4 degrees.
[0055]
For example, if a small subject is placed at a distance of 10 cm, the viewpoint distance must be adjusted to 6 mm or less in order to make the angle to the subject 4 degrees or less. Contrary to this, in the case of a large subject that is sufficiently visible even at a distance of 100 m, to set the angle to the subject to 4 degrees, the distance between viewpoints must be adjusted to about 6 m.
[0056]
Therefore, in order to obtain a sufficient three-dimensional effect using one imaging device in which the two imaging optical systems are arranged at an interval of about 6 cm, a size that can be photographed at a distance of 1 to 4 m from the imaging device. It is desirable to be the subject.
[0057]
“Outputting one piece of captured image data from a plurality of pieces of captured image data” means that at least two pieces of captured image data necessary for stereoscopic display by a stereo pair are output by only one image except during stereoscopic display. Processing in a predetermined file format so that it can be handled as image data.
[0058]
“Shooting under different shooting conditions” means shooting a plurality of shot image data under shooting conditions other than the inter-viewpoint distance. For example, 3. When one imaging device having the two imaging optical systems is used, each of the two imaging optical systems performs imaging by changing imaging conditions other than the inter-viewpoint distance. As the photographing condition, the sensitivity setting of the image sensor can be exemplified.
[0059]
“Selecting at least one piece of reference image data” means to perform display other than stereoscopic display or hard copy output from at least two pieces of captured image data necessary for stereoscopic display by a stereo pair. That is, at least one piece of captured image data is determined.
[0060]
Image analysis or the like is used to select the reference image data. If the imaging condition is different in sensitivity setting, the appropriateness of the sensitivity setting is evaluated by histogram analysis of the captured image data, and the captured image data evaluated to have the highest appropriateness is selected as reference image data. Of course, these operations may be automatically processed, or may be processed manually by a user. In order to be processed automatically, it is necessary to provide a means for identifying the photographing condition setting. As such identification means, for example, there is a method of utilizing header information of a file.
[0061]
Note that this reference image data is not a stereo pair display such as a store that does not accept a photo print order for stereo display, or a case where the customer does not request a print order for stereo display, but only one image. It can be suitably used when creating a photographic print.
[0062]
The “difference image data” holds parallax information and difference information due to a difference in imaging conditions as a content of a difference between reference image data selected from a plurality of captured image data for stereoscopic display and other captured image data. Digital image data.
[0063]
`` Extracting difference image data including difference content between reference image data and other captured image data '' is to extract difference information including disparity information between reference image data and other captured image data, The following arithmetic expressions can be given as processing examples.
In the description of this specification, other captured image data corresponding to the reference image data is referred to as parallax image data.
(Equation 1) B = A1-A2
A1: reference image data, A2: parallax image data (other captured image data), B: difference image data
[0064]
“Attaching (difference image data) to the reference image data” means recording in a part of the reference image data, and FIG. 5C shows an example of a file format in which a file area is recorded while being divided.
[0065]
“Attach attached identification information indicating that difference image data is attached and shooting condition setting information indicating shooting conditions of the (above) plurality of pieces of captured image data to (the above) reference image data” Is recorded in an area different from the area in which the information on the subject is recorded. As described in claims 2, 7, and 10, it is desirable that the attached identification information and the photographing condition setting information be recorded as tag information in a header area of the reference image data (see FIG. 5A).
[0066]
In the description of the present invention, it is preferable that “image data optimal for viewing on an output medium”, that is, “stereoscopic display image data” is viewing image reference data. Hereinafter, the viewing image reference data will be described in detail.
[0067]
"Appreciation image reference data" refers to "optimization" so that an optimal image can be obtained on a display device such as a CRT, a liquid crystal display, a plasma display, or an output medium such as silver halide photographic paper, inkjet paper, or thermal printer paper. Digital image data that has been "processed". Note that the viewing image reference data is generated by performing “optimization processing” for each display device and output medium from the scene reference image data in an image processing device or an image recording device using the scene reference image data as input data. .
[0068]
As a specific example of the above-mentioned “optimization process”, there is a process of conversion into the sRGB standard color gamut on the assumption that the image is displayed on a CRT display monitor compliant with the sRGB standard. Therefore, assuming output to silver halide photographic paper, processing is performed so as to obtain optimum color reproduction within the color gamut of silver halide photographic paper. In addition to the above-described color gamut compression, it also includes gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, processing corresponding to the output characteristics (LUT) of the output device, and the like. Further, it goes without saying that image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment, or dodging processing is performed.
[0069]
After generating the viewing image reference data, difference data (scene reference image data reproduction data) between the scene reference image data and the viewing image reference is obtained, and is attached to the viewing image reference data together with the difference image data of the parallax information. good. FIG. 5B shows an example of the file format in this case.
[0070]
"Separating the reference image data and the difference image data based on the attached identification information" means that the tag information of the reference image data is analyzed, and if the image data has the difference image data, a predetermined format of the file format is used. That is, the difference image data is read from the area, and the reference image data and the difference image data are made ready for image processing at any time.
[0071]
“Generating parallax image data based on the separated reference image data and difference image data” means generating parallax image data paired with the reference image data.
The parallax image data can be obtained, for example, by the following arithmetic expression.
(Equation 2) A2 = A1 + B
A1: Reference image data, A2: Parallax image data, B: Difference image data
Further, image quality adjustment processing is performed on the parallax image data obtained by the above arithmetic expression based on the shooting condition setting information to generate parallax image data.
[0072]
"Generating image data for stereoscopic display based on the reference image data and the parallax image data" means that the reference image and the parallax image are at least about 6 to 7 cm, which is the same as the distance between human eyes. Digital images for stereoscopic display of stereo pairs so that the size of each image is adjusted so as to be kept at a distance, and arranged correctly on a plane according to the observation conditions of the parallel method or the cross method This is to prepare data (hereinafter, “stereoscopic display image data” is used synonymously) (FIG. 9).
[0073]
In addition to using a digital camera, the image pickup apparatus of the present invention includes an analog camera using a color negative film, a color reversal film, a black-and-white negative film, a black-and-white reversal film, and a film scanner for reading digital frame data by reading frame image information of a photographic photosensitive material. Alternatively, it may be constituted by a flatbed scanner that reads image information reproduced on silver halide photographic paper and obtains digital image data.
[0074]
The input of the “captured image data” includes a CompactFlash (registered trademark), a memory stick, a smart media, a multimedia card, a floppy (registered trademark) disk, a magneto-optical storage medium (MO), a CD-R, and the like. Any known portable "storage media" can be used.
[0075]
As another embodiment, digital image data may be obtained from a remote place via communication means such as a network, or an imaging device and an image processing device, an image recording device may be connected by wire, and the digital image data may be obtained. A direct transmission method may be used.
[0076]
Further, in the imaging device, the image processing device, and the image recording device of the present invention, the additional information of the Exif file may be used as header recording information of the captured image data.
Examples of the additional information include model-dependent information, information directly related to a camera type (model) such as a camera name and a code number, or an exposure time, a shutter speed, an aperture value (F number), an ISO sensitivity, a brightness value, and a subject. Setting of shooting conditions such as distance range, light source, presence / absence of flash emission, subject area, white balance, zoom magnification, subject configuration, shooting scene type, amount of reflected light from the flash light source, shooting saturation, etc., and information on the type of subject Is used.
[0077]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of an imaging device according to the present invention will be described with reference to the drawings.
[0078]
<Configuration of imaging device 30>
First, the configuration will be described.
FIG. 1 is a block diagram showing a functional configuration of an imaging device 30 according to the present invention. The imaging device 30 is a digital camera that can simultaneously or sequentially capture the same subject from different viewpoints and record a plurality of captured image data for stereoscopic display. As shown in FIG. 1, the imaging device 30 includes a first imaging unit 21, a second imaging unit 22, a temporary storage memory 6, an image processing unit 7, an attachment processing unit 8, a storage device 9, a control unit 11, a reference image data It is provided with a selection unit 12, a difference image data generation unit 13, an operation unit 14, a display unit 15, a strobe drive circuit 16, a strobe 17, a shooting condition setting information generation unit 23, and the like.
[0079]
The first imaging unit 21 and the second imaging unit 22 are arranged at predetermined intervals in order to photograph the same subject from different viewpoints, and respectively include a lens 1, an aperture 2, a CCD (solid-state imaging device) 3, and an analog processing unit. The control unit 11 includes a circuit 4, an A / D converter 5, a CCD drive circuit 10, a focal length adjustment circuit 18, an automatic focus drive circuit 19, a motor 20, and the like.
[0080]
The lens 1 adjusts the focus and forms a light image of the subject. The diaphragm 2 adjusts the amount of light flux transmitted through the lens 1. The CCD 3 photoelectrically converts the subject light imaged on the light receiving surface by the lens 1 into an electric signal (imaging signal) of an amount corresponding to the amount of incident light for each sensor in the CCD 3. Then, the CCD 3 sequentially outputs the imaging signals to the analog processing circuit 4 under the control of timing pulses output from the CCD driving circuit 10.
[0081]
The analog processing circuit 4 performs, for example, amplification of R, G, and B signals, noise reduction processing, and the like on the imaging signal input from the CCD 3. The A / D converter 5 converts the image signal input from the analog processing circuit 4 into digital image data and outputs the digital image data to the temporary storage memory 6.
[0082]
The CCD drive circuit 10 outputs a timing pulse based on a control signal output from the control unit 11 and controls driving of the CCD 3.
[0083]
The focal length adjustment circuit 18 controls a motor 20 for adjusting the focal length by moving the lens 1 based on a control signal from the control unit 11.
[0084]
The automatic focus drive circuit 19 controls the motor 20 for adjusting the focus by moving the lens 1 based on a control signal from the control unit 11.
[0085]
Here, the distance between the lenses 1 of the first imaging unit 21 and the second imaging unit 22 (inter-viewpoint distance) is approximately the same as the distance between human eyes to give a natural perspective, except in special cases. It is desirable to set it to 6, 7 cm.
[0086]
As a special example, there is a case where it is desired to emphasize the stereoscopic effect of a subject arranged far from the imaging device 30. In such a case, by doubling the distance between viewpoints, the same effect as halving the distance to the subject can be obtained. Conversely, when a small object is photographed like a close-up, the stereoscopic effect is emphasized by reducing the distance between viewpoints.
[0087]
When obtaining a plurality of captured image data for stereoscopic display, the distance to the main subject is desirably about 1 to 4 m as shown in FIG. 3 when the distance between viewpoints is 6 cm. If this is set to the angle to the subject (convergence angle), it will be in the range of about 1 to 4 degrees.
[0088]
For example, if a small subject is placed at a distance of 10 cm, the viewpoint distance must be adjusted to 6 mm or less in order to make the angle to the subject 4 degrees or less.
Contrary to this, in the case of a large subject that is sufficiently visible even at a distance of 100 m, to set the angle to the subject to 4 degrees, the distance between viewpoints must be adjusted to about 6 m.
[0089]
Therefore, when the distance between the lenses 1 of the first imaging unit 21 and the second imaging unit 22 is about 6 cm, in order to obtain a sufficient stereoscopic effect, it is possible to shoot at a distance of 1 to 4 m from the imaging device 30. It is desirable that the subject is of an appropriate size.
[0090]
The imaging device 30 may be configured to include both the first imaging unit 21 and the second imaging unit 22, or one of the imaging units, for example, the second imaging unit 22 may be attached to and detached from the imaging device 30 as an attachment with an adapter. The second imaging unit 22 may be freely configured so that the second imaging unit 22 is attached via an adapter when capturing a plurality of captured image data for stereoscopic display. In addition, by configuring one of the imaging units to be slidable in the longitudinal direction of the imaging device 30, it is possible to adjust the distance between viewpoints or to capture a plurality of images having different viewpoint distances.
[0091]
The captured image data obtained by the first imaging unit 21 and the second imaging unit 22 are output to a temporary storage memory 6 such as a buffer memory, and are temporarily stored.
[0092]
The image processing section 7 performs an imaging device characteristic correction process on each of the captured image data stored in the temporary storage memory 6 to generate scene reference image data. The imaging device characteristic correction process includes a process of mapping the signal intensity of each color channel based on the spectral sensitivity unique to the imaging device of the imaging device to a standard color space such as scRGB, RIMM RGB, and ERIMM RGB. In addition, frequency conversion calculations and the like such as gradation conversion processing, smoothing processing, sharpening processing, noise removal and moiré removal are performed.
[0093]
Further, the image processing unit 7 performs an optimization process on the generated scene reference image data to obtain an image optimal for viewing on the display unit 15 to generate viewing image reference data. The optimization processing includes, for example, compression to a color gamut suitable for the display unit 15 such as sRGB, ROMM RGB (Reference Output Medium Metric RGB), gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, and display unit. Processing corresponding to the fifteen output characteristics (LUT) is included. Further, image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment, and dodging processing is included. The image processing unit 7 performs other operations such as changing the image size, trimming, and aspect conversion. When an operation signal designating the output of the scene reference image data is input from the operation unit 14, the control of the control unit 11 omits the generation of the viewing image reference data in the image processing unit 7.
[0094]
The attachment processing unit 8 records the difference image data generated by the difference image data generation unit 13 as a part of the reference image data selected by the reference image data selection unit 12, and generates an attached data file. The header area of the data file is tagged with attached identification information indicating that difference image data is attached, and shooting condition setting information generated by the shooting condition setting information generating unit 23 and indicating shooting conditions of each shot image data. Write processing as information.
[0095]
The storage device 9 is configured by a nonvolatile semiconductor memory or the like, and stores a storage medium, such as a memory card for recording captured image data, which is configured to be detachable from the imaging device 30 and a control program for the imaging device 30. And a readable storage device.
[0096]
The control unit 11 is configured by a CPU (Central Processing Unit) or the like, reads a control program of the imaging device 30 stored in the storage device 9, and controls the entire imaging device 30 according to the read program. Specifically, the control unit 11 controls the first imaging unit 21, the second imaging unit 22, the flash drive circuit 16, and the like based on the imaging condition setting according to an operation signal from the operation unit 14, Take a picture.
[0097]
Further, when the output of the captured image data for the stereoscopic display by the scene reference image data is designated by the operation unit 14, the control unit 11 executes a stereoscopic display image shooting / recording process described later.
[0098]
The reference image data selection unit 12 selects reference image data from a plurality of pieces of captured image data for stereoscopic display obtained by shooting, and outputs the result to the difference image data generation unit 13 and the attachment processing unit 8. In selecting the reference image data, an image most suitable as one piece of captured image data is selected based on the image analysis result. For example, if the shooting condition setting is a difference in sensitivity setting (stereo sensitivity change mode to be described later), each captured image data is subjected to histogram analysis, and based on the result, the appropriateness of the sensitivity setting of each captured image data is evaluated. The captured image data evaluated as having a high degree is selected as reference image data. For example, when the brightness value of each captured image data is represented by 0 to 255, no overexposure occurs when the brightness value converges to the 0 side in the histogram, and when the histogram has a double peak, backlight or strobe is strong. It is determined that there is a possibility of hitting, and the appropriateness of the sensitivity setting is evaluated based on these determinations. Of course, these selections may be processed automatically, or may be processed manually by the user.
[0099]
The difference image data generation unit 13 includes the captured image data selected as the reference image data by the reference image data selection unit 12 and other captured image data (parallax image data and paired with the reference image data during stereoscopic display). ) Is extracted by the following arithmetic expression and output to the attachment processing unit 8.
A1: Reference image data
A2: Parallax image data
B: Difference image data
B = A1-A2
[0100]
The operation unit 14 includes various function buttons such as a release button, a power ON / OFF button, a zoom button, a shooting condition (mode) setting button, and a cursor key, which are not shown, and operation signals corresponding to the buttons and keys. Is output to the control unit 11 as an input signal. Further, the operation unit 14 has a touch panel that covers the display screen of the display unit 15, detects the XY coordinates of the force point on the display screen pressed by a finger or a touch pen or the like with a voltage value, and outputs the detected position signal. Output to the control unit 11 as an operation signal.
[0101]
The shooting condition (mode) setting button of the operation unit 14 is a button for setting shooting conditions when shooting a plurality of pieces of captured image data using the first imaging unit 21 and the second imaging unit 22. As an input method of the shooting condition setting, the user may manually input the setting of the shooting condition for each captured image data. However, in the present embodiment, the shooting condition setting of each imaging unit is set to the mode in advance. When a mode setting is input by a shooting condition (mode) setting button, shooting conditions in each image pickup unit are automatically set based on the input mode. The modes include, for example, when performing a plurality of shootings, in each shooting, a stereo photograph mode in which only the viewpoint is changed for shooting, a stereo sensitivity change mode in which shooting is performed by changing the viewpoint and the sensitivity of the image sensor, and a shutter speed. There are a sports mode for changing the shooting mode, a landscape mode for changing the aperture, and the like. For example, when the stereo sensitivity change mode is set by the operation unit 14, the control unit 11 controls the CCD 3 of the first imaging unit 21 to have low sensitivity (high sensitivity), and the control unit 11 sets the CCD 3 of the second imaging unit 22 to high sensitivity (low sensitivity). ), And subjects are photographed by the two imaging units from different viewpoints with different sensitivities.
[0102]
The display unit 15 displays captured image data in response to a control signal from the control unit 11, and displays information for the user of the imaging device 30 to input information and settings for confirming settings and conditions related to shooting. Display the screen.
[0103]
The strobe drive circuit 16 drives and controls the strobe 17 to emit light when the subject brightness is low, based on a control signal from the control unit 11.
The strobe 17 boosts the battery voltage to a predetermined high voltage and stores the charge in a capacitor. Then, by being driven by the strobe drive circuit 16, the X tube is illuminated by the electric charge stored in the capacitor, and the subject is irradiated with auxiliary light.
[0104]
The photographing condition setting information generating unit 23 generates photographing condition setting information indicating the photographing conditions when each photographed image data is photographed, and outputs the photographing condition setting information to the attachment processing unit 8.
[0105]
<Operation of Imaging Device 30>
Next, the operation will be described.
FIG. 4 illustrates a case where the output of a plurality of pieces of captured image data for stereoscopic display using scene reference image data is set by the operation unit 14, and the stereoscopic vision executed under the control of the control unit 11 when the release switch is pressed. 9 is a flowchart showing a display image photographing / recording process. Hereinafter, the stereoscopic display image capturing / recording process will be described with reference to FIG.
[0106]
When the release button of the operation unit 14 is pressed, the control unit 11 controls the aperture 2, the CCD 3, and the CCD 3 of each of the first imaging unit 21 and the second imaging unit 22 based on the mode setting from the shooting condition setting button of the operation unit 14. The shutter speed and the like are controlled, and the same subject is photographed from different viewpoints (step S1). The plurality of captured image data for stereoscopic display obtained by this photographing are subjected to an imaging device characteristic correction process in the image processing unit 7, and are mapped to a standard color space such as RIMM RGB or ERIMM RGB. Is generated and output to the difference image data generation unit 13 (step S2).
[0107]
On the other hand, the photographing condition setting information generating unit 23 generates photographing condition setting information based on the photographing conditions at the time of photographing, and outputs the information to the attachment processing unit 8 (step S3).
[0108]
Next, in the reference image data selection unit 12, the most suitable captured image data for viewing as one captured image from a plurality of captured image data (scene reference image data) for stereoscopic display obtained by capturing is set as a reference. It is selected as image data (step S4). The selection of the reference image data is performed based on the image analysis result. For example, if the mode is set to the stereo sensitivity change mode and the shooting condition setting is different in sensitivity setting, each captured image data is subjected to histogram analysis, and the appropriateness of the sensitivity setting of each captured image data is evaluated based on the result. The captured image data evaluated as having the highest appropriateness is selected as reference image data.
[0109]
Next, the difference image data generation unit 13 generates difference image data by extracting the difference between the selected reference image data and the parallax image data that is another captured image data (step S5). The difference image data includes parallax information between the reference image data and the parallax image data, and difference information due to a difference in setting of a shooting condition. The reference image data and the generated difference image data are output to the attachment processing unit 8, and the difference image data is recorded as a part of the reference image data, so that the difference image data is attached to the reference image data (step S6). , And an attached data file in a file format conforming to the DCF (Design rule for Camera File system) standard is generated (step S7). Further, in the header area of the file of the reference image data to which the difference image data is attached, the attached identification information and the imaging condition setting information are recorded as tag information (step S8), and are recorded on the storage medium of the storage device 9 (step S8). Step S9). Here, the attachment identification information is additional information necessary at the time of reprocessing, such as a flag indicating attachment of difference image data, information indicating an area of difference image data, and the like.
[0110]
FIG. 5A is a diagram showing a data structure of a data file recorded on the storage medium of the storage device 9 in step S9. As shown in FIG. 5A, the data file recorded on the storage medium has a reference image data area, a difference image data area, and a header area. By taking out this storage medium from the imaging device 30 and attaching it to an external device such as an image processing device or an image recording device, it outputs reference image data, difference image data, and tag information of a header area to these external devices, Can be used with external devices.
[0111]
As described above, according to the imaging apparatus 30, a plurality of pieces of captured image data for stereoscopic display are captured by changing the respective capturing condition settings, and the most suitable captured image data as one captured image is selected from the captured image data. Is selected as reference image data, a difference between the reference image data and the parallax image data corresponding thereto is extracted, and attached to the reference image data as difference image data. Therefore, among the plurality of captured image data for stereoscopic display, the most suitable captured image data can be handled as a single captured image data, and the same as ordinary captured image data not for stereoscopic display. File format, file name setting, and the like. Also, since the attached identification information is recorded in the header area of the file, it is possible to improve the search efficiency when searching for a file of captured image data for stereoscopic display from a plurality of files.
[0112]
As described above, according to the imaging device 30, compatibility between captured image data for stereoscopic display and normal captured image data, versatility and convenience of captured image data for stereoscopic display can be improved. . By recording the reference image data and the difference image data in a file format conforming to the DCF standard, the versatility and convenience of the captured image data for stereoscopic display can be further improved.
[0113]
Also, instead of saving the reference image data and the corresponding parallax image data as they are, the difference image data is attached to the reference image data, so that the file size used is reduced and the number of shots is greatly increased. Can be done. Further, since the reference image data and the parallax image data are recorded as scene reference image data, it is possible to prevent loss of information on the wide color gamut and luminance range acquired by the imaging device 30.
[0114]
Further, since suitable captured image data is selected from among captured image data under different capturing conditions as reference image data, the captured image data for stereoscopic display is output or displayed as a single photo print. In this case, the image quality can be improved. In addition, shooting condition setting information is recorded in a header area of a data file output from the imaging device 30, and shooting condition setting of the reference image data and the parallax image data together with the parallax information is added to the difference image data attached to the reference image data. Since the difference information due to the difference is included, the information and the data are used to further interpolate the information of the reference image data and the parallax image data in another image processing apparatus or the image recording apparatus. Image quality can be improved. Even when the reference image data is used as one captured image, the image quality can be further improved by performing information interpolation and the like using the difference image data.
[0115]
In the above embodiment, the attachment identification information is recorded as tag information in the header area of the file. However, information on how many viewpoints of difference image data are stored, a reference for each difference image data, It is desirable to record the distance between the viewpoints and the image data in the header area.
[0116]
Further, in the above-described embodiment, an example has been described in which captured image data is recorded as scene reference image data on a storage medium. However, the image processing unit 7 performs optimization processing on the captured image data to generate viewing image reference data. Then, the reference image data may be selected for the viewing image reference data, and the difference image data may be generated and attached.
[0117]
<Configuration of Image Processing Apparatus 100>
Next, an embodiment of the image processing apparatus of the present invention will be described.
First, the configuration will be described.
FIG. 6 is a block diagram showing a functional configuration of the image processing apparatus 100 according to the present invention. As shown in FIG. 6, the image processing apparatus 100 includes an input unit 101, a reference image data selection unit 102, a difference image data extraction unit 103, a difference image data generation unit 104, a difference image data attachment unit 105, a temporary storage memory 106, It comprises a header information recording unit 107, a temporary storage memory 108, and a shooting condition setting acquisition unit 111, and is in a state where a storage device 110 can be connected. The above components operate under the overall control of the control unit 109 including a CPU and the like.
[0118]
The input unit 101 includes a storage medium mounting unit (not shown). When a storage medium storing a plurality of captured image data for stereoscopic display recorded by an imaging device such as a digital camera is mounted on the mounting unit, the input unit 101 reads the data and selects the reference image data. Input to the unit 102. In the present embodiment, the input unit 101 is described as reading data from a mounted storage medium and inputting the data. However, the input unit 101 includes a data communication cable and a wireless or wired communication unit. The data may be input via the.
[0119]
The reference image data selection unit 102 selects reference image data from a plurality of pieces of captured image data for stereoscopic display input from the input unit 101. In selecting the reference image data, an image analysis of each captured image data is performed, and the most suitable image as one piece of captured image data is selected based on the result. For example, when the imaging conditions of each captured image data are different in sensitivity setting, histogram analysis of each captured image data is performed, and based on the result, the appropriateness of the sensitivity setting of each captured image data is evaluated. The evaluated captured image data is selected as reference image data. The evaluation of the appropriateness by the histogram analysis is, for example, when the brightness value of each captured image data is represented by 0 to 255, when the brightness value converges to 0 side in the histogram, it is determined that there is no overexposure, If the histogram has a double peak, it is determined that there is a possibility that backlight or strobe is strongly applied, and the appropriateness of the sensitivity setting is evaluated based on these determinations. This selection may be processed automatically, or may be processed manually by the user. In order to perform the processing automatically, it is necessary to provide a means for identifying the photographing condition setting. As such an identification means, there is a method of using shooting condition setting information recorded in a header area or the like of each piece of captured image data input from the input unit 101.
[0120]
The difference image data extraction unit 103 is a difference image between the reference image data selected by the reference image data selection unit 102 and parallax image data, which is another captured image data paired with the reference image data in stereoscopic display. The data is extracted by the following equation and output to the difference image data generation unit 104.
A1: Reference image data
A2: Parallax image data
B: Difference image data
B = A1-A2
[0121]
The difference image data generation unit 104 processes the difference image data extracted from the difference image data extraction unit 103 into attachment difference image data.
[0122]
The difference image data attaching unit 105 attaches the processed difference image data to the reference image data as a part of the reference image data, compresses the reference image data to which the difference image data is attached by the JPEG method, and performs DCF (Design). The attached data file is generated in a file format conforming to the rule for camera file system (rule for camera file system) standard and output to the temporary storage memory 106.
[0123]
The temporary storage memory 106 temporarily stores the attached data file output from the difference image data attachment unit 105.
[0124]
The header information recording unit 107 includes, as information attaching means, attachment identification information indicating that the difference image data is attached to the header region of the reference image data to which the difference image data is attached, and the imaging condition setting acquisition unit 111. The inputted shooting condition setting information indicating the shooting condition of each piece of captured image data is recorded as tag information. Here, the attachment identification information is additional information necessary at the time of reprocessing, such as a flag indicating attachment of difference image data, information indicating an area of difference image data, and the like. The file of the reference image data for which the information recording in the header area has been completed is temporarily stored in the temporary storage memory 108, and then output to the storage device 110 as single captured image data.
[0125]
The photographing condition setting acquisition unit 111 acquires photographing condition setting information indicating the photographing conditions of each captured image data input from the input unit 101. For example, when the photographing condition setting information is described as tag information in the header area of the data file input from the input unit 101, the photographing condition setting input unit 111 outputs the tag information from the header area of the data file input from the input unit 101. The image capturing condition setting information is read and obtained, and output to the header information recording unit 107.
[0126]
The divisions of the reference image data generation unit 102, the difference image data extraction unit 103, the difference image data generation unit 104, the difference image data attachment unit 105, the header information recording unit 107, and the shooting condition setting acquisition unit 111 are not necessarily physical. It is not necessary to realize as a separate device, for example, it may be realized as a classification of the type of software processing in a single CPU.
[0127]
<Operation of Image Processing Apparatus 100>
FIG. 7 is a flowchart showing a reference image data output process executed by the units of the image processing apparatus 100 cooperating with each other. Hereinafter, the operation of the image processing apparatus 100 will be described with reference to FIG.
[0128]
When a storage medium on which a plurality of captured image data for stereoscopic display is recorded is mounted, a plurality of captured image data recorded on the storage medium is input by the input unit 101 (step 11). The captured image data to be input can correspond to scene reference image data or viewing image reference data. The reference image data selection unit 102 selects the reference image data from the plurality of input captured image data (step S12). In selecting the reference image data, an image analysis of each captured image data is performed, and the most suitable image as one captured image data is selected based on a result of the analysis. Next, the difference image data extraction unit 103 obtains the difference between the selected reference image data and the input parallax image data, which is another captured image data, so that the difference image data is extracted. At 104, the image data is processed into differential image data that can be processed to generate differential image data (step S13).
[0129]
The reference image data and the difference image data are output to the difference image data attachment unit 105, the difference image data is recorded as a part of the reference image data, the difference image data is attached to the reference image data (step S14), and the JPEG method is used. And an attached data file having a file format conforming to the DCF standard is generated (step S15). Further, shooting condition setting information is obtained by the shooting condition setting obtaining unit 111 and output to the header information recording unit 107 (step S16), and the shooting condition setting information is set in the header area of the reference image data file to which the difference image data is attached. The information and the attached identification information are recorded as tag information (step S17), and the reference image data is output to the storage device 110 as a single captured image data (step S18).
[0130]
By the above-described reference image data output processing, a file having the same data structure as that shown in FIG. 5A can be output to the storage device 110.
[0131]
As described above, according to the image processing apparatus 100, the most suitable captured image data as a captured image is selected as reference image data from a plurality of captured image data with different capturing conditions for stereoscopic display, and the reference image data A file is created by attaching, to the reference image data, a difference image data between the parallax image data, which is another captured image data paired with the reference image data during the stereoscopic display, and the difference image data is attached. Is recorded as tag information in the header area of the file.
[0132]
Therefore, among the plurality of captured image data for stereoscopic display, the most suitable captured image data can be handled as a single captured image data, and the same as ordinary captured image data not for stereoscopic display. File format, file name setting, and the like. Further, since the attached identification information is recorded as the tag information of the file, it is possible to improve search efficiency when searching for a file of captured image data for stereoscopic display from a plurality of files. In addition, since it is possible to automatically determine the file of the captured image data for stereoscopic display and the file of the normal captured image data by referring to the header area, it is possible to efficiently create a print even when both are mixed. It is possible to do. Also, using an image recording device (printer) that does not support stereoscopic display, it is possible to create a normal two-dimensional photo print from captured image data for stereoscopic display.
[0133]
As described above, according to the image processing apparatus 100, compatibility between captured image data for stereoscopic display and normal captured image data is improved, and versatility and convenience of captured image data for stereoscopic display are improved. can do.
[0134]
Further, the image processing apparatus 100 eliminates the need to select the reference image data, generate the difference image data, attach the difference image data to the reference image data, and the like in the imaging apparatus. Is greatly reduced, and the number of shootable images is increased. Further, the capacity of a storage device required for storing captured image data for stereoscopic display can be reduced.
[0135]
Furthermore, since suitable captured image data is selected from the captured image data under different capturing conditions as the reference image data, the image quality is improved when outputting or displaying as a single photo print. Can be. In addition, shooting condition setting information is recorded in a header area of a data file output from the image processing apparatus 100, and the difference between the reference image data and the parallax image data shot under shooting conditions different from the reference image data as difference image data. Since the information is included, the image quality is further improved by interpolating the reference image data and the parallax image data in another image processing apparatus or image recording apparatus using the information and the data. be able to. Even when the reference image data is used as one captured image, the image quality can be further improved by performing interpolation or the like using the difference image data.
[0136]
<Configuration of Image Processing Apparatus 200>
Next, an embodiment of the image processing apparatus of the present invention will be described.
First, the configuration will be described.
FIG. 8 is a block diagram showing a functional configuration of the image processing device 200 according to the present invention. As shown in FIG. 8, the image processing apparatus 200 includes an input unit 201, a header information analysis unit 202, a first processing unit 211 for generating parallax image data from input captured image data, reference image data and a parallax image. The second processing unit 212 generates stereoscopic display image data from the data. A header information analysis unit 202 is connected to each of the first processing unit 211 and the second processing unit 212, and a storage device 213 can be connected to the second processing unit 212. The components described above operate under the overall control of the control unit 214 including a CPU and the like.
[0137]
The input unit 201 includes a storage medium mounting unit (not shown). This mounting unit is provided with captured image data (differential image data) recorded by the above-described image capturing apparatus 30 or image processing apparatus 100, and a reference area in which attached identification information and image capturing condition setting information are recorded as tag information in a header area. When a storage medium on which a data file (image data) is recorded is mounted, the input unit 201 reads the file stored in the storage medium and inputs the file to the header information analysis unit 202. In the present embodiment, the input unit 201 is described as reading data from a mounted storage medium and inputting the data. However, the input unit 201 includes a data communication cable and a wireless or wired communication unit. The data may be input via the.
[0138]
The header information analysis unit 202 analyzes the header information (tag information of the header area) of the file format of the reference image data input from the input unit 201 as a determination unit, and attaches the difference image data to the reference image data. Identification information indicating that the image data is read, and imaging condition setting information indicating the imaging condition, are determined, and the result is read as a difference image data reading unit 203, a parallax image data generating unit 205, a reference image data generating unit 207, and a shooting condition setting reading unit 217. Output to
[0139]
As illustrated in FIG. 8, the first processing unit 211 includes a difference image data reading unit 203, a difference image data generation unit 204, a parallax image data generation unit 205, a temporary storage memory 206, and a shooting condition setting reading unit 217. It is configured.
[0140]
The difference image data reading unit 203 reads the difference image data from a predetermined area of the input file based on the determination result of the attached identification information by the analysis of the header information analysis unit 202 as a separation unit, and Separate the difference image data. The difference image data generation unit 204 processes the read difference image data into a state in which image processing can be performed.
[0141]
The parallax image data generation unit 205 generates parallax image data paired with the reference image data in stereoscopic display from the difference image data and the reference image data. Parallax image data is generated by the following arithmetic expression.
A1: Reference image data
A2: Parallax image data
B: Difference image data
A2 = A1 + B
Further, the parallax image data generation unit 205 performs image quality adjustment processing on the parallax image data obtained by the above calculation based on the shooting condition setting information input from the shooting condition setting reading unit 217. For example, when the difference between the imaging conditions of the reference image data and the parallax image data is the sensitivity setting, the reference image data is the high sensitivity setting, and the difference image data is the low sensitivity setting, the information of the reference image data is obtained for the low luminance area. And performs sensitivity adjustment processing on the parallax image data.
[0142]
The temporary storage memory 206 temporarily stores the parallax image data generated by the parallax image data generation unit 205.
[0143]
When the header information analysis unit 202 analyzes that the shooting condition setting information is recorded in the header area, the shooting condition setting reading unit 217 reads the shooting condition setting information from the header area of the input file, Output to the parallax image data generation unit 205.
[0144]
As shown in FIG. 8, the second processing unit 212 includes a reference image data generation unit 207, a stereoscopic display image data generation unit 208, an output condition setting input unit 209, and a temporary storage memory 210. .
[0145]
The reference image data generation unit 207 reads the reference image data from the input data file and processes the read image data so that the image can be processed.
[0146]
The stereoscopic display image data generation unit 208 converts the stereoscopic display image from the reference image data and the parallax image data stored in the temporary storage memory 206 according to the output condition setting input from the output condition setting input unit 209. Generate. Specifically, as shown in FIG. 9, the distance between the viewpoints of the two images, the reference image and the parallax image, is maintained at a distance of at least about 6 to 7 cm, which is at least the same as the distance between the human eyes. The image data for stereoscopic display is generated such that the image size is adjusted in accordance with the observation condition of the parallel method or the crossing method so that the images are arranged properly on a plane.
[0147]
The output condition setting input unit 209 is configured by a user interface such as a keyboard or a touch panel configured on an LCD, and sets output of stereoscopic display image data generated by the image processing apparatus 200 (for example, an output destination When information on device type, output size, etc.) is input, the information is output to the stereoscopic display image data generation unit 208.
[0148]
The temporary storage memory 210 temporarily stores the stereoscopic display image data generated by the stereoscopic display image data generator 208. The image data for stereoscopic display temporarily stored in the temporary storage memory 210 is output to the storage device 213.
[0149]
The above-described header information analysis unit 202, difference image data reading unit 203, difference image data generation unit 204, parallax image data generation unit 205, reference image data generation unit 207, image data generation unit for stereoscopic display display 208, shooting condition setting The section of the reading unit 217 does not necessarily have to be realized as a physically independent device, and may be realized as a section of the type of software processing in a single CPU, for example.
[0150]
<Operation of Image Processing Apparatus 200>
FIG. 10 is a flowchart illustrating a stereoscopic display image data generation process A executed by the units of the image processing apparatus 200 cooperating with each other. Hereinafter, the operation of the image processing apparatus 200 will be described with reference to FIG.
[0151]
When the storage medium on which the file of the reference image data shown in FIG. 5A is recorded is mounted on the storage medium mounting unit, the input unit 201 inputs the reference image data recorded on the storage medium (step S21). ). Next, the tag information in the header area of the file of the reference image data is analyzed by the header information analysis unit 202, and the attached identification information and the photographing condition setting information are determined (step S22). Based on the result of the determination by the header information analysis unit 202, this information is read by the imaging condition setting reading unit 217, and is output to the parallax image data generation unit 205 (Step S23). Further, based on the result of the determination by the header information analysis unit 202, the difference image data reading unit 203 reads the difference image data from a predetermined area of the file, and separates the reference image data and the difference image data (step S24). Processing is performed by the difference image data generation unit 204 to generate difference image data that can be subjected to image processing (step S25), and is output to the parallax image data generation unit 205.
[0152]
Next, the parallax image data generation unit 205 generates parallax image data from the reference image data and the difference image data (step S26), and performs image quality adjustment processing on the parallax image data based on the shooting condition setting information. (Step S27). Then, based on the output condition input from the output condition setting input unit 209, the size and arrangement of the two images of the reference image data and the generated parallax image data are changed by the stereoscopic display image data generating unit 208. The image data is adjusted so as to be optimal for display, and output to the storage device 213 as one stereoscopic display image data via the temporary storage memory 210 (step S28).
[0153]
As described above, according to the image processing apparatus 200, based on the determination of the attached identification information by the analysis of the header information analysis unit 202, the difference image data readout unit 203 executes the subtraction of the difference image data from the predetermined area of the reference image data file. To separate the reference image data and the difference image data, generate parallax image data paired with the reference image data in the stereoscopic display from the reference image data and the difference image data, and generate the reference image data and the generated parallax image. The size and arrangement of the two images of data are adjusted so as to be optimal for stereoscopic display, and image data for stereoscopic display is generated and output to the recording device 213. When the header information analysis unit 202 determines the imaging condition setting information in the header area of the data file, the information is read out, and when generating parallax image data, image quality adjustment processing is performed based on the imaging condition setting information.
[0154]
Therefore, it is automatically determined that the input data is the reference image data to be used for the stereoscopic display to which the difference image data is attached, and the image data for the stereoscopic display is generated from the reference image data and the difference image data. can do. That is, it is possible to automatically determine that a file of reference image data having a data structure generated by the above-described imaging device 30 or image processing device 100 has been input, and to generate image data for stereoscopic display. This makes it possible to reduce the processing load on the image recording apparatus when an image recording apparatus such as a printer forms and outputs a stereoscopic display image on an output medium.
[0155]
Further, since the image quality adjustment processing is performed on the parallax image data based on the shooting conditions, the image quality of the stereoscopically displayed image can be improved.
[0156]
Note that the image quality adjustment processing may be further performed on the reference image data using the information of the parallax image data. For example, if the reference image data has a high sensitivity setting and the parallax image data has a low sensitivity setting, the dynamic range is insufficient with the high sensitivity setting reference image data in a high-luminance region, and the signal is likely to be saturated. The image quality can be improved by interpolating with data information.
[0157]
<Configuration of Image Processing Apparatus 200A>
Next, a process suitable when the input reference image data (data to which difference image data is attached and attached identification information and shooting condition setting information are recorded as tag information in a header area) is scene reference image data. An image processing apparatus 200A capable of performing the above will be described. FIG. 11 shows a functional configuration of the image processing apparatus 200A.
[0158]
As shown in FIG. 11, the image processing device 200A has a configuration in which a viewing image reference data generation unit 215 and a scene reference image data reproduction data generation unit 216 are added to the configuration of the image processing device 200 described above.
[0159]
The viewing image reference data generation unit 215 performs processing on both the reference image data of the scene reference image data input from the reference image data generation unit 207 and the parallax image data of the scene reference image data generated by the first processing unit 211. Based on the information input from the output condition setting input unit 209, an optimum viewing image can be obtained on an output medium (CRT, liquid crystal display, plasma display, silver halide printing paper, inkjet paper, thermal printer paper, etc.). The above data is converted into viewing image reference data.
[0160]
The scene reference image data reproduction data generation unit 216 calculates the difference between the reference image data of the scene reference image data and the reference image data converted to the viewing image reference data, and calculates the difference data (for the scene reference image data reproduction). Hereinafter, the data will be referred to as scene reference image data reproduction data). Then, the difference image data and the extracted scene reference image data reproduction data are attached to the reference image data of the viewing image reference data to create an attached data file, and attached to the header area of the generated file. Identification information, information indicating that the reference image data is viewing image reference data, and information indicating that data for reproducing scene reference image data is attached are recorded as tag information.
[0161]
The other configuration of the image processing apparatus 200A is the same as that of the image processing apparatus 200, and thus the description is omitted.
[0162]
<Operation of Image Processing Apparatus 200A>
FIG. 12 is a flowchart illustrating a stereoscopic display image data generation process B executed by the units of the image processing apparatus 200A cooperating with each other. Hereinafter, the operation of the image processing apparatus 200A will be described with reference to FIG.
[0163]
When a storage medium on which a file of the reference image data of the scene reference image data shown in FIG. 5A is recorded is mounted, the reference image data recorded on the storage medium is input by the input unit 201 (step 31). ). Next, the tag information in the header area of the file of the reference image data is analyzed by the header information analysis unit 202, and the attached identification information and the imaging condition setting information are determined (step S32). Based on the result of the determination by the header information analysis unit 202, this information is read by the imaging condition setting reading unit 217, and is output to the parallax image data generation unit 205 (Step S33). Further, based on the determination result of the header information analysis unit 202, the difference image data reading unit 203 reads the difference image data from a predetermined area of the file, and separates the reference image data and the difference image data (Step S34). Processing is performed by the difference image data generation unit 204 to generate difference image data that can be subjected to image processing (step S35), and is output to the parallax image data generation unit 205.
[0164]
Next, in the parallax image data generation unit 205, parallax image data of the scene reference image data is generated from the reference image data and the difference image data of the scene reference image data (step S36), and the parallax image is generated based on the shooting condition setting information. Image quality adjustment processing is performed on the data (step S37). Then, in the viewing image reference data generation unit 215, based on the output condition input from the output condition setting input unit 209, the optimum viewing on the output medium is performed on each of the reference image data and the parallax image data of the scene reference image data. An optimization process is performed to obtain an image, and the image is converted into viewing image reference data (step S38).
[0165]
The reference image data and difference image data converted into the viewing image reference data are generated as reference image data in the stereoscopic display image data generation unit 208 based on the output condition input from the output condition setting input unit 209. The size and the arrangement of the two images of the parallax image data are adjusted so as to be optimal for stereoscopic display of a stereo pair, and are output to the storage device 213 as one stereoscopic display image data via the temporary storage memory 210. (Step S39).
[0166]
On the other hand, the scene reference image data reproduction data generation unit 216 extracts difference image data between the reference image data of the scene reference image data and the reference image data converted into the viewing image reference data (step S40). Data reproduction data is generated (step S41). Then, the difference information, that is, the extracted scene reference image data reproduction data and the difference image data generated in step S35 are attached to the reference image data of the viewing image reference data (step S42). In the header area, attached identification information, information indicating that the reference image data is viewing image reference data, and information indicating that data for reproducing scene reference image data are attached as tag information are recorded as attached data. A file is created (step S43) and output to the storage device 213 via the temporary storage memory as reference image data of the viewing image reference data (step S44).
[0167]
FIG. 5B is a diagram illustrating a data structure of a data file created by the image processing apparatus 200A. As shown in FIG. 5B, the image processing apparatus 200A can generate a data file having a reference image data area, a data area for reproducing scene reference image data, a difference image data area, and a header area.
[0168]
As described above, according to the image processing apparatus 200A, it is possible to generate, from the reference image data of the scene reference image data, the image data for stereoscopic display optimized to be an optimum viewing image on the output medium. Can be. In addition, a file is generated in which data for reproducing scene reference image data and difference image data for generating parallax image data are attached to the reference image data converted to the viewing image reference data, and the file is attached to the header area of the generated file. Identification information, information indicating that the reference image data is viewing image reference data, and information indicating that data for reproducing scene reference image data is attached as tag information can be recorded as tag information. The image data for stereoscopic display optimized by another image processing apparatus or image recording apparatus according to the output conditions can be generated from the reference image data. Furthermore, since the image quality adjustment processing is performed on the parallax image data based on the shooting condition setting information, the image quality of the stereoscopically displayed image can be improved.
[0169]
Note that the image quality adjustment processing may be further performed on the reference image data using the information of the parallax image data. For example, if the reference image data is set to high sensitivity and the parallax image data is set to low sensitivity, the dynamic range is insufficient for the high-sensitivity reference image data in a high-luminance area, and the signal is likely to be saturated. The information can be interpolated to improve the image quality.
[0170]
<Configuration of Image Recording Apparatus 301>
Next, a preferred embodiment of the image recording apparatus according to the present invention will be described.
FIG. 13 is a perspective view showing an external configuration of the image recording apparatus 301 according to the present invention. The image recording apparatus 301 in this embodiment is an example including a CRT display monitor as a display device and an output device using silver halide photographic paper as an output medium.
[0171]
In the image recording apparatus 301, a magazine loading section 303 is provided on the left side of the main body 302, and an exposure processing section 304 for exposing a silver halide photographic paper as an output medium in the main body 302, and an exposed silver halide photographic paper are provided in the main body 302. A print creation unit 305 is provided for developing and drying and creating a print. The created print is discharged to a tray 306 provided on the right side of the main body 302. Further, a control unit 307 is provided inside the main body 302 at a position above the exposure processing unit 304.
[0172]
Further, a CRT 308 is arranged on the upper part of the main body 302. The CRT 308 has a function as a display unit that displays an image of image information to be printed on a screen. On the left side of the CRT 308, a film scanner unit 309 serving as a transparent original reading device is arranged, and on the right side, a reflective original input device 310 is arranged.
[0173]
Documents read from the film scanner unit 309 or the reflection document input device 310 include photographic photosensitive materials. Examples of the photographic light-sensitive material include a color negative film, a color reversal film, a black-and-white negative film, a black-and-white reversal film, and the like, in which frame image information captured by an analog camera is recorded. The film scanner of the film scanner unit 309 can convert the recorded frame image information into digital image data and use the digital image data as frame image data. Further, when the photographic photosensitive material is color paper, which is silver halide printing paper, it can be converted into frame image data by the flatbed scanner of the reflection original input device 310.
[0174]
An image reading unit 314 is provided at the position of the control unit 307 of the main body 302. The image reading unit 314 includes a PC card adapter 314a and an FD (floppy (registered trademark) disk) adapter 314b, and a PC card 313a and an FD (floppy (registered trademark) disk) 313b can be inserted. The PC card 313a has a memory in which a plurality of frame image data (captured image data) captured by a digital camera are stored. The FD 313b stores, for example, a plurality of frame image data captured by a digital camera.
[0175]
An operation unit 311 is provided in front of the CRT 308, and the operation unit 311 includes an information input unit 312. The information input unit 312 is configured by, for example, a touch panel or the like.
[0176]
Examples of storage media having frame image data other than those described above include a multimedia card, a memory stick, MD data, a CD-ROM, and the like. The operation unit 311, the CRT 308, the film scanner unit 309, the reflection document input device 310, and the image reading unit 314 are provided integrally with the main body 302 to form a device. It may be provided as a body.
[0177]
Further, an image writing unit 315 is provided at the position of the control unit 307 of the main body 302. The image writing unit 315 includes an FD adapter 315a, an MO adapter 315b, and an optical disk adapter 315c. The FD 316a, the MO 316b, and the optical disk 316c can be inserted into the image writing unit 315 so that image information can be written to a storage medium. It has become.
[0178]
Further, the control unit 307 includes communication means 340 and 341 and receives image data representing a captured image and a print command directly from another computer in the facility or a distant computer via the Internet or the like, and a so-called network image recording apparatus. It is possible to function as.
[0179]
<Internal Configuration of Image Recording Apparatus 301>
Next, the internal configuration of the image recording apparatus 301 will be described.
FIG. 14 is a block diagram showing the internal configuration of the image recording apparatus 301.
[0180]
The control unit 307 of the image recording apparatus 301 includes a CPU (Central Processing Unit), a storage unit, and the like. The CPU reads various control programs stored in the storage unit, and centrally controls the operation of each unit configuring the image recording apparatus 301 according to the control programs.
[0181]
Further, the control unit 307 has an image processing unit 370 and, based on an input signal from the information input unit 312 of the operation unit 311, causes the film scanner unit 309 and the reflection document input device 310 to read a document image. Image processing is performed on the acquired image data, the image data read from the image reading unit 314, and the image data input from an external device via the communication unit (input) 340 (shown in FIG. 15). Further, the image processing unit 370 performs a conversion process on the image data subjected to the image processing in accordance with the output form to obtain prints P1, P2, and P3, or a CRT 308, an image writing unit 315, a communication unit (output). 341 or the like.
[0182]
The operation unit 311 is provided with information input means 312. The information input unit 312 includes, for example, a touch panel or the like, and outputs a press signal of the information input unit 312 to the control unit 307 as an input signal. The operation unit 311 may include a keyboard and a mouse.
[0183]
The film scanner unit 309 reads the frame image data from the developed negative film N obtained by developing the negative film captured by the analog camera, and converts the frame image from the reflection original input device 310 into a color, which is silver halide photographic paper. The frame image data from the print P printed and developed on paper is read.
[0184]
The image reading unit 314 has a function of reading and transferring frame image data of the PC card 313a or the FD 313b captured and recorded by a digital camera. That is, the image reading unit 314 includes a PC card adapter, an FD adapter, and the like as the image transfer unit 330, and records the image on the PC card 313a attached to the PC card adapter 314a and the FD 313b attached to the FD adapter 314b. The read frame image data is read and transferred to the control unit 307. As the PC card adapter 314a, for example, a PC card reader or a PC card slot is used.
[0185]
The data storage unit 371 stores and sequentially stores image information and order information corresponding thereto (information on how many prints are to be made from which frame image, print size information, etc.).
[0186]
The template storage unit 372 stores sample image data (data indicating a background image, an illustration image, and the like) corresponding to the sample identification information D1, D2, and D3, and stores a template for setting a synthesis area with the sample image data. At least one data is stored. Here, when a predetermined template is selected from a plurality of templates stored in the template storage unit 372 in advance by an operator's operation (this operator's operation is based on an instruction from the client), the control unit 307 causes the frame image data And the selected template, and when the sample identification information D1, D2, D3 is designated by the operation of the operator (the operation of the operator is based on the instruction of the client), the designated sample identification is performed. The sample image data is selected based on the information D1, D2, and D3, and the selected sample image data is combined with the image data and / or character data ordered by the client, and as a result, the sample desired by the client is obtained. Create a print based on image data. The synthesis using this template is performed by the well-known chroma key method.
[0187]
Note that the sample identification information is not limited to three types of sample identification information D1, D2, and D3, and may be more or less than three types.
The sample identification information D1, D2, and D3 for designating a print sample is configured to be input from the operation unit 311. However, the sample identification information D1, D2, and D3 is a print sample or an order sheet. And can be read by reading means such as OCR. Alternatively, the operator can input from a keyboard.
[0188]
As described above, the sample image data is recorded corresponding to the sample identification information D1 for specifying the print sample, the sample identification information D1 for specifying the print sample is input, and based on the input sample identification information D1. Various full-size samples are selected by the user to select the sample image data, combine the selected sample image data with the image data and / or character data based on the order, and create a print based on the designated sample. Can actually order a print by hand, and can respond to various requests from a wide range of users.
[0189]
Also, the first sample identification information D2 designating the first sample and the image data of the first sample are stored, and the second sample identification information D3 designating the second sample and the image of the second sample are stored. The data is stored, the sample image data selected based on the specified first and second sample identification information D2, D3, and the image data and / or character data based on the order are combined, and the sample according to the specification is synthesized. Therefore, a variety of images can be synthesized, and a print can be created that meets a wider range of users' various requirements.
[0190]
The exposure processing unit 304 exposes the photosensitive material to an image in accordance with the output image data generated by performing image processing on the image data in the image processing unit 370, and sends the photosensitive material to the print creation unit 305. The print creating unit 305 develops and exposes the exposed photosensitive material to create prints P1, P2, and P3. The print P1 is a service size, a high definition size, a panorama size, etc., the print P2 is an A4 size print, and the print P3 is a business card size print.
The print size is not limited to the prints P1, P2, and P3, and may be a print of another size.
[0191]
The CRT 308 displays image information input from the control unit 307.
[0192]
The image writing unit 315 includes an FD adapter 315a, an MO adapter 315b, and an optical disk adapter 315c as the image transport unit 331. The FD 316a, the MO 316b, and the optical disk 316c can be inserted, and the image data can be stored in a storage medium. You can write to it.
[0193]
Further, the image processing unit 370 uses the communication means (input) 340 (shown in FIG. 15) to directly print image data representing a captured image and print data from another computer in the facility or a distant computer via the Internet or the like. It is also possible to receive image processing instructions and perform image processing and create prints by remote control.
[0194]
Further, the image processing unit 370 uses the communication unit 341 (output) (shown in FIG. 15) to transfer the image data representing the photographed image subjected to the image processing of the present invention and the accompanying order information to the facility. It is also possible to send it to another computer or a distant computer via the Internet or the like.
[0195]
As described above, the image recording apparatus 301 includes an input unit that captures images of various digital media and image information obtained by dividing and metering an image document, and the image information of the input image acquired from the input unit as “the output image Image processing means for acquiring or estimating information of “size” and “size of main subject in output image” and performing processing to obtain an image that gives a favorable impression when observing the image on an output medium; Image forming means for displaying or printing out the completed image or writing it on a storage medium, and order information accompanying image data to another computer in the facility via a communication line or to a distant computer via the Internet or the like. Communication means (output) 341 for transmitting the
[0196]
<Configuration of Image Processing Unit 370>
FIG. 15 is a block diagram illustrating a functional configuration of the image processing unit 370 according to the present invention. The image data input from the film scanner unit 309 is processed by a film scan data processing unit 702 to perform a calibration operation unique to the film scanner unit, negative / positive inversion for a negative document, dust / flaw removal, gray balance adjustment, contrast adjustment, granular noise removal, The image is subjected to sharpening enhancement and the like, and sent to the image adjustment processing unit 701. In addition, information on the main subject recorded optically or magnetically on the film, information on the photographing conditions (eg, information content of the APS), etc., are also output to the image adjustment processing unit 701. You.
[0197]
The image data input from the reflection document input device 310 is processed by the reflection document scan data processing unit 703 in a calibration operation unique to the reflection document input device, negative / positive inversion in the case of a negative document, dust / flaw removal, gray balance adjustment, contrast adjustment, and noise. The image is subjected to removal, sharpening enhancement, and the like, and output to the image adjustment processing unit 701.
[0198]
The image data input from the image transfer unit 330 and the communication unit (input) 340 is subjected to a decompression of a compression code and a conversion of a color data expression method as necessary in the image data format decoding processing unit 704 according to the data format of the data. Are performed, the data is converted into a data format suitable for the calculation in the image processing unit 370, and output to the image adjustment processing unit 701. If the input image data is determined by the image data format decryption processing unit 704 to be reference image data to which difference image data is attached, the input image data is output to the reference image data processing unit 401. Is done. Here, the input reference image data may be scene reference image data or viewing image reference data. It is preferable that the input image data is scene reference image data, because the image recording apparatus 301 can obtain a stereoscopic display image of an optimized viewing image without information loss of captured image information.
[0199]
The designation of the size of the output image is input from the operation unit 311. In addition, the designation of the size of the output image transmitted to the communication unit (input) 340 and the image acquired by the image transfer unit 330 When the size of the output image embedded in the tag information of the header area of the data is specified, the image data format decryption processing unit 704 detects the information and transfers the information to the image adjustment processing unit 701.
[0200]
The reference image data processing unit 401 includes a header information analysis unit 402, a difference image data reading unit 403, a difference image data generation unit 404, a parallax image data generation unit 405, a reference image data generation unit 406, and a stereoscopic display image data generation unit. 407, a photographing condition setting reading unit 409, and an output condition setting input unit 408 is connected.
[0201]
The header information analysis unit 402 analyzes the header information (tag information of the header area) of the file of the reference image data input from the image data format decryption processing unit 704 and determines the attached identification information and the shooting condition setting information as a determination unit. The determination is performed, and the result is output to the difference image data reading unit 403, the parallax image data generation unit 405, the reference image data generation unit 406, and the imaging condition setting reading unit 409.
[0202]
The difference image data reading unit 403 reads the difference image data from a predetermined area of the input file based on the determination result of the attached identification information by the header information analysis unit 402 as a separating unit, and reads the reference image data and the difference image data. Is separated. The difference image data generation unit 404 processes the read difference image data into a state in which image processing can be performed.
[0203]
The parallax image data generation unit 405 generates parallax image data forming a pair with the reference image data in stereoscopic display from the difference image data and the reference image data. Parallax image data is generated by the following arithmetic expression.
A1: Reference image data
A2: Parallax image data
B: Difference image data
A2 = A1 + B
Further, the parallax image data generation unit 405 performs image quality adjustment processing on the parallax image data obtained by the above calculation based on the shooting condition setting information input from the shooting condition setting reading unit 403. For example, when the difference between the imaging conditions of the reference image data and the parallax image data is the sensitivity setting, the reference image data is the high sensitivity setting, and the difference image data is the low sensitivity setting, the information of the reference image data is obtained for the low luminance area. And performs sensitivity adjustment processing on the parallax image data.
[0204]
The reference image data generation unit 406 reads out the reference image data from the input file format and processes it so that image processing is possible.
[0205]
The stereoscopic display image data generation unit 407 generates an image for stereoscopic display from the reference image data and the parallax image data according to the output condition setting input from the output condition setting input unit 408. Specifically, as shown in FIG. 9, the distance between the viewpoints of the two images, the reference image and the parallax image, is maintained at a distance of at least about 6 to 7 cm, which is at least the same as the distance between the human eyes. The image data for stereoscopic display of a stereo pair is generated such that the image size is adjusted in accordance with the observation condition of the parallel method or the intersection method so that the images are arranged properly on a plane.
[0206]
Note that, when the input reference image data is scene reference image data, the stereoscopic display image data generation unit 407 outputs the image data from the output condition setting input unit 408 to both the reference image data and the parallax image data. Based on the input information, an optimization process is performed so that an optimum viewing image can be obtained on an output medium (CRT, liquid crystal display, plasma display, silver halide photographic paper, inkjet paper, thermal printer paper, etc.). Is converted to the viewing image reference data, so that the distance between the viewpoints of the two images, the reference image and the parallax image, is kept at a distance of at least about 6 to 7 cm, which is the same as the distance between the human eyes. Adjust the size of the images and stereoscopically view the stereo pairs so that they are correctly aligned on the plane according to the observation conditions of the parallel method or the cross method. To generate a 示用 image data.
[0207]
The output condition setting input unit 408 is configured by a user interface such as a keyboard and a touch panel configured on an LCD, and sets output of digital image data generated by the image processing apparatus 301 (for example, the type of a device of an output destination). , Output size, etc.), the information is output to the stereoscopic display image data generation unit 407. Note that the output condition setting input unit 409 may be integrated with the operation unit 311.
[0208]
The photographing condition setting reading unit 409 reads out the photographing condition setting information from the header area of the input file based on the determination result of the photographing condition setting information in the header information analyzing unit 402 and outputs the information to the parallax image data generating unit 405.
[0209]
The stereoscopic display image data generated by the reference image data processing unit 401 is output to the image adjustment processing unit 701.
[0210]
The image adjustment processing unit 701 calls predetermined image data (template) from the template storage unit 372 when template processing is required. The image data is transferred to the template processing unit 705, combined with the template, and the template-processed image data is received again. In the image adjustment processing unit 701, based on a command from the operation unit 311 or the control unit 307, the film scanner unit 309, the reflection original input device 310, the image transfer unit 330, the communication unit (input) 340, the template processing unit 705, The image data received from the image data processing unit 401 is subjected to image processing so that the image gives a favorable impression when the image is observed on an output medium, and digital image data for output is generated. The processing unit 706, the printer-specific processing unit (1) 707, the image data format creation processing unit 709, and the data storage unit 371 are sent.
[0211]
The CRT-specific processing unit 706 performs processing such as changing the number of pixels and color matching on the image data received from the image adjustment processing unit 701 as necessary, and combines the image data with information that needs to be displayed, such as control information. Is transmitted to the CRT 308 as an image forming means. The printer-specific processing unit (1) 707 performs printer-specific calibration processing, color matching, pixel number change, and the like as necessary, and sends image data to the exposure processing unit 351 as image forming means. When an external printer device 351 such as a large-format inkjet printer as an image forming unit is connected to the image recording device 301 of the present invention, a printer-specific processing unit (2) 708 is provided for each connected printer device. Such as printer-specific calibration processing, color matching, and changing the number of pixels.
[0212]
The image data format creation processing unit 709 converts the image data received from the image adjustment processing unit 701 into various general-purpose image formats represented by JPEG, TIFF, Exif, etc. The image data is transferred to the transport unit 331 or the communication unit (output) 341.
[0213]
The image data for stereoscopic display created by the reference image data processing unit 401 is processed by the CRT unique processing unit 706, the printer unique processing unit (1) 707, the printer unique processing unit (2) 708, and the image data format creation processing. The image data format creation processing unit 709 is based on the format of the image data for stereoscopic display, and is used for the CRT, the exposure output unit, the external printer, and the communication unit (output). For example, after attaching a status file indicating that the image data is optimized, the image data can be individually transmitted to the image transport unit and stored.
[0214]
The above-described film scan data processing unit 702, reflection original scan data processing unit 703, image data format decoding processing unit 704, image adjustment processing 701, CRT specific processing unit 706, printer specific processing unit (1) 707, printer specific processing unit (2) The division 708 and the image data format creation processing unit 709 are divisions provided to help understand the function of the image processing unit 370, and are not necessarily realized as physically independent devices. For example, it may be realized as a classification of the type of software processing in a single CPU.
[0215]
Also, a header information analysis unit 402, a difference image data reading unit 403, a difference image data generation unit 404, a parallax image data generation unit 405, a reference image data generation unit 406, a stereoscopic display image data generation unit 407, and a shooting condition setting readout The section 409 is a section provided to facilitate understanding of the function of the present invention in the image processing section 370, and does not necessarily have to be realized as a physically independent device. For example, software in a single CPU It may be realized as a classification of the type of processing.
[0216]
<Operation of Image Processing Unit 370>
FIG. 16 is a flowchart illustrating a stereoscopic display image forming process performed by the units of the image processing unit 370 cooperating with each other. Hereinafter, the operation of each unit of the image processing unit 370 will be described with reference to FIG.
[0219]
Data is input from the image transfer unit 330 or the communication unit (input) 340 to the image processing unit 370, and the image data format decoding processing unit 704 determines that the input data is a file of reference image data for stereoscopic display. (Step S51), the tag information of the header area of the file of the reference image data is analyzed by the header information analysis unit 402, and the attached identification information and the imaging condition setting information are determined (Step S52). The photographing condition setting readout unit 409 reads out the photographing condition setting information based on the determination result of the header information analysis unit 402, and outputs the information to the parallax image data generation unit 405 (step S53). Further, based on the determination result of the header information analysis unit 402, the difference image data reading unit 403 reads the difference image data from a predetermined area of the file, and separates the reference image data and the difference image data (step S54). The difference image data is processed by the difference image data generation unit 404 to generate difference image data that can be subjected to image processing (step S55), and is output to the parallax image data generation unit 405.
[0218]
Next, the parallax image data generation unit 405 generates parallax image data from the reference image data and the difference image data (step S56), and performs image quality adjustment processing on the parallax image data based on the shooting condition setting information. (Step S57). Then, in the stereoscopic display image data generation unit 407, an optimal viewing image is obtained on the output medium for each of the reference image data and the parallax image data based on the output condition input from the output condition setting input unit 408. Optimization processing is performed so as to be converted into viewing image reference data (step S58). If the input reference image data is viewing image reference data, the step may be omitted.
[0219]
Next, in the stereoscopic display image data generation unit 407, based on the output condition input from the output condition setting input unit 408, the size and the arrangement of the two images of the reference image data and the parallax image data are set as a stereo pair. Adjustment is made so as to be optimal for display, and image data for stereoscopic display is generated (step S59). The image data for stereoscopic display is output to any one of the CRT-specific processing unit 706, the printer-specific processing unit 707, the printer-specific processing unit 708, and the image data format creation processing unit 709 according to the output destination. In the processed processing unit, specific processing corresponding to the output destination is performed (step S60). At the output destination specified by the output condition setting input unit 408, a display device such as a CRT, a liquid crystal display, a plasma display, and a silver A viewing image for stereoscopic display is formed on an output medium such as a paper for generating a hard copy image such as a salt printing paper, an ink jet paper, and a thermal printer paper (Step S61).
[0220]
As described above, according to the image recording apparatus 301 of the present invention, the input image data is decoded, and when the input image data is the reference image data for stereoscopic display, the reference image data Generates image data for stereoscopic display from difference image data attached to the reference image data, and displays devices such as a CRT, a liquid crystal display, a plasma display, and hardware such as silver halide printing paper, inkjet paper, and thermal printer paper. An appreciation image is formed on an output medium such as paper for generating a copy image. Therefore, it is possible to efficiently create prints in a state where both captured image data captured for stereoscopic display and normal captured image data not for stereoscopic display are mixed. Furthermore, since the image quality adjustment processing is performed on the parallax image data based on the shooting condition setting information, the image quality of the stereoscopically displayed image can be improved.
[0221]
The image quality adjustment processing may be further performed on the reference image data using the information of the parallax image data. For example, if the reference image data is set to high sensitivity and the parallax image data is set to low sensitivity, the dynamic range is insufficient for the high-sensitivity reference image data in a high-luminance area, and the signal is likely to be saturated. The information can be interpolated to improve the image quality.
[0222]
Note that the description in the above embodiment is a suitable example of the imaging device, the image processing device, and the image recording device of the present invention, and the present invention is not limited thereto. Further, the detailed configuration and detailed operation of each device can be appropriately changed without departing from the spirit of the present invention.
[0223]
【The invention's effect】
According to the image processing method, the imaging device, and the image processing device according to claim 1, 6, 9 or 10, a reference is selected from a plurality of pieces of captured image data obtained by capturing the same subject from different viewpoints and different viewpoints. At least one image data is selected, difference image data between the selected reference image data and other captured image data is extracted, and the extracted difference image data is attached to the reference image data, and the difference image data is attached. Is attached to the reference image data.
[0224]
Therefore, a plurality of captured image data obtained by capturing the same subject from different viewpoints, that is, a plurality of captured image data captured for stereoscopic display can be treated as a single captured image data. Of retrieval efficiency when retrieving captured image data taken for stereoscopic display from captured image data of a single image, as one photo print with reference image data by a printer that does not support stereoscopic display Can be output. As a result, the compatibility between captured image data captured for stereoscopic display and normal captured image data of the same subject captured from one viewpoint is improved, and the versatility of captured image data for stereoscopic display is improved. Convenience can be improved.
[0225]
In addition, shooting condition setting information is attached to the reference image data, and difference information due to a difference in shooting condition settings between the reference image data and the other shot image data is included in the difference image data attached to the reference image data. Since such information and data are used in other image processing apparatuses and image recording apparatuses, image quality can be improved when a stereoscopic display image is generated.
[0226]
According to the image processing method, the image processing apparatus, and the image recording apparatus according to Claims 3, 11, and 14, a reference among a plurality of pieces of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions. Difference image data including the difference content between the image data and the other captured image data, reference image data to which the difference image data is attached, attachment identification information indicating that the difference image data is attached to the reference image data, and When photographing condition setting information indicating photographing conditions of a plurality of photographed image data is input, the reference image data and the difference image data are separated based on the attached identification information, and separated based on the photographing condition setting information. Parallax image data is generated using the reference image data and the difference image data, and image data for stereoscopic display is generated based on the reference image data and the parallax image data. Further, the image recording apparatus of the present invention forms the generated image data for stereoscopic display on an output medium.
[0227]
Therefore, the input captured image data is reference image data captured for stereoscopic display to which the difference image data is attached, that is, the image processing method according to any one of claims 1, 6, and 9 described above. It is possible to automatically determine that the data is in a format generated by the imaging device and the image processing device, and to generate image data for stereoscopic display from the reference image data and the difference image data, thereby enabling efficient stereoscopic display. Image data can be generated. Further, since parallax image data is generated using the reference image data and the difference image data based on the shooting condition setting information, the information of both of the captured image data is effectively used to generate the stereoscopic display image data. Image quality can be improved.
[0228]
It is preferable that the attached identification information of the present invention is recorded as tag information in a header area of the captured image data. Further, as the different photographing conditions, for example, there is a difference in sensitivity setting of the image sensor. When a plurality of pieces of captured image data are captured with different sensitivity settings, the image quality can be improved by using information of the captured image data having the optimal sensitivity setting according to the luminance of the image area.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a functional configuration of an imaging device 30 according to the present invention.
FIG. 2 is a block diagram showing an internal configuration of a first imaging unit 21 and a second imaging unit 22 in FIG.
FIG. 3 is a diagram illustrating a relationship between a distance and an angle to a main subject, which is desirable when acquiring captured image data for stereoscopic display when the distance between viewpoints is 6 cm.
FIG. 4 is a flowchart showing a stereoscopic display image photographing / recording process executed under the control of a control unit 11 of FIG. 1;
5A is a diagram illustrating a data structure of a file generated by the imaging device 30 and the image processing device 100; FIG. 5B is a diagram illustrating a data structure of a file generated by the image processing device 200A; FIG. 3C is a diagram illustrating an example when the difference image data is attached to the reference image data.
FIG. 6 is a block diagram showing a functional configuration of the image processing apparatus 100 according to the present invention.
FIG. 7 is a flowchart showing a reference image data output process executed by cooperation of the units of the image processing apparatus 100 of FIG. 6;
FIG. 8 is a block diagram showing a functional configuration of an image processing device 200 according to the present invention.
FIG. 9 is a diagram illustrating an example of arrangement of a reference image and a difference image in stereoscopic display image data.
FIG. 10 is a flowchart illustrating a stereoscopic display image data generation process A executed by cooperation of the units of the image processing apparatus 200 in FIG. 8;
FIG. 11 is a block diagram showing a functional configuration of an image processing device 200A according to the present invention.
12 is a flowchart illustrating a stereoscopic display image data generation process B executed by cooperation of the units of the image processing apparatus 200A in FIG. 11;
FIG. 13 is an external perspective view of an image recording apparatus 301 according to the present invention.
FIG. 14 is a diagram showing an internal configuration of the image recording apparatus 301 of FIG.
FIG. 15 is a block diagram illustrating a functional configuration of an image processing unit 370 of FIG. 14;
FIG. 16 is a flowchart illustrating a stereoscopic display image data forming process executed by the units of the image recording apparatus 301 of FIG. 14 cooperating with each other.
[Explanation of symbols]
1 lens
2 Aperture
3 CCD
4 Analog processing circuit
5 A / D converter
6. Temporary storage memory
7 Image processing unit
8 Attachment processing section
9 Storage device
10 CCD drive circuit
11 Control part
12 Reference image data selection section
13 Difference image data generation unit
14 Operation unit
15 Display
16 Strobe drive circuit
17 Strobe
18 Focal length adjustment circuit
19 Auto focus drive circuit
20 motor
21 First imaging unit
22 Second imaging unit
23 Shooting condition setting information generation unit
30 Imaging device
100, 200, 200A image processing device
101, 201 input unit
102 Reference image data selection unit
103 Difference image data extraction unit
104, 204 difference image data generation unit
105 Difference image data attachment
106, 108, 206, 210 Temporary storage memory
107 Header information recording unit
109, 214 control unit
110, 213 storage device
111 Shooting condition setting acquisition unit
202 Header information analysis unit
203 Difference image data reading unit
205 Parallax image data generation unit
207 Reference image data generation unit
208 Image data generator for stereoscopic display
209 Output condition setting input section
211 First processing unit
212 second processing unit
215 Appreciation image reference data generation unit
216 Scene Reference Image Data Reproduction Data Generation Unit
217 Photographing condition setting readout section
301 Image recording device
302 body
303 Magazine loading section
304 Exposure processing section
305 Print creation unit
306 tray
307 control unit
308 CRT
309 Film scanner unit
310 Reflective document input device
311 Operation unit
312 Information input means
313a PC card
313b FD
314 Image reading unit
314a PC Card Adapter
314b FD Adapter
315 Image writing unit
315a Adapter for FD
315b MO Adapter
315c Optical Disk Adapter
316a FD
316b MO
316c optical disk
330 Image transfer means
331 Image transport unit
340 Communication means (input)
341 Communication means (output)
351 External printer
370 Image processing unit
371 Data storage means
372 template storage means
701 Image adjustment processing unit
702 Film scan data processing unit
703 Reflected original scan data processing unit
704 Image data format decryption processing unit
705 Template processing unit
706 CRT specific processing unit
707 Printer-specific processing unit 1
708 Printer-specific processing unit 2
709 Image data format creation processing unit
401 Reference image data processing unit
402 Header information analysis unit
403 Difference image data reading unit
404 Difference image data generation unit
405 Parallax image data generation unit
406 Reference image data generation unit
407 Image data generator for stereoscopic display
408 Output condition setting input section
409 Photographing condition setting readout unit

Claims (16)

同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データから、1つの撮像画像データを出力する画像処理方法であって、
前記複数の撮像画像データの中から基準画像データを少なくとも1つ選定する工程と、
前記選定された基準画像データと他の撮像画像データとの差分内容を含む差分画像データを抽出する工程と、
前記抽出された差分画像データを前記基準画像データに添付する工程と、
前記差分画像データが添付されていることを示す添付識別情報及び前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を前記基準画像データに添付する工程と、
を含むことを特徴とする画像処理方法。
An image processing method for outputting one captured image data from a plurality of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions,
Selecting at least one reference image data from the plurality of captured image data;
Extracting difference image data including the difference content between the selected reference image data and other captured image data,
Attaching the extracted difference image data to the reference image data,
Attachment to the reference image data attachment identification information indicating that the difference image data is attached and shooting condition setting information indicating shooting conditions of the plurality of shot image data,
An image processing method comprising:
前記添付識別情報及び前記撮影条件設定情報を、前記基準画像データのヘッダ領域にタグ情報として記録することにより、前記基準画像データに添付する工程を含むことを特徴とする請求項1に記載の画像処理方法。2. The image according to claim 1, further comprising a step of recording the attachment identification information and the photographing condition setting information in a header area of the reference image data as tag information, thereby attaching the tag information to the reference image data. Processing method. 入力撮像データを出力媒体上で鑑賞するのに最適な画像データに処理して出力する画像処理方法において、
同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データのうちの基準画像データと他の撮像画像データとの差分内容を含む差分画像データ、この差分画像データが添付された基準画像データ、前記基準画像データに前記差分画像データが添付されていることを示す添付識別情報、及び、前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を入力する工程と、
前記添付識別情報に基づいて、前記基準画像データと前記差分画像データを分離する工程と、
前記撮影条件設定情報に基づいて、前記分離された基準画像データ及び差分画像データを用いて視差画像データを生成する工程と、
前記基準画像データ及び前記視差画像データに基づいて、立体視表示用の画像データを生成する工程と、
を含むことを特徴とする画像処理方法。
In an image processing method for processing and outputting input image data into image data optimal for appreciation on an output medium,
Different image data including the difference between reference image data and other captured image data of a plurality of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions, Attaching reference image data, attached identification information indicating that the difference image data is attached to the reference image data, and inputting shooting condition setting information indicating shooting conditions of the plurality of shot image data; and ,
Based on the attached identification information, separating the reference image data and the difference image data,
Based on the shooting condition setting information, generating parallax image data using the separated reference image data and difference image data,
Based on the reference image data and the parallax image data, a step of generating image data for stereoscopic display,
An image processing method comprising:
前記添付識別情報及び前記撮影条件設定情報が、前記入力された撮像画像データのヘッダ領域に記録されたタグ情報であることを特徴とする請求項3に記載の画像処理方法。The image processing method according to claim 3, wherein the attached identification information and the imaging condition setting information are tag information recorded in a header area of the input captured image data. 前記撮影条件が、撮像素子の感度設定であることを特徴とする請求項1〜4の何れか一項に記載の画像処理方法。The image processing method according to claim 1, wherein the photographing condition is a sensitivity setting of an image sensor. 同一被写体を異なる視点、かつ、異なる撮影条件で撮影して複数の撮像画像データを得る撮像装置において、
前記複数の撮像画像データの中から基準画像データを少なくとも1つ選定する基準画像データ選定手段と、
前記選定された基準画像データと他の撮像画像データとの差分内容を含む差分画像データを抽出する差分画像データ生成手段と、
前記抽出された差分画像データを前記基準画像データに添付し、更に、前記差分画像データが添付されていることを示す添付識別情報及び前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を前記基準画像データに添付する添付処理手段と、
を備えたことを特徴とする撮像装置。
In an imaging apparatus that obtains a plurality of captured image data by capturing the same subject at different viewpoints and under different capturing conditions,
Reference image data selecting means for selecting at least one reference image data from the plurality of captured image data;
Difference image data generating means for extracting difference image data including the difference content between the selected reference image data and other captured image data,
The extracted difference image data is attached to the reference image data, and further, attachment identification information indicating that the difference image data is attached and shooting condition setting information indicating shooting conditions of the plurality of pieces of captured image data. Attachment processing means attached to the reference image data,
An imaging device comprising:
前記添付処理手段は、前記添付識別情報及び撮影条件設定情報を、前記基準画像データのヘッダ領域にタグ情報として記録することにより、前記基準画像データに添付することを特徴とする請求項6に記載の撮像装置。7. The attachment processing unit according to claim 6, wherein the attachment processing unit attaches the attachment identification information and the photographing condition setting information to the reference image data by recording the attachment identification information and the imaging condition setting information as tag information in a header area of the reference image data. Imaging device. 前記撮影条件が、撮像素子の感度設定であることを特徴とする請求項6又は7の何れか一項に記載の撮像装置。The imaging apparatus according to claim 6, wherein the imaging condition is a sensitivity setting of an imaging device. 同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データから、1つの撮像画像データを出力する画像処理装置において、
前記複数の撮像画像データは、それぞれ撮影条件が異なり、
前記複数の撮像画像データの中から基準画像データを少なくとも1つ選定する基準画像データ選定手段と、
前記基準画像データと他の撮像画像データとの差分内容を含む差分画像データを抽出する差分画像データ抽出手段と、
前記抽出された差分画像データを前記基準画像データに添付する差分画像データ添付手段と、
前記差分画像データが添付されていることを示す添付識別情報及び前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を前記基準画像データに添付する情報添付手段と、
を備えたことを特徴とする画像処理装置。
An image processing apparatus that outputs one captured image data from a plurality of captured image data obtained by capturing the same subject under different viewpoints and under different capturing conditions,
Each of the plurality of captured image data has different shooting conditions,
Reference image data selecting means for selecting at least one reference image data from the plurality of captured image data;
Difference image data extraction means for extracting difference image data including the difference content between the reference image data and other captured image data,
Difference image data attaching means for attaching the extracted difference image data to the reference image data,
Information attaching means for attaching, to the reference image data, attachment identification information indicating that the difference image data is attached and shooting condition setting information indicating a shooting condition of the plurality of shot image data,
An image processing apparatus comprising:
前記情報添付手段は、前記添付識別情報及び前記撮影条件設定情報を、前記基準画像データのヘッダ領域にタグ情報として記録することにより、前記基準画像データに添付することを特徴とする請求項9に記載の画像処理装置。10. The method according to claim 9, wherein the information attaching unit attaches the attached identification information and the photographing condition setting information to the reference image data by recording the information as tag information in a header area of the reference image data. The image processing apparatus according to claim 1. 入力撮像データを出力媒体上で鑑賞するのに最適な画像データに処理して出力する画像処理装置において、
同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データのうちの基準画像データと他の撮像画像データとの差分内容を含む差分画像データ、この差分画像データが添付された基準画像データと、前記基準画像データに前記差分画像データが添付されていることを示す添付識別情報、及び、前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を入力する入力手段と、
前記添付識別情報及び前記撮影条件設定情報を判別する判別手段と、
前記判別された添付識別情報に基づいて、前記基準画像データと前記差分画像データを分離するデータ分離手段と、
前記判別された撮影条件設定情報に基づいて、前記分離された基準画像データ及び差分画像データを用いて視差画像データを生成する視差画像データ生成手段と、
前記基準画像データ及び前記視差画像データに基づいて、立体視表示用の画像データを生成する立体視表示用画像データ生成手段と、
を備えたことを特徴とする画像処理装置。
In an image processing device that processes input image data into image data optimal for viewing on an output medium and outputs the image data,
Different image data including the difference between reference image data and other captured image data of a plurality of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions, Input for inputting the attached reference image data, attached identification information indicating that the difference image data is attached to the reference image data, and shooting condition setting information indicating shooting conditions of the plurality of shot image data. Means,
Determining means for determining the attached identification information and the imaging condition setting information;
Based on the determined attached identification information, a data separation unit that separates the reference image data and the difference image data,
A parallax image data generating unit configured to generate parallax image data using the separated reference image data and the differential image data based on the determined imaging condition setting information;
Based on the reference image data and the parallax image data, a stereoscopic display image data generating unit that generates image data for stereoscopic display,
An image processing apparatus comprising:
前記添付識別情報及び撮影条件設定情報が、前記入力された撮像画像データのヘッダ領域に記録されたタグ情報であることを特徴とする請求項11に記載の画像処理装置。The image processing apparatus according to claim 11, wherein the attached identification information and the shooting condition setting information are tag information recorded in a header area of the input captured image data. 前記撮影条件が、撮像素子の感度設定であることを特徴とする請求項9〜12の何れか一項に記載の画像処理装置。The image processing apparatus according to claim 9, wherein the photographing condition is a sensitivity setting of an image sensor. 入力撮像データを出力媒体上で鑑賞するのに最適な画像データに処理して出力媒体上に鑑賞画像を形成する画像記録装置において、
同一被写体を異なる視点、かつ、異なる撮影条件で撮影して得られた複数の撮像画像データのうちの基準画像データと他の撮像画像データとの差分内容を含む差分画像データ、この差分画像データが添付された基準画像データ、前記基準画像データに前記差分画像データが添付されていることを示す添付識別情報、及び、前記複数の撮像画像データの撮影条件を示す撮影条件設定情報を入力する入力手段と、
前記添付識別情報及び前記撮影条件設定情報を判別する判別手段と、
前記判別された添付識別情報に基づいて、前記基準画像データと前記差分画像データを分離するデータ分離手段と、
前記判別された撮影条件設定情報に基づいて、前記分離された基準画像データ及び差分画像データを用いて視差画像データを生成する視差画像データ生成手段と、
前記基準画像データ及び前記視差画像データに基づいて、立体視表示用の画像データを生成する立体視表示用画像データ生成手段と、
前記生成された立体視表示用の画像データに基づいて、出力媒体上に立体視表示用の鑑賞画像を形成する画像形成手段と、
を備えたことを特徴とする画像記録装置。
In an image recording apparatus that processes input image data into optimal image data for viewing on an output medium to form a viewing image on an output medium,
Different image data including the difference between reference image data and other captured image data of a plurality of captured image data obtained by capturing the same subject at different viewpoints and under different capturing conditions, Input means for inputting the attached reference image data, attachment identification information indicating that the difference image data is attached to the reference image data, and shooting condition setting information indicating shooting conditions of the plurality of shot image data. When,
Determining means for determining the attached identification information and the imaging condition setting information;
Based on the determined attached identification information, a data separation unit that separates the reference image data and the difference image data,
A parallax image data generating unit configured to generate parallax image data using the separated reference image data and the differential image data based on the determined imaging condition setting information;
Based on the reference image data and the parallax image data, a stereoscopic display image data generating unit that generates image data for stereoscopic display,
Image forming means for forming a viewing image for stereoscopic display on an output medium, based on the generated image data for stereoscopic display,
An image recording apparatus comprising:
前記添付識別情報及び前記撮影条件設定情報が、前記入力された撮像画像データのヘッダ領域に記録されたタグ情報であることを特徴とする請求項14に記載の画像記録装置。The image recording apparatus according to claim 14, wherein the attached identification information and the imaging condition setting information are tag information recorded in a header area of the input captured image data. 前記撮影条件が、撮像素子の感度設定であることを特徴とする請求項14又は15に記載の画像記録装置。16. The image recording apparatus according to claim 14, wherein the photographing condition is a sensitivity setting of an image sensor.
JP2003157719A 2003-06-03 2003-06-03 Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus Pending JP2004363760A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003157719A JP2004363760A (en) 2003-06-03 2003-06-03 Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003157719A JP2004363760A (en) 2003-06-03 2003-06-03 Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus

Publications (1)

Publication Number Publication Date
JP2004363760A true JP2004363760A (en) 2004-12-24

Family

ID=34051343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003157719A Pending JP2004363760A (en) 2003-06-03 2003-06-03 Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus

Country Status (1)

Country Link
JP (1) JP2004363760A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012176526A1 (en) * 2011-06-21 2012-12-27 シャープ株式会社 Stereoscopic image processing device, stereoscopic image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012176526A1 (en) * 2011-06-21 2012-12-27 シャープ株式会社 Stereoscopic image processing device, stereoscopic image processing method, and program
JPWO2012176526A1 (en) * 2011-06-21 2015-02-23 シャープ株式会社 Stereoscopic image processing apparatus, stereoscopic image processing method, and program

Similar Documents

Publication Publication Date Title
JP2004363758A (en) Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus
JP2005026800A (en) Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus
JP4131192B2 (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP4406195B2 (en) Output image adjustment of image data
JP2004173010A (en) Image pickup device, image processor, image recorder, image processing method, program and recording medium
JP2008022240A (en) Photographing device, image processor, image file generating method, image processing method, and image processing program
JP2004096506A (en) Image forming method, image processor and image recording device
JP2004096500A (en) Image pickup apparatus, image processing apparatus, and image recording apparatus
US20090290041A1 (en) Image processing device and method, and computer readable recording medium containing program
JP2004096505A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2006203566A (en) Imaging apparatus, image processing apparatus and image processing method
JP2005203865A (en) Image processing system
JP2003250109A (en) Image reproducing method, and image reproducing apparatus
JP2004363760A (en) Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus
JP2004328534A (en) Image forming method, image processing apparatus and image recording apparatus
JP2005229280A (en) Image processing apparatus and method, and program
JP2004096508A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2006203573A (en) Imaging apparatus, image processor, and image recording apparatus
JP2006203571A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP2004328530A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP4600503B2 (en) Output image adjustment of image data
JP4292873B2 (en) Image processing method, image processing apparatus, and image recording apparatus
JP2006272729A (en) Image printing device, memory card, image printing method, image printing program and recording medium
JP2004242066A (en) Image recorder, image recording method and image processing program
JP2004242124A (en) System, device, method and program for processing image