JP6096382B2 - 画像処理装置、撮像装置、画像処理方法及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6096382B2
JP6096382B2 JP2016512667A JP2016512667A JP6096382B2 JP 6096382 B2 JP6096382 B2 JP 6096382B2 JP 2016512667 A JP2016512667 A JP 2016512667A JP 2016512667 A JP2016512667 A JP 2016512667A JP 6096382 B2 JP6096382 B2 JP 6096382B2
Authority
JP
Japan
Prior art keywords
image data
optical system
image
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016512667A
Other languages
English (en)
Other versions
JPWO2015156151A1 (ja
Inventor
杉本 雅彦
雅彦 杉本
林 健吉
健吉 林
洋介 成瀬
洋介 成瀬
入江 公祐
公祐 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Application granted granted Critical
Publication of JP6096382B2 publication Critical patent/JP6096382B2/ja
Publication of JPWO2015156151A1 publication Critical patent/JPWO2015156151A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は画像処理装置、撮像装置、画像処理方法及びプログラムに係り、特に鮮鋭化処理に関する。
デジタルカメラ等の撮像装置によって撮影取得された画像データの画質を改善するために、鮮鋭化処理が一般的に行われている。鮮鋭化処理は、画像データに鮮鋭化フィルタを適用することにより画像のボケ等を解消する処理であり、例えば輪郭強調処理や点像復元処理等が知られている。
例えば特許文献1に開示の画像処理装置では、光学伝達関数に基づく回復フィルタを用いた画像回復処理が行われる。
また特許文献2及び特許文献3に開示の撮像システムでは、カーネルウィーナーフィルタを用いた復元処理が行われる。
特開2012−156715号公報 特開2009−124567号公報 特開2009−124569号公報
鮮鋭化処理の対象となっている画像データに適用する鮮鋭化フィルタは、撮影条件や光学系の光学特性に応じて定められることが好ましい。実際の撮影条件とは異なる撮影条件に対応する鮮鋭化フィルタや、撮影に使用した光学系の光学特性とは異なる光学特性に対応する鮮鋭化フィルタを用いて鮮鋭化処理を行うと、十分な鮮鋭化効果が得られないだけではなく、却って画質を悪化させることがある。
そのため鮮鋭化処理を行う場合には、撮影条件や光学系の光学特性を正確に把握して適切なフィルタの選定を行うことが好ましい。特に、光学伝達関数(点拡がり関数等)に基づいて鮮鋭化フィルタを作成する場合には、撮影に使用した光学系の光学特性や他の撮影条件(絞り値(F値)、焦点距離等)に応じた適切な光学伝達関数を特定することが求められる。
例えば特許文献1の画像処理装置では、複数の画像を解析することにより光学伝達特性が取得されたり、2次元のデータを持つ回復フィルタそのものが光学伝達特性として利用されたりする。また特許文献2及び特許文献3の撮像システムでは、画像データを解析してボケ点像状態データが取得され、このボケ点像状態データに基づいてボケ状態に応じた復元係数が求められる。
これらの特許文献1〜3に記載の装置及びシステムでは、画像回復処理及び画像復元処理(鮮鋭化処理)に必要な情報が適切に取得される場合には処理を適切に行うことができるが、処理に必要な情報が取得できない場合には処理を遂行することができない。
実際の鮮鋭化処理では、光学系の光学特性や他の撮影条件を取得することができない場合がある。例えば光学伝達関数に基づく鮮鋭化処理をデジタルカメラにおいて行う場合、通常は、レンズユニットやカメラ本体に保存されている光学伝達関数や鮮鋭化フィルタが利用される。しかし、レンズユニット及びカメラ本体のいずれにも実際に使用したレンズユニット(光学系)の光学伝達関数や鮮鋭化フィルタが保存されていない場合がある。
また絞り値や焦点距離等の撮影条件をレンズユニットとの通信によってカメラ本体が取得するケースでは、撮影に使用したレンズユニットがカメラ本体に対応しておらずカメラ本体との通信機能を持たない場合がある。この場合、カメラ本体はレンズユニットから撮影条件を取得することができない。また、撮影に使用したレンズユニットがカメラ本体との通信機能を持つ場合であっても、使用環境(衝撃、温度等)によって通信不良が生じ、カメラ本体がレンズユニットから撮影条件を取得することができないケースもある。
上述のように様々な要因によって光学系の光学伝達関数や撮影条件を取得することができない場合がある一方で、そのような条件下であっても鮮鋭化処理を可能な限り適切に実施したいとの要望がある。
本発明は上述の事情に鑑みてなされたものであり、光学系の光学伝達関数や撮影条件を取得することができない場合であっても、使用可能な鮮鋭化フィルタを取得することを可能にする技術を提供することを目的とする。
本発明の一態様は、第1の光学系を用いた被写体像の撮影により取得される第1の画像データ及び第2の光学系を用いた被写体像の撮影により取得される第2の画像データの各々の周波数領域におけるデータを取得する周波数解析部と、第1の画像データの周波数領域におけるデータと第2の画像データの周波数領域におけるデータとを比較して、第2の光学系の光学特性に関する周波数特性データを取得する光学特性取得部と、第2の光学系の光学特性に関する周波数特性データに基づいて、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、第2の光学系に関連付ける鮮鋭化フィルタを取得するフィルタ取得部と、を備える画像処理装置に関する。
本態様によれば、第2の光学系を用いた被写体像の撮影により取得される第2の画像データの鮮鋭化処理において光学伝達関数や撮影条件を取得することができなくても、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から「第2の光学系に関連付ける鮮鋭化フィルタ」を取得することができる。
望ましくは、フィルタ取得部は、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から取得される鮮鋭化フィルタであって、第2の光学系の光学特性に関する周波数特性データと周波数特性が最も近い鮮鋭化フィルタを、第2の光学系に関連付ける鮮鋭化フィルタとして取得する。
本態様によれば、鮮鋭化精度の高い鮮鋭化フィルタを第2の光学系に関連付ける鮮鋭化フィルタとして取得することができる。
望ましくは、光学特性取得部は、第2の光学系の光学特性に関する周波数特性データを、第1の画像データの周波数領域におけるデータと第2の画像データの周波数領域におけるデータとの比に基づいて取得する。
本態様によれば、第1の画像データの周波数領域におけるデータと第2の画像データの周波数領域におけるデータとの比に基づいて、鮮鋭化精度の高い鮮鋭化フィルタを第2の光学系に関連付ける鮮鋭化フィルタとして取得することができる。
望ましくは、第1の画像データは、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から撮影条件に応じて取得される鮮鋭化フィルタを使用した鮮鋭化処理を受けておらず、光学特性取得部は、第1の画像データの周波数領域におけるデータをaによって表し、第2の画像データの周波数領域におけるデータをbによって表し、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から第1の画像データの撮影条件に応じて取得される鮮鋭化フィルタを適用する前の第1の画像データに対する鮮鋭化フィルタを適用した後の第1の画像データの周波数毎の比率を表すレスポンスをcによって表すと、a/b×cによって表される第2の光学系の光学特性に関する周波数特性データを取得する。
本態様によれば、第1の画像データに対する鮮鋭化処理を考慮して、第2の光学系に関連付ける鮮鋭化フィルタを取得することができる。
望ましくは、第1の光学系に関連付けられた複数の鮮鋭化フィルタの各々の周波数毎のレスポンスを鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率により表した場合、データフィルタ取得部は、横軸の基準を空間周波数とし、縦軸の基準をレスポンスとした座標系において、光学特性取得部によって取得される第2の光学系の光学特性に関する周波数特性データと鮮鋭化フィルタのレスポンスとの間によって囲まれる面積に基づいて、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から第2の光学系に関連付ける鮮鋭化フィルタを取得する。
本態様によれば、上記の座標系において「第2の光学系の光学特性に関する周波数特性データ」と「鮮鋭化フィルタのレスポンス」とによって囲まれる面積に基づいて、鮮鋭化精度の高い鮮鋭化フィルタを第2の光学系に関連付ける鮮鋭化フィルタとして取得することができる。
望ましくは、フィルタ取得部は、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から選ばれる鮮鋭化フィルタであって、座標系において、光学特性取得部によって取得される第2の光学系の光学特性に関する周波数特性データと鮮鋭化フィルタのレスポンスとの間によって囲まれる面積が最も小さい鮮鋭化フィルタを、第2の光学系に関連付ける鮮鋭化フィルタとして取得する。
本態様によれば、上記の面積が最も小さい鮮鋭化フィルタが第2の光学系に関連付ける鮮鋭化フィルタとして取得されるため、鮮鋭化精度の高い鮮鋭化フィルタを第2の光学系に関連付ける鮮鋭化フィルタとして取得することができる。
望ましくは、第1の画像データと第2の画像データとは、同一の被写体像を撮影することにより取得される。
本態様によれば、第1の画像データと第2の画像データとは相互に近似した画像特性を有するため、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、第2の光学系に関連付ける鮮鋭化フィルタを精度良く取得することができる。
望ましくは、画像処理装置は、フィルタ取得部が取得した鮮鋭化フィルタを第2の画像データに適用するフィルタ処理部を更に備える。
本態様によれば、第2の画像に対して良好な鮮鋭化処理を施すことができる。
望ましくは、第2の光学系の光学特性は、第2の光学系の光学伝達関数である。
本態様によれば、第2の光学系の光学伝達関数に基づいて、第2の光学系に関連付ける鮮鋭化フィルタを取得することができる。なお光学伝達関数(Optical Transfer Function:OTF)には、点拡がり関数(Point Spread
Function:PSF)、変調伝達関数(Modulation Transfer Function:MTF)及び位相伝達関数(Phase Transfer Function:PTF)が含まれる。
望ましくは、画像処理装置は、第2の光学系を用いた被写体像の撮影により取得される複数の第2の画像データの評価データを取得し、評価データに基づいて、複数の第2の画像データの中から、周波数解析部において周波数領域におけるデータが取得される第2の画像データを取得する画像データ取得部を更に備える。
本態様によれば、評価データに基づいて、鮮鋭化精度の高い鮮鋭化フィルタを第2の光学系に関連付ける鮮鋭化フィルタとして取得することができる。
望ましくは、複数の第2の画像データは、異なる条件下において取得される。
本態様によれば、異なる条件下において取得される複数の第2の画像データの中から、評価データに基づいて、適切な第2の画像データを取得することができる。
望ましくは、複数の第2の画像データは、相互に露出条件が異なる。
本態様によれば、露出条件の異なる複数の第2の画像データの中から、評価データに基づいて、適切な第2の画像データを取得することができる。
望ましくは、画像データ取得部は、複数の第2の画像データの特定の周波数の範囲の成分量に基づいて、複数の第2の画像データの中から、周波数解析部において周波数領域におけるデータが取得される第2の画像データを取得する。
本態様によれば、特定の周波数の範囲の成分量に基づいて、複数の第2の画像データの中から適切な第2の画像データを取得することができる。
望ましくは、画像データ取得部は、複数の第2の画像データの中から、特定の周波数の範囲の成分量が最も大きい第2の画像データを、周波数解析部において周波数領域におけるデータが取得される第2の画像データとして取得する。
本態様によれば、特定の周波数の範囲の成分量が最も大きい第2の画像データを、適切な第2の画像データとして取得することができる。
望ましくは、特定の周波数の範囲は、複数の第2の画像データの各々のサンプリング周波数の1/8以上であって1/4以下の範囲に含まれる。
望ましくは、鮮鋭化フィルタは、第1の光学系の光学伝達関数に基づくフィルタである。
本態様によれば、光学伝達関数に基づく鮮鋭化フィルタを、第2の光学系に関連付ける鮮鋭化フィルタとして取得することができる。
望ましくは、鮮鋭化フィルタは、第1の光学系の光学伝達関数に基づかないフィルタである。
本態様によれば、光学伝達関数に基づかない鮮鋭化フィルタを、第2の光学系に関連付ける鮮鋭化フィルタとして取得することができる。
望ましくは、フィルタ取得部は、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、複数の像高に関連付けられた複数の鮮鋭化フィルタを、第2の光学系に関連付ける鮮鋭化フィルタとして取得する。
本態様によれば、像高に応じた高い精度の鮮鋭化フィルタを、第2の光学系に関連付ける鮮鋭化フィルタとして取得することができる。
本発明の他の態様は、光学系を通過した被写体像を受光して撮影画像データを生成する撮像素子と、上記の画像処理装置と、を備える撮像装置に関する。
本態様によれば、撮像装置において、第2の光学系を用いた被写体像の撮影により取得される第2の画像データの鮮鋭化処理において光学伝達関数や撮影条件を取得することができなくても、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から「第2の光学系に関連付ける鮮鋭化フィルタ」を取得することができる。
望ましくは、撮像装置は、第1の画像データの周波数領域におけるデータを記憶する記憶部を更に備え、周波数解析部は、記憶部から第1の画像データの周波数領域におけるデータを取得し、第2の光学系及び撮像素子を用いた被写体像の撮影により第2の画像データの周波数領域におけるデータを取得する。
本態様によれば、第1の画像データの周波数領域におけるデータは記憶部から取得され、第2の画像データの周波数領域におけるデータは被写体像の撮影により取得される。
望ましくは、撮像装置は、表示部と、表示部を制御する表示制御部と、第2の光学系と、を更に備え、表示制御部は、ユーザに第1の被写体像の撮影を促すためのガイド部を表示部に表示させて、第2の画像データは、ガイド部に促されて撮影が行われて生成された撮影画像データである。
本態様によれば、ユーザはガイド部に促されて第2の画像データを簡便に取得することができる。「ガイド部に促されて撮影が行われて生成された撮影画像データ」は、ユーザがガイド部の表示に基づいて撮影を行うことにより生成される撮影画像データであればよい。したがって、例えば表示部にガイド部が表示された状態において撮影が行われて生成される撮影画像データを「ガイド部に促されて撮影が行われて生成された撮影画像データ」としうる。
望ましくは、撮像装置は、ガイド部に促されて撮影が行われて生成された撮影画像データが第1の基準を満たすか否かを判定する画像判定部を更に備え、第2の画像データは、第1の基準を満たす撮影画像データである。
本態様によれば、第1の基準を満たす第2の画像データを取得することができる。
望ましくは、表示制御部は、ガイド部に促されて撮影が行われて生成された撮影画像データが第1の基準を満たさない場合には、再度、ユーザに第1の被写体像の撮影を促すためのガイド部を表示部に表示させる。
本態様によれば、第1の基準を満たす第2の画像データを簡便に取得することができる。
本発明の他の態様は、第1の光学系を用いた被写体像の撮影により取得される第1の画像データ及び第2の光学系を用いた被写体像の撮影により取得される第2の画像データの各々の周波数領域におけるデータを取得し、第1の画像データの周波数領域におけるデータと第2の画像データの周波数領域におけるデータとを比較して、第2の光学系の光学特性に関する周波数特性データを取得し、第2の光学系の光学特性に関する周波数特性データに基づいて、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、第2の光学系に関連付ける鮮鋭化フィルタを取得する画像処理方法に関する。
本発明の他の態様は、第1の光学系を用いた被写体像の撮影により取得される第1の画像データ及び第2の光学系を用いた被写体像の撮影により取得される第2の画像データの各々の周波数領域におけるデータを取得する手順と、第1の画像データの周波数領域におけるデータと第2の画像データの周波数領域におけるデータとを比較して、第2の光学系の光学特性に関する周波数特性データを取得する手順と、第2の光学系の光学特性に関する周波数特性データに基づいて、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、第2の光学系に関連付ける鮮鋭化フィルタを取得する手順と、をコンピュータに実行させるためのプログラムに関する。
本発明によれば、第2の光学系を用いた被写体像の撮影により取得される第2の画像データの鮮鋭化処理において光学伝達関数や撮影条件を取得することができなくても、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から「第2の光学系に関連付ける鮮鋭化フィルタ」を精度良く取得することができる。
コンピュータに接続されるデジタルカメラの概略を示すブロック図である。 本体コントローラの機能構成の概略を示すブロック図である。 第1実施形態に係る画像処理部の機能構成例を示すブロック図である。 周波数解析部における処理例を説明するための概念図である。 光学特性取得部における処理例を説明するための概念図である。 フィルタ取得部における処理例を説明するための概念図である。 「第2の光学系の光学特性に関する周波数特性データ」と第1の光学系に関連付けられた「鮮鋭化フィルタ」との関係例を説明するための座標系を示す。 第1実施形態に係る画像処理部の処理の一例を示すフローチャートである。 図9(a)から図9(d)は表示部における撮影ガイドの一例を示す図である。 図9(a)から図9(d)に示すガイド表示に適した被写体の一例を示す図である。 図11(a)から図11(d)は表示部における撮影ガイドの他の例を示す図である。 図12(a)から図12(d)は表示部における撮影ガイドの他の例を示す図である。 第2実施形態に係る本体コントローラの機能構成例を示すブロック図である。 図14(a)及び図14(b)は表示部における撮影ガイドの他の例を示す図である。 表示部における撮影ガイドの他の例を示す図である。 図16(a)及び図16(b)は表示部における撮影ガイドの他の例を示す図である。 第3実施形態に係る画像処理部の機能構成例を示すブロック図である。 第3実施形態の第1のモードに係る画像データ取得部における処理の一例を示すフローチャートである。 第3実施形態の第2のモードに係る画像データ取得部における処理の一例を示すフローチャートである。 第3実施形態の第3のモードに係る画像データ取得部における処理の一例を示すフローチャートである。 EDoF光学系を備える撮像モジュールの一形態を示すブロック図である。 EDoF光学系の一例を示す図である。 図21に示す復元処理ブロックによる復元処理フローの一例を示す図である。 EDoF光学系を介して取得された画像の復元例を示す図であり、(a)は復元処理前のボケた画像を示し、(b)は復元処理後のボケが解消された画像(点像)を示す。 スマートフォンの外観を示す図である。 図25に示すスマートフォンの構成を示すブロック図である。
添付図面を参照して本発明の実施形態について説明する。以下の説明では、一例として、コンピュータ(PC:パーソナルコンピュータ)に接続可能なデジタルカメラ(撮像装置)に本発明を適用する例について説明する。
図1は、コンピュータに接続されるデジタルカメラの概略を示すブロック図である。
デジタルカメラ10は、交換可能なレンズユニット12と、撮像素子26を具備するカメラ本体14とを備える。レンズユニット12とカメラ本体14とは、レンズユニット12のレンズユニット入出力部22とカメラ本体14のカメラ本体入出力部30とを介して電気的に接続される。
レンズユニット12は、レンズ16及び絞り17等を含む光学系と、この光学系を制御する光学系操作部18とを具備する。光学系操作部18は、レンズユニット入出力部22に接続されるレンズユニットコントローラ20と、光学系を操作するアクチュエータ(図示省略)とを含む。レンズユニットコントローラ20は、レンズユニット入出力部22を介してカメラ本体14から送られてくる制御信号に基づき、アクチュエータを介して光学系を制御し、例えば、レンズ移動によるフォーカス制御やズーム制御、絞り17の絞り値(絞り量)の制御、等を行う。
カメラ本体14の撮像素子26は、集光用マイクロレンズ、RGB(赤緑青)等のカラーフィルタ、及びイメージセンサ(フォトダイオード:CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge−Coupled Device)等)を有する。この撮像素子26は、レンズユニット12の光学系(レンズ16、絞り17等)を介して照射される被写体像の光を電気信号に変換し、画像信号(撮影画像データ)を本体コントローラ28に送る。すなわち本例の撮像素子26は、光学系(レンズ16、絞り17等)を通過した被写体像を受光して撮影画像データ(以下、「画像データ」と称する)を生成し、その画像データを本体コントローラ28(後述の「画像処理部36」)に送信する。
図2は、本体コントローラ28の機能構成の概略を示すブロック図である。
本体コントローラ28は、デバイス制御部34と、画像処理部(画像処理装置)36とを有し、カメラ本体14を統括的に制御する。
デバイス制御部34は、例えば、撮像素子26からの画像データの出力を制御したり、レンズユニット12を制御するための制御信号を生成してカメラ本体入出力部30を介してレンズユニット12(レンズユニットコントローラ20)に送信したり、入出力インターフェース32を介して接続される外部機器(コンピュータ80等)に画像処理前後の画像データ(RAWデータ、JPEG(Joint Photographic Experts Group)データ等)を送信したりする。また本例のデバイス制御部34は、カメラ本体14に設けられる表示部38を制御する表示制御部37を含む。さらにデバイス制御部34は、デジタルカメラ10が具備する他のデバイス類を適宜制御する。
一方、画像処理部36は、撮像素子26からの画像データに対し、必要に応じた任意の画像処理を行うことができる。例えば、センサ補正処理、デモザイク(同時化)処理、画素補間処理、色補正処理(オフセット補正処理、ホワイトバランス処理、カラーマトリクス処理、ガンマ変換処理、等)、RGB画像処理(トーン補正処理、露出補正処理、等)、RGB/YCrCb変換処理及び画像圧縮処理、等の各種の画像処理が、画像処理部36において適宜行われる。加えて、本例の画像処理部36は、後述の「鮮鋭化処理」を行う。
本体コントローラ28において画像処理が施された画像データは、フラッシュメモリ等によって構成される画像記憶部29に保存される。画像記憶部29に保存された画像データは、入出力インターフェース32(図1参照)に接続されるコンピュータ80等に送られる。また画像記憶部29がカメラ本体14から着脱自在の場合には、カメラ本体14から取り外された画像記憶部29に接続されるコンピュータ80等に、画像記憶部29に保存された画像データが送られる。デジタルカメラ10(画像記憶部29)からコンピュータ80等に送られる画像データのフォーマットは特に限定されず、RAW、JPEG、TIFF(Tagged Image File Format)等の任意のフォーマットとしうる。したがって本体コントローラ28は、いわゆるExif(Exchangeable Image File Format)のように、ヘッダ情報(撮影情報(撮影日時、機種、画素数、絞り値等)等)、主画像データ及びサムネイル画像データ等の複数の関連データを相互に対応付けて1つの画像ファイルとして構成し、この画像ファイルをコンピュータ80に送信してもよい。
コンピュータ80は、カメラ本体14の入出力インターフェース32及びコンピュータ入出力部81を介してデジタルカメラ10に接続され、カメラ本体14から送られてくる画像データ等のデータ類を受信する。コンピュータコントローラ82は、コンピュータ80を統括的に制御し、デジタルカメラ10からの画像データを画像処理したり、インターネット等のネットワーク84を介してコンピュータ入出力部81に接続されるサーバ85等との通信制御をしたりする。コンピュータ80はディスプレイ83を有し、コンピュータコントローラ82における処理内容等がディスプレイ83に必要に応じて表示される。ユーザは、ディスプレイ83の表示を確認しながらキーボード等の入力手段(図示省略)を操作することにより、コンピュータコントローラ82に対してデータやコマンドを入力し、コンピュータ80を制御したり、コンピュータ80に接続される機器類(デジタルカメラ10、サーバ85)を制御したりすることができる。
サーバ85は、サーバ入出力部86及びサーバコントローラ87を有する。サーバ入出力部86は、デジタルカメラ10やコンピュータ80等の外部機器との送受信接続部を構成し、ネットワーク84を介してデジタルカメラ10の本体コントローラ28やコンピュータ80のコンピュータ入出力部81に接続される。サーバコントローラ87は、デジタルカメラ10やコンピュータ80からの制御指示信号に応じ、本体コントローラ28やコンピュータコントローラ82と協働し、本体コントローラ28やコンピュータコントローラ82との間で必要に応じてデータ類の送受信を行い、データ類をデジタルカメラ10やコンピュータ80にダウンロードしたり、演算処理を行ってその演算結果をデジタルカメラ10やコンピュータ80に送信したりする。
なお、各コントローラ(レンズユニットコントローラ20、本体コントローラ28、コンピュータコントローラ82、サーバコントローラ87)は、制御処理に必要な回路類を備え、例えば演算処理回路(CPU(Central Processing Unit)等)やメモリ等を具備する。また、デジタルカメラ10、コンピュータ80及びサーバ85間の通信は有線であってもよいし無線であってもよい。また、コンピュータ80及びサーバ85を一体的に構成してもよく、またコンピュータ80及び/又はサーバ85が省略されてもよい。また、デジタルカメラ10にサーバ85との通信機能を持たせ、デジタルカメラ10とサーバ85との間で直接的にデータ類の送受信が行われるようにしてもよい。
次に、図2に示す本体コントローラ28(画像処理部36)において行われる画像データの鮮鋭化処理について説明する。以下の各実施形態では、鮮鋭化処理を行う画像処理部36(本体コントローラ28)において、鮮鋭化フィルタの選定の基礎情報となる絞り値や焦点距離等の撮影条件が通信不可或いは通信不良によって全く取得することができない場合の鮮鋭化処理について説明する。
以下の例では、カメラ本体14(本体コントローラ28)において鮮鋭化処理が実施される例について説明するが、鮮鋭化処理の全部又は一部を他のコントローラ(レンズユニットコントローラ20、コンピュータコントローラ82、サーバコントローラ87等)において実施することも可能である。また以下では、画像処理部36において行われる鮮鋭化処理について説明するが、上述のように画像処理部36では鮮鋭化処理以外の各種の画像処理が鮮鋭化処理の前及び/又は後で行われる。画像処理部36において行われる鮮鋭化処理以外の画像処理に関する処理部の説明及び図示は省略する。
<第1実施形態>
本実施形態は、ユーザが「カメラ本体14に対応するレンズユニット12」及び「カメラ本体14に対応しないレンズユニット12」を使って同一シーンを撮影し、得られる画像の周波数応答を比較することにより「カメラ本体14に対応しないレンズユニット12」によって撮影される画像データに使用可能な鮮鋭化フィルタを取得する例に関する。
「鮮鋭化フィルタ」は特に限定されず、光学系の光学伝達関数に基づくフィルタであってもよいし、光学系の光学伝達関数に基づかないフィルタであってもよい。すなわち点拡がり関数(PSF)、変調伝達関数(MTF)、位相伝達関数(PTF)を含む光学伝達関数(OTF)に基づいて作成されたフィルタが「鮮鋭化フィルタ」として使用されてもよいし、光学伝達関数とは関係なく定められた輪郭補正用のフィルタ等が鮮鋭化フィルタとして使用されてもよい。
以下の説明において、「レンズユニット12(レンズユニットコントローラ20)とカメラ本体14(本体コントローラ28)との間において撮影情報の送受信を適切に行うことができ、撮影情報を本体コントローラ28に供給可能なレンズユニット12」を「第1の光学系」と呼ぶ。また「レンズユニット12(レンズユニットコントローラ20)とカメラ本体14(本体コントローラ28)との間において撮影情報の送受信を適切に行うことができず、撮影情報を本体コントローラ28に供給できないレンズユニット12」を「第2の光学系」と呼ぶ。
図3は、第1実施形態に係る画像処理部36の機能構成例を示すブロック図である。本例の画像処理部36は、周波数解析部40、光学特性取得部42、フィルタ取得部44、フィルタ処理部46及びフィルタ記憶部48(記憶部)を有する。
周波数解析部40は、「第1の光学系を用いた被写体像の撮影により取得される画像データ(以下、「第1の画像データ」と称する)」及び「第2の光学系を用いた被写体像の撮影により取得される画像データ(以下、「第2の画像データ」と称する)」の各々の周波数領域におけるデータを取得する。
図4は、周波数解析部40における処理例を説明するための概念図である。周波数解析部40には、撮像素子26(図1参照)から出力された空間領域により表された画像データが入力される。周波数解析部40は、フーリエ変換の原理を応用した処理を行い、入力された「空間領域により表された画像データ」から「周波数領域により表された画像データ」を作成して出力する。すなわち周波数解析部40は、「空間領域により表された第1の画像データA」を「周波数領域により表された第1の画像データa」に変換し、「空間領域により表された第2の画像データB」を「周波数領域により表された第2の画像データb」に変換する。「空間領域により表された画像データ」から「周波数領域により表された画像データ」を作成する処理は特に限定されず、例えば高速フーリエ変換(Fast Fourier Transform:FFT)を利用した処理が周波数解析部40において行われてもよい。
なお、本例の第1の画像データと第2の画像データとは、同一の被写体像を撮影することにより取得される画像データをいう。例えば、まずユーザが「レンズユニット12(レンズユニットコントローラ20)とカメラ本体14(本体コントローラ28)との間において撮影情報の送受信を適切に行うことができるレンズユニット12(第1の光学系)」を使って被写体像を撮影することによって第1の画像データが取得される。その後、ユーザによってレンズユニット12の交換が行われる。そしてユーザが「レンズユニット12(レンズユニットコントローラ20)とカメラ本体14(本体コントローラ28)との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)」を使って、第1の画像データと同一の被写体像を撮影することによって第2の画像データが取得される。これにより周波数解析部40は、第1の画像データ及び第2の画像データを取得することができる。なお、このような一連の撮影処理が適切に行われるようにユーザをガイドしてもよく、例えば本体コントローラ28(表示制御部37)の制御下で表示部38にガイダンスを表示してユーザの撮影処理を促してもよい。また第1の画像データ及び第2の画像データは、撮像素子26から周波数解析部40に直接的に供給されてもよいし、画像記憶部29等のメモリに一旦保存され、そのメモリから周波数解析部40に供給されてもよい。
図3に示す光学特性取得部42は、第1の画像データの周波数領域におけるデータと第2の画像データの周波数領域におけるデータとを比較して、第2の光学系の光学特性に関する周波数特性データを取得する。
ここでいう「第2の光学系の光学特性に関する周波数特性データ」は特に限定されず、鮮鋭化処理によって回復可能な特性をここでいう「第2の光学系の光学特性」とすることができる。例えば、第2の光学系の光学伝達関数を「第2の光学系の光学特性」としてもよい。
図5は、光学特性取得部42における処理例を説明するための概念図である。光学特性取得部42には、周波数解析部40が生成した「周波数領域により表された第1の画像データa」及び「周波数領域により表された第2の画像データb」が入力される。光学特性取得部42は、これらの「周波数領域により表された第1の画像データa」及び「周波数領域により表された第2の画像データb」に基づいて「第2の光学系の光学特性に関する周波数特性データd」を取得する。
本例の光学特性取得部42は、「第2の光学系の光学特性に関する周波数特性データd」を、「第1の画像データの周波数領域におけるデータ(第1の画像データa)」と「第2の画像データの周波数領域におけるデータ(第2の画像データb)」との比に基づいて取得する。
ただし光学特性取得部42において使用される「第1の画像データの周波数領域におけるデータ(第1の画像データa)」としては、「鮮鋭化処理を受けたデータ」と「鮮鋭化処理を受けていないデータ」とが想定される。したがって光学特性取得部42は、使用する「第1の画像データの周波数領域におけるデータ(第1の画像データa)」が「鮮鋭化処理を受けたデータ」か「鮮鋭化処理を受けていないデータ」かを判定し、その判定結果に応じて「第2の光学系の光学特性に関する周波数特性データd」の取得手法を変えることが好ましい。
例えば光学特性取得部42において使用される「第1の画像データの周波数領域におけるデータ(第1の画像データa)」が「鮮鋭化処理を受けたデータ」の場合には、第1の画像データには既に鮮鋭化処理が反映されている。この場合、「第2の画像データの周波数領域におけるデータ(第2の画像データb)」に対する「第1の画像データの周波数領域におけるデータ(第1の画像データa)」の比率によって「第2の光学系の光学特性に関する周波数特性データd」を表してもよい(d=a/b)。
一方、光学特性取得部42において使用される「第1の画像データの周波数領域におけるデータ(第1の画像データa)」が「鮮鋭化処理を受けていないデータ」の場合には、第1の画像データに対する鮮鋭化処理の影響を考慮する必要がある。すなわち光学特性取得部42において使用される第1の画像データが、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から撮影条件に応じて取得される鮮鋭化フィルタを使用した鮮鋭化処理を受けていない場合、光学特性取得部42は、例えば以下のようにして「第2の光学系の光学特性に関する周波数特性データd」を取得してもよい。すなわち第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から第1の画像データの撮影条件に応じて取得される鮮鋭化フィルタに関し、「その鮮鋭化フィルタを適用する前の第1の画像データ」に対する「その鮮鋭化フィルタを適用した後の第1の画像データ」の周波数毎の比率を表すレスポンスをcにより表すと、光学特性取得部42は、「d=a/b×c」によって表される「第2の光学系の光学特性に関する周波数特性データd」を取得することができる。
図3に示すフィルタ取得部44は、「第2の光学系の光学特性に関する周波数特性データd」に基づいて、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、第2の光学系に関連付ける鮮鋭化フィルタを取得する。
図6は、フィルタ取得部44における処理例を説明するための概念図である。本例のフィルタ取得部44は、フィルタ記憶部48に記憶されている「第1の光学系に関連付けられた複数の鮮鋭化フィルタ」の中から、第2の光学系に関連付ける鮮鋭化フィルタを選定する。
本例のフィルタ記憶部48には、第1の光学系用の鮮鋭化フィルタ50が複数記憶されている。第1の光学系用の鮮鋭化フィルタ50の各々は、撮影条件に応じて、第1の光学系の光学特性が考慮されて予め定められたフィルタである。例えば鮮鋭化フィルタ50が第1の光学系の光学伝達関数に基づくフィルタである場合、光学伝達関数は撮影条件に応じて変動する関数であるため、撮影条件毎に定められる適切な光学伝達関数に基づいて「第1の光学系用の鮮鋭化フィルタ50」の各々が定められる。また鮮鋭化フィルタ50が第1の光学系の光学伝達関数に基づかないフィルタである場合も同様に、撮影条件毎に定められる適切な基準に基づいて「第1の光学系用の鮮鋭化フィルタ50」の各々が定められる。なお複数の鮮鋭化フィルタ50の基準になる撮影条件は特に限定されず、例えば適用対象の画像データを取得した際の絞り値、焦点距離、被写体距離、明るさ(露出、ヒストグラム、飽和度、等)、等に応じた鮮鋭化フィルタ50をフィルタ記憶部48に記憶しておいてもよい。
また本例では、フィルタ記憶部48に記憶されている各鮮鋭化フィルタ50には各々のフィルタ特性を示すフィルタ特性データ49が関連付けられている。各フィルタ特性データ49は、関連付けられた鮮鋭化フィルタ50の特性を示すデータである。例えば第1の光学系に関連付けられた複数の鮮鋭化フィルタ50の各々の周波数毎のレスポンス(レスポンス=鮮鋭化フィルタを適用した後の画像データ/鮮鋭化フィルタを適用する前の画像データ)を、フィルタ特性データ49としてもよい。
本例のフィルタ取得部44は、既に保有する鮮鋭化フィルタ群の中から、「第2の光学系の光学特性に関する周波数特性データd」に最も近い特性を有する鮮鋭化フィルタを選定して、第2の光学系に関連付ける鮮鋭化フィルタとする。すなわちフィルタ取得部44は、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から取得される鮮鋭化フィルタであって、光学特性取得部42が取得した「第2の光学系の光学特性に関する周波数特性データd」と周波数特性が最も近い鮮鋭化フィルタ50を、第2の光学系に関連付ける鮮鋭化フィルタとして取得する。鮮鋭化フィルタ50が「第2の光学系の光学特性に関する周波数特性データd」に近似する特性を有するか否かの判定手法は特に限定されないが、鮮鋭化フィルタ50による鮮鋭化効果の「空間周波数−レスポンス」の特性データとの比較によって近似性が判定されることが好ましい。
なおフィルタ取得部44は、鮮鋭化フィルタ50を生成してもよい。この場合、「鮮鋭化フィルタ50の生成に必要な情報」が、その情報から生成される鮮鋭化フィルタ50のフィルタ特性データ49と関連付けられてフィルタ記憶部48に記憶される。フィルタ取得部44は、フィルタ特性データ49を参照して、「第2の光学系の光学特性に関する周波数特性データd」に最も近い特性を有する鮮鋭化フィルタ50の生成に必要な情報を取得して鮮鋭化フィルタ50を生成する。「鮮鋭化フィルタ50の生成に必要な情報」は特に限定されないが、鮮鋭化フィルタ50が光学伝達関数に基づくフィルタである場合には光学伝達関数を「鮮鋭化フィルタ50の生成に必要な情報」としうる。
図7は、「第2の光学系の光学特性に関する周波数特性データd」と第1の光学系に関連付けられた「鮮鋭化フィルタ50」との関係例を説明するための座標系を示す。図7の横軸は空間周波数を示し、縦軸はレスポンス及び周波数特性データdを示す。図7に示す鮮鋭化フィルタ50の周波数毎のレスポンスは、「レスポンス=鮮鋭化フィルタを適用した後の画像データ/鮮鋭化フィルタを適用する前の画像データ」との関係によって表される。即ちレスポンスは、鮮鋭化フィルタを適用する前の画像データに対する鮮鋭化フィルタを適用した後の画像データの空間周波数毎の比率を表す。
フィルタ取得部44は、図7に示す座標系において、「第1の光学系に関連付けられた鮮鋭化フィルタ」の各々と「第2の光学系の光学特性に関する周波数特性データd」とによって囲まれる領域Sの面積の大きさを基準に、「第2の光学系の光学特性に関する周波数特性データd」と「鮮鋭化フィルタ50」との近似性を判定してもよい。すなわちフィルタ取得部44は、光学特性取得部42によって取得される「第2の光学系の光学特性に関する周波数特性データd」との間によって囲まれる領域S(差分領域)の面積に基づいて、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から第2の光学系に関連付ける鮮鋭化フィルタを取得することができる。したがってフィルタ取得部44は、例えば、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から選ばれる鮮鋭化フィルタであって、図7に示す座標系において、光学特性取得部42によって取得される「第2の光学系の光学特性に関する周波数特性データd」と鮮鋭化フィルタのレスポンスとの間により囲まれる面積が最も小さい鮮鋭化フィルタを、第2の光学系に関連付ける鮮鋭化フィルタとしてフィルタ記憶部48から取得してもよい。またフィルタ取得部44は、鮮鋭化フィルタの適用処理に加えてゲインコントロール処理を行ってもよい。
図3に示すフィルタ処理部46は、フィルタ取得部44が取得した「第2の光学系に関連付ける鮮鋭化フィルタ」を、「第2の光学系を用いた被写体像の撮影により取得される第2の画像データ」に適用する。
なお、フィルタ処理部46における鮮鋭化フィルタの適用手法は、特に限定されない。例えば画像データ(第2の画像データ)の全画素に共通の鮮鋭化フィルタを適用してもよいし、適用する鮮鋭化フィルタを画像データの画素毎或いはエリア毎に変えてもよい。一般に光学系の光軸中心部と周縁部とでは収差等の光学特性が相違して光学伝達関数が異なるため、像高に応じて、画像データの画素毎或いはエリア毎に適用する鮮鋭化フィルタが変えられてもよい。この場合、フィルタ取得部44は、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、複数の像高に関連付けられた複数の鮮鋭化フィルタを、第2の光学系に関連付ける鮮鋭化フィルタとして取得する。そしてフィルタ処理部46は、フィルタ取得部44が取得した複数の鮮鋭化フィルタを使って、像高に応じて、画像データ(第2の画像データ)に鮮鋭化フィルタを適用する。
図8は、第1実施形態に係る画像処理部36の処理の一例を示すフローチャートである。
まず周波数解析部40によって、「レンズユニットコントローラ20と本体コントローラ28との間により撮影情報の送受信を適切に行うことができるレンズユニット12(第1の光学系)」を使って撮影された「空間領域により表された第1の画像データA」が取得される(図8のS11)。また周波数解析部40によって、「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)」を使って撮影された「空間領域により表された第2の画像データB」が取得される(S12)。
そして周波数解析部40によって、「空間領域により表された第1の画像データA」が「周波数領域により表された第1の画像データa」に変換され(S13)、また「空間領域により表された第2の画像データB」が「周波数領域により表された第2の画像データb」に変換される(S14)。
そして光学特性取得部42によって、第1の画像データA(第1の画像データa)が鮮鋭化処理を受けたデータか否かが判定される(S15)。
第1の画像データA(第1の画像データa)が鮮鋭化処理を受けたデータであると判定される場合(S15のY)、「d=a/b」により表される「第2の光学系の光学特性に関する周波数特性データd」が光学特性取得部42によって取得される(S16)。一方、第1の画像データA(第1の画像データa)が鮮鋭化処理を受けていないデータであると判定される場合(S15のN)、「d=a/b×c」により表される「第2の光学系の光学特性に関する周波数特性データd」が光学特性取得部42によって取得される(S17)。なお「c」は、第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から第1の画像データA(第1の画像データa)の撮影条件に応じて取得される鮮鋭化フィルタのレスポンスを示す。
そして「第2の光学系の光学特性に関する周波数特性データd」に基づいて、「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタが、フィルタ取得部44によって取得される(S18)。
このようにして取得された「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタは、そのレンズユニット12(第2の光学系)によって撮影取得された画像データに対して適用可能である。
したがってフィルタ処理部46は、フィルタ取得部44によって取得された「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタを記憶しておき、その後に、そのレンズユニット12(第2の光学系)を使って撮影取得された画像データの鮮鋭化処理を行う際に使用してもよい。例えば、「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタの取得」から「そのレンズユニット12(第2の光学系)がカメラ本体14から取り外される」までに撮影取得された画像データに対して、「そのレンズユニット12(第2の光学系)に関連付けられた鮮鋭化フィルタ」を用いた鮮鋭化処理がフィルタ処理部46において行われてもよい。また「そのレンズユニット12(第2の光学系)がカメラ本体14から取り外される」まで、フィルタ取得部44に取得された「そのレンズユニット12(第2の光学系)に関連付けられた鮮鋭化フィルタ」を使った鮮鋭化処理のオン及びオフが切り替えられてもよい。
<第2実施形態>
本実施形態において、上述の第1実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
本実施形態では、第1の画像データの周波数領域におけるデータがフィルタ記憶部48(記憶部)に記憶される。例えば「レンズユニットコントローラ20と本体コントローラ28との間で撮影情報の送受信を適切に行うことができるレンズユニット12(第1の光学系)」を使って所定のチャート等の被写体像(以下、「第1の被写体像」と称する)を、撮影条件を変えて複数回撮影しておき、その撮影条件毎に得られる撮影画像データ(第1の画像データ)の周波数特性データを予めフィルタ記憶部48(記憶部)に記憶しておくと共に、その「レンズユニット12(第1の光学系)」に関連付けられた鮮鋭化フィルタを撮影条件毎に予めフィルタ記憶部48(記憶部)に記憶しておく。
そしてカメラ本体14に、「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)」が装着された場合、フィルタ記憶部48に記憶されている第1の光学系を使って撮影取得された撮影画像データの周波数特性データと比較するのに適した撮影画像データを取得できるように上述の第1の被写体像の撮影をユーザに促すガイドが行われ、その「レンズユニット12(第2の光学系)」を使った撮影によって第1の被写体像の撮影画像データ(第2の画像データ)が取得される。周波数解析部40(図3参照)は、被写体像(第1の被写体像)に関する第1の画像データの周波数領域におけるデータ(周波数特性データ)をフィルタ記憶部48(記憶部)から取得し、第2の光学系及び撮像素子26(図1参照)を用いた被写体像(第1の被写体像)の撮影により第2の画像データの周波数領域におけるデータを取得する。そして光学特性取得部42において、同じ「第1の被写体像」に関する「撮影条件を適切に取得可能なレンズユニット12(第1の光学系)を使った撮影画像データ(第1の画像データ)」と「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)を使った撮影画像データ(第2の画像データ)」とが比較され、レンズユニット12(第1の光学系)とレンズユニット12(第2の光学系)との光学特性の相違が類推される。その類推結果に基づいて、「撮影条件を適切に取得可能なレンズユニット12(第1の光学系)」に関連付けられた鮮鋭化フィルタの中から「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタがフィルタ取得部44によって取得される。
<撮影ガイド>
以下に、表示部38におけるガイド表示によって、ユーザに第1の被写体像の撮影を促す手法の一例について説明する。本例は、「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)」がカメラ本体14に装着された状態でのガイド表示プロセスとなる。
表示制御部37(図2参照)は、表示部38(図1参照)を制御して、ユーザに第1の被写体像の撮影を促すためのガイド部を表示部38に表示させる。ユーザは、表示部38に表示されるガイド部に補助されながら「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」を使って第1の被写体像の撮影画像データ(第2の画像データ)を取得する。したがって本実施形態における「第2の画像データ」は、表示部38におけるガイド部に促されて撮影が行われて生成された撮影画像データである。
図9は、表示部38における撮影ガイドの一例を示す図である。図9(a)〜(d)の各々には、表示制御部37により表示部38に表示されるガイド部60が図示されており、ガイド部60の表示パターンが示されている。なお図9(a)〜(d)の各々に示す例では、表示部38の中央部にオートフォーカスエリア61が表示される。
以下の説明では、「右」、「左」、「下」及び「上」という表現が使用されるが、これらの表現はそれぞれ「図面に向かって右」、「図面に向かって左」、「図面に向かって下」及び「図面に向かって上」という意味で使用されている。
図9(a)〜(d)に示されているガイド部60は、表示部38に表示される撮影画像におけるタンジェンシャル方向に沿った直線形状を有する。ここでいうガイド部60の直線形状は、直線状の形状であれば特に限定されず、ガイド部60は、例えば実線の直線であってもよいし、点線の直線であってもよいし、撮影画像が見えるように半透明の直線であってもよい。
なおガイド部60は、撮影画像におけるサジタル方向又はタンジェンシャル方向に沿った直線形状であることが好ましい。特に鮮鋭化フィルタが光学伝達関数に基づくフィルタである場合には、鮮鋭化処理のパラメータを調節する観点から、撮影画像におけるサジタル方向又はタンジェンシャル方向にガイド部60が配置されることが好ましい。すなわち、撮影画像におけるサジタル方向又はタンジェンシャル方向に配置されたガイド部60に一致するような被写体を撮影した場合、光学伝達関数に基づく鮮鋭化フィルタのパラメータを調整する観点から、有用なデータを得ることが可能となる。
ここでいう「サジタル方向又はタンジェンシャル方向に沿ったガイド部60」は、効果を阻害しない範囲で、サジタル方向又はタンジェンシャル方向から逸れていてもよい。
またサジタル方向及びタンジェンシャル方向の基準は撮影画像とする。本来は、撮像素子26の受光面上に投影された光学像のサジタル方向又はタンジェンシャル方向と規定することが望ましいが、撮像素子26により受光し取得した画像データに基づいてしか第2の画像データを得られない。したがって、撮影画像を基準としてサジタル方向及びタンジェンシャル方向を考えても問題がない。ここで、タンジェンシャル方向とは撮影画像の中心を基準とした円周に対する接線方向のことをいい、サジタル方向とは、タンジェンシャル方向に垂直に交わる方向のことをいう。
図9(a)では、ガイド表示パターン1として、ガイド部60が表示部38における左上の領域に配置されている。ユーザは、図9(a)に示されるガイド部60を参考にして、第1の被写体像を撮影して撮影画像データを取得する。この場合、図9(a)に示されるガイド部60に基づいて定められる画像(例えば後述の図10の符号「64a」参照)が第1の被写体像となる。
図9(b)では、ガイド表示パターン2として、2つのガイド部60a、60bの各々が表示部38における左上の領域及び右上の領域に配置されている。さらに、図9(b)において示された2つのガイド部60は、第1のガイド部60a及び第1のガイド部60aと平行でない第2のガイド部60bにより構成されている。すなわち、図9(b)の表示部38の左上の領域に配置されたガイド部(第1のガイド部)60aと、右上に配置されたガイド部(第2のガイド部)60bとは平行とならないように配置されている。
図9(c)では、ガイド表示パターン3として、2つのガイド部60a、60cの各々が表示部38における左上の領域及び右下の領域に配置されている。図9(d)では、ガイド表示パターン4として、4つのガイド部60a、60b、60c、60dの各々が表示部38における左上の領域、右上の領域、右下の領域、及び左下の領域に配置されている。
なお、図9(a)から図9(d)に示されたガイド部60の表示におけるガイド表示パターンに限定されず、様々な形態のガイド表示パターンを採用することが可能である。
図10は、図9(a)から図9(d)に示すガイド表示に適した被写体Wの一例を示す図である。例えば図9(a)に示すガイド表示パターン1では、被写体Wのうち図10の符号「64a」によって示される黒色部分の画像をガイド部60に沿って撮影することが好ましい。また図9(b)に示すガイド表示パターン2では、被写体Wのうち図10の符号「64a」及び符号「64b」により示される黒色部分の画像をガイド部60に沿って撮影することが好ましい。また図9(c)に示すガイド表示パターン3では、被写体Wのうち図10の符号「64a」及び符号「64c」により示される黒色部分の画像をガイド部60に沿って撮影することが好ましい。また図9(d)に示すガイド表示パターン2では、被写体Wのうち図10の符号「64a」、符号「64b」、符号「64c」及び符号「64d」により示される黒色部分の画像をガイド部60に沿って撮影することが好ましい。
図11は、表示部38における撮影ガイドの他の例を示す図である。本例では、表示部38の4隅のそれぞれのガイド部60の表示を満たすような被写体の撮影を、4隅のそれぞれのガイド部60の表示毎に撮影を行うように撮影ガイドが行われる。すなわち、本例では、まず、図11(a)により示されるように左上に配置されたガイド部60aを満たすような撮影画像の撮影を行う。次に、図11(b)により示されるように右上に配置されたガイド部60bを満たすような撮影画像の撮影を行う。次に、図11(c)に示されるように右下に配置されたガイド部60cを満たすような撮影画像の撮影を行う。次に、図11(d)に示されるように左下に配置されたガイド部60dを満たすような撮影画像の撮影を行う。このように、図11(a)〜図11(d)に示されたガイド部60a〜60dにより補助されて取得される4つの撮影画像データが第2の画像として取得される。
なお図11に示されるようにガイド部60の表示は4つに限定されず、表示位置が異なる任意の数のガイド部60を表示部38に表示してユーザに撮影を促してもよい。本例によれば、ガイド部60a〜60dの各々を満たす被写体を容易に見つけられ、ガイド部60a〜60dを確実に満たす撮影画像を取得することができる。
図12は、表示部38における撮影ガイドの他の例を示す図である。本例では、撮影条件表示部62が、ガイド部60と共に表示部38に表示される。すなわち、表示制御部3
7は第2の画像データを撮影取得するための撮影条件表示部62を表示部38に表示させて、ユーザに必要な撮影条件を知らせる。これによりユーザは、必要とされる撮影条件下で撮影を行って第2の画像データを取得することができる。
具体的には、図12(a)及び(b)では、像高位置に関する撮影条件表示部62が表示部38に表示されている。すなわち、図12(a)に示す例では、像高位置が高い箇所(撮影画像の周辺箇所)におけるガイド部60を満たすような第2の画像データの取得が補助される。一方、図12(b)に示す例では、像高が低い箇所(撮影画像の中心箇所)におけるガイド部60を満たすような第2の画像データの取得が補助される。このようにガイド部60が撮影画像の像高に応じて配置されることにより、像高に応じた第2の画像データを取得することができる。
また図12(c)及び(d)では、被写体までの距離(被写体距離)を撮影条件表示部62として表示部38に表示されている。すなわち、図12(c)に示す例では、被写体までの撮影距離が50cmである第2の画像データの取得が補助される。一方、図12(d)に示す例では、被写体までの撮影距離が1mである第2の画像データの取得が補助される。このようにガイド部60と共に被写体までの撮影距離を示す撮影条件表示部62が表示部38に表示されることにより、所望の被写体までの撮影距離を有する第2の画像データを取得することができる。
このように図12に示す例によれば、撮影条件表示部62によって適切な撮影条件下で第2の画像データを撮影取得することができる。
図13は、第2実施形態に係る本体コントローラ28の機能構成例を示すブロック図である。
本実施形態の本体コントローラ28は、表示制御部37に加え、画像判定部56及び画像データ取得部58を更に有する。画像判定部56は、上述のガイド部60に促されて撮影が行われて生成された撮影画像データが第1の基準を満たすか否かを判定する。画像データ取得部58は、画像判定部56において第1の基準を満たすと判定された撮影画像データを「周波数解析部40(図3参照)において周波数領域におけるデータが取得される第2の画像データ」として取得し、周波数解析部40に送信する。したがって本実施形態において得られる第2の画像データは、第1の基準を満たす撮影画像データである。
一方、ガイド部60に促されて撮影が行われて生成された撮影画像データが第1の基準を満たさないと画像判定部56において判定された場合、表示制御部37は、再度、ユーザに第1の被写体像の撮影を促すためのガイド部60を表示部38に表示させる。
なお第2の画像データの適否の基準となる「第1の基準」は特に限定されず、例えばガイド部60と実際に撮影される第1の被写体像との一致度合いを「第1の基準」としてもよい。すなわち画像判定部56は、この一致度合いに基づいて、ガイド部60に誘導されて撮影された撮影画像データが第2の画像データとして適正か否かを判定してもよい。
ガイド部60と撮影画像データとの一致度合いは、具体的にはガイド部60と撮影画像データとの画角の重なり度合いとして判別してもよい。ここでいう一致とは、必ずしも厳密な意味での一致を意味していない。すなわち、使用可能な第2の画像データが取得できる範囲でガイド部60と撮影画像データとが一致していればよい。具体的には、ガイド部60と撮影画像データの第1の被写体像とが、ガイド部60の40%に相当する部分以上が重なっていればよく、好ましくはガイド部60の60%に相当する部分以上が重なっていればよく、さらに好ましくはガイド部60の80%に相当する部分以上が重なっていればよい。
図14(a)及び図14(b)は、表示部38における撮影ガイドの他の例を示す図である。本例の表示制御部37は、ガイド部60との一致度合いに基づいて第1の基準を満たす適正な撮影画像データか否かを示す判定情報部64を、ガイド部60と共に表示部38に表示させる。
具体的には、図14(a)は、ガイド部60に促されて撮影取得された撮影画像データがガイド部60に十分に一致せず第1の基準を満たさない場合を示す。図14(a)に示す例において、被写体Wは、左上に配置されたガイド部60に一致していない。そして、「被写体を直して下さい」という判定情報部64が表示部38に表示される。一方、図14(b)は、ガイド部60に促されて撮影取得された撮影画像データがガイド部60に十分に一致して第1の基準を満たす場合を示す。図14(b)に示す例において、被写体Wは、左上に配置されたガイド部60に一致している。そして、「正しい被写体です」という判定情報部64が表示部38に表示される。
図15は、表示部38における撮影ガイドの他の例を示す図である。本例では、撮影画像データが第1の基準を満たさない場合、ユーザは再度の撮影が促される。すなわち、図14(a)及び図14(b)に示す例では判定情報部64の内容は異なる被写体の撮影を促す内容となっている(図14(a)参照)のに対して、図15に示す本例の判定情報部64の内容は、ユーザに再度の撮影を促す情報となっている。
図16(a)及び図16(b)は、表示部38における撮影ガイドの他の例を示す図である。図16(a)及び(b)に示すようにガイド部60は表示部38の四隅以外に配置してもよく、表示部38におけるガイド部60の配置態様は特に限定されない。
図16(a)に示されたガイド表示パターンと図16(b)に示されたガイド表示パターンとを比較すると、両者間で各ガイド部60が90°回転している。すなわち図16(a)に示されたガイド部60は撮影画像におけるタンジェンシャル方向に沿った直線形状を有するが、図16(b)に示されたガイド部60は撮影画像におけるサジタル方向に沿った直線形状を有する。このようにガイド部60は、タンジェンシャル方向だけでなく、サジタル方向に配置されてもよい。
また「第1の基準」は、フィルタ記憶部48に記憶されている第1の光学系を使って撮影取得された撮影画像データの周波数特性データと比較するのに適した撮影画像データを得られるか否かの観点に基づく基準であればよい。例えば、フィルタ記憶部48に記憶されている第1の光学系を使って撮影取得された第1の被写体像に関する撮影画像データ(第1の画像データ)と、第2の光学系を使って実際に撮影取得される第1の被写体像に関する撮影画像データ(第2の画像データ)との合焦状態の一致度を、「第1の基準」として用いてもよい。また同様に、フィルタ記憶部48に記憶されている第1の光学系を使って撮影取得された第1の被写体像に関する撮影画像データ(第1の画像データ)の明るさの状態と、第2の光学系を使って実際に撮影取得される第1の被写体像に関する撮影画像データ(第2の画像データ)の明るさの状態との一致度を、「第1の基準」として用いてもよい。これら基準は、第1の光学系及び第2の光学系を使って得られる撮影画像データの周波数特性を比較して複数の鮮鋭化フィルタの中から第2の光学系に関連付ける鮮鋭化フィルタを取得する際の精度に関わるものである。特に、第1の光学系を使って撮影取得された撮影画像データの周波数特性データを予めフィルタ記憶部48に記憶しておく場合、ユーザ自身は、基本的には、比較用の「第1の光学系を使った撮影画像データ」の撮影取得作業を行わない。このため、複数の鮮鋭化フィルタの中から第2の光学系に関連付ける鮮鋭化フィルタを高精度に取得する観点からは、上述の第1の基準に基づく撮影ガイドは非常に有用である。
このようにしてユーザは、表示部38におけるガイド部60の誘導に従って「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)」を使って、第1の被写体像に関する第2の画像データを適切に撮影取得することができる。
そして、撮影取得された第2の画像データの周波数特性データと、フィルタ記憶部48(記憶部)から読み出されて取得された撮影画像データ(第1の画像データ)の周波数特性データとが比較され、上述の第1実施形態と同様にして、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタを取得する。すなわち周波数解析部40(図3参照)によって、このようにして撮影取得された第2の画像データの周波数領域におけるデータが取得され、光学特性取得部42によって、「第2の光学系の光学特性に関する周波数特性データd」が取得される。そしてフィルタ取得部44によって、「第2の光学系の光学特性に関する周波数特性データd」に基づいて、予めフィルタ記憶部48に記憶された「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができるレンズユニット12(第1の光学系)」に関連付けられた撮影条件毎の複数の鮮鋭化フィルタの中から「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタを取得する。そしてフィルタ処理部46は、フィルタ取得部44によって取得された「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタ」を記憶しておき、その「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」を使って撮影取得された画像データの鮮鋭化処理を行う際に使用することができる。
以上説明したように本実施形態によれば、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」を使った一連の撮影処理がガイド部60によって誘導されるため、ユーザは、第1の被写体像の画像データを適切に取得することができる。これにより「撮影条件を適切に取得可能なレンズユニット12(第1の光学系)」を使った撮影画像データの取得処理を省略することができ、予め記憶された「撮影条件を適切に取得可能なレンズユニット12(第1の光学系)」の光学特性データとの比較によって、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタを精度良く取得することができる。
<第3実施形態>
本実施形態において、上述の第1実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
本実施形態では、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタを取得するために使用する第2の画像データが、複数の第2の画像データの中から選定される。
図17は、第3実施形態に係る画像処理部36の機能構成例を示すブロック図である。本実施形態の画像処理部36は、周波数解析部40、光学特性取得部42、フィルタ取得部44、フィルタ処理部46及びフィルタ記憶部48に加え、画像データ取得部58を更に有する。
画像データ取得部58は、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」を用いた被写体像の撮影により取得される複数の第2の画像データの評価データを取得する。そして画像データ取得部58は、この評価データに基づいて、複数の第2の画像データの中から「周波数解析部40において周波数領域におけるデータが取得される第2の画像データ」を取得する。
画像データ取得部58において評価データが取得される複数の第2の画像データは、異なる条件下において取得され、例えば相互に露出条件が異なる。この露出条件の相違を実現する手法は特に限定されない。例えば、1つの画像データの明るさをゲインコントロール等の画像処理によって調整することにより露出条件の異なる複数の第2の画像データが取得されてもよい。また、絞り値(絞り17の絞り量)及び/又はシャッタースピードを調整しながら連続的に撮影を行うことにより、露出条件の異なる複数の第2の画像データが取得されてもよい。
画像データ取得部58によって取得される評価データは、光学特性取得部42における「第1の光学系を用いた被写体像の撮影により取得される第1の画像データ」との比較によって「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタを取得するために使用される第2の画像データを選定するためのデータである。したがって、例えば複数の第2の画像データの各々の周波数特性に基づいて評価データを取得してもよい。
例えば画像データ取得部58は、複数の第2の画像データの特定の周波数の範囲の成分量に基づいて、複数の第2の画像データの中から「周波数解析部40において周波数領域におけるデータが取得される第2の画像データ」を取得することができる。より具体的には、画像データ取得部58は、複数の第2の画像データの中から、特定の周波数の範囲の成分量が最も大きい第2の画像データを「周波数解析部40において周波数領域におけるデータが取得される第2の画像データ」として取得してもよい。ここでいう「特定の周波数の範囲」は特に限定されないが、鮮鋭化処理による影響が比較的大きい範囲であることが好ましく、例えば複数の第2の画像データの各々のサンプリング周波数の1/8以上であって1/4以下の範囲に含まれる。
なお、以下の各モードにおいて、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」を用いた被写体像の撮影により取得される単数又は複数の第2の画像データの具体的な取得手法は特に限定されない。例えば上述の第2実施形態のように、本体コントローラ28(表示制御部37、画像判定部56及び画像データ取得部58(図13参照))によってガイド部60(図9〜図12及び図14〜図16参照)を表示部38に表示することによりユーザをガイドして、複数の第2の画像データの撮影取得処理が行われてもよい。
この場合、フィルタ記憶部48(記憶部)に「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができるレンズユニット12(第1の光学系)」を用いた被写体像の撮影により取得される画像データ(第1の画像データ)の周波数領域におけるデータを記憶しておいてもよい。例えば「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができるレンズユニット12(第1の光学系)」を使って所定のチャート等の被写体像(第1の被写体像)を、撮影条件を変えて複数回撮影しておき、その撮影条件毎に得られる撮影画像データ(第1の画像データ)の周波数特性データを予めフィルタ記憶部48に記憶しておくと共に、その「レンズユニット12(第1の光学系)」に関連付けられた鮮鋭化フィルタを撮影条件毎に予めフィルタ記憶部48に記憶しておいてもよい。カメラ本体14に「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができないレンズユニット12(第2の光学系)」が装着された場合、上述の第1の被写体像の撮影をユーザに促すガイドが行われ、その「レンズユニット12(第2の光学系)」を使って撮影によって第1の被写体像の撮影画像データが取得される。
そして周波数解析部40は、被写体像(第1の被写体像)に関する第1の画像データの周波数領域におけるデータ(周波数特性データ)をフィルタ記憶部48(記憶部)から取得し、第2の光学系及び撮像素子26(図1参照)を用いた被写体像(第1の被写体像)の撮影により第2の画像データの周波数領域におけるデータを取得する。そして同じ「第1の被写体像」に関する「撮影条件を適切に取得可能なレンズユニット12(第1の光学系)を使った撮影画像データ」と「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)を使った撮影画像データ」とが光学特性取得部42において比較され、レンズユニット12(第1の光学系)とレンズユニット12(第2の光学系)との光学特性の相違が光学特性取得部42において類推される。その類推結果に基づいて、「撮影条件を適切に取得可能なレンズユニット12(第1の光学系)」に関連付けられた鮮鋭化フィルタの中から「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタがフィルタ取得部44によって取得される。
したがって以下の各モード(特に第1のモード及び第3のモード)に関して画像処理部36は、デジタルカメラ10(本体コントローラ28)以外の機器類(コンピュータ80(コンピュータコントローラ82)、サーバ85(サーバコントローラ87)等)に設けられてもよい。画像処理部36がデジタルカメラ10以外の機器類に設けられる場合、デジタルカメラ10から画像処理部36に鮮鋭化フィルタを取得するための画像データが送られる。すなわち、コンピュータ80等で以下の各モード(特に第1のモード及び第3のモード)の処理を行う際には、「一般的な観賞用の画像データ」に加えて「鮮鋭化フィルタを取得するために使用する画像データ(複数の第2の画像データ)」がデジタルカメラ10からコンピュータ80等に送られる。そして「鮮鋭化フィルタを取得するために使用する画像データ(複数の第2の画像データ)」から「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」に関連付ける鮮鋭化フィルタが取得され、その鮮鋭化フィルタを使って「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」により撮影取得された撮影画像データ(一般的な観賞用の画像データ)の鮮鋭化処理を行うことができる。
この場合、ユーザは、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」をカメラ本体14に装着したデジタルカメラ10によって、「鮮鋭化フィルタを取得するために使用する画像データ(複数の第2の画像データ)」及び「一般的な観賞用の画像データ」を撮影取得し、デジタルカメラ10の画像記憶部29に保存する。そして、これらの「鮮鋭化フィルタを取得するために使用する画像データ(複数の第2の画像データ)」及び「一般的な観賞用の画像データ」が画像記憶部29からコンピュータ80等が転送され、転送先のコンピュータ80等に設けられる画像処理部36において各モードの処理が行われる。
なお「鮮鋭化フィルタを取得するために使用する複数の第2の画像データ」は、同一の被写体像に関する撮影画像データである。特に、「レンズユニットコントローラ20と本体コントローラ28との間において撮影情報の送受信を適切に行うことができるレンズユニット12(第1の光学系)」に関する第1の画像データの被写体像と同一の被写体像に関する撮影画像データが「鮮鋭化フィルタを取得するために使用する複数の第2の画像データ」とされる。すなわちユーザにおいて第1の画像データと同じ被写体像を撮影してもらって「複数の第2の画像データ」を取得し、その「複数の第2の画像データ」の中から「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタの取得処理」に使用する最適な画像データが選ばれる。特に「第1の画像データの周波数特性データを予め記憶しておく形態」では、ユーザは、予め記憶されている「第1の画像データ」がどのような撮影条件で取得されたかの情報が分からない。したがって、同じ被写体像の撮影画像データ(第2の画像データ)を複数取得しておき、その複数の撮影画像データ(第2の画像データ)の中から自動で最適な画像データが選択される形態は、全般的に有益である。
<第1のモード>
図18は、第3実施形態の第1のモードに係る画像データ取得部58における処理の一例を示すフローチャートである。
本モードでは、「画角」以外の撮影条件(特に「絞り値」及び「焦点距離」)を同一として複数の第2の画像データの撮影取得が行われており、それらの複数の第2の画像データを評価して最適な画像データが選定される。
すなわち本モードでは、ユーザにより、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)」をカメラ本体14に装着したデジタルカメラ10を使って、「絞り値」及び「焦点距離」等を変えずに複数の画像データ(第2の画像データ)を撮影取得してもらう。そして、その複数の画像データ(第2の画像データ)の中から、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタの取得処理」に使用される第1の画像データに近い画角の第2の画像データが選ばれる。なおここでいう複数の画像データ(第2の画像データ)と、「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタの取得処理」に使用される第1の画像データとは、同一の被写体像に関する。レンズユニット12が交換可能な場合、上述の第1の光学系と第2の光学系とでは倍率が異なる等のために、第1の画像データと第2の画像データとの画角を同じに設定することが難しいケースもある。そのようなケースにおいて、本モードのように、複数の第2の画像データの中から「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタの取得処理」に使用するのに最適な画角を有する第2の画像データを取得することは、ユーザにとって有益である。
なお本モードでは、画像処理部36がデジタルカメラ10の本体コントローラ28に設けられる場合も、画像処理部36がデジタルカメラ10(本体コントローラ28)以外の機器類(コンピュータ80(コンピュータコントローラ82)、サーバ85(サーバコントローラ87)等)に設けられる場合も同様の処理フローとなる。
まず画像データ取得部58によって複数の第2の画像データが取得される(図18のS21)。
そして画像データ取得部58は、複数の第2の画像データの評価データを取得する(S22)。本モードでは、第2の画像データのサンプリング周波数の1/8以上であって1/4以下の範囲における各第2の画像データの成分量を表すデータが評価データとして用いられ、画像データ取得部58は高速フーリエ変換等を利用した処理によってそのような評価データを各第2の画像データに関して取得する。
そして画像データ取得部58は、評価データに基づいて複数の第2の画像データの中から、光学特性取得部42における第1の画像データとの比較に適した画像データを取得する(S23)。本モードでは、第2の画像データのサンプリング周波数の1/8以上であって1/4以下の範囲において最も大きな成分量を示す第2の画像データを「比較に適した画像データ」として選定し、周波数解析部40に送る。鮮鋭化処理による影響が比較的大きい範囲(例えば第2の画像データのサンプリング周波数の1/8以上であって1/4以下の範囲)における「最も大きな成分量」に基づいて「比較に適した画像データ」を選定する。そのため、鮮鋭化処理において意図される補正帯域の出力が最大の第2の画像データを使うことになり、第1の画像データと比較し易くなる。
そして第1実施形態と同様の処理が行われる(図8のS11〜S18参照)。
<第2のモード>
本モードでは、「画角」以外の撮影条件(特に「絞り値」及び「焦点距離」)を変えて複数の第2の画像データの撮影取得が行われており、それらの複数の第2の画像データを評価して最適な画像データが選定される。したがってユーザは、「複数の第2の画像データ」を撮影取得する際には基本的に「画角」は変えずに、他の撮影条件(特に「絞り値」及び「焦点距離」)を変えて複数の第2の画像データの撮影取得を行う。
例えば「撮影条件」として絞り値を変えて複数の第2の画像データが撮影取得される場合には、絞り値に応じて露出が変わってしまう。したがって「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタの取得処理」に使用する画像データとして不適切な露出の第2の画像データを避けて、適切な露出の第2の画像データを選ぶ必要がある。本モードでは、そのような「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタの取得処理」に使用する画像データとして適切な第2の画像データを取得する処理に関する。
図19は、第3実施形態の第2のモードに係る画像データ取得部58における処理の一例を示すフローチャートである。
本モードでは、画像処理部36がデジタルカメラ10の本体コントローラ28に設けられる。
まず画像データ取得部58によって1つの第2の画像データが取得される(図19のS31)。
そして画像データ取得部58によってその1つの第2の画像データの露出が適正か否かが判定される(S32)。露出が適正か否かの判定手法は特に限定されない。画像データ取得部58は、例えば、対象となっている1つの第2の画像データの画像全体の明るさを判定し、その明るさを示す指標値と閾値との比較等によって、極度に暗い場合や極度に明るい場合には「不適正な露出」と判定し、それ以外を「適正な露出」と判定してもよい。
第2の画像データの露出が適正であると判定される場合(S32のY)、画像データ取得部58の内部又は外部に設けられる図示しないメモリにその第2の画像データが記憶される(S33)。一方、第2の画像データの露出が適正ではないと判定される場合(S32のN)、その第2の画像データは記憶されず、画像データ取得部58は表示制御部37に指示信号を送り、表示制御部37は画像データ取得部58からの指示信号を受信すると表示部38に露出が適正でない旨を示す警告表示を表示させる(S34)。
そして画像データ取得部58によって第2の画像データの露出が補正される(S35)。第2の画像データの露出の補正手法は特に限定されない。画像データ取得部58は、例えばゲインコントロールによって第2の画像データの露出を±1EV、±2EV等のように補正してもよい。また画像データ取得部58は、シャッタースピードを変えて第2の画像データの再撮影を実施させることにより、第2の画像データの露出補正を実現してもよい。
そして画像データ取得部58によって、第2の画像データの露出の補正量が限度内か否かが判定される(S36)。第2の画像データの露出の補正量が限度内か否かの判定手法は特に限定されない。
第2の画像データの露出の補正量が限度内であると判定される場合(S36のY)、上述のステップS32〜S35が繰り返される。一方、第2の画像データの露出の補正量が限度内ではないと判定される場合(S36のN)、それまでに図示しないメモリに記憶された露出条件の異なる複数の第2の画像データの評価データが画像データ取得部58によって取得される(S37)。そして画像データ取得部58は、評価データに基づいて複数の第2の画像データの中から、周波数解析部40における第1の画像データとの比較に適して画像データを取得する(S38)。
なお、本モードにおけるこれらの「評価データの取得(S37)」及び「比較に適した画像データの取得(S38)」の手法は、上述の第1のモードと同様である。
そして第1実施形態と同様の処理が行われる(図8のS11〜S18参照)。
<第3のモード>
本モードでは、本モードでは、「画角」以外の撮影条件(特に「絞り値」及び「焦点距離」)を変えて複数の第2の画像データの撮影取得が行われており、それらの複数の第2の画像データを評価して最適な画像データが選定される。したがってユーザは、「複数の第2の画像データ」を撮影取得する際には基本的に「画角」は変えずに、他の撮影条件(特に「絞り値」及び「焦点距離」)を変えて複数の第2の画像データの撮影取得を行う。
例えば「撮影条件」として絞り値を変えて複数の第2の画像データが撮影取得される場合には、絞り値に応じて露出が変わってしまう。したがって「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタの取得処理」に使用する画像データとして不適切な露出の第2の画像データを避けて、適切な露出の第2の画像データを選ぶ必要がある。本モードでは、そのような「撮影条件を適切に取得することができないレンズユニット12(第2の光学系)に関連付ける鮮鋭化フィルタの取得処理」に使用する画像データとして適切な第2の画像データを取得する処理に関する。
図20は、第3実施形態の第3のモードに係る画像データ取得部58における処理の一例を示すフローチャートである。
本モードでは、画像処理部36がデジタルカメラ10(本体コントローラ28)以外の機器類(コンピュータ80(コンピュータコントローラ82)、サーバ85(サーバコントローラ87)等)に設置可能である。以下では、一例として、コンピュータコントローラ82(図1参照)に画像処理部36が設けられるケースについて説明する。
まずユーザに、露出条件を変えて複数の第2の画像データを取得してもらい、その複数の第2の画像データはデジタルカメラ10(カメラ本体14)に設けられる画像記憶部29に保存される。そして画像記憶部29に保存された「露出条件の異なる複数の第2の画像データ」が、コンピュータコントローラ82の画像データ取得部58によって取得される(図20のS41)。
そして画像データ取得部58は、複数の第2の画像データの評価データを取得し(S42)、評価データに基づいて複数の第2の画像データの中から、周波数解析部40における第1の画像データとの比較に適して画像データを取得する(S43)。本モードにおけるこれらの「評価データの取得(S42)」及び「比較に適した画像データの取得(S43)」の手法は、上述の第1のモードと同様である。
そして第1実施形態と同様の処理が行われる(図8のS11〜S18参照)。
<他の変形例>
上述の実施形態及び変形例のうち任意の形態同士が組み合わされてもよい。また上述の実施形態は例示に過ぎず、他の構成に本発明を適用してもよい。
また上述の実施形態では、鮮鋭化フィルタが絞り値及び焦点距離の情報に基づいて特定される例について説明したが、他の撮影条件(被写体距離、明るさ(露出、ヒストグラム、飽和度)等)に基づいて鮮鋭化フィルタが特定される場合にも同様の作用効果を得ることができる。
また上述の各機能構成は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって実現可能である。例えば、上述の各装置及び処理部(画像処理部36等)における画像処理方法(画像処理手順)をコンピュータに実行させるプログラム、そのプログラムを記憶したコンピュータ読み取り可能な記憶媒体(非一時的記憶媒体)、或いはそのプログラムをインストール可能なコンピュータに対しても本発明を適用することができる。
<EDoFシステムへの応用例>
上述の実施形態における鮮鋭化処理は光学伝達関数を考慮した復元処理を含む。この復元処理は、特定の撮影条件情報(例えば、絞り値、焦点距離、レンズ種類、ズーム倍率など)に応じて点拡がり(点像ボケ)を回復修正することで本来の被写体像を復元する画像処理であるが、本発明を適用可能な鮮鋭化処理は上述の実施形態における復元処理に限定されるものではない。例えば、拡大された被写界(焦点)深度(EDoF:Extended Depth of Field(Focus))を有する光学系(撮影レンズ等)によって撮影取得された画像データに対する復元処理に対しても、本発明に係る復元処理を適用することが可能である。EDoF光学系によって被写界深度(焦点深度)が拡大された状態において撮影取得されるボケ画像の画像データに対して復元処理を行うことにより、広範囲でピントが合った状態の高解像度の画像データを復元生成することができる。この場合、EDoF光学系の光学伝達関数(PSF、OTF、MTF、PTF、等)に基づく復元フィルタであって、拡大された被写界深度(焦点深度)の範囲内において良好な画像復元が可能となるように設定されたフィルタ係数を有する復元フィルタを用いた復元処理が行われる。
以下に、EDoF光学系を介して撮影取得された画像データの復元に関するシステム(EDoFシステム)の一例について説明する。なお、以下に示す例では、デモザイク処理後の画像データ(RGBデータ)から得られる輝度信号(Yデータ)に対して復元処理を行う例について説明するが、復元処理を行うタイミングは特に限定されず、例えば「デモザイク処理前の画像データ(モザイク画像データ)」や「デモザイク処理後であって輝度信号変換処理前の画像データ(デモザイク画像データ)」に対して復元処理が行われてもよい。
図21は、EDoF光学系を備える撮像モジュール101の一形態を示すブロック図である。本例の撮像モジュール(デジタルカメラ等)101は、EDoF光学系(レンズユニット)110と、撮像素子112と、AD変換部114と、復元処理ブロック(画像処理部36)120とを含む。
図22は、EDoF光学系110の一例を示す図である。本例のEDoF光学系110は、単焦点の固定された撮影レンズ110Aと、瞳位置に配置される光学フィルタ111とを有する。光学フィルタ111は、位相を変調させるもので、拡大された被写界深度(焦点深度)(EDoF)が得られるようにEDoF光学系110(撮影レンズ110A)をEDoF化する。このように、撮影レンズ110A及び光学フィルタ111は、位相を変調して被写界深度を拡大させるレンズ部を構成する。
なお、EDoF光学系110は必要に応じて他の構成要素を含み、例えば光学フィルタ111の近傍には絞り(図示省略)が配設されている。また、光学フィルタ111は、1枚でもよいし、複数枚を組み合わせたものでもよい。また、光学フィルタ111は、光学的位相変調手段の一例に過ぎず、EDoF光学系110(撮影レンズ110A)のEDoF化は他の手段によって実現されてもよい。例えば、光学フィルタ111を設ける代わりに、本例の光学フィルタ111と同等の機能を有するようにレンズ設計された撮影レンズ110AによってEDoF光学系110のEDoF化を実現してもよい。
すなわち、撮像素子112の受光面への結像の波面を変化させる各種の手段によって、EDoF光学系110のEDoF化を実現することが可能である。例えば、「厚みが変化する光学素子」、「屈折率が変化する光学素子(屈折率分布型波面変調レンズ等)」、「レンズ表面へのコーディング等により厚みや屈折率が変化する光学素子(波面変調ハイブリッドレンズ、レンズ面上に位相面として形成される光学素子、等)」、「光の位相分布を変調可能な液晶素子(液晶空間位相変調素子等)」を、EDoF光学系110のEDoF化手段として採用しうる。このように、光波面変調素子(光学フィルタ111(位相板))によって規則的に分散した画像形成が可能なケースだけではなく、光波面変調素子を用いた場合と同様の分散画像を、光波面変調素子を用いずに撮影レンズ110A自体によって形成可能なケースに対しても、本発明は応用可能である。
図22に示すEDoF光学系110は、メカ的に焦点調節を行う焦点調節機構を省略することができるため小型化が可能であり、カメラ付き携帯電話や携帯情報端末に好適に搭載可能である。
EDoF化されたEDoF光学系110を通過後の光学像は、図21に示す撮像素子112に結像され、ここで電気信号に変換される。
撮像素子112は、所定のパターン配列(ベイヤー配列、GストライプR/G完全市松、X−Trans配列、ハニカム配列、等)でマトリクス状に配置された複数画素によって構成され、各画素はマイクロレンズ、カラーフィルタ(本例ではRGBカラーフィルタ)及びフォトダイオードを含んで構成される。EDoF光学系110を介して撮像素子112の受光面に入射した光学像は、その受光面に配列された各フォトダイオードにより入射光量に応じた量の信号電荷に変換される。そして、各フォトダイオードに蓄積されたR、G、Bの信号電荷は、画素毎の電圧信号(画像信号)として順次出力される。
AD変換部114は、撮像素子112から画素毎に出力されるアナログのR、G、B画像信号をデジタルのRGB画像信号に変換する。AD変換部114によりデジタルの画像信号に変換されたデジタル画像信号は、復元処理ブロック120に加えられる。
復元処理ブロック120は、例えば、黒レベル調整部122と、ホワイトバランスゲイン部123と、ガンマ処理部124と、デモザイク処理部125と、RGB/YCrCb変換部126と、Y信号復元処理部127とを含む。
黒レベル調整部122は、AD変換部114から出力されたデジタル画像信号に黒レベル調整を施す。黒レベル調整には、公知の方法が採用されうる。例えば、ある有効光電変換素子に着目した場合、その有効光電変換素子を含む光電変換素子行に含まれる複数のOB光電変換素子の各々に対応する暗電流量取得用信号の平均を求め、その有効光電変換素子に対応する暗電流量取得用信号からこの平均を減算することにより、黒レベル調整が行われる。
ホワイトバランスゲイン部123は、黒レベルデータが調整されたデジタル画像信号に含まれるRGB各色信号のホワイトバランスゲインに応じたゲイン調整を行う。
ガンマ処理部124は、ホワイトバランス調整されたR、G、B画像信号が所望のガンマ特性となるように中間調等の階調補正を行うガンマ補正を行う。
デモザイク処理部125は、ガンマ補正後のR、G、B画像信号にデモザイク処理を施す。具体的には、デモザイク処理部125は、R、G、Bの画像信号に色補間処理を施すことにより、撮像素子112の各受光画素から出力される一組の画像信号(R信号、G信号、B信号)を生成する。すなわち、色デモザイク処理前は、各受光画素からの画素信号はR、G、Bの画像信号のいずれかであるが、色デモザイク処理後は、各受光画素に対応するR、G、B信号の3つの画素信号の組が出力されることとなる。
RGB/YCrCb変換部126は、デモザイク処理された画素毎のR、G、B信号を、輝度信号Yと色差信号Cr、Cbに変換し、画素毎の輝度信号Y及び色差信号Cr、Cbを出力する。
Y信号復元処理部127は、予め記憶された復元フィルタに基づいて、RGB/YCrCb変換部126からの輝度信号Yに復元処理を行う。復元フィルタは、例えば、7×7のカーネルサイズを有するデコンボリューションカーネル(M=7、N=7のタップ数に対応)と、そのデコンボリューションカーネルに対応する演算係数(復元ゲインデータ、フィルタ係数に対応)とからなり、光学フィルタ111の位相変調分のデコンボリューション処理(逆畳み込み演算処理)に使用される。なお、復元フィルタは、光学フィルタ111に対応するものが図示しないメモリ(例えばY信号復元処理部127が付随的に設けられるメモリ)に記憶される。また、デコンボリューションカーネルのカーネルサイズは、7×7のものに限らない。なお、Y信号復元処理部127は、上述した画像処理部36における鮮鋭化処理の機能を有する。
次に、復元処理ブロック120による復元処理について説明する。図23は、図21に示す復元処理ブロック120による復元処理フローの一例を示す図である。
黒レベル調整部122の一方の入力には、AD変換部114からデジタル画像信号が加えられており、他の入力には黒レベルデータが加えられており、黒レベル調整部122は、デジタル画像信号から黒レベルデータを減算し、黒レベルデータが減算されたデジタル画像信号をホワイトバランスゲイン部123に出力する(ステップS51)。これにより、デジタル画像信号には黒レベル成分が含まれなくなり、黒レベルを示すデジタル画像信号は0になる。
黒レベル調整後の画像データに対し、順次、ホワイトバランスゲイン部123、ガンマ処理部124による処理が施される(ステップS52及びステップS53)。
ガンマ補正されたR、G、B信号は、デモザイク処理部125においてデモザイク処理された後に、RGB/YCrCb変換部126において輝度信号Yと色差信号Cr、Cbに変換される(ステップS54)。
Y信号復元処理部127は、輝度信号Yに、EDoF光学系110の光学フィルタ11
1の位相変調分のデコンボリューション処理を適用する復元処理を行う(ステップS55)。すなわち、Y信号復元処理部127は、任意の処理対象の画素を中心とする所定単位の画素群に対応する輝度信号(ここでは7×7画素の輝度信号)と、予めメモリなどに記憶されている復元フィルタ(7×7のデコンボリューションカーネルとその演算係数)とのデコンボリューション処理(逆畳み込み演算処理)を行う。Y信号復元処理部127は、この所定単位の画素群毎のデコンボリューション処理を撮像面の全領域をカバーするよう繰り返すことにより画像全体の像ボケを取り除く復元処理を行う。復元フィルタは、デコンボリューション処理を施す画素群の中心の位置に応じて定められている。すなわち、近接する画素群には、共通の復元フィルタが適用される。さらに復元処理を簡略化するためには、全ての画素群に共通の復元フィルタが適用されることが好ましい。
図24(a)に示すように、EDoF光学系110を通過後の輝度信号の点像(光学像)は、大きな点像(ボケた画像)として撮像素子112に結像されるが、Y信号復元処理部127でのデコンボリューション処理により、図24(b)に示すように小さな点像(高解像度の画像)に復元される。
上述のようにデモザイク処理後の輝度信号に復元処理を適用することにより、復元処理のパラメータをRGB別々に持つ必要がなくなり、復元処理を高速化することができる。また、飛び飛びの位置にあるR、G、Bの画素に対応するR、G、Bの画像信号をそれぞれ1単位にまとめてデコンボリューション処理するのでなく、近接する画素の輝度信号同士を所定の単位にまとめ、その単位には共通の復元フィルタを適用してデコンボリューション処理するため、復元処理の精度が向上する。なお、色差信号Cr、Cbについては、人の目による視覚の特性上、復元処理により解像度を上げなくても画質的には許容される。また、JPEGのような圧縮形式により画像を記録する場合、色差信号は輝度信号よりも高い圧縮率によって圧縮されるので、復元処理により解像度を上げる必要性が乏しい。こうして、復元精度の向上と処理の簡易化及び高速化を両立できる。
以上説明したようなEDoFシステムの復元処理に対しても、上述の実施形態に係る点像復元処理を適用することが可能である。
また、本発明を適用可能な態様はデジタルカメラ及びコンピュータ(サーバ)には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器類に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
<スマートフォンへの応用例>
図25は、スマートフォン201の外観を示す図である。図25に示すスマートフォン201は、平板状の筐体202を有し、筐体202の一方の面に表示部としての表示パネル221と、入力部としての操作パネル222とが一体となった表示入力部220を備えている。また、係る筐体202は、スピーカ231と、マイクロホン232、操作部240と、カメラ部241とを備えている。なお、筐体202の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
図26は、図25に示すスマートフォン201の構成を示すブロック図である。図26に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部220と、通話部230と、操作部240と、カメラ部241と、記憶部250と、外部入出力部260と、GPS(Global Positioning System)受信部270と、モーションセンサ部280と、電源部290と、主制御部200(上述の本体コントローラ28が含まれる)とを備える。また、スマートフォン201の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
無線通信部210は、主制御部200の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。係る無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
表示入力部220は、主制御部200の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル221と、操作パネル222とを備える。
表示パネル221は、LCD(Liquid Crystal Display)、OELD(Organic Electro−Luminescence Display)などを表示デバイスとして用いたものである。操作パネル222は、表示パネル221の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部200に出力する。次いで、主制御部200は、受信した検出信号に基づいて、表示パネル221上の操作位置(座標)を検出する。
図25に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン201の表示パネル221と操作パネル222とは一体となって表示入力部220を構成しているが、操作パネル222が表示パネル221を完全に覆うような配置となっている。係る配置を採用した場合、操作パネル222は、表示パネル221外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル222は、表示パネル221に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル221に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
なお、表示領域の大きさと表示パネル221の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル222が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体202の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル222で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
通話部230は、スピーカ231やマイクロホン232を備え、マイクロホン232を通じて入力されたユーザの音声を主制御部200にて処理可能な音声データに変換して主制御部200に出力したり、無線通信部210或いは外部入出力部260により受信された音声データを復号してスピーカ231から出力するものである。また、図25に示すように、例えば、スピーカ231を表示入力部220が設けられた面と同じ面に搭載し、マイクロホン232を筐体202の側面に搭載することができる。
操作部240は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図25に示すように、操作部240は、スマートフォン201の筐体202の側面に搭載され、指などにより押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部250は、主制御部200の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応付けたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部250は、スマートフォン内蔵の内部記憶部251と着脱自在な外部メモリスロットを有する外部記憶部252により構成される。なお、記憶部250を構成するそれぞれの内部記憶部251と外部記憶部252は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
外部入出力部260は、スマートフォン201に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
スマートフォン201に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン201の内部の各構成要素に伝達することや、スマートフォン201の内部のデータを外部機器に伝送することが可能である。
GPS受信部270は、主制御部200の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン201の緯度、経度、高度からなる位置を検出する。GPS受信部270は、無線通信部210や外部入出力部260(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
モーションセンサ部280は、例えば、3軸の加速度センサなどを備え、主制御部200の指示にしたがって、スマートフォン201の物理的な動きを検出する。スマートフォン201の物理的な動きを検出することにより、スマートフォン201の動く方向や加速度が検出される。係る検出結果は、主制御部200に出力されるものである。
電源部290は、主制御部200の指示にしたがって、スマートフォン201の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部200は、マイクロプロセッサを備え、記憶部250が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン201の各部を統括して制御するものである。また、主制御部200は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部250が記憶するアプリケーションソフトウェアにしたがって主制御部200が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部260を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
また、主制御部200は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部220に表示する等の画像処理機能を備える。画像処理機能とは、主制御部200が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部220に表示する機能のことをいう。
更に、主制御部200は、表示パネル221に対する表示制御と、操作部240、操作パネル222を通じたユーザ操作を検出する操作検出制御を実行する。
表示制御の実行により、主制御部200は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル221の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部200は、操作部240を通じたユーザ操作を検出したり、操作パネル222を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
更に、操作検出制御の実行により主制御部200は、操作パネル222に対する操作位置が、表示パネル221に重なる重畳部分(表示領域)か、それ以外の表示パネル221に重ならない外縁部分(非表示領域)かを判定し、操作パネル222の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
また、主制御部200は、操作パネル222に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部241は、CMOS(Complementary Metal Oxide
Semiconductor)やCCD(Charge−Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部241は、主制御部200の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部250に記録したり、外部入出力部260や無線通信部210を通じて出力することができる。図25に示すにスマートフォン201において、カメラ部241は表示入力部220と同じ面に搭載されているが、カメラ部241の搭載位置はこれに限らず、表示入力部220の背面に搭載されてもよいし、或いは、複数のカメラ部241が搭載されてもよい。なお、複数のカメラ部241が搭載されている場合、撮影に供するカメラ部241を切り替えて単独にて撮影したり、或いは、複数のカメラ部241を同時に使用して撮影することもできる。
また、カメラ部241はスマートフォン201の各種機能に利用することができる。例えば、表示パネル221にカメラ部241で取得した画像を表示することや、操作パネル222の操作入力の一つとして、カメラ部241の画像を利用することができる。また、GPS受信部270が位置を検出する際に、カメラ部241からの画像を参照して位置を検出することもできる。更には、カメラ部241からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン201のカメラ部241の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部241からの画像をアプリケーションソフトウェア内で利用することもできる。
その他、静止画又は動画の画像データにGPS受信部270により取得した位置情報、マイクロホン232により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部280により取得した姿勢情報等などを付加して記憶部250に記録したり、外部入出力部260や無線通信部210を通じて出力することもできる。
上述の画像処理部36は、例えば主制御部200によって実現可能である。
本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10…デジタルカメラ、12…レンズユニット、14…カメラ本体、16…レンズ、17…絞り、18…光学系操作部、20…レンズユニットコントローラ、22…レンズユニット入出力部、26…撮像素子、28…本体コントローラ、29…画像記憶部、30…カメラ本体入出力部、32…入出力インターフェース、34…デバイス制御部、36…画像処理部、37…表示制御部、38…表示部、40…周波数解析部、42…光学特性取得部、44…フィルタ取得部、46…フィルタ処理部、48…フィルタ記憶部、49…フィルタ特性データ、50…鮮鋭化フィルタ、56…画像判定部、58…画像データ取得部、60…ガイド部、61…オートフォーカスエリア、62…撮影条件表示部、64…判定情報部、80…コンピュータ、81…コンピュータ入出力部、82…コンピュータコントローラ、83…ディスプレイ、84…ネットワーク、85…サーバ、86…サーバ入出力部、87…サーバコントローラ、101…撮像モジュール、110…EDoF光学系、110A…撮影レンズ、111…光学フィルタ、112…撮像素子、114…AD変換部、120…復元処理ブロック、122…黒レベル調整部、123…ホワイトバランスゲイン部、124…ガンマ処理部、125…デモザイク処理部、126…YCrCb変換部、127…Y信号復元処理部、200…主制御部、201…スマートフォン、202…筐体、210…無線通信部、220…表示入力部、221…表示パネル、222…操作パネル、230…通話部、231…スピーカ、232…マイクロホン、240…操作部、241…カメラ部、250…記憶部、251…内部記憶部、252…外部記憶部、260…外部入出力部、270…GPS受信部、280…モーションセンサ部、290…電源部

Claims (24)

  1. 第1の光学系を用いた被写体像の撮影により取得される第1の画像データ、及び第2の光学系を用いた前記被写体像と同一の被写体像の撮影により取得される第2の画像データの各々の周波数領域におけるデータを取得する周波数解析部と、
    前記第1の画像データの周波数領域におけるデータと前記第2の画像データの周波数領域におけるデータとを比較して、前記第2の光学系の光学特性に関する周波数特性データを取得する光学特性取得部と、
    前記第2の光学系の前記光学特性に関する前記周波数特性データに基づいて、前記第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、前記第2の光学系に関連付ける鮮鋭化フィルタを取得するフィルタ取得部と、を備える画像処理装置。
  2. 前記フィルタ取得部は、前記第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から取得される鮮鋭化フィルタであって、前記第2の光学系の前記光学特性に関する前記周波数特性データと周波数特性が最も近い鮮鋭化フィルタを、前記第2の光学系に関連付ける鮮鋭化フィルタとして取得する請求項1に記載の画像処理装置。
  3. 前記光学特性取得部は、前記第2の光学系の前記光学特性に関する前記周波数特性データを、前記第1の画像データの周波数領域におけるデータと前記第2の画像データの周波数領域におけるデータとの比に基づいて取得する請求項1又は2に記載の画像処理装置。
  4. 前記第1の画像データは、前記第1の光学系に関連付けられた前記複数の鮮鋭化フィルタの中から撮影条件に応じて取得される鮮鋭化フィルタを使用した鮮鋭化処理を受けておらず、
    前記光学特性取得部は、前記第1の画像データの周波数領域におけるデータをaによって表し、前記第2の画像データの周波数領域におけるデータをbによって表し、前記第1の光学系に関連付けられた前記複数の鮮鋭化フィルタの中から前記第1の画像データの撮影条件に応じて取得される鮮鋭化フィルタを適用する前の前記第1の画像データに対する当該鮮鋭化フィルタを適用した後の前記第1の画像データの周波数毎の比率を表すレスポンスをcによって表すと、a/b×cによって表される前記第2の光学系の前記光学特性に関する前記周波数特性データを取得する請求項3に記載の画像処理装置。
  5. 前記第1の光学系に関連付けられた前記複数の鮮鋭化フィルタの各々の周波数毎のレスポンスを前記鮮鋭化フィルタを適用する前の前記画像データに対する前記鮮鋭化フィルタを適用した後の前記画像データの空間周波数毎の比率により表した場合、
    前記フィルタ取得部は、横軸の基準を空間周波数とし、縦軸の基準を前記レスポンスとした座標系において、前記光学特性取得部によって取得される前記第2の光学系の前記光学特性に関する前記周波数特性データと前記鮮鋭化フィルタの前記レスポンスとの間によって囲まれる面積に基づいて、前記第1の光学系に関連付けられた前記複数の鮮鋭化フィルタの中から前記第2の光学系に関連付ける前記鮮鋭化フィルタを取得する請求項1〜4のいずれか一項に記載の画像処理装置。
  6. 前記フィルタ取得部は、前記第1の光学系に関連付けられた前記複数の鮮鋭化フィルタの中から選ばれる鮮鋭化フィルタであって、前記座標系において、前記光学特性取得部によって取得される前記第2の光学系の前記光学特性に関する前記周波数特性データと前記鮮鋭化フィルタの前記レスポンスとの間によって囲まれる面積が最も小さい鮮鋭化フィルタを、前記第2の光学系に関連付ける前記鮮鋭化フィルタとして取得する請求項5に記載の画像処理装置。
  7. 前記フィルタ取得部が取得した前記鮮鋭化フィルタを前記第2の画像データに適用するフィルタ処理部を更に備える請求項1〜のいずれか一項に記載の画像処理装置。
  8. 前記第2の光学系の前記光学特性は、前記第2の光学系の光学伝達関数である請求項1〜のいずれか一項に記載の画像処理装置。
  9. 前記第2の光学系を用いた前記被写体像と同一の被写体像の撮影により取得される複数の第2の画像データの評価データを取得し、当該評価データに基づいて、前記複数の第2の画像データの中から、前記周波数解析部において周波数領域におけるデータが取得される前記第2の画像データを取得する画像データ取得部を更に備える請求項1〜のいずれか一項に記載の画像処理装置。
  10. 前記複数の第2の画像データは、異なる条件下において取得される請求項に記載の画像処理装置。
  11. 前記複数の第2の画像データは、相互に露出条件が異なる請求項10に記載の画像処理装置。
  12. 前記画像データ取得部は、前記複数の第2の画像データの特定の周波数の範囲の成分量に基づいて、前記複数の第2の画像データの中から、前記周波数解析部において周波数領域におけるデータが取得される前記第2の画像データを取得する請求項11のいずれか一項に記載の画像処理装置。
  13. 前記画像データ取得部は、前記複数の第2の画像データの中から、前記特定の周波数の範囲の成分量が最も大きい第2の画像データを、前記周波数解析部において周波数領域におけるデータが取得される前記第2の画像データとして取得する請求項12に記載の画像処理装置。
  14. 前記特定の周波数の範囲は、前記複数の第2の画像データの各々のサンプリング周波数の1/8以上であって1/4以下の範囲に含まれる請求項12又は13に記載の画像処理装置。
  15. 前記鮮鋭化フィルタは、前記第1の光学系の光学伝達関数に基づくフィルタである請求項1〜14のいずれか一項に記載の画像処理装置。
  16. 前記鮮鋭化フィルタは、前記第1の光学系の光学伝達関数に基づかないフィルタである請求項1〜14のいずれか一項に記載の画像処理装置。
  17. 前記フィルタ取得部は、前記第1の光学系に関連付けられた前記複数の鮮鋭化フィルタの中から、複数の像高に関連付けられた複数の鮮鋭化フィルタを、前記第2の光学系に関連付ける前記鮮鋭化フィルタとして取得する請求項1〜16のいずれか一項に記載の画像処理装置。
  18. 光学系を通過した被写体像を受光して撮影画像データを生成する撮像素子と、
    請求項1〜17のいずれか一項に記載の画像処理装置と、を備える撮像装置。
  19. 前記第1の画像データの周波数領域におけるデータを記憶する記憶部を更に備え、
    前記周波数解析部は、前記記憶部から前記第1の画像データの周波数領域におけるデータを取得し、前記第2の光学系及び前記撮像素子を用いた被写体像の撮影により前記第2の画像データの周波数領域におけるデータを取得する請求項18に記載の撮像装置。
  20. 表示部と、
    前記表示部を制御する表示制御部と、
    前記第2の光学系と、を更に備え、
    前記表示制御部は、ユーザに第1の被写体像の撮影を促すためのガイド部を前記表示部に表示させて、
    前記第2の画像データは、前記ガイド部に促されて撮影が行われて生成された前記撮影画像データである請求項18又は19に記載の撮像装置。
  21. 前記ガイド部に促されて撮影が行われて生成された前記撮影画像データが第1の基準を満たすか否かを判定する画像判定部を更に備え、
    前記第2の画像データは、前記第1の基準を満たす前記撮影画像データである請求項20に記載の撮像装置。
  22. 前記表示制御部は、前記ガイド部に促されて撮影が行われて生成された前記撮影画像データが前記第1の基準を満たさない場合には、再度、ユーザに前記第1の被写体像の撮影を促すための前記ガイド部を前記表示部に表示させる請求項21に記載の撮像装置。
  23. 第1の光学系を用いた被写体像の撮影により取得される第1の画像データ及び第2の光学系を用いた前記被写体像と同一の被写体像の撮影により取得される第2の画像データの各々の周波数領域におけるデータを取得し、
    前記第1の画像データの周波数領域におけるデータと前記第2の画像データの周波数領域におけるデータとを比較して、前記第2の光学系の光学特性に関する周波数特性データを取得し、
    前記第2の光学系の前記光学特性に関する前記周波数特性データに基づいて、前記第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、前記第2の光学系に関連付ける鮮鋭化フィルタを取得する、画像処理方法。
  24. 第1の光学系を用いた被写体像の撮影により取得される第1の画像データ及び第2の光学系を用いた前記被写体像と同一の被写体像の撮影により取得される第2の画像データの各々の周波数領域におけるデータを取得する手順と、
    前記第1の画像データの周波数領域におけるデータと前記第2の画像データの周波数領域におけるデータとを比較して、前記第2の光学系の光学特性に関する周波数特性データを取得する手順と、
    前記第2の光学系の前記光学特性に関する前記周波数特性データに基づいて、前記第1の光学系に関連付けられた複数の鮮鋭化フィルタの中から、前記第2の光学系に関連付ける鮮鋭化フィルタを取得する手順と、をコンピュータに実行させるためのプログラム。
JP2016512667A 2014-04-11 2015-03-27 画像処理装置、撮像装置、画像処理方法及びプログラム Active JP6096382B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014082136 2014-04-11
JP2014082136 2014-04-11
PCT/JP2015/059603 WO2015156151A1 (ja) 2014-04-11 2015-03-27 画像処理装置、撮像装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6096382B2 true JP6096382B2 (ja) 2017-03-15
JPWO2015156151A1 JPWO2015156151A1 (ja) 2017-04-13

Family

ID=54287728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016512667A Active JP6096382B2 (ja) 2014-04-11 2015-03-27 画像処理装置、撮像装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US9619871B2 (ja)
JP (1) JP6096382B2 (ja)
CN (1) CN106416218B (ja)
WO (1) WO2015156151A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11640645B2 (en) 2019-10-25 2023-05-02 Samsung Electronics Co., Ltd. Apparatus and method of acquiring image by employing color separation lens array

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014185172A1 (ja) * 2013-05-13 2014-11-20 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6042043B2 (ja) * 2014-09-30 2016-12-14 富士フイルム株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
US20160344949A1 (en) * 2015-05-22 2016-11-24 Ariel Inventions, Llc System and method and device for processing digital images
CN112867430B (zh) * 2018-10-16 2024-06-25 富士胶片株式会社 医疗图像处理***及学习方法
JP7341239B2 (ja) * 2019-07-31 2023-09-08 マクセル株式会社 撮像装置、携帯端末および露光制御方法
CN113058060B (zh) * 2021-03-25 2022-03-11 江苏省人民医院(南京医科大学第一附属医院) 手术巾单自动识别灭菌平台

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60171574A (ja) * 1984-02-17 1985-09-05 Hitachi Ltd 画像特徴抽出装置
JPH11225275A (ja) * 1998-02-05 1999-08-17 Fuji Xerox Co Ltd 画像処理方法および装置並びに画像処理係数の算出方法および装置
JPH11272866A (ja) * 1998-03-23 1999-10-08 Olympus Optical Co Ltd 画像復元方法
JP2009010944A (ja) * 2007-05-30 2009-01-15 Fujifilm Corp 撮像装置、撮像方法、及びプログラム
JP2012156716A (ja) * 2011-01-25 2012-08-16 Canon Inc 画像処理装置、撮像装置、画像処理方法およびプログラム。
JPWO2011010438A1 (ja) * 2009-07-22 2012-12-27 パナソニック株式会社 視差検出装置、測距装置及び視差検出方法
JP2014146107A (ja) * 2013-01-28 2014-08-14 Canon Inc 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6207360B1 (en) * 1997-05-12 2001-03-27 Fuji Photo Film Co., Ltd. Method for image formation and apparatus for development processing
US8199246B2 (en) 2007-05-30 2012-06-12 Fujifilm Corporation Image capturing apparatus, image capturing method, and computer readable media
JP4813448B2 (ja) 2007-11-16 2011-11-09 富士フイルム株式会社 撮像システム、並びにこの撮像システムを備えた撮像装置、携帯端末機器、車載機器、および医療機器
JP4813446B2 (ja) 2007-11-16 2011-11-09 富士フイルム株式会社 撮像システム、この撮像システムを備えた撮像装置、携帯端末機器、車載機器、および医療機器、並びに撮像システムの製造方法
JP5583780B2 (ja) * 2010-09-29 2014-09-03 シャープ株式会社 信号処理装置および集積回路
WO2012070250A1 (ja) * 2010-11-25 2012-05-31 パナソニック株式会社 通信機器
JP2012156715A (ja) 2011-01-25 2012-08-16 Canon Inc 画像処理装置、撮像装置、画像処理方法およびプログラム。
JP5249377B2 (ja) * 2011-03-22 2013-07-31 キヤノン株式会社 撮像装置、及びその制御方法、プログラム
US8730329B2 (en) * 2011-07-11 2014-05-20 Qualcomm, Incorporated Automatic adaptive image sharpening
JP5264968B2 (ja) * 2011-08-08 2013-08-14 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置、および、画像処理プログラム
WO2015064264A1 (ja) * 2013-10-31 2015-05-07 富士フイルム株式会社 画像処理装置、撮像装置、パラメータ生成方法、画像処理方法及びプログラム
JP6027287B2 (ja) * 2014-03-28 2016-11-16 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60171574A (ja) * 1984-02-17 1985-09-05 Hitachi Ltd 画像特徴抽出装置
JPH11225275A (ja) * 1998-02-05 1999-08-17 Fuji Xerox Co Ltd 画像処理方法および装置並びに画像処理係数の算出方法および装置
JPH11272866A (ja) * 1998-03-23 1999-10-08 Olympus Optical Co Ltd 画像復元方法
JP2009010944A (ja) * 2007-05-30 2009-01-15 Fujifilm Corp 撮像装置、撮像方法、及びプログラム
JPWO2011010438A1 (ja) * 2009-07-22 2012-12-27 パナソニック株式会社 視差検出装置、測距装置及び視差検出方法
JP2012156716A (ja) * 2011-01-25 2012-08-16 Canon Inc 画像処理装置、撮像装置、画像処理方法およびプログラム。
JP2014146107A (ja) * 2013-01-28 2014-08-14 Canon Inc 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11640645B2 (en) 2019-10-25 2023-05-02 Samsung Electronics Co., Ltd. Apparatus and method of acquiring image by employing color separation lens array
US11935148B2 (en) 2019-10-25 2024-03-19 Samsung Electronics Co., Ltd. Apparatus and method of acquiring image by employing color separation lens array

Also Published As

Publication number Publication date
US20170069064A1 (en) 2017-03-09
CN106416218A (zh) 2017-02-15
US9619871B2 (en) 2017-04-11
JPWO2015156151A1 (ja) 2017-04-13
WO2015156151A1 (ja) 2015-10-15
CN106416218B (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
JP6096382B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5779724B2 (ja) 画像処理装置、撮像装置、コンピュータ及びプログラム
JP5933105B2 (ja) 画像処理装置、撮像装置、フィルタ生成装置、画像復元方法及びプログラム
JP5833794B2 (ja) 撮像装置
JP5752866B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム並びに記録媒体
JP5851650B2 (ja) 復元フィルタ生成装置及び方法、画像処理装置、撮像装置、復元フィルタ生成プログラム並びに記録媒体
US9906732B2 (en) Image processing device, image capture device, image processing method, and program
JP5903529B2 (ja) 撮像装置、撮像方法及び画像処理装置
JP5870231B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP5933129B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US20170004606A1 (en) Image processing device, imaging device, image processing method, and image processing program
US9633418B2 (en) Image processing device, imaging apparatus, image processing method, and program
JP6342083B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5768193B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム
JP5897769B2 (ja) 撮像装置、キャリブレーションシステム、及びプログラム
WO2014050191A1 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170215

R150 Certificate of patent or registration of utility model

Ref document number: 6096382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250