JP2005229198A - 画像処理装置および方法、並びに、プログラム - Google Patents

画像処理装置および方法、並びに、プログラム Download PDF

Info

Publication number
JP2005229198A
JP2005229198A JP2004033723A JP2004033723A JP2005229198A JP 2005229198 A JP2005229198 A JP 2005229198A JP 2004033723 A JP2004033723 A JP 2004033723A JP 2004033723 A JP2004033723 A JP 2004033723A JP 2005229198 A JP2005229198 A JP 2005229198A
Authority
JP
Japan
Prior art keywords
image data
subject
image
unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004033723A
Other languages
English (en)
Other versions
JP4321287B2 (ja
Inventor
Yohei Akega
陽平 明賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004033723A priority Critical patent/JP4321287B2/ja
Priority to US11/049,683 priority patent/US7418150B2/en
Publication of JP2005229198A publication Critical patent/JP2005229198A/ja
Application granted granted Critical
Publication of JP4321287B2 publication Critical patent/JP4321287B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】被写体深度が深い撮影装置を使用しても、ボケ味のある画像を容易に得ることができるようにする。
【解決手段】 ストロボ発光有無のそれぞれの条件で撮影された2つの画像データがボケ味創出処理部28に入力され、これらのうちのいずれか一方が基準画像データとして選択される。領域抽出部41は、これらの2つの入力画像データに基づいて、基準画像データから、被写体領域画像データと背景領域画像データとに分離して抽出する。フィルタ処理部44は、被写体領域画像データと背景領域画像データとのうちの少なくとも一方に対してぼかし効果のあるフィルタ処理を施し、その結果得られる合成用ボケ画像データを出力する。画像合成部45は、基準画像データと合成用ボケ画像データとを合成する。本発明は、デジタルスチルカメラに適用可能である。
【選択図】図3

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、被写体深度が深い撮影装置を使用しても、ボケ味のある画像を容易に得ることができる、画像処理装置および方法、並びにプログラムに関する。
従来、被写体を撮影する撮影装置は、銀塩カメラが主流であったが、最近、デジタルスチルカメラも急速に普及してきている(特許文献1乃至3参照)。デジタルスチルカメラが、銀塩カメラと同等の画質、小型化による携帯性の高さ、および、撮影操作の手軽さといった様々な特長を有しているからである。
このように、デジタルスチルカメラを使用しても銀塩カメラと同画質の画像を得ることができるので、(従来、銀塩カメラで撮影することによって得られていた)各種効果が加えられた画像を、デジタルスチルカメラからも簡単に得たいという要求が、多くのユーザから挙げられている。例えば、背景をぼかすことで(そのような効果を加えることで)、被写体を引き立てる画像(以下、このような効果が加えられた画像を、“ボケ味のある画像”と称する)を、デジタルスチルカメラからも簡単に得たいという要求が多い。
従来、このようなボケ味のある画像を得るためには、次の(1)と(2)に示す条件が必要とされていた。
(1)被写界深度が浅いカメラ(大口径レンズや大型のレンズ構造を備えている)であること。
(2)撮影者が特別な撮影技術を有していること。
なお、被写界深度とは、写真撮影された画像のうちの次のような領域(範囲)を指す。即ち、写真撮影された画像には、ピント(焦点)が合い鮮明に写っている領域と、その前後にピントがぼけて写っている領域が存在するが、このうちの鮮明に写る領域が被写界深度である。この被写界深度は、カメラのレンズの焦点距離と絞り、および、カメラから被写体までの距離によって決定される。また、一般的に、鮮明に写る領域が狭いことは、被写界深度が浅いと、逆に鮮明に写る領域が広いことは、被写界深度が深いと、それぞれ称されている。
換言すると、従来、(2)の条件を満たす撮影者(例えば、プロのカメラマン等)が、(1)の条件を満たす銀塩カメラを利用することで、ボケ味のある画像が得られていた。
特開2003−209727号公報 特開2002−232779号公報 特開平10−210340号公報
しかしながら、上述した(1)の条件は、「小型化による携帯性の高さ」というデジタルスチルカメラが有する特長と相反するものであり、また、上述した(2)の条件に関しては、「撮影操作の手軽さ」というデジタルスチルカメラが有する特長と相反するものである。従って、「小型化による携帯性の高さ」という特長を有するが故、被写界深度が深くなったデジタルスチルカメラを利用して、ボケ味のある画像を簡単なユーザ操作で得ることは困難である、即ち、上述した要求に応えることは現状困難であるという課題があった。
なお、デジタルスチルカメラを利用してボケ味のある画像を得ること自体については、例えば、特許文献1に開示されている。即ち、特許文献1には、至近から無限遠の焦点調節範囲内で画像中の各微小領域の合焦位置を検出し、等しい合焦距位置の点を同一領域とすることで被写体の抽出を行う。次に、領域毎に上述した合焦位置に基づいて適当な焦点位置を設定して複数回撮影する。最後に、これらの複数回の撮影の結果得られる複数枚の画像を合成することで好みのボケ量を調整した画像を生成する、という手法が開示されている。
しかしながら、このような特許文献1の手法では、領域抽出する際に焦点距離によって高周波成分に違いがでることを利用して領域の分割を行っているため、結局、上述した(1)の条件が必須となる。即ち、特許文献1の手法を、被写界深度が浅いデジタルスチルカメラに適用することは可能である。しかしながら、「小型化による携帯性の高さ」という特長を有する、被写界深度が深いデジタルスチルカメラ、即ち、(2)の条件を満たさない多数の一般ユーザが利用するデジタルスチルカメラに対して、特許文献1の手法を適用することは困難である。
また、特許文献2と特許文献3には、デジタルスチルカメラが被写体を撮影し、その結果得られる画像から被写体と背景とを区別する手法が単に開示されているだけであり、ボケ味のある画像については、開示は勿論示唆もされていない。従って、当然ながら、特許文献2や特許文献3の発明では(特許文献1も含めて、これらをたとえ組み合わせたとしても)、上述した課題を解決することは困難である。
本発明は、このような状況に鑑みてなされたものであり、被写体深度が深い撮影装置を使用しても、ボケ味のある画像を容易に得ることができるようにするものである。
本発明の画像処理装置は、撮影装置により撮影され、データ化された被写体の画像データを処理する画像処理装置であって、照明装置の光量を設定し、撮影装置が被写体を撮影するときに、設定された光量で照明装置が被写体に対して発光することを制御する照明制御手段と、照明制御手段の制御により照明装置の光量が変化する毎に撮影装置によりそれぞれ撮影され、データ化された被写体の2以上の画像データに基づいて、2以上の画像データのうちの基準となる基準画像データから、被写体を示す被写体領域と被写体以外の背景を示す背景領域とのそれぞれを個別に画像データとして抽出する領域抽出手段と、領域抽出手段により抽出された被写体領域の画像データと背景領域の画像データとのうちの少なくとも一方に対して、ぼかし効果のあるフィルタ処理を施すフィルタ処理手段と、被写体領域の画像データと背景領域の画像データとのうちのフィルタ処理手段によりフィルタ処理が施された画像データと、基準画像データとの合成画像データを生成する合成手段とを備えることを特徴とする。
照明制御手段は、照明装置の光量として、第1の光量と第2の光量とのうちのいずれか一方を設定し、画像処理装置は、照明装置が第1の光量で発光しているときに撮影装置により撮影され、データ化された被写体の第1の画像データと、照明装置が第2の光量で発光しているときに撮影装置により撮影され、データ化された被写体の第2の画像データとの中から、基準画像データを選択する選択手段をさらに設け、領域抽出手段は、第1の画像データに対応する画像を構成する各画素の輝度と、第2の画像データに対応する画像を構成する各画素の輝度との相互の関係に基づいて、選択手段により選択された基準画像データから、被写体領域の画像データと背景領域の画像データとのそれぞれを抽出するようにすることができる。
照明制御手段は、第1の光量として、照明装置の照射範囲内に被写体が少なくとも位置する条件を満たす光量を設定し、第2の光量として、0光量を設定するようにすることができる。
領域抽出手段は、第1の画像データを構成する各画素値のそれぞれと、第2の画像データを構成する各画素値のうちの、画素位置が対応する画素値との差分値を演算する差分値演算手段と、差分値演算手段により演算された差分値のそれぞれに基づいて、選択手段により選択された基準画像データから、被写体領域の画像データと背景領域の画像データとを分離して抽出する分離手段とを有するようにすることができる。
領域抽出手段は、第1の画像データに対応する画像を構成する各画素のうちの少なくとも一部に対して、第2の画像データに対応する画像を構成する各画素の中から対応点となる画素を求め、求められた対応点との位置関係のそれぞれに基づいて、第1の画像データに対応する画像の画素位置を補正する補正手段をさらに有し、差分値演算手段は、補正手段により補正された第1の画像データを構成する各画素値のそれぞれと、第2の画像データを構成する各画素値のうちの、画素位置が対応する画素値との差分値を演算するようにすることができる。
差分値演算手段は、演算された差分値のそれぞれを画素値として有する差分画像データを出力し、領域抽出手段は、差分値演算手段から出力された差分画像データの画素値のそれぞれを2値化し、その結果得られる第1の2値化画像データを出力する2値化手段と、差分値演算手段から出力された差分画像データに基づいて、2値化手段から出力された第1の2値化画像データに対応する画像の中から被写体領域を検出し、検出された被写体領域を構成する画素の画素値を第1の値とし、それ以外の背景領域を構成する画素の画素値を第2の値として有する第2の2値化画像データを生成して出力する被写体検出手段とをさらに有し、分離手段は、被写体検出手段から出力された第2の2値化画像データに基づいて、基準画像データから、被写体領域の画像データと背景領域の画像データとを分離して抽出するようにすることができる。
被写体検出手段から出力された第2の2値化画像データに対してアンチエイリアジング処理を施すアンチエイリアジング処理手段をさらに設け、合成手段は、アンチエイリアジング処理手段によりアンチエイリアジング処理が施された第2の2値化画像データに基づいて、これから生成する合成画像データのうちの、対応する画像の被写体領域と背景領域との境界およびその近傍に位置する各画素の画素値のそれぞれを決定するようにすることができる。
アンチエイリアジング処理手段は、入力変数として所定の方向の画素位置が入力され、入力された画素位置の画素における、被写体領域と背景領域との混合比を示す値を出力する関数であって、先の方向に沿って出力が曲線変化する関数を利用して、アンチエイリアジング処理を実行するようにすることができる。
フィルタ処理手段のフィルタ処理として予め登録されている複数種類の処理のうちの、これから使用する種類を指定し、指定された種類のフィルタ処理に必要なパラメータの値を指定する指定手段をさらに設け、フィルタ処理手段は、指定手段により指定された種類のフィルタ処理を、指定手段により指定されたパラメータの値を用いて実行するようにすることができる。
撮影手段に被写体を撮影させるトリガを発生するトリガ発生手段と、トリガ発生手段によりトリガが発生されたとき、照明制御手段の処理を実行させ、照明制御手段の制御により照明装置の光量が変化する毎に撮影装置によりそれぞれ撮影された被写体の2以上の画像を取得してデータ化し、その後、データ化された2以上の画像データに対する、領域抽出手段、フィルタ処理手段、および、合成手段の処理を、一連の処理としてその順番で連続して実行させるように制御する処理制御手段とをさらに設けるようにすることができる。
本発明の画像処理方法は、撮影装置により撮影され、データ化された被写体の画像データを処理する画像処理装置の画像処理方法であって、照明装置の光量を設定し、撮影装置が被写体を撮影するときに、設定された光量で照明装置が被写体に対して発光することを制御する照明制御ステップと、照明制御ステップの制御処理により照明装置の光量が変化する毎に撮影装置によりそれぞれ撮影され、データ化された被写体の2以上の画像データに基づいて、2以上の画像データのうちの基準となる基準画像データから、被写体を示す被写体領域と被写体以外の背景を示す背景領域とのそれぞれを個別に画像データとして抽出する領域抽出ステップと、領域抽出ステップの処理により抽出された被写体領域の画像データと背景領域の画像データとのうちの少なくとも一方に対して、ぼかし効果のあるフィルタ処理を施すフィルタ処理ステップと、被写体領域の画像データと背景領域の画像データとのうちのフィルタ処理手段によりフィルタ処理が施された画像データと、基準画像データとの合成画像データを生成する合成ステップとを含むことを特徴とする。
本発明のプログラムは、撮影装置により撮影され、データ化された被写体の画像データに施す画像処理を制御するコンピュータに実行させるプログラムであって、照明装置の光量を設定し、撮影装置が被写体を撮影するときに、設定された光量で照明装置が被写体に対して発光することを制御する照明制御ステップと、照明制御ステップの制御処理により照明装置の光量が変化する毎に撮影装置によりそれぞれ撮影され、データ化された被写体の2以上の画像データに基づいて、2以上の画像データのうちの基準となる基準画像データから、被写体を示す被写体領域と被写体以外の背景を示す背景領域とのそれぞれを個別に画像データとして抽出する領域抽出ステップと、領域抽出ステップの処理により抽出された被写体領域の画像データと背景領域の画像データとのうちの少なくとも一方に対して、ぼかし効果のあるフィルタ処理を施すフィルタ処理ステップと、被写体領域の画像データと背景領域の画像データとのうちのフィルタ処理手段によりフィルタ処理が施された画像データと、基準画像データとの合成画像データを生成する合成ステップとを含むことを特徴とする。
本発明の画像処理装置および方法、並びにプログラムにおいては、照明装置の光量が制御され、その光量が変化する毎に撮影装置によりそれぞれ撮影され、データ化された被写体の2以上の画像データが取得される。そして、2以上のそれらの画像データのうちの基準となる基準画像データから、被写体を示す被写体領域と被写体以外の背景を示す背景領域とのそれぞれが個別に画像データの形態で抽出され、抽出された被写体領域の画像データと背景領域の画像データとのうちの少なくとも一方に対して、ぼかし効果のあるフィルタ処理が施され、最終的に、被写体領域の画像データと背景領域の画像データとのうちのフィルタ処理が施された画像と、基準画像データとが合成され、その結果得られる合成画像が出力される。
以上のごとく、本発明によれば、撮影装置により撮影され、データ化された被写体の画像に対して、画像処理を施すことができる。特に、被写体深度が深い撮影装置により撮影され、データ化された被写体の画像データに対しても、ボケ味のある画像を容易に得ることが可能な画像処理を施すことができる。
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
本発明によれば、画像処理装置が提供される。この画像処理装置(例えば、図1と図2のデジタルスチルカメラ1)は、撮影装置(例えば、図2の撮影部25)により撮影され、データ化された被写体(例えば、図1の被写体2)の画像データを処理する画像処理装置であって、照明装置(例えば、図1と図2のストロボ発光部11)の光量を設定し、前記撮影装置が前記被写体を撮影するときに、設定された光量で前記照明装置が前記被写体に対して発光することを制御する照明制御手段(例えば、図2のストロボ制御部26)と、前記照明制御手段の制御により前記照明装置の光量が変化する毎に前記撮影装置によりそれぞれ撮影され、データ化された前記被写体の2以上の画像データ(例えば、図4の画像71と図5の画像72とのそれぞれに対応する画像データ)に基づいて、2以上の前記画像データのうちの基準となる基準画像データ(例えば、図5の画像72に対応する画像データ)から、前記被写体を示す被写体領域と前記被写体以外の背景を示す背景領域とのそれぞれを個別に画像データとして抽出する(例えば、図7の被写体領域画像111と図8の背景領域画像112とを画像データとして抽出する)領域抽出手段(例えば、図2と図3のボケ味創出処理部28のうちの、図3の領域抽出部41)と、前記領域抽出手段により抽出された前記被写体領域の画像データと前記背景領域の画像データとのうちの少なくとも一方に対して、ぼかし効果のあるフィルタ処理を施すフィルタ処理手段(例えば、例えば、図2と図3のボケ味創出処理部28のうちの、図3のフィルタ処理部(ぼかし処理部)44)と、前記被写体領域の画像データと前記背景領域の画像データとのうちの前記フィルタ処理手段により前記フィルタ処理が施された画像データ(例えば、図8と図14の画像113に対応する画像データであって、図3のフィルタ処理部(ぼかし処理部)44から出力される合成用ボケ画像データ)と、前記基準画像データとの合成画像データ(例えば、図14のように合成し、その結果得られる画像データ、即ち、合成画像115に対応する画像データ)を生成する合成手段(例えば、図2と図3のボケ味創出処理部28のうちの、図3の画像合成部45)とを備えることを特徴とする。
この画像処理装置において、前記照明制御手段は、前記照明装置の光量として、第1の光量と第2の光量とのうちのいずれか一方を設定し、前記画像処理装置は、前記照明装置が前記第1の光量で発光しているときに前記撮影装置により撮影され、データ化された前記被写体の第1の画像データ(例えば、図4の画像71に対応する画像データ)と、前記照明装置が前記第2の光量で発光しているときに前記撮影装置により撮影され、データ化された前記被写体の第2の画像データ(例えば、図5の画像72に対応する画像データ)との中から、前記基準画像データを選択する選択手段(例えば、図3の選択部42)をさらに設け、前記領域抽出手段は、前記第1の画像データに対応する画像を構成する各画素の輝度と、前記第2の画像データに対応する画像を構成する各画素の輝度との相互の関係に基づいて、前記選択手段により選択された前記基準画像データから、前記被写体領域の画像データと前記背景領域の画像データとを分離するようにすることができる。
この画像処理装置において、前記照明制御手段は、前記第1の光量として、前記照明装置の照射範囲内に前記被写体が少なくとも位置する条件を満たす光量を設定し(例えば、図16のステップS13に示されるように、本明細書等では、このような第2の光量の設定を、ストロボ発光有と称している)、前記第2の光量として、0光量を設定する(例えば、図16のステップS12に示されるように、本明細書等では、0光量の設定を、ストロボ発光無と称している。即ち、後述するように、本明細書等で言う「0光量の設定」とは、その文言通り、ストロボ発光部11の発光量を略0にさせる(微小光量で発光させる)設定だけではなく、ストロボ発光部11の発光動作自体を禁止する設定も含む広義な概念である)ようにすることができる。
前記領域抽出手段は、前記第1の画像データ(例えば、図3において、ボケ味創出処理部28に入力される入力画像データ(ストロボ発光無)であって、輝度画像変換部51により変換された輝度画像データ(ストロボ発光無))を構成する前記各画素値のそれぞれと、前記第2の画像データ(例えば、図3において、ボケ味創出処理部28に入力される入力画像データ(ストロボ発光有)であって、輝度画像変換部51により変換された輝度画像データ(ストロボ発光有))を構成する前記各画素値のうちの、画素位置が対応する画素値との差分値を演算する差分値演算手段(例えば、図3の加算部(差分演算部)53)と、前記差分値演算手段により演算された前記差分値のそれぞれに基づいて、前記選択手段により選択された前記基準画像データから、前記被写体領域の画像データと前記背景領域の画像データとを分離して抽出する分離手段(例えば、図3の分離部56)とを有するようにすることができる。
この画像処理装置において、前記領域抽出手段は、前記第1の画像データに対応する画像を構成する各画素のうちの少なくとも一部に対して、前記第2の画像データに対応する画像を構成する各画素の中から対応点となる画素を求め、求められた前記対応点との位置関係のそれぞれに基づいて、前記第1の画像データに対応する前記画像の画素位置を補正する補正手段(例えば、図3の位置ずれ補正部52)をさらに有し、前記差分値演算手段は、前記補正手段により補正された前記第1の画像データ(例えば、図3においては、位置ずれ補正部52から出力される補正輝度画像データ(ストロボ発光有))を構成する各画素値のそれぞれと、前記第2の輝度画像データを構成する各画素値のうちの、画素位置が対応する画素値との差分値を演算するようにすることができる。
この画像処理装置において、前記差分値演算手段は、演算された前記差分値のそれぞれを画素値として有する差分画像データ(例えば、図3においては、加算部53から出力される差分画像データ)を出力し、前記領域抽出手段は、前記差分値演算手段から出力された前記差分画像データの前記画素値のそれぞれを2値化し、その結果得られる第1の2値化画像データ(例えば、図3においては、2値化部54から出力される2値化画像データ)を出力する2値化手段(例えば、図3の2値化部54)と、前記差分値演算手段から出力された前記差分画像データに基づいて、前記2値化手段から出力された前記第1の2値化画像データに対応する画像の中から前記被写体領域を検出し、検出された前記被写体領域を構成する画素の画素値を第1の値(例えば、白を示す値)とし、それ以外の前記背景領域を構成する画素の画素値を第2の値(例えば、黒を示す値)として有する第2の2値化画像データ(例えば、図3においては、被写体検出部55から出力される2値化被写体抽出画像データであって、図6の、被写体領域91と背景領域92とに区分された画像81に対応する画像データ)を生成して出力する被写体検出手段(例えば、図3の被写体検出部55)とをさらに有し、前記分離手段は、前記被写体検出手段から出力された前記第2の2値化画像データに基づいて、前記基準画像データから、前記被写体領域の画像データと前記背景領域の画像データとを分離して抽出するようにすることができる。
この画像処理装置において、前記被写体検出手段から出力された前記第2の2値化画像データに対してアンチエイリアジング処理を施す(例えば、図6の2値化被写体抽出画像81の境界部分の一部分の領域93Aが、図10に図示されており、図10の領域93Aに対してアンチエイリアジング処理を施した結果として、図11の領域93Bが示されている)アンチエイリアジング処理手段(例えば、図3のアンチエイリアジング処理部46)をさらに設け、前記合成手段は、前記アンチエイリアジング処理手段により前記アンチエイリアジング処理が施された前記第2の2値化画像データ(例えば、図3の例では、アンチエイリアジング処理部46から出力されるエッジ処理参照画像データ)に基づいて、これから生成する前記合成画像データのうちの、対応する画像の前記被写体領域と前記背景領域との境界およびその近傍に位置する各画素の画素値のそれぞれを決定する(例えば、図11に示されるように、画素位置xの画素の画素値における、被写体領域(1)と背景領域(0)の合成比を、A:1−Aと決定する。ただし、Aは、1以下の正数値)ようにすることができる。
この画像処理装置において、前記アンチエイリアジング処理手段は、入力変数として所定の方向(例えば、図11に示される空間方向X)の画素位置(例えば、図11の画素位置x)が入力され、入力された前記画素位置の画素における、前記被写体領域と前記背景領域との混合比(例えば、図11の画素位置xにおいては、A:1−A)を示す値を出力する関数であって、前記方向に沿って出力が曲線変化する前記関数(例えば、図11の関数f(X))を利用して、前記アンチエイリアジング処理を実行するようにすることができる。
この画像処理装置において、前記フィルタ処理手段の前記フィルタ処理として予め登録されている複数種類の処理のうちの、これから使用する種類を指定し、指定された種類の前記フィルタ処理に必要なパラメータの値を指定する指定手段(例えば、図2のフィルタ種類キー32)をさらに設け、前記フィルタ処理手段は、前記指定手段により指定された種類の前記フィルタ処理を、前記指定手段により指定された前記パラメータの値を用いて実行する(例えば、図3に示されるように、図2のフィルタ種類キー32の操作に対応する信号としてフィルタ種類信号が、主制御部(CPU)21からフィルタ処理部(ぼかし処理部)44に入力され、フィルタ処理部(ぼかし処理部)44は、そのフィルタ種類信号に対応するフィルタ処理を実行する)ようにすることができる。
この画像処理装置において、前記撮影手段に前記被写体を撮影させるトリガを発生するトリガ発生手段(例えば、図1と図2のシャッタボタン12)と、前記トリガ発生手段により前記トリガが発生されたとき、前記照明制御手段の処理を実行させ、前記照明制御手段の制御により前記照明装置の光量が変化する毎に前記撮影装置によりそれぞれ撮影された前記被写体の2以上の画像を取得してデータ化し、その後、データ化された2以上の前記画像データに対する、前記領域抽出手段、前記フィルタ処理手段、および、前記合成手段の処理を、一連の処理としてその順番で連続して実行させるように制御する処理制御手段(例えば、図15の撮影記録処理の実行を制御する図2の主制御部(CPU)21)とをさらに設けるようにすることができる。
本発明によれば、画像処理方法が提供される。この画像処理方法(例えば、図15の撮影記録処理に対応する画像処理方法)は、撮影装置(例えば、図2の撮影部25)により撮影され、データ化された被写体の画像データを処理する画像処理装置(例えば、図1と図2のデジタルスチルカメラ1)の画像処理方法であって、照明装置(例えば、図1と図2のストロボ発光部11)の光量を設定し、前記撮影装置が前記被写体を撮影するときに、設定された光量で前記照明装置が前記被写体に対して発光することを制御する照明制御ステップ(例えば、図15のステップS2の撮影処理であって、詳細は図16の処理)と、前記照明制御ステップの制御処理により前記照明装置の光量が変化する毎に前記撮影装置によりそれぞれ撮影され、データ化された前記被写体の2以上の画像データに基づいて、2以上の前記画像データのうちの基準となる基準画像データから、前記被写体を示す被写体領域と前記被写体以外の背景を示す背景領域とのそれぞれを個別に画像データとして抽出する領域抽出ステップ(例えば、図15のステップS3の被写体抽出処理であって、詳細は図17と図18の処理)と、前記領域抽出ステップの処理により抽出された前記被写体領域の画像データと前記背景領域の画像データとのうちの少なくとも一方に対して、ぼかし効果のあるフィルタ処理を施すフィルタ処理ステップ(例えば、図15のステップS4の画像合成処理の一部であって、特に図19のステップS43乃至S45の処理)と、前記被写体領域の画像データと前記背景領域の画像データとのうちの前記フィルタ処理手段により前記フィルタ処理が施された画像データと、前記基準画像データとの合成画像データを生成する合成ステップ(例えば、図15のステップS4の画像合成処理の一部であって、特に図19のステップS46の処理)とを含むことを特徴とする。
本発明によれば、プログラムが提供される。このプログラムは、撮影装置(例えば、図2の撮影部25)により撮影され、データ化された被写体の画像データに施す画像処理を制御するコンピュータ(例えば、図2のCPUを含む主制御部21)に実行させるプログラムであって、上述した画像処理方法に対応するプログラムである。
ところで、このような本発明が適用される画像処理装置は、様々な実施の形態を取ることが可能であるが、以下、そのような様々な実施の形態のうちのデジタルスチルカメラについて主に説明していく。
図1は、このような本発明が適用されるデジタルスチルカメラの外観の構成例を示している。
図1に示されるように、デジタルスチルカメラ1には、撮影時に被写体2を照射する(いわゆるフラッシュとして発光する)ストロボ発光部11、および、被写体2の撮影開始を指令する(そのトリガ信号をデジタルスチルカメラ1内部に入力させる)シャッタボタン12とが設けられている。
このようなデジタルスチルカメラ1は、本実施の形態においては、次の(a)乃至(d)に示される処理を実行することができる。
(a)図示せぬユーザがシャッタボタン12を押下操作したとき、デジタルスチルカメラ1は、ストロボ発光部11の照明条件を変化させて、自身の前方(撮影範囲内)に位置する被写体2をその都度撮影し、その結果得られる複数の画像(ここでは画像信号)をデータ化する。
(b)デジタルスチルカメラ1は、複数の画像データのうちの所定の1つを基準画像データとして選択する。そして、デジタルスチルカメラ1は、デジタル画像処理により、その基準画像データに対応する画像から、被写体2を示す領域(以下、被写体領域と称する)と被写体2以外の背景を示す領域(以下、背景領域と称する)とに分離し、それぞれ画像データとして抽出する。即ち、デジタルスチルカメラ1は、被写体領域画像データと背景領域画像データとのそれぞれを個別に出力する。
(c)デジタルスチルカメラ1は、デジタルフィルタ処理により、被写体領域画像データと背景領域画像データのうちの少なくとも一方(例えば、背景領域画像データ)に対してぼかし効果を付加する。
(d)デジタルスチルカメラ1は、基準画像データと、ぼかし効果が付加された画像データとを合成する(合成画像データを生成する)。
なお、デジタルスチルカメラ1は、(d)の代わりの他の処理((d)の処理タイミングで実行可能な他の処理)として、次のような処理を実行することができる。
即ち、例えば、デジタルスチルカメラ1は、(d)の処理の代わりに、ぼかし効果が付加されていない被写体領域画像データ(または、背景領域画像データ)と、ぼかし効果が付加された背景領域画像データ(または、被写体領域画像データ)とを合成する、という処理を実行することができる。
或いは、例えば、デジタルスチルカメラ1は、(d)の処理の代わりに、第1のぼかし効果が付加された(第1の種類のデジタルフィルタ処理が施された)被写体領域画像データ(または、背景領域画像データ)と、第2のぼかし効果が付加された(第2の種類のデジタルフィルタ処理が施された)背景領域画像データ(または、被写体領域画像データ)とを合成する、という処理を実行することができる。
なお、ストロボ発光部11は、図1の例では、デジタルスチルカメラ1に内蔵されているが、デジタルスチルカメラ1にとって必須な構成要素ではない。即ち、ストロボ発光部11を内蔵していないデジタルスチルカメラ(ただし、外付けのストロボ発光装置を取り付け可能なデジタルスチルカメラ)に対しても、本発明を適用することが勿論可能である。
ただし、ストロボ発光部11を内蔵していないデジタルスチルカメラは、上述した(a)の代わりに、次のような処理を実行する必要がある。即ち、この図示せぬデジタルスチルカメラは、図示せぬユーザがシャッタボタン(シャッタボタン12に対応するボタン)を押下操作したとき、図示せぬ外付けのストロボ発光装置の照明条件を変化させて、前方(撮影範囲内)に位置する被写体2をその都度撮影し、その結果得られる複数の画像(ここでは画像信号)をデータ化する、という処理を実行する必要がある。
このように、本実施の形態のデジタルスチルカメラ1は、以上説明した(a)乃至(d)の処理を実行することができるので、次のような効果を奏することが可能になる。即ち、背景技術において説明した(1),(2)のような特別な条件(制約)がなくとも、 デジタルスチルカメラ1本来のデジタル処理(撮影加工する処理)だけで、ボケ味のある画像を提供することができる、という効果である。換言すると、従来の課題を解決できる効果である。
このような効果を奏することが可能なデジタルスチルカメラ1の内部のハードウエア構成例が図2に示されている。即ち、図2は、本発明が適用される画像処理装置としてのデジタルスチルカメラ1の内部のハードウエア構成例を示すブロック図である。
図2のデジタルスチルカメラ1において、主制御部21は、CPU(Central Processing Unit)等で構成され、ROM(Read Only Memory)22等に記憶されているプログラムに従って、デジタルスチルカメラ1の全体の動作、即ち、主制御装置21に接続されている各部(後述する各ブロック)の動作を制御する。
例えば、主制御部21には、シャッタボタン12(図1)やフィルタ種類決定キー32等、複数のボタンやキーからなる操作部24が接続されている。そこで、主制御部21は、操作部24から入力されてくる信号を認識して、それに対応する様々な処理を実行する。具体的には、例えば、シャッタボタン12が押下されたとき(それに対応する信号が入力されたとき)、主制御部21は、後述する図15のフローチャートに従って、各種の処理(各部の制御処理含む)を実行する。
この場合、主制御装置21に接続されているRAM(Random Access Memory)23には、主制御装置21が各種の処理を実行する上において必要なデータなどが適宜記憶される。
主制御部21には、ROM22、RAM23、および操作部24の他、撮影部25、ストロボ制御部26、ボケ味創出処理部28、画像記録部29、および、ドライブ30が接続されている。
撮影部25は、例えば、図示はしないが、レンズやCCD(Charge-Coupled Device)等により構成される。このCCDは、被写体2(図1)をレンズを介して撮像し、それをアナログの画像信号として主制御部21に提供する。主制御部21に提供された画像信号は、後述するように、主制御部21によりデータ化され、ボケ味創出処理部28に提供される。
ストロボ制御部26は、ストロボ発光部11の光量や発光タイミングを制御する。即ち、ストロボ制御部26は、上述した(a)の処理において、ストロボ発光部11の照明条件を変化させる制御を実行する。
具体的には、例えば、本実施の形態においては、ストロボ制御部26は、受光センサ27の検出結果(検出信号)に基づいて、ストロボ発光部11の光量として、第1の光量と第2の光量とのうちのいずれか一方を設定する。
この第1の光量と第2の光量とのそれぞれは、次の条件を満たす光量であれば各々任意の光量で構わない。
即ち、一般的に、ストロボ発光部11の光の到達距離(照射範囲)は、自然光に比較して遥かに短い。従って、ストロボ発光部11の光量を変化させて、撮影部25に被写体2を撮影させた場合、その結果得られる複数の画像のそれぞれの背景領域における輝度はいずれもほぼ同レベルとなる(被写体領域の輝度よりも低いレベルでほぼ一致する)。即ち、撮影範囲(撮影シーンの範囲)が固定され、被写体2を含むその撮影範囲内の全ての物体が動いていないと仮定すれば、ストロボ発光部11が第1の光量で発光したときに撮影部25により撮影された第1の画像の背景領域における輝度と、ストロボ発光部11が第2の光量で発光したときに撮影部25により撮影された第2の画像の背景領域における輝度とは、ほぼ同レベルとなる。
換言すると、第1の画像と第2の画像との、配置位置が対応する画素同士の輝度の差分値を演算した場合、背景領域における輝度の差分値は略0(極小値)になる。
従って、被写体領域における輝度の差分値がある程度大きくなれば(例えば、所定の閾値以上になれば)、第1の画像と第2の画像との、配置位置が対応する画素同士の輝度の差分値を演算することで、被写体領域を容易に検出することが可能になる。
即ち、被写体領域における輝度の差分値がある程度大きくなれば(例えば、所定の閾値以上になれば)、デジタルスチルカメラ1(正確には、後述するボケ味創出処理部28)は、上述した(b)の処理として、第1の画像と第2の画像との対応する画素同士の輝度の差分値を演算し、それらの演算結果(各画素の輝度の差分値のそれぞれ)に基づいて、第1の画像データまたは第2の画像データ(上述した基準画像データとして選択された方)から、被写体領域画像データと背景領域画像データとを分離する、という処理を容易に実行することができる。
そこで、このような(b)の処理を実現するためには、即ち、被写体領域における輝度の差分値がある程度大きくなる(例えば、所定の閾値以上になる)ようにするためには、第1の光量と第2の光量とのそれぞれを適切に設定すればよいことになる。換言すると、このような処理を実現可能にするという条件、即ち、被写体領域における輝度の差分値がある程度大きくなる(例えば、所定の閾値以上になる)という条件を満たせば、第1の光量と第2の光量とのそれぞれは各自任意の光量で構わない。
ただし、本実施の形態においては、被写体領域における輝度の差分値がより大きな値となるように、ストロボ制御部26は、第1の光量として、ストロボ発光部11の照射範囲内に被写体2が少なくとも位置する条件を満たすような光量を設定し、第2の光量として、0光量を設定する。なお、ここで言う「0光量の設定」とは、その文言通り、ストロボ発光部11の発光量を略0にさせる(微小光量で発光させる)設定だけではなく、ストロボ発光部11の発光動作自体を禁止する設定も含む広義な概念である。
このようなストロボ制御部26の制御により、ストロボ発光部11が第1の光量で発光するという撮影条件で撮影され、主制御部21によりデータ化された上述した第1の画像データと、ストロボ発光部11が第2の光量(ここでは、0光量)で発光するという撮影条件(即ち、自然光のみでストロボ発光部11が発光しないという条件)で撮影され、主制御部21によりデータ化された上述した第1の画像データとのそれぞれは、ボケ味創出処理部28に提供される。
すると、ボケ味創出処理部28は、これらの第1の画像データと第2の画像データとを利用して、以上のような(b)の処理を実行する。即ち、ボケ味創出処理部28は、第1の画像と第2の画像との対応する画素同士の輝度の差分値を演算し、それらの演算結果(各画素の輝度の差分値のそれぞれ)に基づいて、基準画像データ(第1の画像データまたは第2の画像データとのうちのいずれか一方)から、被写体領域画像データと背景領域画像データとを分離する。
さらに、ボケ味創出処理部28は、上述した(c)と(d)の処理も実行する。即ち、ボケ味創出処理部28は、デジタルフィルタ処理により、被写体領域画像データと背景領域画像データのうちの少なくとも一方(例えば、背景領域画像データ)に対してぼかし効果を付加する。そして、ボケ味創出処理部28は、基準画像データと、ぼかし効果が付加された画像データとを合成し、その結果得られる合成画像データを主制御部21に提供する。
なお、ボケ味創出処理部28は、図2の例ではハードウエアで構成しているが、(b)乃至(d)の処理といったデジタル画像処理を実行するブロックであるので、ソフトウエアで構成することも勿論可能である(或いは、ハードウエアとソフトウエアとの組合せで構成してもよい)。
このようなボケ味創出処理部28の機能的構成例が図3に示されているが、この図3の説明、即ち、ボケ味創出処理部28の構成や処理のさらなる詳細の説明については後述する。
このようにして、撮影部25により撮影され、主制御部21によりデータ化され、さらに、ボケ味創出処理部28により画像処理が施された被写体2の画像データ、即ち、上述した(a)乃至(d)の処理の結果得られるボケ味のある画像データ(合成画像データ)は、主制御部21に提供される。すると、主制御部21は、提供された画像データを、例えば、JPEG(Joint Photographic Experts Group)方式等の所定の圧縮方式で圧縮(符号化)し、画像記録部29に記録させる。
即ち、画像記録部29は、主に、このような画像データを1以上記憶する。画像記録部29はまた、リムーバブル記録媒体31から提供されたコンピュータプログラムを記憶することも可能である。
即ち、主制御部21に接続されるドライブ30には、必要に応じてコンピュータプログラムが記録されたリムーバブル記録媒体31が装着され場合もあり、そのような場合、主制御部21は必要に応じて、リムーバブル記録媒体31に記録されたプログラムをドライブ30を介して読み出し、画像記録部29またはRAM23等にインストールすることができる。
また、画像データを記録可能なリムーバブル記録媒体31がドライブ30に装着された場合には、主制御部21は、画像記録部29に記録された画像データを読み出し、ドライブ30を介してリムーバブル記録媒体31に書き込む(記録させる)ことができる。なお、主制御部21は、画像データを画像記録部29に記録させずに、ドライブ30を介してリムーバブル記録媒体31に直接書き込むこともできる。
さらに、画像データが記録されているリムーバブル記録媒体31がドライブに装着された場合には、主制御部21は、リムーバブル記録媒体31に記録された画像データをドライブ30を介して読み出し、所定の画像処理を施したり、画像記録部29に記録させることができる。
ここで、図3を参照して、ボケ味創出処理部28の詳細について説明する。
上述したようにボケ味創出処理部28は、ハードウエアで構成してもよいし、ソフトウエアで構成してもよいし、或いは、それらの組み合わせとして構成してもよい。従って、ボケ味創出処理部28の図3に示される各部(領域抽出部41乃至画像合成部45、および、領域抽出部41内の輝度画像変換部51乃至分離部56)のそれぞれは、ハードウエアで構成することもできるし、ソフトウエアで構成されることもできるし、或いは、それらの組合せとして構成することもできる。
図3に示されるように、ボケ味創出処理部28には、入力画像データ(ストロボ発光有)と、入力画像データ(ストロボ発光無)とのそれぞれが個別に主制御部21から入力される。
なお、入力画像データ(ストロボ発光有)とは、ストロボ発光部11が第1の光量で発光したときに撮影部25により撮影され、主制御部21によりデータ化された画像データ(上述した第1の画像データ)を指す。具体的には、例えば、入力画像データ(ストロボ発光有)として、図4に示される画像71に対応する画像データがボケ味創出処理部28に入力される。
一方、入力画像データ(ストロボ発光無)とは、ストロボ発光部11が第2の光量で発光したとき(本実施の形態では0光量で発光したとき、即ち、自然光のみで、ストロボ発光部11が発光しないとき)に撮影部25により撮影され、主制御部21によりデータ化された画像データ(上述した第2の画像データ)を指す。具体的には、例えば、入力画像データ(ストロボ発光有)として、図5に示される画像72に対応する画像データがボケ味創出処理部28に入力される。
具体的には、入力画像データ(ストロボ発光有)と、入力画像データ(ストロボ発光無)とのそれぞれは、領域抽出部41と選択部42とのそれぞれに個別に入力される。
すると、領域抽出部41は、入力画像データ(ストロボ発光有)と入力画像データ(ストロボ発光無)とに基づいて、これらのうちの基準となる基準画像データ(後述する選択部42により選択された方)から、被写体領域と背景領域とのそれぞれを個別に画像データとして抽出する。即ち、領域抽出部41は、上述した(b)の処理を実行し、その結果として、背景領域画像データと被写体領域画像データとのそれぞれを個別に選択部43に出力する。
詳細には、領域抽出部41は、輝度画像変換部51、位置ずれ補正部52、加算部(差分値演算部)53、2値化部54、被写体検出部55、および、分離部56から構成される。
輝度画像変換部41は、入力画像データ(ストロボ発光有)を輝度画像データ(ストロボ発光有)に変換して出力するとともに、入力画像データ(ストロボ発光無)を輝度画像データ(ストロボ発光無)に変換して出力する。
なお、ここで言う輝度画像データとは、いわゆる白黒画像データを指す。
従って、例えば、入力画像データがいわゆるカラー画像データであって、各画素値として、RGBの3つの画素強度値のそれぞれ(IR,IG,IBのそれぞれと記述する)を有する画像データである場合、輝度画像変換部51は、例えば、次の式(1)を利用して、入力画像データを輝度画像データに変換する。
Y = 0.3IR + 0.59IG + 0.11IB ・・・(1)
式(1)において、左辺のYは輝度画像データの画素値(輝度値)を示す。
即ち、この場合、輝度画像データとは、各画素値として、式(1)の演算結果である輝度値Yの1つを有する画像データを指すことになる。
また、例えば、入力画像データがいわゆるカラー画像データであって、各画素値として、輝度値Y、色差値Cr、および、色差値Cbといった3つの値を有する画像データである場合、輝度画像変換部51は、入力画像データを構成する各画素値(3つの値)のうちの、色差値Crと色差値Cbとを棄却することで、入力画像データを輝度画像データに変換する。即ち、この場合、輝度画像データとは、各画素値として、輝度値Yの1つが残った画像データを指すことになる。
このようにして、輝度画像変換部51から出力された輝度画像データ(ストロボ発光有)は、位置ずれ補正部52に入力される。一方、輝度画像変換部51から出力された輝度画像データ(ストロボ発光無)は、位置ずれ補正部52に入力されるとともに、加算部(差分値演算部)53にも入力される。
このように、輝度画像データ(ストロボ発光有)と、輝度画像データ(ストロボ発光無)とが加算部(差分値演算部)53に直接入力されずに、位置ずれ補正部52に一度入力されている理由は、即ち、本実施の形態において位置ずれ補正部52が設けられている理由は次の通りである。
即ち、上述したように、輝度画像データ(ストロボ発光有)と輝度画像データ(ストロボ発光無)との、配置位置が対応する画素同士の画素値(即ち、輝度値)の差分値を演算することで、被写体領域を容易に検出することが可能になる。
ただし、このとき、前提条件としては、輝度画像データ(ストロボ発光有)に対応する画像における被写体2(および背景)の配置位置と、輝度画像データ(ストロボ発光無)に対応する画像における被写体2(および背景)の配置位置とは一致していることが挙げられる。即ち、輝度画像データ(ストロボ発光有)に対応する画像の各画素のそれぞれと、輝度画像データ(ストロボ発光無)に対応する画像の各画素のうちの、対応点となる画素との配置位置(画素位置)は一致していることが前提条件となる。
なお、対応点とは、次のような画素(点)を指す。即ち、第1の画像を構成する各画素(点)のうちの、例えば、実物体(被写体2等)の一部分を示す所定の第1の画素(第1の点)と、第2の画像を構成する各画素のうちの、その実物体の同一部分を示す第2の画素(第2の点)とのそれぞれが、(他方の点に対する)対応点と称されている。
このような前提条件を成立させるためには、厳密には、上述したように、撮影範囲が固定され、被写体2を含むその撮影範囲内の全ての物体が動いていないことが必要となる。
しかしながら、実際には、入力画像データ(ストロボ発光有)と入力画像データ(ストロボ発光無)とのそれぞれの撮影タイミングはずれている。即ち、本実施の形態では、後述する図16のステップS12とS13に示されるように、最初に、ストロボ発光無で(ストロボ発光部11が第2の光量である0光量で発光して、即ち、自然光のみで発光せずに)被写体2が撮影されて、入力画像データ(ストロボ発光無)が得られる。そして、次に、ストロボ発光有で(ストロボ発光部11が第1の光量で発光して)被写体2が撮影されて、入力画像データ(ストロボ発光無)が得られる。従って、この2つの画像データが得られる間(撮影される間)に、撮影範囲内の物体の少なくとも一部が動いてしまう可能性がある。
また、ユーザがデジタルスチルカメラ1を手にして被写体2を撮影したような場合、いわゆる手振れ等により、入力画像データ(ストロボ発光有)と入力画像データ(ストロボ発光無)とのそれぞれの撮影範囲(撮影シーンの範囲)自身が微少ながらも変化している可能性がある。
即ち、実際には、撮影タイミングのずれや手振れ等の原因により、輝度画像データ(ストロボ発光有)と輝度画像データ(ストロボ発光無)とのそれぞれに対応する画像における、被写体2(および背景)の配置位置はずれている(即ち、対応点が位置ずれを起こしている)可能性がある。
そこで、図3に示されるように、この位置ずれを修正(補正)することを目的として、本実施の形態においては、位置ずれ補正部52が設けられているのである。
即ち、位置ずれ補正部52は、対応点の位置ずれを補正するために、最初に、輝度画像変換部51からそれぞれ出力された、輝度画像データ(ストロボ発光有)に対応する画像を構成する各画素のうちの少なくとも一部に対して、輝度画像データ(ストロボ発光無)に対応する画像を構成する各画素の中から対応点となる画素を求める。
なお、対応点を求める手法自体は特に限定されず、様々な手法を適用することが可能である。
例えば、このような対応点を求める代表的な手法として、ウィンドウマッチング手法と称される手法が知られており、位置ずれ補正部52は、このウィンドウマッチング手法を利用することができる。
即ち、ウィンドウマッチング手法を利用する位置ずれ補正部52は、はじめに、例えば、輝度画像データ(ストロボ発光有)に対応する画像(以下、第1の輝度画像と称する)のうちの、処理の対象として注目する画素(以下、注目画素と称する)を中心とする所定の領域(このような領域がウィンドウと称されており、ここでもそのように称する)を切り出す。
次に、位置ずれ補正部52は、そのウィンドウを、輝度画像データ(ストロボ発光無)に対応する画像(以下、第2の輝度画像と称する)の上に配置させ、所定の方向に順次変移させる。このとき、位置ずれ補正部52は、第2の輝度画像の上のウィンドウの変移位置のそれぞれにおいて、ウィンドウと、それと重なり合う第2の輝度画像内の領域(以下、比較領域と称する)との一致の度合(相関値)を順次演算していく。
そして、位置ずれ補正部52は、一致の度合が演算された第2の輝度画像内の比較領域のうちの、一致の度合が最も高い比較領域の中心点(中心画素)を、第1の輝度画像内の注目画素に対する対応点(対応画素)として検出する。
なお、一致の度合(相関値)の演算手法自体も特に限定されず、例えば、正規化相関関数、SSD(Sum of Squared Difference)と称される評価式、または、SAD(Sum of Absolute Difference)と称される評価式を利用する手法の適用が可能である。
位置ずれ補正部52は、このようにして第1の輝度画像における注目画素に対する、第2の輝度画像における対応点(対応画素)を求めると、注目画素と対応点との配置位置のずれ量(ベクトル)を求め、保持する。
その後、位置ずれ補正部52は、第1の輝度画像を構成する各画素のそれぞれを順次注目画素に設定し、上述した一連の処理を繰り返していく。即ち、順次注目画素として設定された第1の輝度画像内の各画素のそれぞれに対して、第2の輝度画像における対応点(対応画素)のそれぞれが求められ、さらに、注目画素と対応点との配置位置のずれ量(ベクトル)のそれぞれが求められ、保持される。
ただし、第1の輝度画像を構成する各画素のうちの、対応点を求める画素(即ち、注目画素として設定する画素)の個数は、特に限定されず、任意の個数でよい。
即ち、例えば、第1の輝度画像を構成する各画素の全てに対して、対応点を求めてもよいし、予め設定された代表的な画素に対してのみ、対応点を求めてもよい。
さらに、後者の場合、代表的な画素の設定手法も特に限定されず、様々な手法を適用できる。即ち、例えば、単に予め設定された配置位置の画素を、代表的な画素として設定することもできる。また、最終的には、被写体領域(或いは背景領域)の検出が目的とされているので、被写体2を示すと予測される画素(例えば、画素値(輝度値)が所定の閾値より高い画素)を、代表的な画素として設定することもできる。さらに、例えば、最初は限られた個数の画素を代表的な画素として、それらの対応点を求め、求められた各対応点との配置位置のずれ量(ベクトル)のそれぞれが大きく異なる場合(ばらばらな場合)、さらに多くの個数の画素を、代表的な画素として設定し、それらの対応点を求めるようにしてもよい。
このようにして、位置ずれ補正部52は、第1の輝度画像の1以上の画素のそれぞれに対して、大2の輝度画像における対応点との配置位置のずれ量(ベクトル)のそれぞれを蓄積すると、蓄積された1以上のベクトル(ずれ量)のそれぞれに基づいて、第1の輝度画像(輝度画像データ(ストロボ発光有)に対応する画像)の画素位置を補正し、その結果得られる画像データ(以下、図3の記載に対応させて、補正輝度画像データ(ストロボ発光有)と称する)を加算部(差分値演算部)53に提供する。
なお、このときの補正手法自体は特に限定されず、様々な手法を適用することが可能である。具体的には、例えば、保持された各ベクトル(ずれ量)の平均を取ったり、統計を取ることで、代表的なベクトル(ずれ量)を求め、第1の輝度画像の各画素の配置位置の全てを、その代表的なベクトル分だけ移動させる、という手法を適用することができる。
加算部(差分値演算部)53には、このようにして位置ずれ補正部52から出力された補正輝度画像データ(ストロボ発光有)が入力されるとともに、上述したように、輝度画像変換部51から出力された輝度画像データ(ストロボ発光無)が反転入力される。
なお、ここでは、反転入力とは、輝度画像データ(ストロボ発光無)を構成する各画素値(正値)の符号が反転される(即ち、負値に変換される)ことを指す。
加算部(差分値演算部)53は、入力された補正輝度画像データ(ストロボ発光有)を構成する各画素値(即ち、上述した輝度値Y)のそれぞれから、輝度画像データ(ストロボ発光無)を構成する各画素値(即ち、上述した輝度値Y)のうちの、画素位置が対応する画素値との差分値(反転入力された結果、符号が反転された輝度画像データ(ストロボ発光無)に対応する画素値との加算値)を演算する。
そして、加算部(差分値演算部)53は、演算された輝度値の差分値のそれぞれを各画素値として有する画像データ(以下、図3の記載に対応させて、差分画像データと称する)を生成し、2値化部54と被写体検出部55とのそれぞれに提供する。
2値化部54は、提供された差分画像データの画素値(即ち、輝度値の差分値)のそれぞれを2値化し、その結果得られる画像データ(以下、図3の記載にあわせて、2値化画像データと称する)を被写体検出部55に提供する。
即ち、2値化部54は、提供された差分画像データの画素値(即ち、輝度値の差分値)のそれぞれと、予め設定された所定の閾値とを比較し、閾値より大きい画素値を第1の値(例えば、いわゆる白を示す第1の値であって、256階調(8ビット)で表現する場合には255)に変換し、閾値以下の画素を第2の値(例えば、いわゆる黒を示す第1の値であって、256階調で表現する場合には0)に変換し、その結果得られる2値化画像データを被写体検出部55に提供する。
被写体検出部55は、加算部(差分値演算部)53から出力された差分画像データに基づいて、2値化部54から出力された2値化画像データに対応する画像の中から、被写体領域を検出し、検出された被写体領域を構成する画素の画素値を上述した第1の値とし、それ以外の背景領域を構成する画素の画素値を上述した第2の値として有する画像データ(以下、図3の記載に対応させて、2値化被写体抽出画像データと称する)を、分離部56とアンチエイリアジング処理部46とのそれぞれに提供する。
具体的には、例えば、2値化被写体抽出画像データとして、図6に示される被写体領域91と背景領域92とに区分された画像81に対応する画像データが、被写体検出部55から出力されて、分離部56とアンチエイリアジング処理部46とのそれぞれに提供される。
分離部56は、被写体検出部55から出力された2値化被写体抽出画像データに基づいて、基準画像データから(入力画像データ(ストロボ発光有)と入力画像データ(ストロボ発光無)とのうちの選択部42により選択された方から)、被写体領域画像データと背景領域画像データとを分離して個別に抽出し、選択部43にそれぞれ出力する。
具体的には、例えば、選択部42が基準画像データとして、上述した図5の画像72に対応する入力画像データ(ストロボ発光無)を選択したとする。
この場合、分離部56は、図5の画像72から、図6の被写体領域91に対応する領域を分離して抽出する。換言すると、分離部56は、図5の画像72に対応する基準画像データを構成する各画素値のうちの、図6の被写体領域91に対応する画素値をそのままとし、それ以外の画素値(図6の背景領域92に対応する画素値)の全てを同一値(例えば、黒を示す値)に変換し、その結果得られる画像データを被写体領域画像データとして選択部43に出力する。即ち、被写体領域画像データとして、図7に示される被写体領域121を含む画像111に対応する画像データが、分離部56から出力されて選択部43に提供される。
また、分離部56は、図5の画像72から、図6の背景領域92に対応する領域を分離して抽出する。換言すると、分離部56は、図5の画像72に対応する基準画像データを構成する各画素値のうちの、図6の背景領域92に対応する画素値をそのままとし、それ以外の画素値(図6の被写体領域91に対応する画素値)の全てを同一値(例えば、黒を示す値)に変換し、その結果得られる画像データを背景領域画像データとして選択部43に出力する。即ち、背景領域画像データとして、図8に示される背景領域122Aを含む画像112に対応する画像データが、分離部56から出力されて選択部43に提供される。
以上、領域抽出部41の詳細な構成例について説明した。次に、選択部42乃至画像合成部45について説明する。
選択部42は、主制御部21からの指令に基づいて、入力画像データ(ストロボ発光有)と入力画像データ(ストロボ発光無)とのうちのいずれか一方を、(合成用)基準画像データとして選択し、分離部56と画像合成部45に提供する。
なお、主制御部21から選択部42に提供される指令を、以下、図3の記載に対応させて、合成用基準画像選択指令と称する。
この合成用基準画像選択指令の形態は特に限定されないが、本実施の形態においては、例えば、次のような信号とされる。即ち、後述するように、ストロボ制御部26(図2)は、受光センサ27(図2)の検出結果(撮影範囲の明るさ)に基づいて、(これから通常撮影を行うと仮定した場合に)ストロボ発光部11のストロボ発光が必要か否かを判断し、その判断結果を示す信号、即ち、ストロボ発光が必要であることを示す信号(例えば、ハイレベルとローレベルのうちの一方の信号)、または、ストロボ発光が不要であることを示す信号(ハイレベルとローレベルのうちの他方の信号)を主制御部21に提供してくる。そこで、主制御部21は、これらの信号(以下、これらの信号をまとめて、ストロボ必要可否検出信号と称する)を合成用基準画像選択指令として選択部42に入力させる。
即ち、選択部42は、主制御部21からストロボ発光が必要であることを示す信号が(合成用基準画像選択指令として)入力されたとき、入力画像データ(ストロボ発光有)を基準画像データとして選択し、分離部56と画像合成部45に提供する。
これに対して、選択部42は、主制御部21からストロボ発光が不要であることを示す信号が(合成用基準画像選択指令として)入力されたとき、入力画像データ(ストロボ発光無)を基準画像データとして選択し、分離部56と画像合成部45に提供する。
選択部43は、主制御部21からの指令に基づいて、分離部56からそれぞれ個別に出力された背景領域画像データと被写体領域画像データとのうちのいずれか一方を、ぼかし効果のあるフィルタ処理(ぼかし処理)を施す対象データとして選択し、フィルタ処理部(ぼかし処理部)44に提供する。
なお、主制御部21から選択部43に提供される指令を、以下、図3の記載に対応させて、合成用ボケ画像選択指令と称する。
この合成用ボケ画像選択指令の形態は特に限定されないが、本実施の形態においては、例えば、次のような信号とされる。即ち、一般的な用途(ユーザの要望)としては、被写体を鮮明にして、背景をぼかす画像の生成が多いので、ローレベルの信号(或いは、無信号)が主制御部21から提供されているとき、選択部43は、その信号を背景領域画像データの選択指令とみなし、背景領域画像データを対象データとして選択し、フィルタ処理部(ぼかし処理部)44に提供する。これに対して、ハイレベルの信号が主制御部21から提供されているとき、選択部32は、その信号を被写体領域画像データの選択指令とみなし、被写体領域画像データを対象データとして選択し、フィルタ処理部(ぼかし処理部)44に提供する。
なお、以下、説明の簡略上、選択部43は、背景領域画像データを選択して、フィルタ処理部(ぼかし処理部)44に提供しているとして説明する。
フィルタ処理部(ぼかし処理部)44は、分離部56より選択部43を介して提供された背景領域画像データに対して、ぼかし効果のあるフィルタ処理を施し、その結果得られる画像データ(以下、図3の記載に対応させて、合成用ボケ画像データと称する)を画像合成部45に提供する。即ち、フィルタ処理部(ぼかし処理部)44は、上述した(c)の処理を実行する。
具体的には、例えば、いまの場合、フィルタ処理部(ぼかし処理部)44には、図8に示されるような、背景領域122Aを含む画像112に対応する背景領域画像データが入力される。そこで、フィルタ処理部(ぼかし処理部)44は、この背景領域画像データに対して、ぼかし効果のあるフィルタ処理を施すことで、図9に示されるような、ぼかし効果が付加された背景領域122Bを含む画像113に対応する画像データを生成し、それを合成用ボケ画像データとして画像合成部45に提供する。
なお、本実施の形態においては、フィルタ処理部(ぼかし処理部)44のフィルタ処理として予め複数種類の処理が登録されており、ユーザは、上述したフィルタ種類キー32(図2)を操作することで、フィルタ処理部(ぼかし処理部)44がこれから実行するフィルタ処理の種類を指定することができる。さらに、ユーザは、フィルタ種類キー32を操作することで、指定された種類のフィルタ処理の実行に必要な各種パラメータの値も指定(設定)することができる。
即ち、ユーザがフィルタ種類キー32を操作して所定のフィルタ処理(種類)を指定すると、指定された種類やパラメータの値を示す信号(以下、フィルタ種類信号と称する)が、主制御部21を介してフィルタ処理部(ぼかし処理部)44に入力される。そこで、フィルタ処理部(ぼかし処理部)44は、フィルタ種類信号に基づいて、指定された種類のフィルタ処理を指定されたパラメータの値を利用して実行する。
このように、ユーザは、フィルタ処理部(ぼかし処理部)44が実行するフィルタ処理に必要な各種パラメータの値を可変設定することができるので、様々な大口径レンズを利用したときのボケ効果(円形や多角形等)と等価な効果を有するフィルタ処理をフィルタ処理部(ぼかし処理部)44に容易に実行させることができる。
また、フィルタ処理部(ぼかし処理部)44が実行するフィルタ処理の種類は多数あり、ユーザは、その種類を指定することができるので、大口径レンズを利用したボケ効果以外にも、通常の銀塩カメラ等では撮影困難なボケ効果を有するフィルタ処理をフィルタ処理部(ぼかし処理部)44に容易に実行させることができる。
画像合成部45は、選択部42から提供された基準画像データ(入力画像データ(ストロボ発光有)と入力画像データ(ストロボ発光無)とのうちの選択部42により選択された方)と、フィルタ処理部(ぼかし処理部)44から提供された合成用ボケ画像データ(いまの場合、フィルタ処理が施された背景領域画像データ)とを合成し、その結果得られる画像データ(合成画像データ)を出力画像データとして主制御部21に提供する。即ち、画像合成部46は、上述した(d)の処理を実行する。
ところで、基準画像データと合成用ボケ画像データとが単に合成された場合、その結果得られる合成画像データに対応する合成画像において、被写体領域と背景領域との境界線にジャギーが発生してしまう(ギザギザとなってしまう)。即ち、ユーザにとって違和感のある合成画像となってしまう。
そこで、違和感ない合成画像(合成画像データ)を生成するために、本実施の形態においては、アンチエイリアジング処理部46が設けられている。
即ち、アンチエイリアジング処理部46は、被写体検出部55から提供される2値化被写体抽出画像データに対してアンチエイリアジング処理を施し、その結果得られる画像データを画像合成部45に提供する。
画像合成部45は、アンチエイリアジング処理部46から提供された画像データ(アンチエイリアジング処理が施された2値化被写体抽出画像データ)を参照して、これから生成する合成画像データのうちの、対応する合成画像の被写体領域と背景領域との境界およびその近傍に位置する各画素の画素値のそれぞれを決定する。
このように、アンチエイリアジング処理部46から画像合成部45に提供される画像データ(アンチエイリアジング処理が施された2値化被写体抽出画像データ)は、合成処理のうちの、特に、被写体領域と背景領域との境界(エッジ)部分の合成処理に利用される。そこで、以下、図3の記載にも対応させて、アンチエイリアジング処理部46から画像合成部45に提供される画像データ(アンチエイリアジング処理が施された2値化被写体抽出画像データ)を、エッジ処理参照画像データと称する。
アンチエイリアジング処理自体の内容は、特に限定されず、例えば、従来利用されている、注目画素の画素値を隣接する画素との中間値に変換するという処理でも構わないが、本実施の形態においては、合成画像の違和感をより減らすために、図10と図11に示されるような処理内容のアンチエイリアジング処理が適用されている。即ち、図10と図11は、本実施の形態のアンチエイリアジング処理の内容を説明する図である。
図10において、その左側に、図6の2値化被写体領域抽出画像91の被写体領域91と背景領域92の境界付近の領域93Aが示されており、その右側に、その領域93Aの空間方向Xに対する画素値(輝度値)の変化を示すグラフが示されている。なお、このグラフにおいては、白を示す値(輝度値)が1とされ(実際には、例えば、上述した8ビットの256階調の例の場合、255となる)、黒を示す値(輝度値)が0とされている。即ち、図10は、本実施の形態のアンチエイリアジング処理が施される前の状態を示す図である。
これに対して、図11においては、その左側に、図10の領域93A(それに対応する画像データ)に対して本実施の形態のアンチエイリアジング処理が施された場合に、その結果として得られる領域93Bが示されており、その右側に、その領域93Bの空間方向Xに対する画素値の変化を示すグラフが示されている。なお、このグラフにおいては、図10のグラフと同様に、白を示す値(輝度値)が1とされ(実際には、例えば、上述した8ビットの256階調の例の場合、255となる)、黒を示す値(輝度値)が0とされている。即ち、図11は、本実施の形態のアンチエイリアジング処理が施された後の状態を示す図である。
図10と図11との右側のグラフを比較するに、本実施の形態のアンチエイリアジング処理を施す前は、図10のグラフに示されるように、境界部分において、画素値が0から1にいきなり変化していたのに対して、本実施の形態のアンチエイリアジング処理を施した後では、図11のグラフに示されるように、境界部分とその近傍において、画素値の変化(0から1への変化)が曲線上に滑らかになっていることがわかる。
換言すると、本実施の形態のアンチエイリアジング処理とは、図11の右側のグラフに示されるような曲線、即ち、例えば、入力変数として空間方向Xの画素位置xが入力され、入力された画素位置xの画素における、被写体領域と背景領域との混合比を示す値(図11の例では、白を示す値を1とした場合、1以下の数値A)を出力する関数であって、空間方向Xに沿って出力が図11に示される様に曲線変化する関数f(x)=Aが用意されており、この関数f(x)の出力値Aを利用して各画素値を決定する(変換する)処理である。
即ち、本実施の形態のアンチエイリアジング処理とは、画素位置xにおける画素の画素値を、被写体領域91の画素値(即ち、図10と11の例では、白を示す1)と、背景領域92の画素値(即ち、図10と11の例では、黒を示す0)とが、A:1−Aの混合比(配合比)で混合された値に変換する処理である。
図12と図13は、本実施の形態のアンチエイリアジング処理の他の処理結果例を示す図である。即ち、図12は、上述した図6の画像81とは異なる2値化画像(試験用に用意した画像)を示しており、図13は、図12の2値化画像(正確には、それに対応する画像データ)に対して、本実施の形態のアンチエイリアジング処理を施した結果得られる画像を示している。
図12の画像と図13の画像とを比較するに、図12の画像においては、エッジ部分のジャギー(ギザギザ)が目立っているのに対して、図13の画像においては、エッジ部分のギザギザが低減していることがわかる。
なお、図3のアンチエイリアジング処理部46がアンチエイリアジング処理を実行する際に利用する関数f(x)は、本実施の形態の関数、即ち、図11の右側のグラフの曲線(或いは、その近似曲線)を示す関数に限定されず、単に(滑らかに変化するような)曲線を示す関数であればよい。具体的には、例えば、図示はしないが、シグモイド関数等を利用することもできる。
このようにして、図6の2値化被写体領域抽出画像81(それに対応する2値化被写体領域抽出画像データ)に対して本実施のアンチエイリアジング処理が施された画像(それに対応するエッジ処理参照画像データ)を利用して、基準画像(それに対応する基準画像データ)と、ボケ効果のあるフィルタ処理が施された背景領域画像(それに対応する合成用ボケ画像データ)とが合成される様子が、図14に示されている。即ち、図14は、画像合成部45(図3)の処理を説明する図である。
図14の例では、基準画像データとして、図5の画像72に対応する入力画像データ(ストロボ発光無)が採用され、合成用ボケ画像データとして、図9の画像113に対応する画像データが採用されている。また、画像114が、図6の2値化被写体領域抽出画像81(それに対応する2値化被写体領域抽出画像データ)に対して本実施のアンチエイリアジング処理が施された画像を示している。
そして、図3の画像合成部45が、本実施のアンチエイリアジング処理が施された画像114を参照して、画像72(基準画像データ)と画像113(合成用ボケ画像データ)とを合成した結果得られる合成画像が、画像115として示されている。
画像合成部45は、このような合成画像115を生成するために、詳細には次のような処理を実行する。即ち、画像合成部45は、画像114における被写体領域と背景領域との境界およびその近傍に位置する各画素の画素値に基づいて、これから生成する合成画像115の対応する部分(被写体領域と背景領域との境界およびその近傍)に位置する各画素における混合比(被写体領域と背景領域との混合比)をそれぞれ求め、その混合比に従って、各画素値を決定する。即ち、画像114の画素値から、被写体領域の画素値と、背景領域の画素値との混合比(配合比)である上述したA:1−Aが求められる(逆算される)。そして、これから生成される合成画像115における、被写体領域と背景領域との境界(エッジ)とその近傍に位置する各画素が、求められた混合比A:1−Aで被写体領域と背景領域とが混合された画素となるように、対応する画素値が決定されていく。
以上、本実施の形態のデジタルスチルカメラ1の構成について説明した。
次に、図15のフローチャートを参照して、本実施の形態のデジタルスチルカメラ1(図1と図2)が、シャッタボタン12(図1と図2)が押下されたときに、被写体2(図1)を撮影してデータ化し、その画像データに対して上述した各種の画像処理を施し、その結果得られる画像データ、即ち、ボケ効果が付加された画像データ(ボケ味のある画像)を画像記録部29(図2)に記録するまでの一連の処理(以下、撮影記録処理と称する)について説明する。
はじめに、ステップS1において、図2のデジタルスチルカメラ1の主制御部21は、シャッタボタン12が押下されたか否かを判定する。
ステップS1において、シャッタボタン12が押下されていないと判定されると、処理はステップS1に戻され、シャッタボタン12が押下されたか否かが再度判定される。即ち、主制御部21は、シャッタボタン12が押下されることを常時監視している。
例えば、いま、図1に示されるように、図示せぬユーザが、デジタルスチルカメラ1(その撮影方向)を被写体2に向け、シャッタボタン12を押下したとする。
このとき、主制御部21は、シャッタボタン12からの信号を受け取ると、ステップS1において、シャッタボタン12が押下されたと判定し、ステップS2において、ストロボ制御部26を制御して、ストロボ発光部11のストロボ発光量を変化させ、そのストロボ発光量が変化する毎に撮影部25に被写体2(それを含む撮影範囲)を撮影させ、その結果得られる(入力される)画像信号をデータ化して、ボケ味創出処理部28に提供する。
なお、以下、このようなステップS2の処理を「撮影処理」と称する。このステップS2の「撮影処理」の処理内容は、基本的に上述した内容であれば、特に限定されない。
ただし、ここでは、例えば、上述した本実施の形態、即ち、ストロボ発光有り(第1の光量)の撮影条件と、ストロボ発光無し(第2の光量)の撮影条件といった2つの撮影条件でそれぞれ被写体2が撮影される、といった実施の形態に対応する処理内容とされる。図16は、このような処理内容の「撮影処理」の詳細を示すフローチャートである。そこで、以下、図16のフローチャートを参照して、この例の「撮影処理」の詳細について説明する。
はじめに、ステップS11において、ストロボ制御部26は、主制御部21の制御の下、受光センサ27の検出値(即ち、撮影範囲の明るさ)を取得し、その検出値に基づいて、ストロボ光の量(必要量)を決定(検出)し、その決定結果を示す信号(即ち、上述した例では、図3に示されるストロボ必要可否検出信号)を主制御部21に提供する。
次に、ステップS12において、撮影部25は、主制御部21の制御に基づいて、ストロボ発光無で被写体2を撮影する。
より正確には、例えば、主制御部21は、上述した図15のステップS1の処理で、シャッタボタン12が押下れたと判定した後、撮影部25が撮影した被写体2の画像信号の取り込みを開始し、ステップS11の処理で、ストロボ制御部26からの信号を受け取った直後(或いは、その後、所定の時間経過後)に撮影部25から提供された画像信号、ストロボ発光部11が発光していない時点で撮影部25から提供された画像信号を、ストロボ発光無で撮影された(即ち、自然光のみで撮影された)被写体2の画像信号として取得し、それをデータ化してボケ味創出処理部28に提供する。
このように、ステップS12の処理で主制御部21からボケ味創出処理部28に提供される画像データが、上述した図3の入力画像データ(ストロボ発光無)となる。
ステップS12の処理に引き続き、ステップS13において、撮影部25は、主制御部21の制御に基づいて、ストロボ発光有で被写体2を撮影する。
より正確には、例えば、主制御部21は、ステップS12の処理後も、撮影部25が撮影した被写体2の画像信号を引き続き取り込み、ステップS12の処理直後(或いは、その後、所定の時間経過後)、ストロボ制御部26を制御して、ステップS11の処理で検出された光量(即ち、上述した第1の光量)でストロボ発光部11を発光させる。この時点で撮影部25から提供される画像信号を、ストロボ発光有で撮影された被写体2の画像信号として取得し、それをデータ化してボケ味創出処理部28に提供する。
このように、ステップS13の処理で主制御部21からボケ味創出処理部28に提供される画像データが、上述した図3の入力画像データ(ストロボ発光有)である。
以上をまとめると、本実施の形態の「撮影処理」においては、シャッタボタン12の1回の押下操作に対して、ストロボ発光有と無といった2つの撮影条件でそれぞれ撮影された被写体2の画像データ、即ち、入力画像データ(ストロボ発光有)と、入力画像データ(ストロボ発光無)が主制御部21により生成され、ボケ味創出処理部28に提供されることになる。
なお、ステップS12とS13の処理タイミングは、特に限定されず、ステップS13の処理が先に実行されてもよい。
ただし、上述したように、ステップS12の処理で撮影された被写体2の画像(画像データ)と、ステップS13の処理で撮影された被写体2の画像(画像データ)とに対して、配置位置が対応する画素同士の輝度値の差分が取られ(差分画像データが生成され)、その輝度値の差分値に基づいて、被写体領域(或いは、それ以外の背景領域)が検出されることになる。この被写体領域の検出を精度よく行うためには、上述したように、ステップS12の処理で撮影された被写体2の画像(画像データ)と、ステップS13の処理で撮影された被写体2の画像(画像データ)とにおいて、対応するオブジェクト(被写体2等)の配置位置が一致することが望ましい。即ち、デジタルスチルカメラ1の撮影範囲内のオブジェクトは実空間上で動かないことが望ましい。従って、ステップS12とS13の処理間隔は可能な限り短い方が好適である。
図15に戻り、このようなステップS2の「撮影処理」が終了し、入力画像データ(ストロボ発光有)と入力画像データ(ストロボ発光無)とがボケ味創出処理部28に提供されると、ボケ味創出処理部28は、ステップS3とS4において、上述した(b)乃至(d)の処理を実行する。
これらの(b)乃至(d)の処理のうちの、図3の領域抽出部41(ただし、分離部56除く)とアンチエイリアジング処理部46が実行する処理が、図15の例では、ステップS3の処理とされている。なお、以下、このようなステップS3の処理を「被写体抽出処理」と称する。
また、これらの(b)乃至(d)の処理のうちの、分離部56、選択部42、選択部43、フィルタ処理部(ぼかし処理部)44、および、画像合成部45が実行する処理が、ステップS4の処理とされている。なお、以下、このようなステップS4の処理を「画像合成処理」と称する。
「被写体抽出処理」の詳細な例が図17と図18のフローチャートに、「画像合成処理」の詳細な例が図19に示されている。そこで、以下、はじめに、図17と図18のフローチャートを参照して、「被写体抽出処理」の詳細な例を説明し、その次に、図19のフローチャートを参照して、「画像合成処理」の詳細な例を説明する。
図17の「被写体抽出処理(図15のステップS3の処理)」において、はじめに、ステップS21において、図3の領域抽出部41の輝度画像変換部51は、上述したように、ストロボ発光有で撮影された第1の入力画像データと、ストロボ発光無で撮影された第2の入力画像データとのそれぞれを、第1の輝度画像データ(ストロボ発光有)と第2の輝度画像データ(ストロボ発光無)にそれぞれ変換する。
第1の輝度画像データ(ストロボ発光有)と第2の輝度画像データ(ストロボ発光無)とのそれぞれが位置ずれ補正部52に提供されると、ステップS22において、位置ずれ補正部52は、上述したように、第1の輝度画像データ(ストロボ発光有)と第2の輝度画像データ(ストロボ発光無)との各対応点を求め、それらの対応点の位置関係に基づいて、第1の輝度画像データ(ストロボ発光有)と第2の輝度画像データ(ストロボ発光無)との間のズレ量(ベクトル)を推定する。
そして、ステップS23において、位置ずれ補正部52は、上述したように、ステップS22の処理で推定されたズレ量(ベクトル)に基づいて、第1の輝度画像データ(ストロボ発光有)と第2の輝度画像データ(ストロボ発光無)との間の位置ずれを補正する。即ち、位置ずれ補正部52は、第1の輝度画像データ(ストロボ発光有)を補正し(対応する輝度画像を構成する各画素の配置位置を補正し)、補正輝度画像データ(ストロボ発光有)を生成し、加算部(差分値演算部)53に提供する。
このようにして、ステップS23の処理で、補正輝度画像データ(ストロボ発光有)が加算部(差分値演算部)53に提供されると(第2の輝度画像データ(ストロボ発光無)はステップS21の処理後に輝度画像変換部51から提供されている)、ステップS24において、加算部(差分値演算部)53は、上述したように、補正輝度画像データ(補正された第1の輝度画像データ(ストロボ発光有))と第2の輝度画像データ(ストロボ発光無)との差分画像データを生成し、2値化部54と被写体検出部55のそれぞれに提供する。
すると、ステップS25において、2値化部54は、上述したように、差分画像データの各画素値(輝度値の差分値)を2値化する。即ち、2値化部54は、2値化画像データを生成し、被写体検出部55に提供する。
その後、処理は図18のステップS26に進められる。
ステップS26において、被写体検出部55は、ステップS25(図17)の処理で2値化部54から提供された2値化画像データに対応する画像を構成する各画素のうちの、画素値が同一値(上述した第1の値と第2の値といった2値のうちの何れか一方)であって、相互に連結している画素からなる領域を検出し、領域を検出する毎にその領域に領域番号を付していく。なお、以下、このような領域番号が付された領域をラベリング領域と称する。
なお、領域番号の付し方(手法)は特に限定されないが、ここでは、次のような手法が適用されているとする。即ち、被写体検出部55は、各ラベリング領域のそれぞれにおいて、それに含まれる画素値の全てを対応する領域番号に変換する、といった手法である。換言すると、2以上のラベリング領域に区分された画像に対応する画像データ(以下、ラベリング画像データと称する)、即ち、各画素値としてラベリング番号を有するラベリング画像データを生成する、手法である。
次に、ステップS27において、被写体検出部55は、各ラベリング領域毎に、ステップS24(図17)の処理で提供された差分画像データを構成する各画素値(輝度値の差分値)のうちの、処理対象のラベリング領域に対応する2以上の画素値(輝度値の差分値)の平均値を演算する。
上述したように、差分画像データにおいて、本来、被写体領域に対応する各画素値(輝度値の差分値)はいずれも大きくなり、一方、背景領域に対応する各画素値(輝度の差分値)はいずれも小さくなるはずである。
そこで、ステップS28において、被写体検出部55は、演算された平均値(輝度値の差分値の平均値)が最高値であるラベリング領域と、その最高値に近い平均値を有するラベリング領域を、被写体領域として選定する。そして、被写体検出部55は、ラベリング画像データを構成する各画素値のうちの、被写体領域として検出されたラベリング領域に対応する画素値の全てを第1の値(例えば、白を示す値)に変換し、それ以外のラベリング領域(即ち、背景領域として検出されたラベリング領域)に対応する画素値の全てを第2の値(例えば、黒を示す値)に変換し、その結果得られる2値化画像データを、2値化被写体画像データとして、分離部56とアンチエイリアジング部46のそれぞれに提供する。
即ち、ステップS28において、被写体検出部55は、上述したように、2値化被写体抽出画像データを生成し、分離部56とアンチエイリアジング部46のそれぞれに提供する。
ステップS29において、アンチエイリアジング処理部46は、上述したように、2値化被写体抽出画像データに対してアンチエイリアジング処理を施し、その結果得られる画像データをエッジ処理参照画像データとして画像合成部45に提供する。
これにより、この例の「被写体抽出処理(図15のステップS3)」の処理は終了となり、引き続き「画像合成処理(図15のステップS4)」の処理が実行される。
以下、図19を参照して、「画像合成処理」の詳細について説明する。
はじめに、ステップS41において、図3の選択部42は、主制御部21の制御に基づいて、「撮影処理(図15のステップS2の処理であって、詳細例は図16)」で主制御部21から提供された、入力画像データ(ストロボ発光有)と入力画像データ(ストロボ発光無)とのうちのいずれを(合成用)基準画像データとするのかを決定する。
以下、このようなステップS41の処理を「合成用基準画像データ決定処理」と称する。「合成用基準画像データ決定処理」の詳細な例が図20のフローチャートに示されている。そこで、以下、図20のフローチャートを参照して、「合成用基準画像データ決定処理」の詳細な例について説明する。
はじめに、ステップS61において、選択部42は、上述したように、ストロボ必要可否検出信号(合成用基準画像選択指令)を主制御部21から入力する。
ステップS62において、選択部42は、ステップS61の処理で入力されたストロボ必要可否検出信号(合成用基準画像選択指令)に基づいて、撮影シーン(撮影範囲)の撮影時点の状態は、ストロボ発光が必要な状態であったか否かを判定する。
即ち、ストロボ必要可否検出信号(合成用基準画像選択指令)として、ストロボ必要を示す検出信号が入力された場合、ステップS62において、撮影シーンの状態は、ストロボ発光が必要な状態であったと判定し、ステップS63において、ストロボ発光有で撮影された第1の入力画像データを、合成用基準画像データとして決定し、分離部56と画像合成部45とのそれぞれに提供する。これにより、「合成用基準画像データ決定処理」は終了となる。
これに対して、ストロボ必要可否検出信号(合成用基準画像選択指令)として、ストロボ不要を示す検出信号が入力された場合、ステップS62において、撮影シーンの状態は、ストロボ発光が不要な状態であった(必要な状態ではなかった)と判定し、ステップS64において、ストロボ発光無で撮影された第2の入力画像データを、合成用基準画像データとして決定し、分離部56と画像合成部45とのそれぞれに提供する。これにより、「合成用基準画像データ決定処理」は終了となる。
図19に戻り、このようにして、ステップS41の「合成用基準画像決定処理」により決定(選定)された基準画像データが分離部56に提供されると、ステップS42において、分離部56は、上述したように、ステップS28(図18)の処理で被写体検出部55から提供された2値化被写体抽出画像データに基づいて、(合成用)基準画像データを、背景領域画像データと被写体領域画像データとに分離して、それぞれ選択部43に提供する。
ステップS43において、選択部43は、ぼかしたい領域は背景領域であるか否かを判定する。
即ち、上述したように、本実施の形態においては、主制御部21から合成用ボケ画像選択指令として入力された信号のレベルが、ローレベルの場合、その信号は、背景領域画像データを選択する指令を示しており、一方、ハイレベルの場合、その信号は、被写体領域画像データを選択する指令を示している。
そこで、主制御部21から合成用ボケ画像選択指令としてローレベルの信号が入力された場合、選択部43は、ステップS43において、ぼかしたい領域は背景領域であると判定し、分離部56から提供された背景領域画像データと被写体領域画像データとのうちの、背景領域画像データの方をフィルタ処理部(ぼかし処理部)44提供する。
すると、ステップS44において、フィルタ処理部(ぼかし処理部)44は、背景領域画像データに対して、フィルタ処理(ぼかし処理)を施し、その結果得られる画像データを合成用ボケ画像データとして決定し、画像合成部45に提供する。
これに対して、主制御部21から合成用ボケ画像選択指令としてハイレベルの信号が入力された場合、選択部43は、ステップS43において、ぼかしたい領域は被写体領域である(背景領域ではない)と判定し、分離部56から提供された背景領域画像データと被写体領域画像データとのうちの、被写体領域画像データの方をフィルタ処理部(ぼかし処理部)44提供する。
すると、ステップS45において、フィルタ処理部(ぼかし処理部)44は、被写体領域画像データに対して、フィルタ処理(ぼかし処理)を施し、その結果得られる画像データを合成用ボケ画像データとして決定し、画像合成部45に提供する。
このようにして、ステップS44またはステップS45の処理の結果、フィルタ処理部(ぼかし処理部)44から合成用ボケ画像データが画像合成部45に提供されてくると(基準画像データは、ステップS41の処理後に、エッジ処理参照画像データは、図18のステップS29の処理後に、画像合成部45にそれぞれ提供されている)、処理はステップS46に進められる。
即ち、ステップS46において、画像合成部45は、エッジ処理参照画像データ(アンチエイリアジング処理が施された2値化被写体抽出画像データ)を参照して、(合成用)基準画像データと合成用ボケ画像データとの合成画像データを生成し、出力画像データとして主制御部21に提供する。これにより、「画像合成処理」は終了となる。
図15に戻り、このようにして、ステップS4の「画像合成処理」の結果、合成画像データ(ボケ味のある被写体2の画像に対応する画像データ)が主制御部21に提供されてくると、ステップS5において、主制御部21は、上述したように、その合成画像データを、図2の画像記録部29に記録させたり、ドライブ30を介してリムーバブル記録媒体31に記録させる。なお、このとき、上述したように、合成画像データは、JPEG方式等の圧縮符号化方式により適宜圧縮(符号化)されて、画像記録部29やリムーバブル記録媒体31に記録されることもある。
これにより、デジタルスチルカメラ1の撮影記録処理は終了となる。
このように、デジタルスチルカメラ1は、以上説明した「撮影記録処理」を実行できるので、即ち、上述した(a)乃至(d)の処理を実行できるので、背景技術において説明した(上述した)(1)や(2)のような特別な条件(制約)がなくとも、 デジタルスチルカメラ1が本来有しているデジタル画像処理のみを実行することで、ボケ味のある画像(それに対応する画像データ)を容易に生成し、ユーザに提供することができる。
さらに、主制御部21は、シャッタボタン12からの信号を、上述した(a)乃至(d)の処理開始のトリガ信号とし、そのトリガ信号が発生されたとき、デジタルスチルカメラ1の各部が、上述した「撮影記録処理」を自動的に実行するように制御することができる。
なお、ここで言う自動的な処理とは、ユーザの手動操作を介在することなく、装置が自分自身の判断で(或いは他の装置の制御により)実行する処理を指す。
即ち、主制御部21は、シャッタボタン12が押下されると、ストロボ制御部26に処理を実行させ、ストロボ制御部26の制御によりストロボ発光部11の光量が変化する毎に撮影部25によりそれぞれ撮影された被写体2の2以上の画像を取得してデータ化し、その後、データ化された2以上の画像データに対する、ボケ味創出処理部28内の各部の処理を、一連の処理として上述した順番で連続して実行させるように制御することができる。
従って、ユーザから見た場合、シャッタボタン12を1度押下するといった、簡単なユーザ操作を行うだけで、ボケ味のある画像(それに対応する画像データ)を簡単に(手軽に)取得することが可能になる
このように、本実施の形態のデジタルスチルカメラ1は、従来の課題を解決できるという効果を奏することが可能になる。
換言すると、上述した(a)乃至(d)の処理を実行可能な画像処理装置であれば、即ち、ストロボ発光装置(照明装置)の制御機能、撮影装置の制御機能(画像信号の取得機能)、および、その画像信号に対するデジタル信号処理機能を少なくとも有していれば、デジタルスチルカメラ1と全く同様の効果を奏することが可能になる。即ち、このような画像処理装置に対して本発明を適用することができる。
具体的には、例えば、本発明が適用される画像処理装置として、図示はしないが、近年需要が増しているカメラ機付の携帯可能な移動情報端末を適用することも可能であるし、図21に示されるようなパーソナルコンピュータを適用することも可能である。
図21において、CPU201は、ROM202に記憶されているプログラム、または記憶部208からRAM203にロードされたプログラムに従って各種の処理を実行する。
RAM203にはまた、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU201、ROM202、およびRAM203は、バス204を介して相互に接続されている。このバス204にはまた、入出力インタフェース205も接続されている。
入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイなどよりなる出力部207、ハードディスクなどより構成される記憶部208、および、インターネットを含むネットワーク(図示せず)を介して他の装置(図示せず)との通信処理を行う通信部209が接続されている。
入出力インタフェース205にはまた、撮影部210とストロボ制御部211が接続されている。ストロボ制御部211には、ストロボ発光部212と受光センサ213が接続されている。撮影部210、ストロボ制御部211、ストロボ発光部212、および、受光センサ213のそれぞれは、上述した図2における、撮影部25、ストロボ制御部26、ストロボ発光部11、および、受光センサ27のそれぞれと基本的に同様の機能を有しているものであれば、それらの形態は特に限定されない。また、撮影部210とストロボ発光部212のそれぞれは必須な構成要素ではなく(内蔵されている必要は無く)、外付けの装置でもよい。
入出力インタフェース205にはさらに、必要に応じてドライブ214が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等などからなるリムーバブル記録媒体215が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部208にインストールされる。
ところで、上述した一連の処理(例えば、上述した(a)乃至(d)の処理)をソフトウエアで実行させる場合には、そのソフトウエアを構成するプログラムは、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図2または図21に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記憶されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるパッケージメディア(図2のリムーバブル記録媒体31、または、図21のリムーバブル記録媒体215)により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記憶されているROM22(図2)またはROM202(図21)や、画像記録部29(図2)または記憶部208(図21)に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置や処理部により構成される装置全体を表すものである。
本発明が適用される画像処理装置としてのデジタルスチルカメラの外観の構成例を示す図である。 図1のデジタルスチルカメラの内部の構成例を示すブロック図である。 図2のデジタルスチルカメラのうちのボケ味創出処理部の機能的構成例の詳細を示すブロック図である。 デジタルスチルカメラによりストロボ発光有で撮影された画像例である。 デジタルスチルカメラによりストロボ発光無で撮影された画像例である。 図3のボケ味創出処理部のうちの被写体検出部から出力される2値化被写体抽出画像データに対応する画像例である。 図3のボケ味創出処理部のうちの分離部から出力される被写体領域画像データに対応する画像例である。 図3のボケ味創出処理部のうちの分離部から出力される背景領域画像データに対応する画像例である。 図3のボケ味創出処理部のうちのフィルタ処理部により、図8の画像に対応する背景画像データがフィルタ処理が施され、その結果得られる画像データに対応する画像例である。 本実施の形態のアンチエイジリアング処理を説明する図である。 本実施の形態のアンチエイジリアング処理を説明する図である。 本実施の形態のアンチエイジリアング処理を説明する図である。 本実施の形態のアンチエイジリアング処理を説明する図である。 図3のボケ味創出処理部のうちの画像合成部の処理内容を説明する図である。 図2のデジタルスチルカメラが実行する撮影記録処理の例を説明するフローチャートである。 図15の撮影記録処理のうちの撮影処理の詳細な例を説明するフローチャートである。 図15の撮影記録処理のうちの被写体抽出処理の詳細な例を説明するフローチャートである。 図15の撮影記録処理のうちの被写体抽出処理の詳細な例を説明するフローチャートである。 図15の撮影記録処理のうちの画像合成処理の詳細な例を説明するフローチャートである。 図19の画像合成処理のうちの合成用基準画像データ決定処理の詳細な例を説明するフローチャートである。 本発明が適用される画像処理装置の他の実施の形態の構成例を示すブロック図である。
符号の説明
1 デジタルスチルカメラ, 2 被写体, 11 ストロボ発光部, 12 シャッタボタン, 21 主制御部, 22 ROM, 23 RAM, 24 操作部, 25 撮影部, 26 ストロボ制御部, 27 受光センサ, 28 ボケ味創出処理部, 29 画像記録部, 30 ドライブ, 31 リムーバブル記録媒体, 32 フィルタ種類決定キー, 41 領域抽出部, 42,43 選択部, 44 フィルタ処理部(ぼかし処理部), 45 画像合成部, 51 輝度画像変換部, 52 位置ずれ補正部, 53 加算部(差分値演算部), 54 2値化部, 55 被写体検出部, 56 分離部

Claims (12)

  1. 撮影装置により撮影され、データ化された被写体の画像データを処理する画像処理装置において、
    照明装置の光量を設定し、前記撮影装置が前記被写体を撮影するときに、設定された光量で前記照明装置が前記被写体に対して発光することを制御する照明制御手段と、
    前記照明制御手段の制御により前記照明装置の光量が変化する毎に前記撮影装置によりそれぞれ撮影され、データ化された前記被写体の2以上の画像データに基づいて、2以上の前記画像データのうちの基準となる基準画像データから、前記被写体を示す被写体領域と前記被写体以外の背景を示す背景領域とのそれぞれを個別に画像データとして抽出する領域抽出手段と、
    前記領域抽出手段により抽出された前記被写体領域の画像データと前記背景領域の画像データとのうちの少なくとも一方に対して、ぼかし効果のあるフィルタ処理を施すフィルタ処理手段と、
    前記被写体領域の画像データと前記背景領域の画像データとのうちの前記フィルタ処理手段により前記フィルタ処理が施された画像データと、前記基準画像データとの合成画像データを生成する合成手段と
    を備えることを特徴とする画像処理装置。
  2. 前記照明制御手段は、前記照明装置の光量として、第1の光量と第2の光量とのうちのいずれか一方を設定し、
    前記画像処理装置は、前記照明装置が前記第1の光量で発光しているときに前記撮影装置により撮影され、データ化された前記被写体の第1の画像データと、前記照明装置が前記第2の光量で発光しているときに前記撮影装置により撮影され、データ化された前記被写体の第2の画像データとの中から、前記基準画像データを選択する選択手段をさらに備え、
    前記領域抽出手段は、前記第1の画像データに対応する画像を構成する各画素の輝度と、前記第2の画像データに対応する画像を構成する各画素の輝度との相互の関係に基づいて、前記選択手段により選択された前記基準画像データから、前記被写体領域の画像データと前記背景領域の画像データとのそれぞれを抽出する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記照明制御手段は、前記第1の光量として、前記照明装置の照射範囲内に前記被写体が少なくとも位置する条件を満たす光量を設定し、前記第2の光量として、0光量を設定する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記領域抽出手段は、
    前記第1の画像データを構成する前記各画素値のそれぞれと、前記第2の画像データを構成する前記各画素値のうちの、画素位置が対応する前記画素値との差分値を演算する差分値演算手段と、
    前記差分値演算手段により演算された前記差分値のそれぞれに基づいて、前記選択手段により選択された前記基準画像データから、前記被写体領域の画像データと前記背景領域の画像データとを分離して抽出する分離手段と
    を有することを特徴とする請求項2に記載の画像処理装置。
  5. 前記領域抽出手段は、前記第1の画像データに対応する画像を構成する各画素のうちの少なくとも一部に対して、前記第2の画像データに対応する画像を構成する各画素の中から対応点となる画素を求め、求められた前記対応点との位置関係のそれぞれに基づいて、前記第1の画像データに対応する前記画像の画素位置を補正する補正手段をさらに有し、
    前記差分値演算手段は、前記補正手段により補正された前記第1の輝度画像データを構成する前記各画素値のそれぞれと、前記第2の輝度画像データを構成する前記各画素値のうちの、画素位置が対応する前記画素値との差分値を演算する
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記差分値演算手段は、演算された前記差分値のそれぞれを各画素値として有する差分画像データを出力し、
    前記領域抽出手段は、前記差分値演算手段から出力された前記差分画像データの前記画素値のそれぞれを2値化し、その結果得られる第1の2値化画像データを出力する2値化手段と、
    前記差分値演算手段から出力された前記差分画像データに基づいて、前記2値化手段から出力された前記第1の2値化画像データに対応する画像の中から前記被写体領域を検出し、検出された前記被写体領域を構成する画素の画素値を第1の値とし、それ以外の前記背景領域を構成する画素の画素値を第2の値として有する第2の2値化画像データを生成して出力する被写体検出手段と
    をさらに有し、
    前記分離手段は、前記被写体検出手段から出力された前記第2の2値化画像データに基づいて、前記基準画像データから、前記被写体領域の画像データと前記背景領域の画像データとを分離して抽出する
    ことを特徴とする請求項4に記載の画像処理装置。
  7. 前記被写体検出手段から出力された前記第2の2値化画像データに対してアンチエイリアジング処理を施すアンチエイリアジング処理手段をさらに備え、
    前記合成手段は、前記アンチエイリアジング処理手段により前記アンチエイリアジング処理が施された前記第2の2値化画像データに基づいて、これから生成する前記合成画像データのうちの、対応する画像の前記被写体領域と前記背景領域との境界およびその近傍に位置する各画素の画素値のそれぞれを決定する
    ことを特徴とする請求項7に記載の画像処理装置。
  8. 前記アンチエイリアジング処理手段は、入力変数として所定の方向の画素位置が入力され、入力された前記画素位置の画素における、前記被写体領域と前記背景領域との混合比を示す値を出力する関数であって、前記所定の方向に沿って出力が曲線変化する前記関数を利用して、前記アンチエイリアジング処理を実行する
    ことを特徴とする請求項8に記載の画像処理装置。
  9. 前記フィルタ処理手段の前記フィルタ処理として予め登録されている複数種類の処理のうちの、これから使用する種類を指定し、指定された種類の前記フィルタ処理に必要なパラメータの値を指定する指定手段をさらに備え、
    前記フィルタ処理手段は、前記指定手段により指定された種類の前記フィルタ処理を、前記指定手段により指定された前記パラメータの値を用いて実行する
    ことを特徴とする請求項1に記載の画像処理装置。
  10. 前記撮影手段に前記被写体を撮影させるトリガを発生するトリガ発生手段と、
    前記トリガ発生手段により前記トリガが発生されたとき、前記照明制御手段に処理を実行させ、前記照明制御手段の制御により前記照明装置の光量が変化する毎に前記撮影装置によりそれぞれ撮影された前記被写体の2以上の画像を取得してデータ化し、その後、データ化された2以上の前記画像データに対する、前記領域抽出手段、前記フィルタ処理手段、および、前記合成手段の処理を、一連の処理としてその順番で連続して実行させるように制御する処理制御手段と
    をさらに備えることを特徴とする請求項1に記載の画像処理装置。
  11. 撮影装置により撮影され、データ化された被写体の画像データを処理する画像処理装置の画像処理方法において、
    照明装置の光量を設定し、前記撮影装置が前記被写体を撮影するときに、設定された光量で前記照明装置が前記被写体に対して発光することを制御する照明制御ステップと、
    前記照明制御ステップの制御処理により前記照明装置の光量が変化する毎に前記撮影装置によりそれぞれ撮影され、データ化された前記被写体の2以上の画像データに基づいて、2以上の前記画像データのうちの基準となる基準画像データから、前記被写体を示す被写体領域と前記被写体以外の背景を示す背景領域とのそれぞれを個別に画像データとして抽出する領域抽出ステップと、
    前記領域抽出ステップの処理により抽出された前記被写体領域の画像データと前記背景領域の画像データとのうちの少なくとも一方に対して、ぼかし効果のあるフィルタ処理を施すフィルタ処理ステップと、
    前記被写体領域の画像データと前記背景領域の画像データとのうちの前記フィルタ処理手段により前記フィルタ処理が施された画像データと、前記基準画像データとの合成画像データを生成する合成ステップと
    を含むことを特徴とする画像処理方法。
  12. 撮影装置により撮影され、データ化された被写体の画像データに施す画像処理を制御するコンピュータに実行させるプログラムであって、
    照明装置の光量を設定し、前記撮影装置が前記被写体を撮影するときに、設定された光量で前記照明装置が前記被写体に対して発光することを制御する照明制御ステップと、
    前記照明制御ステップの制御処理により前記照明装置の光量が変化する毎に前記撮影装置によりそれぞれ撮影され、データ化された前記被写体の2以上の画像データに基づいて、2以上の前記画像データのうちの基準となる基準画像データから、前記被写体を示す被写体領域と前記被写体以外の背景を示す背景領域とのそれぞれを個別に画像データとして抽出する領域抽出ステップと、
    前記領域抽出ステップの処理により抽出された前記被写体領域の画像データと前記背景領域の画像データとのうちの少なくとも一方に対して、ぼかし効果のあるフィルタ処理を施すフィルタ処理ステップと、
    前記被写体領域の画像データと前記背景領域の画像データとのうちの前記フィルタ処理手段により前記フィルタ処理が施された画像データと、前記基準画像データとの合成画像データを生成する合成ステップと
    を含むことを特徴とするプログラム。
JP2004033723A 2004-02-10 2004-02-10 撮影装置および撮影方法、並びに、プログラム Expired - Fee Related JP4321287B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004033723A JP4321287B2 (ja) 2004-02-10 2004-02-10 撮影装置および撮影方法、並びに、プログラム
US11/049,683 US7418150B2 (en) 2004-02-10 2005-02-04 Image processing apparatus, and program for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004033723A JP4321287B2 (ja) 2004-02-10 2004-02-10 撮影装置および撮影方法、並びに、プログラム

Publications (2)

Publication Number Publication Date
JP2005229198A true JP2005229198A (ja) 2005-08-25
JP4321287B2 JP4321287B2 (ja) 2009-08-26

Family

ID=34908328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004033723A Expired - Fee Related JP4321287B2 (ja) 2004-02-10 2004-02-10 撮影装置および撮影方法、並びに、プログラム

Country Status (2)

Country Link
US (1) US7418150B2 (ja)
JP (1) JP4321287B2 (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007116635A (ja) * 2005-10-24 2007-05-10 Canon Inc 撮像装置
JP2007124292A (ja) * 2005-10-28 2007-05-17 Casio Comput Co Ltd 撮像装置、撮像方法および撮像プログラム
JP2009512290A (ja) * 2005-10-12 2009-03-19 アクティブ オプティクス ピーティーワイ リミテッド 複数の画像フレームに基づく画像形成方法、画像処理システム、およびデジタルカメラ
JP2009177782A (ja) * 2007-12-28 2009-08-06 Sanyo Electric Co Ltd 画像処理装置および撮影装置
JP2009536417A (ja) * 2006-05-03 2009-10-08 フォトネーション アイルランド リミテッド デジタル画像における改良された前景/背景分離
JP2010114566A (ja) * 2008-11-05 2010-05-20 Casio Computer Co Ltd 撮像装置、撮像方法及びプログラム
CN102316270A (zh) * 2010-07-05 2012-01-11 卡西欧计算机株式会社 具有合成图像的功能的图像处理装置及方法
JP4924430B2 (ja) * 2005-10-28 2012-04-25 株式会社ニコン 撮影装置、画像処理装置およびプログラム
US8170350B2 (en) 2004-08-16 2012-05-01 DigitalOptics Corporation Europe Limited Foreground/background segmentation in digital images
US8325268B2 (en) 2007-12-28 2012-12-04 Sanyo Electric Co., Ltd. Image processing apparatus and photographing apparatus
JP2012248001A (ja) * 2011-05-27 2012-12-13 Canon Inc 画像処理装置および画像処理方法、プログラム
US8395694B2 (en) 2007-12-21 2013-03-12 Samsung Electronics Co., Ltd. Apparatus and method for blurring image background in digital image processing device
US8526761B2 (en) 2009-12-17 2013-09-03 Sanyo Electric Co., Ltd. Image processing apparatus and image sensing apparatus
US8531373B2 (en) 2007-11-20 2013-09-10 Semiconductor Energy Laboratory Co., Ltd. Liquid crystal display device and image display method of the same
WO2013136403A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 画像処理装置、集積回路、プログラム、撮像装置、表示装置
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
JP2014042164A (ja) * 2012-08-22 2014-03-06 Canon Inc 電子機器、その制御方法、プログラムおよび記録媒体
CN103997599A (zh) * 2013-02-14 2014-08-20 佳能株式会社 图像处理设备、图像拾取设备以及图像处理方法
US9123132B2 (en) 2007-11-22 2015-09-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image display system, and computer program
WO2019017081A1 (ja) * 2017-07-21 2019-01-24 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび撮像装置
WO2019228337A1 (zh) * 2018-05-30 2019-12-05 深圳市大疆创新科技有限公司 移动体、图像生成方法、程序以及记录介质
JP2020155912A (ja) * 2019-03-20 2020-09-24 国立大学法人福井大学 照明装置、照明方法および照明システム

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7639889B2 (en) 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method of notifying users regarding motion artifacts based on image analysis
US8989516B2 (en) 2007-09-18 2015-03-24 Fotonation Limited Image processing method and apparatus
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8494286B2 (en) * 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7692696B2 (en) 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
WO2011017393A1 (en) 2009-08-04 2011-02-10 Eyecue Vision Technologies Ltd. System and method for object extraction
KR100793230B1 (ko) * 2006-07-24 2008-01-10 엘지전자 주식회사 카메라의 부분 역광 보정장치 및 방법
US20080036864A1 (en) * 2006-08-09 2008-02-14 Mccubbrey David System and method for capturing and transmitting image data streams
JP4934843B2 (ja) * 2006-11-29 2012-05-23 株式会社リコー 情報処理装置、画像登録方法、およびプログラム
WO2008117963A1 (en) * 2007-03-23 2008-10-02 Lg Electronics Inc. A method and an apparatus for decoding/encoding a video signal
US7773118B2 (en) 2007-03-25 2010-08-10 Fotonation Vision Limited Handheld article with movement discrimination
KR100883106B1 (ko) * 2007-04-03 2009-02-11 삼성전자주식회사 비디오 데이터 표시 방법 및 이를 이용하는 휴대 단말기
JP5006727B2 (ja) * 2007-07-26 2012-08-22 株式会社リコー 画像処理装置およびデジタルカメラ
TWI343207B (en) * 2007-09-07 2011-06-01 Lite On Technology Corp Device and method for obtain a clear image
US20090067805A1 (en) * 2007-09-10 2009-03-12 Victor Company Of Japan, Limited Recording and reproducing device
CN101472064A (zh) * 2007-12-25 2009-07-01 鸿富锦精密工业(深圳)有限公司 拍摄***及其景深处理方法
US8687918B2 (en) * 2008-03-05 2014-04-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image processing system, and computer program
US20100254592A1 (en) * 2009-04-01 2010-10-07 Koun-Ping Cheng Calculating z-depths and extracting objects in images
US9595108B2 (en) 2009-08-04 2017-03-14 Eyecue Vision Technologies Ltd. System and method for object extraction
WO2011060385A1 (en) * 2009-11-13 2011-05-19 Pixel Velocity, Inc. Method for tracking an object through an environment across multiple cameras
JP5478215B2 (ja) * 2009-11-25 2014-04-23 オリンパスイメージング株式会社 撮影装置および撮影装置の制御方法
JP5493789B2 (ja) 2009-12-07 2014-05-14 株式会社リコー 撮像装置および撮像方法
US8810691B2 (en) 2010-09-03 2014-08-19 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable recording medium
KR20120032321A (ko) * 2010-09-28 2012-04-05 삼성전자주식회사 디스플레이 장치 및 이의 영상 처리 방법
TWI532009B (zh) * 2010-10-14 2016-05-01 華晶科技股份有限公司 產生淺景深影像的方法及裝置
KR101692401B1 (ko) * 2011-01-21 2017-01-03 삼성전자주식회사 영상 처리 방법 및 장치
US8497924B2 (en) * 2011-04-27 2013-07-30 Eastman Kodak Company Apparatus for eliminating background noise
US8493479B2 (en) * 2011-04-27 2013-07-23 Eastman Kodak Company Method of eliminating background noise
JP2012247874A (ja) 2011-05-25 2012-12-13 Sony Corp 画像処理装置および方法
TWI479453B (zh) * 2011-05-31 2015-04-01 Altek Corp 產生淺景深影像的方法及裝置
US9025873B2 (en) * 2011-11-10 2015-05-05 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP6218378B2 (ja) * 2012-12-27 2017-10-25 キヤノン株式会社 画像処理装置及び画像処理方法
KR20150039019A (ko) * 2013-10-01 2015-04-09 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP6270413B2 (ja) * 2013-10-29 2018-01-31 キヤノン株式会社 画像処理装置、撮像装置、および画像処理方法
JP5920733B2 (ja) * 2013-10-31 2016-05-18 京セラドキュメントソリューションズ株式会社 画像形成装置
JP6285160B2 (ja) * 2013-11-27 2018-02-28 京セラ株式会社 カメラ機能を有する機器、撮影制御方法およびプログラム
US9237277B1 (en) * 2014-06-06 2016-01-12 Google Inc. Accurate simulation of shallow depth of field using contrast detection
CN105516586A (zh) * 2015-12-01 2016-04-20 小米科技有限责任公司 图片拍摄方法、装置及***
JP6806572B2 (ja) * 2017-01-16 2021-01-06 キヤノン株式会社 撮像制御装置、撮像装置、制御方法、プログラム、及び記憶媒体
US20210134049A1 (en) * 2017-08-08 2021-05-06 Sony Corporation Image processing apparatus and method
KR102393299B1 (ko) * 2017-08-09 2022-05-02 삼성전자주식회사 이미지 처리 방법 및 그에 따른 장치
WO2019047985A1 (zh) * 2017-09-11 2019-03-14 Oppo广东移动通信有限公司 图像处理方法和装置、电子装置和计算机可读存储介质
CN108648139A (zh) * 2018-04-10 2018-10-12 光锐恒宇(北京)科技有限公司 一种图像处理方法和装置
US10861165B2 (en) * 2019-01-11 2020-12-08 Microsoft Technology Licensing, Llc Subject tracking with aliased time-of-flight data
US10554890B1 (en) 2019-02-18 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method for generating low-light images with improved bokeh using mobile electronic device
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100244965B1 (ko) * 1997-08-12 2000-02-15 윤종용 인쇄회로기판과 볼 그리드 어레이 패키지의 제조 방법
US7245325B2 (en) * 2000-03-17 2007-07-17 Fujifilm Corporation Photographing device with light quantity adjustment
JP3937678B2 (ja) * 2000-03-23 2007-06-27 コニカミノルタホールディングス株式会社 電子スチルカメラ
TW462121B (en) * 2000-09-19 2001-11-01 Siliconware Precision Industries Co Ltd Heat sink type ball grid array package
US6584287B2 (en) * 2000-10-18 2003-06-24 Fuji Photo Film Co., Ltd. Camera and image forming system using the camera
US7251056B2 (en) * 2001-06-11 2007-07-31 Ricoh Company, Ltd. Image processing apparatus, image processing method and information recording medium
JP2003066321A (ja) * 2001-08-29 2003-03-05 Mega Chips Corp Af制御装置およびaf制御方法
JP2003274427A (ja) * 2002-03-15 2003-09-26 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム
US6788892B2 (en) * 2002-06-06 2004-09-07 Fuji Photo Film Co., Ltd. Strobe light-emission control apparatus

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170350B2 (en) 2004-08-16 2012-05-01 DigitalOptics Corporation Europe Limited Foreground/background segmentation in digital images
JP2009512290A (ja) * 2005-10-12 2009-03-19 アクティブ オプティクス ピーティーワイ リミテッド 複数の画像フレームに基づく画像形成方法、画像処理システム、およびデジタルカメラ
JP4651716B2 (ja) * 2005-10-12 2011-03-16 アクティブ オプティクス ピーティーワイ リミテッド 複数の画像フレームに基づく画像形成方法、画像処理システム、およびデジタルカメラ
JP2007116635A (ja) * 2005-10-24 2007-05-10 Canon Inc 撮像装置
JP4582648B2 (ja) * 2005-10-24 2010-11-17 キヤノン株式会社 撮像装置
US9596407B2 (en) 2005-10-28 2017-03-14 Nikon Corporation Imaging device, with blur enhancement
US8988542B2 (en) 2005-10-28 2015-03-24 Nikon Corporation Imaging device, with blur enhancement
JP4924430B2 (ja) * 2005-10-28 2012-04-25 株式会社ニコン 撮影装置、画像処理装置およびプログラム
JP2007124292A (ja) * 2005-10-28 2007-05-17 Casio Comput Co Ltd 撮像装置、撮像方法および撮像プログラム
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
JP2009536417A (ja) * 2006-05-03 2009-10-08 フォトネーション アイルランド リミテッド デジタル画像における改良された前景/背景分離
US9117282B2 (en) 2006-05-03 2015-08-25 Fotonation Limited Foreground / background separation in digital images
US8363908B2 (en) 2006-05-03 2013-01-29 DigitalOptics Corporation Europe Limited Foreground / background separation in digital images
US8531373B2 (en) 2007-11-20 2013-09-10 Semiconductor Energy Laboratory Co., Ltd. Liquid crystal display device and image display method of the same
US9123132B2 (en) 2007-11-22 2015-09-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image display system, and computer program
US8395694B2 (en) 2007-12-21 2013-03-12 Samsung Electronics Co., Ltd. Apparatus and method for blurring image background in digital image processing device
US8325268B2 (en) 2007-12-28 2012-12-04 Sanyo Electric Co., Ltd. Image processing apparatus and photographing apparatus
JP4606486B2 (ja) * 2007-12-28 2011-01-05 三洋電機株式会社 画像処理装置および撮影装置
JP2009177782A (ja) * 2007-12-28 2009-08-06 Sanyo Electric Co Ltd 画像処理装置および撮影装置
JP2010114566A (ja) * 2008-11-05 2010-05-20 Casio Computer Co Ltd 撮像装置、撮像方法及びプログラム
US8526761B2 (en) 2009-12-17 2013-09-03 Sanyo Electric Co., Ltd. Image processing apparatus and image sensing apparatus
CN102316270A (zh) * 2010-07-05 2012-01-11 卡西欧计算机株式会社 具有合成图像的功能的图像处理装置及方法
US8488899B2 (en) 2010-07-05 2013-07-16 Casio Computer Co., Ltd. Image processing apparatus, method and recording medium
JP2012014658A (ja) * 2010-07-05 2012-01-19 Casio Comput Co Ltd 画像処理装置及び方法、並びにプログラム
JP2012248001A (ja) * 2011-05-27 2012-12-13 Canon Inc 画像処理装置および画像処理方法、プログラム
WO2013136403A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 画像処理装置、集積回路、プログラム、撮像装置、表示装置
US9002128B2 (en) 2012-03-15 2015-04-07 Panasonic Intellectual Property Corporation Of America Image processing apparatus, integrated circuit, program, imaging apparatus, and display apparatus
JPWO2013136403A1 (ja) * 2012-03-15 2015-07-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像処理装置、集積回路、プログラム、撮像装置、表示装置
JP2014042164A (ja) * 2012-08-22 2014-03-06 Canon Inc 電子機器、その制御方法、プログラムおよび記録媒体
US9521316B2 (en) 2013-02-14 2016-12-13 Canon Kabushiki Kaisha Image processing apparatus for reconstructing an image, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
CN103997599A (zh) * 2013-02-14 2014-08-20 佳能株式会社 图像处理设备、图像拾取设备以及图像处理方法
CN103997599B (zh) * 2013-02-14 2017-09-26 佳能株式会社 图像处理设备、图像拾取设备以及图像处理方法
WO2019017081A1 (ja) * 2017-07-21 2019-01-24 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび撮像装置
CN110915204A (zh) * 2017-07-21 2020-03-24 索尼公司 图像处理装置、图像处理方法、程序和成像装置
US11172173B2 (en) 2017-07-21 2021-11-09 Sony Group Corporation Image processing device, image processing method, program, and imaging device
CN110915204B (zh) * 2017-07-21 2022-07-26 索尼公司 图像处理装置、图像处理方法、存储介质和成像装置
WO2019228337A1 (zh) * 2018-05-30 2019-12-05 深圳市大疆创新科技有限公司 移动体、图像生成方法、程序以及记录介质
JP2020155912A (ja) * 2019-03-20 2020-09-24 国立大学法人福井大学 照明装置、照明方法および照明システム
JP7219460B2 (ja) 2019-03-20 2023-02-08 国立大学法人福井大学 照明装置、照明方法および照明システム

Also Published As

Publication number Publication date
JP4321287B2 (ja) 2009-08-26
US7418150B2 (en) 2008-08-26
US20050195317A1 (en) 2005-09-08

Similar Documents

Publication Publication Date Title
JP4321287B2 (ja) 撮影装置および撮影方法、並びに、プログラム
US9094648B2 (en) Tone mapping for low-light video frame enhancement
JP5460173B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
US9307212B2 (en) Tone mapping for low-light video frame enhancement
KR101303410B1 (ko) 촬상장치 및 촬상방법
JP4668956B2 (ja) 画像処理装置および方法並びにプログラム
KR101643613B1 (ko) 디지털 영상 처리 장치, 영상 처리 방법 및 이를 기록한 기록 매체
KR101661216B1 (ko) 디지털 영상 처리 장치, 디지털 영상 신호 처리 방법 및 상기 방법을 기록한 기록 매체
JP2009282979A (ja) 画像処理装置及び画像処理方法
KR101626004B1 (ko) 디지털 영상처리장치에서 raw포맷을 선택적으로 지원하는 방법 및 장치
KR20070121717A (ko) 컬러 디지털 이미지를 사용하여 선명도 변경과 같은 액션을제어하는 방법
US8988545B2 (en) Digital photographing apparatus and method of controlling the same
JP4891647B2 (ja) カメラ
JP2009020834A (ja) 画像処理装置、方法およびプログラムならびに撮像装置
JP6304293B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2010239440A (ja) 画像合成装置及びプログラム
JP2006254129A (ja) ヒストグラム表示装置
JP2010279054A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2015012481A (ja) 画像処理装置
JP5160655B2 (ja) 画像処理装置および方法並びにプログラム
JP2015080157A (ja) 画像処理装置、画像処理方法及びプログラム
JP2005117399A (ja) 画像処理装置
JP2013081136A (ja) 画像処理装置および制御プログラム
JP5636660B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5476900B2 (ja) 画像合成装置、画像合成方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090512

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090525

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees