JP2015032991A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2015032991A
JP2015032991A JP2013161240A JP2013161240A JP2015032991A JP 2015032991 A JP2015032991 A JP 2015032991A JP 2013161240 A JP2013161240 A JP 2013161240A JP 2013161240 A JP2013161240 A JP 2013161240A JP 2015032991 A JP2015032991 A JP 2015032991A
Authority
JP
Japan
Prior art keywords
image data
subject
image processing
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013161240A
Other languages
English (en)
Other versions
JP6268790B2 (ja
Inventor
斎藤 郁哉
Ikuya Saito
郁哉 斎藤
中島 伸一
Shinichi Nakajima
伸一 中島
靖博 益戸
Yasuhiro Masudo
靖博 益戸
啓一 新田
Keiichi Nitta
啓一 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013161240A priority Critical patent/JP6268790B2/ja
Priority claimed from JP2013161240A external-priority patent/JP6268790B2/ja
Publication of JP2015032991A publication Critical patent/JP2015032991A/ja
Application granted granted Critical
Publication of JP6268790B2 publication Critical patent/JP6268790B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザの欲する画像を得る。
【解決手段】撮像装置は、被写体を撮像して、第1画像データを生成する生成手段と、生成手段により生成された第1画像データを複数の部分領域に分割する分割手段と、分割手段によって分割された複数の部分領域と、所定の被写体に関連するテンプレートとに基づいて、複数の部分領域のそれぞれについて被写体らしさを算出する算出手段と、算出手段により複数の部分領域ごとに算出された被写体らしさに応じて、第1画像データに対して第1画像処理を施す第1画像処理手段とを備える。
【選択図】図3

Description

本発明は、撮像装置に関する。
従来、分割された各領域の被写体の前後関係を、距離情報を用いてグループに区分して、特定被写体の指示操作に応じて、異なる空間周波数フィルタを適用する撮像装置が開示されている(例えば、特許文献1参照)。
特開2006−67521号公報
しかしながら、上記特許文献1に記載に記載のような従来の撮像装置においては、同じ距離にある被写体は同じグループに区分されてしまう可能性があり、ユーザの欲する画像を得られない可能性があった。
請求項1に記載の撮像装置は、被写体を撮像して、第1画像データを生成する生成手段と、前記生成手段により生成された前記第1画像データを複数の部分領域に分割する分割手段と、前記分割手段によって分割された前記複数の部分領域と、所定の被写体に関連するテンプレートとに基づいて、前記複数の部分領域のそれぞれについて被写体らしさを算出する算出手段と、前記算出手段により前記複数の部分領域ごとに算出された前記被写体らしさに応じて、前記第1画像データに対して第1画像処理を施す第1画像処理手段とを備えることを特徴とする。
請求項12に記載の撮像装置は、被写体を撮像して、画像データを生成する生成手段と、前記生成手段により生成された前記画像データを複数の部分領域に分割する分割手段と、前記分割手段によって分割された前記複数の部分領域と、所定の被写体に関連するテンプレートとに基づいて、前記複数の部分領域のそれぞれについて被写体らしさを算出する算出手段と、前記算出手段により算出された前記複数の部分領域ごとに前記被写体らしさに応じて、前記画像データに対して前記複数の部分領域のそれぞれについて度合の異なる画像処理を施す画像処理手段とを備えることを特徴とする。
本発明によれば、ユーザの欲する画像を得ることができる。
本発明の実施の形態によるデジタルカメラの要部構成を説明するブロック図 焦点検出領域の配置の一例を説明する図 実施の形態によるデジタルカメラの画像処理部の機能を説明するブロック図 画像処理部による処理の概要を示す模式図 生成された画像データの一例を示す図 テンプレート画像の一例を示す図 評価値の決定方法を説明する図 テンプレート画像とプリ分割画像とを比較した場合を説明する図 被写体マップの一例を説明する図 αブレンドマップの生成方法を模式的に示す図 実施の形態によるデジタルカメラの動作を説明するフローチャート
図面を参照して、本発明による実施の形態におけるデジタルカメラを説明する。図1はデジタルカメラ1の要部構成を示すブロック図である。デジタルカメラ1は、撮影レンズL1、撮像素子11、制御回路12、LCD駆動回路13、液晶表示器14、操作部15およびメモリカードインタフェース20を備えている。撮影レンズL1は、結像レンズや焦点調節レンズ等の種々の光学レンズ群を含んで構成される。なお、図1では撮影レンズL1を1枚のレンズで代表して表している。
撮像素子11は、撮像面上において、例えば行列状に多数配列されたCCDやCMOS等の光電変換素子(画素)や画素の駆動を制御する各種の回路により構成される。撮像素子11は、撮影レンズL1を通して入力される被写体像を撮像し、撮像して得た撮像信号を制御回路12に出力する。撮像素子11の各画素にはR(赤)、G(緑)、B(青)のカラーフィルタが設けられ、出力される撮像信号には、R、G、Bの色情報が含まれる。また、撮像素子11には、後述する焦点検出領域に対応した部分に焦点検出用画素が組み込まれている。
制御回路12は、図示しないCPU、ROM、RAMなどを有し、制御プログラムに基づいて、デジタルカメラ1の各構成要素を制御したり、各種のデータ処理を実行したりする演算回路である。制御プログラムは、制御回路12内の不図示の不揮発性メモリに格納されている。制御回路12は、撮像素子11から出力された撮像信号を用いて画像データを生成する画像処理部16と、焦点調節部17とを備えている。制御回路12が有するこれらの各部は、制御回路12が上述の制御プログラムを実行することにより、ソフトウェア的に実現されている。なお、これらの各部を、同等の機能を有する電子回路として構成してもよい。
画像処理部16は、撮像信号に対して種々の画像処理を施して画像データを生成する。画像処理部16は、生成した画像データを後述するメモリカード21等の記録媒体に記録する。また、画像処理部16は、内部メモリ(不図示)に格納されている画像データやメモリカード21に記録されている画像データに基づいて、後述する液晶表示器14に表示するための表示画像データを生成する。なお、画像処理部16の詳細については、説明を後述する。
焦点調節部17は、撮像素子11の焦点検出用画素から出力された焦点検出用信号に基づく焦点検出演算と撮影レンズL1の焦点調節とを行う。焦点調節部17は、たとえば公知の位相差方式によりデフォーカス量を各焦点検出領域ごとに検出する。本実施の形態では、たとえば図2に一例を示すように複数の焦点検出領域40a〜40kが設定されているものとする。焦点調節部17は、検出したそれぞれの焦点検出領域40a〜40kに対応するデフォーカス量を用いて焦点調節レンズの駆動量を算出し、撮影レンズL1に含まれるフォーカスレンズ(不図示)を駆動させる。
LCD駆動回路13は、制御回路12の命令に基づいて液晶表示器14を駆動する回路である。液晶表示器14は、画像処理部16で作成された表示画像データに対応する画像の表示を行う。さらに、液晶表示器14には、デジタルカメラ1の各種動作を設定するためのメニュー画面が表示される。
操作部15はユーザによって操作される種々の操作部材を含み、操作部材の操作に応じた操作信号を制御回路12へ出力する。操作部材は、たとえばレリーズボタンや、液晶表示器14にメニュー画面を表示させるためのメニューボタンや、各種の設定等を選択操作する時に操作される十字キー、十字キーにより選択された設定等を決定するための決定ボタン、撮影モードと再生モードを切替えるモード切替ボタン等を含む。また、撮影モードとして、後述するように、主要被写体である人物に優先的にデジタルライティング処理を施すモードが含まれている。ここで、デジタルライティング処理は、デジタル画像処理により画像を明るくする処理である。
メモリカードインタフェース20は、メモリカード21が着脱可能なインタフェースである。メモリカードインタフェース20は、制御回路12の制御に基づいて、画像データをメモリカード21に書き込んだり、メモリカード21に記録されている画像データを読み出すインタフェース回路である。メモリカード21はコンパクトフラッシュ(登録商標)やSDカードなどの半導体メモリカードである。
図3は、画像処理部16の機能を説明するブロック図である。図3(a)は、人物が一人の場合、図3(b)は、人物が複数の場合の例を示している。以下、画像中の処理対象とする被写体が人物である場合を用いて説明する。画像処理部16は、画像生成部16a、特定部16b、領域分割部16c、評価値算出部16d、被写体マップ生成部16e、αブレンドマップ生成部16f、処理部16gおよび合成部16hを備える。画像処理部16は、ユーザにより画像処理モードが選択されると、主要被写体である人物に対して優先的にデジタルライティング処理を施す。画像生成部16aは、撮像素子11から出力された撮像信号を用いて、画像データを生成する。特定部16bは、画像生成部16aにより生成された画像データから主要被写体、たとえば人物の顔を検出することにより、対象とする被写体を包含する領域を特定する。領域分割部16cは、画像生成部16aにより生成された画像データ全体のうち、特定部16bにより特定された領域を複数の部分領域に分割する。なお、当該部分領域に分割するための分割処理については後述する。
評価値算出部16dは、領域分割部16cにより分割された複数の部分領域のそれぞれについて、被写体が人物である確度(人物らしさ)を表す評価値を算出する。被写体マップ生成部16eは、領域分割部16cにより分割された複数の部分領域と、評価値算出部16dにより算出された部分領域ごとの評価値とに基づいて、被写体マップを生成する。αブレンドマップ生成部16fは、被写体マップ生成部16eにより生成された被写体マップに基づいて、αブレンド処理用のαブレンドマップを生成する。処理部16gは、画像生成部16aにより生成された画像データ全体に対して、デジタルライティング処理を施して、処理済画像データを生成する。合成部16hは、画像生成部16aにより生成された画像データと、処理部16gにより生成された処理済画像データとを、αブレンドマップ生成部16fにより生成されたαブレンドマップに基づくαブレンド処理により合成して、合成画像データを生成する。
以下、上記の機能を備える画像処理部16による処理について詳細に説明する。
図4は、画像処理部16による処理の概要を示す模式図である。まず、画像生成部16aが、撮像素子11から出力された撮像信号から、画像処理の対象となる画像データである元画像データ50を生成する。その後、処理部16gは、元画像データ50にデジタルライティング処理を施した画像データである処理済画像データ510を生成する。αブレンドマップ生成部16fは、元画像データ50からαブレンドマップ511を生成する。最後に、合成部16hが、αブレンドマップ511に基づいて処理済画像データ510を元画像データ50に合成(αブレンド)することで、合成画像データ512と称する画像データを生成する。
以下、(1)元画像データ50からαブレンドマップ511を生成するマップ作成処理、(2)元画像データ50から処理済画像データ510を生成する画像効果処理、(3)αブレンドマップ511に基づいて処理済画像データ510を元画像データ50に合成して合成画像データ512を生成する合成処理について、順に説明する。なお、以下の説明においては、撮影された主要被写体となる人物が一人の場合と複数の場合とに分けて説明を行う。
−人物が一人の場合−
(1)マップ作成処理の説明
図5(a)は、画像生成部16aにより生成された元画像データ50の一例を模式的に示した図である。元画像データ50は、主要被写体である人物51と、3つの背景領域52、53、54とから構成される画像データである。この元画像データ50に対して、特定部16bは、公知の顔検出処理を行う。顔検出処理によって、元画像データ50から主要被写体である人物の顔の位置および大きさが検出される。図5(a)では、特定部16bが元画像データ50から検出した人物の顔の位置および大きさを、矩形の枠501により模式的に図示している。なお、元画像データ50に多数の人物が含まれていれば、特定部16bはそれら多数の人物の各々について、当該人物の顔の位置および大きさを検出する。
特定部16bにより検出された人物の顔が所定の大きさに満たない場合には、主要被写体として適切な人物ではないと見做し、画像処理部16は以下に説明する処理を行わない。
特定部16bは、検出した人物の顔の位置および大きさから、当該人物の、例えば上半身全体が含まれる被写体領域502を特定する。例えば、顔の位置および大きさを模式的に示す枠501を、上下左右にそれぞれ所定の割合だけ拡大することにより、被写体領域502が特定される。元画像データ50に写っている人物は、例えば体格、姿勢、向きなどにより、さまざまな状態をとることが考えられる。特定部16bは、演算量を軽減する為には小さな範囲とするのが望ましい。一方、人物がどのような状態であっても、出来るだけ上半身全体が含まれるよう、被写体領域502を必要最小限の大きさに特定する。
このように、特定部16bは、特定した被写体領域502を元画像データ50から抽出し、トリミング画像データ5021(図5(b))を作成する。なお、被写体領域502、すなわち上記のトリミングの領域は、後述する複数のテンプレート(例えば505a、505b、505c)の領域を包含する大きさに設定することが好ましい。
領域分割部16cは、トリミング画像データ5021に対して画素のグルーピング処理を実行し、トリミング画像データ5021を複数の部分領域に分割する。画素のグルーピング処理は、例えばある画素の色情報と隣接する画素の色情報とが同一の色情報または近似する色情報の場合に、これらの画素を同じ領域に属する画素としてグルーピングする処理である。
図5(c)は、領域分割部16cにより分割された複数の部分領域503の例を示す図である。同図よりわかるように、グルーピングされた部分領域は、各々、グルーピング処理がなされた少なくとも1つの他の部分領域と接している。図5(c)は、一例として、トリミング画像データ5021が18個の部分領域503a〜503rに分割された場合を示している。なお、以後の説明では、複数の部分領域503に分割されたトリミング画像データ5021をプリ分割画像データ504と呼ぶ。
評価値算出部16dは、上述のようにして領域分割部16cにより分割された複数の部分領域503のそれぞれに対して、人物らしさを示す評価値を算出する。評価値算出部16dは、複数のテンプレート画像505から選択した1つのテンプレート画像505を用いて評価値を算出する。複数のテンプレート画像505は、それぞれ、姿勢、性別、年齢、撮影場所、撮影された国等が異なる人物の形状データに基づいて生成された画像データであり、制御回路12内のメモリ(不図示)に予め記録されている。
図6にテンプレート画像505の一例を示す。本実施の形態では、一例として、左を向いている人物用のテンプレート画像505aと、正面を向いている人物用のテンプレート画像505bと、右を向いている人物用のテンプレート画像505cとが予め記録されている場合を示す。テンプレート画像505は、それぞれ異なる人物の形状をを所定の規則に従って合成した画像データである。テンプレート画像505には、基となったそれぞれの人物形状が重複し合う重複領域と重複しない非重複領域とが存在する。図6では、テンプレート画像505における重複領域5061にドットを付して示している。上述したように、重複領域5061には、複数の人物形状を重ね合わせた領域であるので、重なった人物形状の数に応じて密度の異なる領域が存在する。すなわち、重ねあわされた人物形状の数が多い領域ほど、重複領域5061内で密度が濃くなる。図6においては、重複領域5061の密度が濃い程ドットが密になるように描いている。
図6(a)のテンプレート画像505aは、左を向いている多数の人物形状データを合成したものである。左を向いている人物には、例えば自転車に乗っている人物、走っている人物など、種々の姿勢の人物が含まれる。テンプレート画像505aは、それら種々の状態の人物の形状データを重ね合わせて合成したものであり、やや斜めになった重複領域5061を有している。同様に、図6(b)のテンプレート画像505bは、正面を向いている多数の人物形状データを合成したものであり、図6(c)のテンプレート画像505cは、右を向いている多数の人物形状データを合成したものである。
評価値算出部16dは、特定部16bにより検出された人物の顔の向きに応じて、3つのテンプレート画像505a、505b、505cからいずれか1つを選択する。たとえば、検出された人物の顔が右を向いている場合、評価値算出部16dは顔が右を向いている人物用のテンプレート画像505cを選択する。図5(a)に示した元画像データ50には、正面を向いている人物が写っているので、評価値算出部16dはテンプレート画像505bを選択する。
評価値算出部16dは、プリ分割画像データ504と選択したテンプレート画像505bとの間で一致度合いの評価を行う。評価値算出部16dは、プリ分割画像データ504とテンプレート画像505bとを重ね合わせることにより比較を行う。評価値算出部16dは、比較の結果、プリ分割画像データ504の各部分領域503とテンプレート画像505bの重複領域5061との重複度合に応じて、各部分領域503に評価値を付与する。特に、部分領域503が重複領域5061のうち密度が濃い範囲(図6(b)のドットが密の範囲)と重複するほど、評価値算出部16dは、その部分領域503は人物である確からしさが高いと判断し、当該部分領域503に高い評価値を付与する。なお、評価値算出部16dは、テンプレート画像505bとプリ分割画像データ504との大きさが異なる場合には、テンプレート画像505bの大きさをプリ分割画像データ504の大きさと位置とに応じて修正する。すなわち、評価値算出部16dは、選択したテンプレート画像505bの重複領域5061(人物の形状に対応する領域)の大きさとプリ分割画像データ504の人物の大きさとが実質的に同程度となるように、選択したテンプレート画像505bを拡大、あるいは縮小する。
図7は、評価値算出部16dによる評価値の決定方法の一例を模式的に示す図である。図7は、プリ分割画像データ504とテンプレート画像505bとを重ね合わせた際の一部を拡大して示している。図7の領域A、B、Cはプリ分割画像データ504の部分領域503に相当する。図7では、領域Aのうちの半分程度の範囲が重複領域5061と重複し、領域Bの全範囲が重複領域5061と重複し、領域Cのうちの1/4程度の範囲が重複領域5061と重複している。更に、領域Bは、領域Aや領域Cよりも、重複領域5061の密度が高い範囲と重複している。このような場合には、評価値算出部16dは、たとえば、領域Aには評価値として20点、領域Bには50点、領域Cには5点を付与する。すなわち、評価値算出部16dは、部分領域503が重複領域5061と重複する範囲と、重複領域5061の密度とに応じて、部分領域503に付与する評価値を算出する。
例えば、テンプレート画像505bを構成する各画素には、0〜100の画素値が割り当てられる。非重複領域(図6(b)において白地の領域)に含まれる画素の画素値は0である。重複領域5061に含まれる画素の画素値は、密度が高いほど高い数値である。評価値算出部16dは、各々の部分領域503について、テンプレート画像505b全体から当該部分領域503に含まれる画素を抽出する。そして、抽出した画素の画素値の合計値を抽出した画素の数で割ることにより、画素値の平均値を算出する。当該部分領域503が、より密度の高い重複領域5061の範囲に重複しているほど、この平均値は大きくなる。逆に、当該部分領域503が重複領域5061の範囲に全く重複していない場合、この平均値は0になる。評価値算出部16dは、このようにして算出した部分領域503ごとの平均値に基づいて、部分領域503ごとの評価値を算出する。
図8は、プリ分割画像データ504に対して、テンプレート画像505bを重ね合わせて比較した場合を示している。図8に示す例では、部分領域503b、503c、503e、503f、503g、503i、503j、503k、503l、503n、503p、503o、503qと重複領域5061とが重複する。特に、部分領域503b、503eは重複領域5061の密度が高い範囲と重複する範囲が広いので、高い評価値が付与される。
被写体マップ生成部16eは、プリ分割画像データ504とテンプレート画像505bとの比較結果、すなわち評価値算出部16dにより算出された部分領域503ごとの評価値に基づいて、評価マップを作成する。評価マップは、プリ分割画像データ504の各部分領域503と、それぞれの部分領域503に付与された評価値との関係を示すマップである。
図9は、図8の比較結果に基づいて作成された評価マップ506の一例を示している。図9においては、各部分領域503に付与された評価値が高いほど、ドットを密に描いている。図9に示すように、評価マップ506では、特定部16bにより特定された人物の顔に対応する部分領域503bには非常に高い評価値が与えられ、同様の部分領域503cには部分領域503bよりもやや低い評価値が与えられている。人物の首や胸等(顔に近い部分)に対応する部分領域503eには非常に高い評価値が与えられている。人物の腕や腹等(顔から遠い部分)に対応する部分領域503f、503g、503jには、中程度の評価値が与えられ、同様の部分領域503i、503k、503l、503n、503o、503p、503qでは低い評価値が与えられている。人物以外の背景に対応する部分領域503a、503d、503h、503m、503rには非常に低い評価値が与えられている。このように、評価マップ506においては、人物の顔や顔に近い部分領域503の評価値が高くなる傾向があり、顔から離れるほど評価値が低くなる傾向がある。そして、背景部分には最低の評価値が与えられる。
次に被写体マップ生成部16eは、各部分領域503に割り当てられた評価値を、当該部分領域503に含まれる各画素に割り当てた被写体マップを生成する。つまり、評価マップ506では部分領域503に対して割り当てられた情報である評価値を、各画素に対して割り当てられた情報とする。換言すると、被写体マップは、評価値をプリ分割画像データ504に含まれる画素と同様に二次元状に配列したデータである。
被写体マップ生成部16eは、被写体マップに対して平滑化処理を施す。例えば図9に示した評価マップ506において、互いに隣接する部分領域503eと部分領域503dとは、割り当てられた評価値に大きな差がある。被写体マップ生成部16eは、平滑化処理を施すことにより、これら2つの部分領域503e、503d間の評価値の変化を滑らかにする。被写体マップ生成部16eは、例えば周知の3×3タップの二次元ローパスフィルタを適用することにより、平滑化処理を施す。その後、被写体マップ生成部16eは、平滑化処理を施した被写体マップに含まれる各評価値を、例えば0〜1の範囲に正規化する。
このように平滑化処理を行うのは、最終的な合成画像データ512において、部分領域503ごとにデジタルライティング処理の度合いが急激に変化すると違和感が生じてしまうためである。平滑化処理により、部分領域503の間でデジタルライティング処理の強度が滑らかに変化するようになり、違和感が軽減される。
なお、元画像データ50全体のうち、特に注目度が高い領域(例えば人物の顔とその周辺の領域)には、平滑化処理が弱く施されるように、二次元ローパスフィルタの係数を変更することが望ましい。これは、平滑化処理によるテクスチャの劣化が、上述したデジタルライティング処理の強度の急激な変化による違和感とは別種の違和感を引き起こすことがあるためである。
図10は、αブレンドマップの生成方法を模式的に示す図である。αブレンドマップ生成部16fは、被写体マップ生成部16eにより生成された被写体マップ507に基づいて、αブレンドマップ511を生成する。αブレンドマップ511は、元画像データ50の画素の代わりに、後述するαブレンド用のα値を二次元状に配列したデータである。αブレンドマップ511のサイズは、元画像データ50のサイズと同一である。つまり、αブレンドマップ511は、元画像データ50に含まれる各々の画素に対するα値を含む。
αブレンドマップ生成部16fは、まず、α値がすべて0であり、元画像データ50のサイズと同一のサイズであるαブレンドマップ511を用意する。そして、図10に模式的に示すように、元画像データ50における被写体領域502に相当する位置に、被写体マップ生成部16eにより生成された被写体マップ507を貼り付けることにより、αブレンドマップ511を生成する。これにより、被写体マップ507に含まれる0〜1の評価値をα値として有するαブレンドマップ511が生成される。なお、被写体マップ507と被写体領域502のサイズとが異なる場合、αブレンドマップ生成部16fは、人物の顔の位置を基準として、被写体マップ507のサイズを拡大または縮小することにより、被写体マップ507と被写体領域502とのサイズを合わせる。
(2)画像効果処理の説明
処理部16gは、元画像データ50を複製し、複製した元画像データ50全体に対して、画像をデジタル的に明るくするデジタルライティング処理を施し、処理済画像データ510を生成する。
(3)合成処理の説明
合成部16hは、処理部16gによって生成された処理済画像データ510を、元画像データ50と合成することによって、合成画像データ512(図4)を生成する。このとき、合成部16hは、上述したαブレンドマップ511を参照しながら、以下の式(1)を用いて、合成画像データを生成する。
I=αA+(1−α)B …(1)
なお、αはαブレンドマップ511に示される、合成の比率を示すαブレンド率(0≦α≦1)、Aは処理済画像データ510、Bは元画像データ50、Iは合成画像データ512を表す。
合成部16hは、αブレンドマップ511を参照することにより、部分領域503のそれぞれに付与された評価値に応じて、αブレンド処理を行う。すなわち、合成部16hは、評価値が高い部分領域503についてはαブレンド率を高くし、評価値が低い部分領域503についてはαブレンド率を低く設定する。そのため、合成部16hにより合成されて生成される合成画像データ512では、評価値が高い部分領域503では処理部16gによるデジタルライティング処理の効果が多く反映され、評価値が低い部分領域503では処理部16gによるデジタルライティング処理の効果が限定的に反映される。
図9に示す評価マップ506に基づくαブレンドマップ511を用いて合成画像データ512を生成した場合、評価値が非常に高い部分領域503b、503eには、デジタルライティング処理の効果が多く反映されることになる。また、評価値が高から中程度の部分領域503c、503f、503g、503jには、部分領域503b、503eに比べてデジタルライティング処理の効果が反映される割合が少ない。評価値が低い部分領域503i、503k、503l、503n、503o、503p、503qでは、処理部16gによるデジタルライティング処理の結果よりも、処理部16gによるデジタルライティング処理が施されていない元画像データ50が多く反映される。評価値が非常に低い部分領域503a、503d、503h、503m、503rでは、処理部16gによるデジタルライティング処理が施されていない元画像データ50がより多く反映される。
このように、合成画像データ512上において、人物の確度が高い部分にデジタルライティング処理の効果が多く反映されるので、顔や胸部などの、人体の主要な部分を中心に明るくなる。一方で、背景の領域では、デジタルライティング処理の効果は反映されず元画像データ50のままとなる為、人物が強調された好ましい画像とすることができる。
また、下半身や腕先などに近い部分では、人体の主要な部分に比べて元画像データ50の割合が多くなるので、背景領域と人物領域で度合いを異ならせるような処理であるにも関わらず、違和感のない画像とすることができる。
また、デジタルライティング処理は、人体の主要な部分を中心に反映される為、合成画像データ512の全体が明るくなり白みがかった画像となることを防ぎつつ、人物を明るくする効果を得ることができる。
さらに、αブレンドマップ511は、評価マップ506に対して、上述した平滑化処理を施して作成した被写体マップ507を用いている為、人体と背景の境界で、デジタルライティング処理の反映の度合いが急激に変化することによる違和感の発生を防ぐとともに、特に注目度が高い顔周辺の領域では、上述した平滑化処理を弱く施している為、平滑化処理によって発生する違和感の発生も防いでいる。
−人物が複数の場合−
特定部16bによって複数の異なる人物の顔が検出された場合には、画像処理部16は検出された人物の顔が所定数以上か否かを判定する。特定部16bによって所定数未満の人物の顔、すなわち所定数未満の複数の被写体領域502が検出された場合には、画像処理部16の領域分割部16c、評価値算出部16dおよび被写体マップ生成部16eは、検出されたそれぞれの人物に対して独立に上述の処理を行う。その結果、各人物について被写体マップ507が生成される。
αブレンドマップ生成部16fは、複数の人物が検出された場合には、各人物について被写体マップ生成部16eにより生成された複数の被写体マップ507を、単一のαブレンドマップ511に貼り付けることにより、単一のαブレンドマップ511を生成する。なお、αブレンドマップ511に被写体マップ507を貼り付ける際に、複数の被写体マップ507が重複する領域がある場合には、重複する部分の評価値のうちの最大値をαブレンドマップ511のα値とする。
画像効果処理および合成処理は、人物が一人の場合と同様であるため、説明を省略する。つまり、人物が複数検出された場合の処理と、人物が一人検出された場合の処理との違いは、それら複数の人物の各々について被写体マップ507を生成するという点と、それら複数の被写体マップ507を貼り付けることにより単一のαブレンドマップ511を生成するという点である。
なお、画像処理部16が所定数以上の人物の顔が検出されたと判定した場合には、画像処理部16は上記の処理を行わない。集合写真のように多数の人物が撮影されるような画像に対して上述した処理を行っても、人物が明るくなることにより好印象となる効果が小さく、また、多数の人物に対する処理を行う場合には、処理負荷も増大するためである。
図1及び図3において、合成部16hは、生成した合成画像データ512をメモリカードインタフェース20を介してメモリカード21に記録する。この際、合成部16hは、各部分領域503と評価値とが対応付けられている被写体マップ507を圧縮して、画像データの付加情報部に記録する。画像処理部16は、合成部16hにより生成された合成画像データを用いて表示用画像データを生成して、LCD駆動回路13を介して液晶表示器14に対応する画像を表示させる。なお、元画像データ50と被写体マップ507と合成画像データ512とを互いに関連付けてメモリカード21に記録するものや、元画像データ50と被写体マップ507と合成画像データ512とから、たとえばマルチピクチャーフォーマット形式の画像ファイルを生成してメモリカード21に記録するものについても本発明の一態様に含まれる。
図11のフローチャートを参照しながら、上述したデジタルカメラ1の動作を説明する。図11の処理は制御回路12でプログラムを実行して行われる。このプログラムは、メモリ(不図示)に格納されており、画像処理モードが設定されている状態で、ユーザによるレリーズボタンや、処理開始を指示するボタンなどの操作部材の操作に応じて操作部15から操作信号が出力されると制御回路12により起動され、実行される。
ステップS1では、画像生成部16aは撮像素子11から出力された撮像信号を用いて元画像データ50を生成してステップS10へ進む。ステップS10では、特定部16bは周知の顔検出処理を実行し、元画像データ50から人物の顔の位置およびサイズを検出してステップS20へ進む。なお、人物の顔が所定数以上の場合には以下の処理を行わず、元画像データ50をメモリカード21に記録して処理を終了する。ステップS20では、特定部16bは、元画像データ50において検出した人物の顔から処理対象となる(まだ処理していない)人物の顔を1つ特定してステップS30に進む。ステップS30では、特定部16bは、ステップS20で特定した顔の大きさが所定値以上か否かを、判定する。顔の大きさが所定値未満の場合には、ステップS30が否定判定されて、後述するステップS80に進む。顔の大きさが所定値以上の場合には、ステップS30が肯定判定されて、ステップS40に進む。ステップS40では、特定部16bは、元画像データ50から被写体領域502を特定、トリミング画像データ5021を生成してステップS50へ進む。
ステップS50では、領域分割部16cは、トリミング画像データ5021を複数の部分領域503に分割しプリ分割画像データ504を生成する領域分割処理を実行してステップS60へ進む。ステップS60では、評価値算出部16dは、プリ分割画像データ504と選択したテンプレート画像505とを比較して、各部分領域503について評価値を算出してステップS70へ進む。
ステップS70では、被写体マップ生成部16eは、プリ分割画像データ504と算出した評価値とに基づいて、被写体マップ507を作成してステップS80へ進む。
ステップS80では、特定部16bにより検出された全ての人物についてステップS30〜S70までの処理が完了したか否かを判定する。全ての人物について処理が完了していた場合には、ステップS80が肯定判定されて後述するステップS90へ進む。未処理の人物が残っている場合には、ステップS80が否定判定されてステップS20へ進む。
ステップS90では、αブレンドマップ生成部16fは、ステップS70で作成された1つ乃至複数の被写体マップ507に基づいてαブレンドマップ511を作成してステップS100に進む。ステップS100では、処理部16gは、元画像データ50にデジタルライティング処理を施して処理済画像データ510を生成してステップS110に進む。ステップS110では、合成部16hによって、αブレンドマップ511に基づいて、処理済画像データ510と元画像データ50とを合成して合成画像データ512を生成する。合成部16hにより生成された合成画像データ512はメモリカード21に記録される。この際、合成部16hは、各部分領域503と評価値とが対応付けられている被写体マップ507を圧縮して、合成画像データ512の付加情報部に記録する。
上述した実施の形態によるデジタルカメラによれば、次の作用効果が得られる。
(1)領域分割部16cは、元画像データ50(第1画像データ)を複数の部分領域503に分割し、評価値算出部16dは、部分領域503のそれぞれについて評価値を割り当てる。そして、合成部16hは、割り当てられた評価値に応じて、元画像データ50に対して画像処理済画像データ510とのαブレンド処理(第1画像処理)を施すようにした。したがって、元画像データ50(第1画像データ)に対し、処理部16gによる画像処理を、部分的に異なる度合いで反映させた画像を生成することが出来る。このため、画像処理の処理負担を軽減することができる。
(2)評価値算出部16dは、部分領域503のそれぞれについて人物らしさを表す評価値を割り当てる。合成部16hは、複数の部分領域503ごとの人物らしさに応じた評価値に基づいて、元画像データ50と処理済画像データ510とを合成して合成画像データ512を生成するようにした。したがって、画像中の人体の主要な部分を中心に処理済画像データ510を反映させた画像を生成することが出来る。
(3)評価値算出部16dは、画像処理部16に予め記憶されているテンプレート画像505と複数の部分領域503とを比較して、部分領域503ごとに被写体らしさ(人物らしさ)を示す評価値を算出するようにした。ここで、テンプレート画像505は複数種類が有り、その中から、特定部16bにより特定された被写体領域502の特徴に応じたテンプレート画像505を選択するようにした。被写体領域502の特徴には、顔の向き、姿勢、性別、年齢、撮影場所、撮影された国等も含まれる。したがって、検出した人物の形状に類似した形状のテンプレート画像505を用いることができるので、評価値を算出する際の精度を向上させることができる。
(4)処理部16gは、元画像データ50に対してデジタルライティング処理(第2画像処理)を施して処理済画像データ510(第2画像データ)を生成する。合成部16hは、複数の部分領域503ごとの人物らしさに応じた評価値に基づいて、元画像データ50と処理済画像データ510とを合成して合成画像データ512を生成するようにした。したがって、画像中の人物が他と比べて明るく補正された好ましい画像を生成できる。
(5)特定部16bによって複数の被写体領域502が特定され、かつ複数の被写体領域502が重複している場合、すなわち複数の人物が重複している場合には、合成部16hは、複数の人物が重複している部分については、最も高い評価値に基づいて、合成画像データ512を生成するようにした。すなわち、複数の人物が重複している部分については、最も評価値が高い部分領域503の評価値に従って、αブレンド率が決定される。したがって、複数の人物が重複している部分において、何れかの人物の評価値が低いことで低い評価値が割り当てられることが無くなり、重複している部分に対しても、処理済画像データ510を好ましく反映させた画像を生成することが出来る。
(6)集合写真のように多数の人物が写っている画像では、明るさの補正のように、人物を強調するような処理を画像中の各人体の主要な部分を中心に反映させても好印象となる効果は小さい。本実施形態では、特定部16bによって所定数以上の被写体領域502、すなわち所定数以上の人物が特定された場合には、画像処理部16は合成画像データ512の生成を行わないようにした。したがって、効果の少ない画像に対しては、処理を行わないで済むことになる。
(7)画像内に小さく写っている人物に対しては、明るさの補正のように、人物を強調するような処理を人体の主要な部分を中心に反映させても好印象となる効果は小さい。本実施形態では、画像内に小さく写っている人物が所定以下の大きさの場合には、合成画像データ512の生成を行わないようにした。したがって、効果の少ない画像に対しては、処理を行わないで済むことになる。
(8)被写体マップ作成部16eは、複数の部分領域503のそれぞれに評価値が与えられた評価マップ506に対し平滑化処理を施して作成する。したがって、互いに隣接する部分領域503に割り当てられた評価値に大きな差がある場合でも、画像処理の反映の度合いが急激に変化することで合成画像データ512に違和感が発生することを防止することが出来る。
(9)合成部16hは、特定部位において、平滑化処理の度合を異ならせるようにした。したがって、例えば、人物画像の場合、合成画像データ512において、人物画像で特に注目の集まる人物の顔付近では、平滑化処理の度合を小さくすることで、平滑化処理によって発生する違和感を減ずることができる。ここでの違和感は、例えば、平滑化処理によって明るさ補正が人物以外の領域ににも反映される現象である。
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形
態と組み合わせることも可能である。
(変形例1)
処理部16gは、画像処理としてデジタルライティング処理を行うものに代えて、ソフトフィルタ処理を施して、合成画像データ512上でソフトフィルタ効果が得られるようにしてよい。なお、ソフトフィルタ処理は、人物の顔には弱く施され(あるいは全く施されず)、背景には強く施されることが望ましい。従って、処理部16gがソフトフィルタ処理を施す場合、上式(1)ではなく、次式(2)を用いてαブレンド処理を行うことが望ましい。
I=(1−α)A+αB …(2)
また、処理部16gは、画像処理としてデジタルライティング処理およびソフトフィルタ処理を含み、ユーザによる選択操作等に応じてデジタルライティング処理およびソフトフィルタ処理の何れかを施すものでもよい。さらに、処理部16gは、Dライティング処理に代えて、主要被写体の輝度を低くする、すなわち暗くする処理(逆デジタルライティング処理)を行ってもよい。
(変形例2)
上記実施形態で説明した平滑化処理に代えて、あるいは加えて、αブレンドマップ生成の際に、図10に示される被写体マップ507とその周辺領域との境界部に対して平滑化処理を行う構成としてもよい。このような構成とすれば、被写体の領域が、トリミングした領域(被写体領域502)の端まで存在するような場合でも、トリミング領域の画像データとそれ以外の画像データの間で、急激な明るさの変化が抑制されるため、自然な合成画像を得ることができる。
(変形例3)
合成部16hは、特定部16bにより検出された人物の大きさに応じて、合成画像データ512を生成する際のαブレンドの割合を変化させてもよい。たとえば、遠方の人物に対しては、αブレンドマップ生成部16fは、αブレンドの割合を小さくする。
(変形例4)
主要被写体として人物の場合を例として説明したが、これに限定されるものではない。特定部16bは、主要被写体として、たとえば車両や動物等を特定した場合であっても、評価値算出部16dは、上述したようにして車両や動物等である確度として被写体らしさを表す評価値を算出するものについても本発明の一態様に含まれる。この場合、車両や動物等の形状を表す複数のテンプレート画像505が予め記録されていれば良い。
(変形例5)
領域分割部16cは、トリミング画像データ5021からプリ分割画像データ504を生成するものに代えて、元画像データ50の全領域を分割して複数の部分領域503を生成してもよい。
(変形例6)
画像処理部16は、元画像データ50を所定サイズに縮小した縮小画像データに対して処理を行ってもよい。この場合、画像処理部16の処理負荷を軽減できる。
(変形例7)
合成画像データ512をメモリカード21に記録するものに代えて、処理済画像データ510と被写体マップ507(またはαブレンドマップ511)と元画像データ50とを関連付けて記録してもよい。この場合、合成部16hは、再生時にメモリカード21から処理済画像データ510と被写体マップ507(またはαブレンドマップ511)と元画像データ50とを読み出して、被写体マップ507(またはαブレンドマップ511)を参照しながら、上述したようにして処理済画像データ510と元画像データ50とを合成して合成画像データ512を生成すればよい。
さらには、階調変換などの所定の処理が施されていない、所謂RAW画像データをもとに被写体マップを作成し、さらに、当該RAW画像データと、被写体マップ507あるいはαブレンドマップ511とを関連付けて記録する構成としてもよい。このような構成とすれば、非線形処理が施されていない画像空間上で、部分領域への分割処理がなされるので、より的確な部分領域への分割処理を行うことができる。
(変形例8)
画像処理部16が撮像素子11から出力された撮像信号を用いて合成画像データ512を生成するものに代えて、メモリカード21や不図示の内部メモリに記録されている元画像データ50を用いて合成画像データ512を生成するものも本発明の一態様に含まれる。この場合、画像処理部16の各部は、メモリカード21から読み出された元画像データ50に対して、上述した各処理をそれぞれ行えばよい。
(変形例9)
上述した実施の形態では、人物の顔の向きに応じた3つのテンプレート画像505a、505b、505cを用いる例について説明した。本発明はこのような実施の形態に限定されず、人物の顔の向き以外の基準に基づいて用意された複数のテンプレート画像505を用いるように構成することも可能である。
(変形例10)
上述の実施の形態で説明した、複数の被写体(人物)に対して、上記のデジタルライティング処理、あるいは/及び、ソフトフィルタ処理を行う際に、上記各種の演算処理を行う処理時間を短縮する為に、処理対象とする被写体数を所定数に制限することができる。このような場合には、被写体の一部である特定部位(顔)の特性の順(例えば顔の大きさの大きい順)に所定数の処理対象被写体を選択する構成としてもよい。
さらに、このような場合には、上記の特性の順が同じ順位の被写体が、画面内に複数存在することにより、処理対象としたい被写体の数が、上記の所定数より多くなってしまう可能性がある。この場合には、上記の特性(例えば顔の大きさ)の順が同じ順位の被写体において、上記の特性とは異なる、1または複数の特性(例えば、画面内の被写体の位置)を比較し、この比較結果に基づいて、所定数の処理対象被写体を選択する構成としてもよい。
上記の1または複数の特性としては、例えば、上記の特性(例えば顔の大きさ)の順が同じ順位の各被写体の、画面内の被写体の位置、笑顔度、デフォーカス量、目つぶりの度合い、顔認識結果の信頼度などを挙げることができる。
ここで、画面内の被写体の位置は、画面内の所定位置(例えば、画面中央や、画面を3分割した線)から被写体までの距離をもとに評価し、当該距離が近いほど、処理対象被写体として選択される可能性が高くなるように評価値を設定する。笑顔度は、笑顔の度合いが高いほど、処理対象被写体として選択される可能性が高くなるように評価値を設定する。デフォーカス量は、デフォーカス量が小さいほど、処理対象被写体として選択される可能性が高くなるように評価値を設定する。目つぶりの度合いは、目つぶりである可能性が低いほど、処理対象被写体として選択される可能性が高くなるように評価値を設定する。また、顔認識結果の信頼度は、当該信頼度が高いほど、処理対象被写体として選択される可能性が高くなるように評価値を設定する。上述の同じ順位の被写体について、このような特性のうちの、1または複数の特性により特性の比較を行うことで、特性の順が同じ順位の被写体が、画面内に複数存在する場合であっても、所定数の被写体を選択する構成とすることができる。
(変形例11)
上記変形例10のように、処理対象とする被写体数を所定数に制限する場合、合成画像上で、処理対象として選択された被写体と選択されなかった被写体との間で、上記のデジタルライティング処理、あるいは/及び、ソフトフィルタ処理による画像効果の差が発生し、視覚上、違和感を生じる可能性がある。このような場合に対応する為に、処理対象として選択された被写体と選択されなかった被写体との間の画面上の距離、あるいは/及び処理対象として選択された被写体と選択されなかった被写体との間の画面上の大きさの差によって、上記のデジタルライティング処理、あるいは/及び、ソフトフィルタ処理による画像効果を変更する構成としてもよい。例えば、処理対象として選択された被写体と選択されなかった被写体との距離が大きく、両被写体の大きさの差が大きい場合には、上記のデジタルライティング処理、あるいは/及び、ソフトフィルタ処理による画像効果が大きくなるように、αブレンドマップを設定し、処理対象として選択された被写体と選択されなかった被写体との距離が小さく、両被写体の大きさの差が小さい場合には、上記のデジタルライティング処理、あるいは/及び、ソフトフィルタ処理による画像効果が小さくなるように、αブレンドマップを設定する。このような構成とすることにより、視覚上の違和感を抑制することができる。
(変形例12)
上述の実施の形態における、処理対象とする画面中の被写体を、被写体、あるいはその特定部位の大きさ、画面内の被写体の位置、笑顔度、デフォーカス量、目つぶりの度合い、顔認識結果の信頼度に応じて、自動的に設定する構成としてもよい。
(変形例13)
上述の実施の形態において、特定部16bにより、複数の被写体領域502が特定された場合には、合成部16fは、画面内の所定部(例えば、画面中央部)に近い被写体に対してαブレンドの比率を高くし、他の被写体に対しては、画面内所定部に近い被写体との間の距離(画面内の距離、あるいは焦点調節部17より得られるデフォーカス量に基づいて算出された撮影レンズL1の光軸方向の距離)、あるいは/及び当該被写体の大きさに基づいて、αブレンド率を調整し、設定する構成としてもよい。このような構成とすれば、合成画像において、被写体間で画像処理の効果に極端な差が発生することを抑制することができる。
(変形例14)
上述の実施の形態で説明した処理の結果、生成された合成画像は、極力早く液晶表示器14に表示することが望まれる。このような場合に対応する為に、元画像データ50に対してリサイズ(縮小)処理を行い、処理画素数を低減した上で、上述の各処理を行って、液晶表示器14への表示用の合成画像データを生成する処理を、元画像データ50に対して上述の各処理を行って、例えばメモリカード21に記録する記録用の合成画像データを生成する処理に先だって優先的に行う構成としてもよい。このような構成とすれば、ユーザは、合成画像データを迅速に確認することができる。
(変形例15)
実施の形態においてはデジタルカメラ1を例として説明したが、たとえばパーソナルコンピュータ等の画像処理装置において合成画像データ512を生成するものについても本発明の一態様に含まれる。この場合、画像処理装置は、デジタルカメラ1の画像処理部16が備える特定部16b、領域分割部16c、評価値算出部16d、被写体マップ生成部16e、αブレンドマップ生成部16f、処理部16gおよび合成部16hを機能として備えている。そして、画像処理装置は、デジタルカメラにて撮影され記録された元画像データ50を、メモリカード21等を介して読み込み、特定部16b、領域分割部16c、評価値算出部16d、被写体マップ生成部16e、αブレンドマップ生成部16f、処理部16gおよび合成部16hが上述した各処理をそれぞれ行えばよい。
本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。
1…デジタルカメラ、11…撮像素子、12…制御回路、16…画像処理部、16a…画像生成部、16b…特定部、16c…領域分割部、16d…評価値算出部、16e…被写体マップ生成部、16f…αブレンドマップ生成部、16g…処理部、16h…合成部

Claims (15)

  1. 被写体を撮像して、第1画像データを生成する生成手段と、
    前記生成手段により生成された前記第1画像データを複数の部分領域に分割する分割手段と、
    前記分割手段によって分割された前記複数の部分領域と、所定の被写体に関連するテンプレートとに基づいて、前記複数の部分領域のそれぞれについて被写体らしさを算出する算出手段と、
    前記算出手段により前記複数の部分領域ごとに算出された前記被写体らしさに応じて、前記第1画像データに対して第1画像処理を施す第1画像処理手段とを備えることを特徴とする撮像装置。
  2. 請求項1に記載の撮像装置において、
    前記第1画像処理手段は、前記第1画像データの前記複数の部分領域ごとに、当該部分領域の前記被写体らしさに応じた前記第1画像処理を施すことを特徴とする撮像装置。
  3. 請求項2に記載の撮像装置において、
    前記第1画像データに対して所定の第2画像処理を施して第2画像データを生成する第2画像処理手段と、
    前記第1画像データから被写体候補領域を特定する特定手段とをさらに備え、
    前記分割手段は、前記特定手段により特定された前記被写体候補領域を含む所定の領域を前記複数の部分領域に分割し、
    前記第1画像処理手段は、前記分割手段によって分割された前記複数の部分領域ごとの前記被写体らしさに応じた設定情報に基づいて、前記第1画像データに前記第2画像データを合成する前記第1画像処理を施すことを特徴とする撮像装置。
  4. 請求項3に記載の撮像装置において、
    前記テンプレートは複数種類のテンプレートによって構成され、
    前記算出手段は、前記複数種類のテンプレートのうち、前記特定手段により特定された前記被写体候補領域の特徴に応じて前記被写体らしさの算出に用いるテンプレートを選択することを特徴とする撮像装置。
  5. 請求項4に記載の撮像装置において、
    前記算出手段は、前記選択されたテンプレートと前記複数の部分領域とを比較して、前記部分領域ごとに前記設定情報として前記被写体らしさを示す評価値を算出することを特徴とする撮像装置。
  6. 請求項3乃至5の何れか一項に記載の撮像装置において、
    前記第2画像処理手段は、前記第1画像データに対して、明るさを補正するまたは周波数成分を変更する前記第2画像処理を施して前記第2画像データを生成することを特徴とする撮像装置。
  7. 請求項3乃至6の何れか一項に記載の撮像装置において、
    前記算出手段は、前記特定手段によって特定された前記被写体候補領域の前記第1画像データにおける位置と大きさとに応じて、前記テンプレートの位置と大きさとを設定することを特徴とする撮像装置。
  8. 請求項3乃至7の何れか一項に記載の撮像装置において、
    前記特定手段は、前記複数種類のテンプレートのうちの全てが包含される大きさとなるように前記被写体候補領域を特定することを特徴とする撮像装置。
  9. 請求項3乃至8の何れか一項に記載の撮像装置において、
    前記特定手段によって複数の前記被写体候補領域が特定され、かつ前記複数の被写体候補領域が重複している場合には、前記第1画像処理手段は、前記複数の被写体候補領域のうちの重複している領域については、前記被写体らしさが最も高い前記設定情報に基づいて、前記第1画像データと前記第2画像データとを合成することを特徴とする撮像装置。
  10. 請求項3乃至9の何れか一項に記載の撮像装置において、
    前記特定手段によって所定数以上の前記被写体候補領域が特定された場合に、前記複数の被写体候補領域の特性に基づいて、前記複数の被写体候補領域から前記所定数の前記被写体候補領域を選択する選択手段をさらに備え、
    前記第1画像処理手段は、前記特定手段によって所定数以上の前記被写体候補領域が特定された場合、前記第1画像処理において、前記選択手段により選択されなかった前記被写体候補領域に関する前記設定情報を用いないことを特徴とする撮像装置。
  11. 請求項3乃至10の何れか一項に記載の撮像装置において、
    前記被写体らしさを示す情報を圧縮して、前記第1画像処理を施した前記第1画像データの付加情報に記録する記録手段をさらに備えることを特徴とする撮像装置。
  12. 被写体を撮像して、画像データを生成する生成手段と、
    前記生成手段により生成された前記画像データを複数の部分領域に分割する分割手段と、
    前記分割手段によって分割された前記複数の部分領域と、所定の被写体に関連するテンプレートとに基づいて、前記複数の部分領域のそれぞれについて被写体らしさを算出する算出手段と、
    前記算出手段により算出された前記複数の部分領域ごとに前記被写体らしさに応じて、前記画像データに対して前記複数の部分領域のそれぞれについて度合の異なる画像処理を施す画像処理手段とを備えることを特徴とする撮像装置。
  13. 請求項12に記載の撮像装置において、
    前記画像処理手段は、前記複数の部分領域を含む領域と前記画像データとの境界においては前記画像処理の度合を徐々に変化させることを特徴とする撮像装置。
  14. 請求項12に記載の撮像装置において、
    前記画像処理手段は、前記複数の部分領域のうち人物の顔に対応する部分領域に対しては、他の部分領域とは前記画像処理の変化の度合を異ならせることを特徴とする撮像装置。
  15. 請求項12に記載の撮像装置において、
    前記画像処理手段は、前記画像データの人物の顔の大きさに応じて、前記画像処理の変化の度合を異ならせることを特徴とする撮像装置。
JP2013161240A 2013-08-02 撮像装置 Active JP6268790B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013161240A JP6268790B2 (ja) 2013-08-02 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013161240A JP6268790B2 (ja) 2013-08-02 撮像装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017254450A Division JP2018060579A (ja) 2017-12-28 2017-12-28 撮像装置

Publications (2)

Publication Number Publication Date
JP2015032991A true JP2015032991A (ja) 2015-02-16
JP6268790B2 JP6268790B2 (ja) 2018-01-31

Family

ID=

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062634A (ja) * 2015-09-24 2017-03-30 グローリー株式会社 画像処理装置及び対象物領域特定方法
JP2018182699A (ja) * 2017-04-21 2018-11-15 キヤノン株式会社 画像処理装置およびその制御方法、プログラム、並びに記憶媒体
US11115637B2 (en) 2018-12-19 2021-09-07 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863597A (ja) * 1994-08-22 1996-03-08 Konica Corp 顔抽出方法
JP2004326779A (ja) * 2003-04-21 2004-11-18 Hewlett-Packard Development Co Lp 画像中の顔領域を、画像中の他の部分とは異なるやり方で処理する方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863597A (ja) * 1994-08-22 1996-03-08 Konica Corp 顔抽出方法
JP2004326779A (ja) * 2003-04-21 2004-11-18 Hewlett-Packard Development Co Lp 画像中の顔領域を、画像中の他の部分とは異なるやり方で処理する方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062634A (ja) * 2015-09-24 2017-03-30 グローリー株式会社 画像処理装置及び対象物領域特定方法
JP2018182699A (ja) * 2017-04-21 2018-11-15 キヤノン株式会社 画像処理装置およびその制御方法、プログラム、並びに記憶媒体
US11115637B2 (en) 2018-12-19 2021-09-07 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Similar Documents

Publication Publication Date Title
US7734098B2 (en) Face detecting apparatus and method
JP4983962B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR101371766B1 (ko) 화성을 합성하는 화상 처리 장치
JP5281878B2 (ja) 撮像装置、ライティング処理装置、ライティング処理方法およびライティング処理用プログラム
JP5089405B2 (ja) 画像処理装置及び画像処理方法並びに撮像装置
US20080112648A1 (en) Image processor and image processing method
US9900523B2 (en) Image processing apparatus which performs image processing on photographic subject
JP2002171398A (ja) 画像処理方法及び電子カメラ
JP2002158893A (ja) 画像補正装置、画像補正方法および記録媒体
CN109639959B (zh) 图像处理装置、图像处理方法以及记录介质
JP2005086516A (ja) 撮像装置、印刷装置、画像処理装置およびプログラム
JP7292905B2 (ja) 画像処理装置及び画像処理方法、及び撮像装置
JP2010239440A (ja) 画像合成装置及びプログラム
US20190108625A1 (en) Image processing apparatus, image processing method, and recording medium
US8842932B2 (en) Image processing apparatus, image processing method, and recording medium recording a program
US20080239086A1 (en) Digital camera, digital camera control process, and storage medium storing control program
JP5504990B2 (ja) 撮像装置、画像処理装置及びプログラム
JPH1091761A (ja) 画像処理装置
JP2009088710A (ja) 撮影装置、撮影方法及び撮影プログラム
JP6817779B2 (ja) 画像処理装置、その制御方法、プログラムならびに記録媒体
JP2005316958A (ja) 赤目検出装置および方法並びにプログラム
JP6268790B2 (ja) 撮像装置
JP2018060579A (ja) 撮像装置
JP2006128793A (ja) 撮像装置、及びその制御方法
JP2006350621A (ja) 画像処理装置及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171218

R150 Certificate of patent or registration of utility model

Ref document number: 6268790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150