JP2011035633A - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP2011035633A
JP2011035633A JP2009179549A JP2009179549A JP2011035633A JP 2011035633 A JP2011035633 A JP 2011035633A JP 2009179549 A JP2009179549 A JP 2009179549A JP 2009179549 A JP2009179549 A JP 2009179549A JP 2011035633 A JP2011035633 A JP 2011035633A
Authority
JP
Japan
Prior art keywords
composition
image
cpu
determined
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009179549A
Other languages
English (en)
Other versions
JP4844657B2 (ja
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009179549A priority Critical patent/JP4844657B2/ja
Priority to US12/845,944 priority patent/US20110026837A1/en
Priority to KR1020100073334A priority patent/KR101199804B1/ko
Priority to TW099125233A priority patent/TWI446786B/zh
Priority to CN201010244014XA priority patent/CN101990068B/zh
Publication of JP2011035633A publication Critical patent/JP2011035633A/ja
Application granted granted Critical
Publication of JP4844657B2 publication Critical patent/JP4844657B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

【課題】様々な被写体や一般のシーンにおいても、理想的な構図やセンスの良い構図で撮影することが可能な画像処理装置を提供すること。
【解決手段】画像処理装置は、スルー画像51について、複数の特徴量マップFc,Fh,Fsを統合した顕著性マップSに基づいて、注目点領域52を推定する(ステップSa乃至Sc)。画像処理装置は、スルー画像51に対応するエッジ画像53の線成分(エッジSLなど)を抽出する(ステップSe,Sf)。画像処理装置は、注目点領域52や線成分(エッジ成分SLなど)を用いて、複数のモデル構図案の中から、主要被写体の配置状態に関してスルー画像51と類似するモデル構図案(例えば構図案C3,C4など)を識別する(ステップSg,Sh)。
【選択図】図2

Description

本発明は、画像処理装置及び方法に関し、特に、様々な被写体や一般のシーンにおいても、理想的な構図やセンスの良い構図での撮影を可能にする技術に関する。
に関する。
従来より、ユーザがカメラで撮影する場合、意図とは異なる撮影画像が得られる場合があった。かかる失敗を回避すべく、様々な回避策が提案されている。
例えば、人物などの周囲の風景全体を撮影しようとして、人物などを小さく撮影してしまう、という現象が発生する。この現象の回避策は、特許文献1などで提案されている。
例えば、ユーザは、F値の小さい(口径の大きい)レンズを使用したり、絞りを開放してF値を下げることで、前景にだけピントを合わせて、背景をぼかした撮影をすることができる。しかしながら、ぼかし度合が適切でない状態で撮影する、という現象が発生する。この現象の回避策は、特許文献2などで提案されている。
例えば、ユーザは、ピント合わせに気をとられている場合等に、被写体を中央に配置させる構図で、すなわち、いわゆる「日の丸構図」で撮影してしまう。このような場合、撮影画像が、初心者が撮影したような画像になったり、単調な説明画像になってしまう、という現象が発生する。この現象の回避策は、特許文献3,4などで提案されている。
特開2006−148344号公報 特開平06−30349号公報 特開2002−232753号公報 特開2007−174548号公報
しかしながら、様々な被写体や一般のシーンにおいて、理想的な構図やセンスの良い構図で撮影することができない、という現象が発生する場合がある。かかる現象を回避すべく、特許文献1乃至4を含め従来の回避策を適用しても、効果的に回避することは困難である。
そこで、本発明は、様々な被写体や一般のシーンにおいても、理想的な構図やセンスの良い構図で撮影することを可能にすることを目的とする。
本発明の第1の観点によると、主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定部と、前記推定部により推定された前記注目点領域を用いて、複数のモデル構図案の中から、前記主要被写体の配置状態に関して前記入力画像と類似するモデル構図案を識別する識別部と、を備える画像処理装置を提供する。
本発明の第2の観点によると、前記識別部は、前記注目点領域に加えてさらに、前記入力画像に対応するエッジ画像の線成分を用いて、前記主要被写体の配置状態に関して前記入力画像と類似する構図案を識別する画像処理装置を提供する。
本発明の第3の観点によると、前記識別部により識別された前記モデル構図案を提示する提示部をさらに備える画像処理装置を提供する。
本発明の第4の観点によると、前記識別部により識別された前記モデル構図案に対する評価をする評価部をさらに備え、前記提示部は、前記評価部の評価結果をさらに提示する画像処理装置を提供する。
本発明の第5の観点によると、前記識別部により識別された前記モデル構図案に基づいて、所定構図に導くガイド情報を生成する生成部をさらに備え、前記提示部は、前記生成部により生成された前記ガイド情報をさらに提示する画像処理装置を提供する。
本発明の第6の観点によると、主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定ステップと、前記推定ステップの処理により推定された前記注目点領域を用いて、複数のモデル構図案の中から、前記主要被写体の配置状態に関して前記入力画像と類似するモデル構図案を識別する識別ステップと、を含む画像処理方法を提供する。
本発明によれば、様々な被写体や一般のシーンにおいても、理想的な構図やセンスの良い構図で撮影することができる。
本発明の第1実施形態に係る画像処理装置のハードウェアの構成図である。 本発明の第1実施形態におけるシーン構図識別処理の概略を説明する図である。 本発明の第1実施形態におけるシーン構図識別処理のうちの構図分類処理において用いられる、モデル構図案毎の各種情報が格納されたテーブル情報の一例を示す図である。 本発明の第1実施形態におけるシーン構図識別処理のうちの構図分類処理において用いられる、モデル構図案毎の各種情報が格納されたテーブル情報の一例を示す図である。 本発明の第1実施形態における撮影モード処理の流れの一例を示すフローチャートである。 本発明の第1実施形態における撮影モード処理の具体的な処理結果の例を示す図である。 本発明の第1実施形態における撮影モード処理のうちのシーン構図識別処理の流れの詳細例を示すフローチャートである。 本発明の第1実施形態における撮影モード処理のうちの注目点領域推定処理の流れの詳細の一例を示すフローチャートである。 本発明の第1実施形態における撮影モード処理のうちの特徴量マップ作成処理の流れの一例を示すフローチャートである。 本発明の第1実施形態における撮影モード処理のうちの特徴量マップ作成処理の流れの別の例を示すフローチャートである。 本発明の第1実施形態における撮影モード処理のうちの構図分類処理の流れの詳細の一例を示すフローチャートである。 本発明の第2実施形態における液晶ディスプレイの表示例を示している。
〔第1実施形態〕
以下、本発明の第1実施形態を図面に基づいて説明する。
図1は、本発明の第1実施形態に係る画像処理装置100のハードウェアの構成を示す図である。画像処理装置100は、例えばデジタルカメラにより構成することができる。
画像処理装置100は、光学レンズ装置1と、シャッタ装置2と、アクチュエータ3と、CMOSセンサ4と、AFE5と、TG6と、DRAM7と、DSP8と、CPU9と、RAM10と、ROM11と、液晶表示コントローラ12と、液晶ディスプレイ13と、操作部14と、メモリカード15と、測距センサ16と、測光センサ17と、を備える。
光学レンズ装置1は、例えばフォーカスレンズやズームレンズなどで構成される。フォーカスレンズは、CMOSセンサ4の受光面に被写体像を結像させるためレンズである。
シャッタ装置2は、例えばシャッタ羽根などから構成される。シャッタ装置2は、CMOSセンサ4へ入射する光束を遮断する機械式のシャッタとして機能する。シャッタ装置2はまた、CMOSセンサ4へ入射する光束の光量を調節する絞りとしても機能する。アクチュエータ3は、CPU9による制御にしたがって、シャッタ装置2のシャッタ羽根を開閉させる。
CMOS(Complementary Metal Oxide Semiconductor)センサ4は、例えばCMOS型のイメージセンサなどから構成される。CMOSセンサ4には、光学レンズ装置1からシャッタ装置2を介して被写体像が入射される。そこで、CMOSセンサ4は、TG6から供給されるクロックパルスにしたがって、一定時間毎に被写体像を光電変換(撮影)して画像信号を蓄積し、蓄積した画像信号をアナログ信号として順次出力する。
AFE(Analog Front End)5には、CMOSセンサ4からアナログの画像信号が供給される。そこで、AFE5は、TG6から供給されるクロックパルスにしたがって、アナログの画像信号に対し、A/D(Analog/Digital)変換処理などの各種信号処理を施す。各種信号処理の結果、ディジタル信号が生成され、AFE5から出力される。
TG(Timing Generator)6は、CPU9による制御にしたがって、一定時間毎にクロックパルスをCMOSセンサ4とAFE5とにそれぞれ供給する。
DRAM(Dynamic Random Access Memory)7は、AFE5により生成されるディジタル信号や、DSP8により生成される画像データを一時的に記憶する。
DSP(Digital Signal Processor)8は、CPU9による制御にしたがって、DRAM7に記憶されたディジタル信号に対して、ホワイトバランス補正処理、γ補正処理、YC変換処理などの各種画像処理を施す。各種画像処理の結果、輝度信号と色差信号とでなる画像データが生成される。なお、以下、かかる画像データをフレーム画像データと称し、このフレーム画像データにより表現される画像をフレーム画像と称する。
CPU(Central Processing Unit)9は、画像処理装置100全体の動作を制御する。RAM(Random Access Memory)10は、CPU9が各処理を実行する際にワーキングエリアとして機能する。ROM(Read Only Memory)11は、画像処理装置100が各処理を実行するのに必要なプログラムやデータを記憶する。CPU9は、RAM10をワーキングエリアとして、ROM11に記憶されているプログラムとの協働により各種処理を実行する。
液晶表示コントローラ12は、CPU9による制御にしたがって、DRAM7やメモリカード15に記憶されているフレーム画像データをアナログ信号に変換して、液晶ディスプレイ13に供給する。液晶ディスプレイ13は、液晶表示コントローラ12から供給されてくるアナログ信号に対応する画像として、フレーム画像を表示する。
また、液晶表示コントローラ12は、CPU9による制御にしたがって、ROM11などに予め記憶されている各種画像データをアナログ信号に変換して、液晶ディスプレイ13に供給する。液晶ディスプレイ13は、液晶表示コントローラ12から供給されてくるアナログ信号に対応する画像を表示する。例えば本実施の形態では、各種シーンを特定可能な情報(以下、シーン情報と称する)の画像データがROM11に記憶されている。このため、図4を参照して後述するように、各種シーン情報が液晶ディスプレイ13に適宜表示される。
操作部14は、ユーザから各種ボタンの操作を受け付ける。操作部14は、電源釦、十字釦、決定釦、メニュー釦、レリーズ釦などを備える。操作部14は、ユーザから受け付けた各種ボタンの操作に対応する信号を、CPU9に供給する。CPU9は、操作部14からの信号に基づいてユーザの操作内容を解析し、その操作内容に応じた処理を実行する。
メモリカード15は、DSP8により生成されたフレーム画像データを記録する。測距センサ16は、CPU9による制御にしたがって、被写体までの距離を検出する。測光センサ17は、CPU9による制御にしたがって、被写体の輝度(明るさ)を検出する。
このような構成を有する画像処理装置100の動作モードとしては、撮影モードや再生モードを含む各種モードが存在する。ただし、以下、説明の簡略上、撮影モード時における処理(以下、撮影モード処理と称する)についてのみ説明する。なお、以下、撮影モード処理の主体は主にCPU9であるとする。
次に、図1の画像処理装置100の撮影モード処理のうち、顕著性マップに基づく注目点領域を用いて、シーンの構図を識別するまでの一連の処理の概略について説明する。なお、以下、かかる処理を、シーン構図識別処理と称する。
図2は、シーン構図識別処理の概略を説明する図である。
図1の画像処理装置100のCPU9は、撮影モードを開始させると、CMOSセンサ4による撮影を継続させ、その間にDSP8により逐次生成されるフレーム画像データを、DRAM7に一時的に記憶させる。なお、以下、かかるCPU9の一連の処理を、スルー撮像と称する。
また、CPU9は、液晶表示コントローラ12などを制御して、スルー撮像時にDRAM7に記録された各フレーム画像データを順次読み出して、それぞれに対応するフレーム画像を液晶ディスプレイ13に表示させる。なお、以下、かかるCPU9の一連の処理を、スルー表示と称する。また、スルー表示されているフレーム画像を、スルー画像と称する。
以下の説明では、スルー撮像及びスルー表示により、例えば図2に示されるスルー画像51が液晶ディスプレイ13に表示されているとする。
この場合、ステップSaにおいて、CPU9は、特徴量マップ作成処理として、例えば次のような処理を実行する。
すなわち、CPU9は、スルー画像51に対応するフレーム画像データについて、例えば色、方位、輝度などの複数種類の特徴量のコントラストから、複数種類の特徴量マップを作成することができる。このような複数種類のうち所定の1種類の特徴量マップを作成するまでの一連の処理が、ここでは、特徴量マップ作成処理と称されている。各特徴量マップ作成処理の詳細例については、図9や図10を参照して後述する。
例えば図2の例では、後述する図10Aのマルチスケールのコントラストの特徴量マップ作成処理の結果、特徴量マップFcが作成されている。また、後述する図10BのCenter−Surroundの色ヒストグラムの特徴量マップ作成処理の結果、特徴量マップFhが作成されている。また、図10Cの色空間分布の特徴量マップ作成処理の結果、特徴量マップFsが作成されている。
ステップSbにおいて、CPU9は、複数種類の特徴量マップを統合することで、顕著性マップを求める。例えば図2の例では、特徴量マップFc,Fh,Fsが統合されて顕著性マップSが求められている。
ステップSbの処理は、後述する図8のステップS45の処理に対応する。
ステップScにおいて、CPU9は、顕著性マップを用いて、スルー画像の中から、人間の視覚的注意を引く可能性の高い画像領域(以下、注目点領域と称する)を推定する。例えば図2の例では、顕著性マップSを用いて、スルー画像51の中から注目点領域52が推定されている。
ステップScの処理は、後述する図8のステップS46の処理に対応する。
なお、以上のステップSa乃至Scまでの一連の処理を、以下、注目点領域推定処理と称する。注目点領域推定処理は、後述する図7のステップS26の処理に対応する。注目点領域推定処理の詳細については、図8乃至図10を参照して後述する。
次に、ステップSdにおいて、CPU9は、注目点領域評価処理として、例えば次のような処理を実行する。
すなわち、CPU9は、注目点領域(図2の例では注目点領域52)に関する評価を行う。具体的には例えば、CPU9は、注目点領域についての、面積、個数、分布範囲の広がり、分散、孤立度合などの各種評価を行う。
ステップSdの処理は、後述する図7のステップS27の処理に対応する。
一方、ステップSeにおいて、CPU9は、エッジ画像生成処理として、例えば次のような処理を実行する。
すなわち、CPU9は、スルー画像51に対して、平均化処理及びエッジフィルタ処理を施すことで、エッジ画像(輪郭画像)を生成する。例えば図2の例では、エッジ画像53が得られている。
ステップSeの処理は、後述する図7のステップS28の処理に対応する。
ステップSfにおいて、CPU9は、エッジ画像評価処理として、例えば次のような処理を実行する。
すなわち、CPU9は、エッジ画像から、直線成分、曲線成分、及びエッジ(輪郭線)成分の抽出を試みる。そして、CPU9は、抽出された成分毎に、個数、長さ、位置関係、分布状態などの各種評価を行う。例えば図2の例では、エッジ成分SLなどが抽出され、その評価が行われる。
ステップSfの処理は、後述する図7のステップS29の処理に対応する。
次に、ステップSgにおいて、CPU9は、スルー画像51についての構図要素の抽出処理として、例えば次のような処理を実行する。
すなわち、CPU9は、ステップSdの注目点領域評価処理の評価結果、及び、ステップSfのエッジ画像評価処理の評価結果を用いて、スルー画像51に含まれる被写体のうち注目すべき主要被写体について、各構図要素の配列パターンを抽出する。
構図要素自体は、特に限定されないが、例えば本実施形態では、注目点領域、各種線(エッジとなる線含む)、及び人物の顔が採用されているとする。
配列パターンの種類も特に限定されない。例えば本実施の形態では、注目点領域については、「画面全体に広く分布」、「上下に分割」、「水平に分布」、「垂直に分布」、「斜めに分割」、「対角に分布」、「略中央に分布」、「中央下方にトンネル状」、「左右に対称」、「左右に並列」、「複数の相似形で分布」、「分散」、「孤立」などが、配列パターンとして採用されている。各種線については、存在有無、長短、中央下方にトンネル状、同一種類の複数の線が略同一方向に存在、やや中央から上下/左右に放射状、上又は下から放射状などが、配列パターンとして採用されている。人物の顔については、主要被写体に含まれるか否かなどが、配列パターンとして採用されている。
ステップSgの処理は、後述する図11の構図分類処理のうちステップS201の処理に対応する。すなわち、図2の例では、ステップSgの処理は、あたかもステップShの処理とは独立しているように描画されているが、本実施の形態ではステップShの一部の処理とされている。なお、当然ながら、ステップSgの処理は、ステップShの処理とは独立した処理とすることも容易に可能である。
ステップShにおいて、CPU9は、構図分類処理として、例えば次のような処理を実行する。
すなわち、1のモデル構図案を識別できる所定パターン(以下、分類識別パターンと称する)が、複数の構図案毎にROM11などに予め記憶されているとする。なお、分類識別パターンの具体例については、図3と図4を参照して後述する。
この場合、CPU9は、スルー画像51に含まれる主要被写体についての各構図要素の配列パターンと、複数のモデル構図案の各分類識別パターンのそれぞれとを、1つずつ比較照合していく。そして、CPU9は、比較照合の結果に基づいて、複数のモデル構図案の中から、スルー画像51と類似するモデル構図案の候補(以下、モデル構図案候補と称する)をP個選択する。なお、Pは、1以上の整数値であって、設計者などが任意に設定し得る整数値である。例えば、図2の例では、モデル構図案候補として、構図C3[斜線構図/対角線構図]や構図C4[放射線構図]が選択され、分類結果として出力されている。
ステップShの処理は、後述する図11の構図解析分類処理のうちステップS202以降の処理に対応する。
図3と図4は、このようなステップShの構図分類処理において用いられる、モデル構図案毎の各種情報が格納されたテーブル情報の一例を示している。
例えば本実施の形態では、図3と図4に示されるテーブル情報がROM11に予め記憶されているとする。
図3と図4のテーブル情報には、「構図案の名称、見本画像、及び説明文」、並びに「分類識別パターン」という各項目が設けられている。また、図3と図4のテーブル情報において、所定の1行は所定の1モデル構図案に対応している。
したがって、同一行の各項目には、所定のモデル構図案についての項目名称と同内容の情報、すなわち、その名称、見本画像(画像データ)、及び説明文(テキストデータ)、並びに分類識別パターンのそれぞれが格納されている。
「分類識別パターン」の項目において、太い線は、構図要素としての「エッジ」を示している。点線は、構図要素としての「線」を示している。斜線やドットの灰色の領域は、構図要素としての「注目点領域」を示している。また、構図要素抽出処理の結果が、図2に示されるような画像54(画像データ)であった場合には、分類識別パターンもまた、図3に示されるような画像(画像データ)として格納される。
一方、図2のステップSgの構図要素抽出処理の結果が、上述したような構図要素とその配置パターンの内容を示す情報であった場合、分類識別パターンもまた、構図要素と配置パターンの内容を示す情報として格納される。具体的には例えば、1行目の構図C1[水平線構図]の分類識別パターンは、「水平に長い直線エッジが存在」、並びに、「注目点領域が画面全体に広く分布」、「注目点領域が水平方向に分布」、及び「水平に長い直線が存在」という情報として格納される。
なお、図3と図4には、本実施形態で採用されているモデル構図案の一部が示されているに過ぎない。そこで、以下、次のモデル構図案C0乃至C12が本実施形態で採用されているとする。なお、次段落の括弧内の要素は、モデル構図案Ck(kは0乃至12のうちのいずれかの整数値)についての、符号Ck、構図案の名称、及び説明文をそれぞれ示している。
(C0,中央一点構図,集中力をもって被写体の存在感を強調する。)
(C1,水平線構図,画面に広がりと伸びやかさを出す。)
(C2,垂直線構図,上下方向への伸張感で画面を引きしめる。)
(C3,斜線構図/対角線構図,生き生きとしたリズミカルな動感を出す。
又は、等分割した画面で安定感を出す。)
(C4,放射線構図,開放感や高揚感、躍動感を引き出す。)
(C5,曲線構図/S字構図,優美さや穏やかさを画面に醸し出す。)
(C6,三角形/逆三角形構図,安定感と動かしがたい力強さを出す。
又は、上部へ広がる生命力や開放感を表わす。)
(C7,対比/対称構図,緊張感や落ち着いた静寂感を表わす。)
(C8,トンネル構図,画面に集中力や落ち着きをもたらす。)
(C9,パターン構図,繰り返しパターンによるリズム感や統一感を出す。)
(C10,ポートレート構図,・・・)
(C11,3分割/4分割構図,最もポピュラーな構図で、
バランスのとれた写真になる。)
(C12,遠近法構図,自然形態に応じて、距離感や奥行きを強調する。)
以上、図2乃至図4を参照して、画像処理装置100が実行するシーン構図識別処理の概略について説明した。次に、図5乃至図11を参照して、シーン構図識別処理を含む撮影モード処理全体について説明する。
図5は、撮影モード処理の流れの一例を示すフローチャートである。
撮影モード処理は、ユーザが撮影モードを選択する所定の操作を操作部14に対して行った場合、その操作を契機として開始される。すなわち、次のような処理が実行される。
ステップS1において、CPU9は、スルー撮像とスルー表示を行う。
ステップS2において、シーン構図識別処理を実行することで、P個のモデル構図案候補を選択する。シーン構図識別処理については、その概略は図2を参照して上述した通りであり、その詳細は図7を参照して後述する。
ステップS3において、CPU9は、液晶表示コントローラ12などを制御することで、選択されたP個のモデル構図案候補を液晶ディスプレイ13に表示させる。正確には、P個のモデル構図案候補毎に、各々を特定可能な情報(例えば見本画像や名称など)が、液晶ディスプレイ13に表示される。
ステップS4において、CPU9は、P個のモデル構図案候補の中からモデル構図案を決定する。ステップS5において、CPU9は、撮影条件を設定する。
ステップS6において、CPU9は、その時点のスルー画像に対するモデル構図案の構図評価値を算出する。そして、CPU9は、液晶表示コントローラ12などを制御することで、構図評価値を液晶ディスプレイ13に表示させる。構図評価値は、例えば、予め設定された指標値に対する、スルー画像とモデル構図案との相違度、分散、類似度、相関性などの比較結果に基づいて算出される。
ステップS7において、CPU9は、モデル構図案に基づいて、ガイド情報を生成する。そして、CPU9は、液晶表示コントローラ12などを制御することで、ガイド情報を液晶ディスプレイ13に表示させる。なお、ガイド情報の具体的な表示例については、図6を参照して後述する。
ステップS8において、CPU9は、スルー画像の被写***置と、モデル構図案の被写***置とを比較する。ステップS9において、CPU9は、その比較結果に基づいて、スルー画像の被写***置が、モデル構図案の被写***置の近傍か否かを判定する。
スルー画像の被写***置が、モデル構図案の被写***置の遠方に存在する場合、未だ撮影処理のタイミングではないとして、ステップS9においてNOであると判定されて、処理はステップS6に戻され、それ以降の処理が繰り返される。すなわち、構図取りの変更(フレーミング)に応じて、構図評価値とガイド情報の表示が刻々と更新されていく。
その後、スルー画像の被写***置が、モデル構図案の被写***置の近傍になった時点で、撮影処理のタイミングになったとして、ステップS9においてYESであると判定されて、処理はステップS10に進む。ステップS10において、CPU9は、構図評価値が設定値以上であるか否かを判定する。
構図評価値が設定値未満の場合、未だスルー画像にとって適切な構図になっていないとして、ステップS10においてNOであると判定されて、処理はステップS6に戻され、それ以降の処理が繰り返される。この場合、図5には図示されていないが、例えば、その時点のスルー画像(その主要被写体の配列パターン)に近いモデル構図案や、構図評価値を設定値より高くできるモデル構図案が、液晶ディスプレイ13やファインダ(図1に図示せず)に表示されるとする。また、その後、それらのモデル構図案の中からユーザにより新たなモデル構図案が許諾又は選択された場合、新たに許諾又は選択されたモデル構図案の位置関係となるようにガイドしてくことで、撮影構図を変更させるガイド情報が、液晶ディスプレイ13やファインダに表示されるとする。この場合、新たに許諾又は選択されたモデル構図案に対して、ステップS6以降の処理が実行される。
その後、再度撮影処理のタイミングになった時点、すなわち、再度ステップS9の処理でYESであると判定された時点で、構図評価値が設定値以上になっていると、スルー画像にとって適切な構図になったとして、ステップS10においてYESであると判定されて、処理はステップS11に進む。そして、次のようなステップS11の処理が実行されることで、その時点のモデル構図案に対応する構図で自動撮影が行われる。
すなわち、ステップS11において、CPU9は、撮影条件などに基づいてAF(Automatic Focus)処理(オートフォーカス処理)を実行する。ステップS12において、CPU9は、AWB(Automatic White Balance)処理(オートホワイトバランス処理)、及び、AE(Automatic Exposure)処理(自動露出処理)を実行する。すなわち、測光センサ17による測光情報や撮影条件などに基づいて、絞り、露出時間、ストロボ条件などが設定される。
ステップS13において、CPU9は、TG6やDSP8などを制御して、撮影条件などに基づいて露出及び撮影処理を実行する。この露出及び撮影処理により、撮影条件などにしたがってCMOSセンサ4により撮影された被写体像は、フレーム画像データとしてDRAM7に記憶される。なお、以下、かかるフレーム画像データを撮影画像データと称し、また、撮影画像データにより表現される画像を撮影画像と称する。
ステップS14において、CPU9は、DSP8などを制御して、撮影画像データに対して補正及び変更処理を施す。ステップS15において、CPU9は、液晶表示コントローラ12などを制御して、撮影画像のレビュー表示処理を実行する。また、ステップS16において、CPU9は、DSP8などを制御して撮影画像データの圧縮符号化処理を実行する。その結果、符号化画像データが得られることになる。そこで、ステップS17において、CPU9は、符号化画像データの保存記録処理を実行する。これにより、符号化画像データがメモリカード15などに記録され、撮影モード処理が終了となる。
なお、CPU9は、符号化画像データの保存記録処理として、撮影時のシーンモードや撮影条件データなどは勿論のこと、撮影時に決定又は算出されたモデル構図案や構図評価値の情報を、符号化画像データと関連付けてメモリカード15に記録させることもできる。これにより、ユーザは、撮影画像を検索する場合、シーンや撮影条件のみならず、撮影された構図や構図評価値の良否などを用いることができるので、所望の画像を迅速に検索することができるようになる。
図6は、図5の撮影モード処理の具体的な処理結果を示している。
図6Aは、ステップS7の処理後の液晶ディスプレイ13の表示例を示している。
なお、図1には図示せぬファインダにも、液晶ディスプレイ13と同様の表示がなされているとする。
図6Aに示されるように、液晶ディスプレイ13には、主表示領域101と、サブ表示領域102とが設けられている。
図6Aの例では、スルー画像51が主表示領域101に表示されている。
主表示領域101にはまた、補助情報として、スルー画像51の注目点領域の近傍の導線121や、その注目点領域周囲の被写体の輪郭線122が、他と区別可能なように表示されている。なお、このような補助情報は、導線121や輪郭線122に特に限定されない。例えば、注目点領域(主要被写体)についての、輪郭形状若しくはその位置、分布や配列パターンを示す図形、又は、それらの位置関係を示す補助線を、主表示領域101に表示させることもできる。
主表示領域101にはまた、ガイド情報として、モデル構図案の構図要素の線に対応する参照線123、モデル構図案の指標線124、注目点領域の移動目標を示すシンボル125が表示されている。なお、このようなガイド情報は、参照線123、指標線124、シンボル125などに特に限定されない。例えば、モデル構図案における主要被写体についての、輪郭形状若しくはその位置、分布や配列パターンを示す図形、又は、それらの位置関係を示す補助線を、主表示領域101に表示させることもできる。
主表示領域101にはまた、ガイド情報として、フレームの移動方向を示す矢印126や、フレームの回転方向を示す矢印127などが表示されている。すなわち、矢印126,127などは、スルー画像51中の主要被写体の位置を、モデル構図案における被写体の位置(例えばシンボル125の位置)まで移動するようにユーザをガイドしていくことで、構図を変更させるガイド情報である。このようなガイド情報は、矢印126,127に特に限定されず、その他例えば「カメラをもう少し右に向けて下さい」などのメッセージを採用することもできる。
また、モデル構図案を示す情報111乃至113がサブ表示領域102に表示されている。
図6Aの例では、図5のステップS4の処理で決定されたモデル構図案は、例えば、情報111に対応するモデル構図案とされている。
また、例えば、情報112や情報113は、構図評価値が設定値未満の場合にステップS10においてNOであると判定された後に表示される。具体的には例えば、情報112や情報113は、スルー画像に近いモデル構図案を示す情報や、構図評価値を設定値より高くできるモデル構図案を示す情報である。
したがって、ユーザは、構図評価値が設定値未満の場合などに、操作部14を操作することで、各モデル構図案を示す情報111乃至113の中から、所望の1つを選択して決定することができる。この場合、CPU9は、ユーザにより決定された情報に対応するモデル構図案に対して、ステップS6乃至S10の処理を施す。
図6Aの表示状態で、構図取りの変更や自動的なフレーミングが行われ、その結果、図6Bの表示状態になったとする。すなわち、スルー画像51中の主要被写体の位置がシンボル125の位置に一致するまで構図が変更されたとする。この場合、図5のステップS9の処理でYESであると判定される。したがって、構図評価値が設定値以上であれば、ステップS10の処理でYESであると判定されて、ステップS11乃至S17の処理が実行される。これにより、図6Bに示される構図で自動撮影が行われる。その結果、図6Cに示される撮影画像131のレビュー表示がなされて、撮影画像131に対応する符号化画像データがメモリカード15に記録される。
なお、図5の例では省略されているが、当然ながら、ユーザが指などでレリーズ釦を押すことで、CPU9に撮影処理を実行させることもできる。この場合、ユーザは、例えば、図6Aに示されるガイド情報に従って構図を手動で移動させ、図6Bに示される構図になったタイミングでレリーズ釦を全押しすることができる。その結果、図6Cに示される撮影画像131のレビュー表示がなされて、撮影画像131に対応する符号化画像データがメモリカード15に記録される。
次に、図5の撮影モード処理のうち、ステップS2のシーン構図識別処理の詳細例について説明する。
図7は、シーン構図識別処理の流れの詳細例を示すフローチャートである。
ステップS21において、CPU9は、スルー撮像により得られたフレーム画像データを、処理対象画像データとして入力する。
ステップS22において、CPU9は、識別済FLAGが1であるか否かを判定する。識別済FLAGとは、前回のフレーム画像データについてモデル構図案候補が選択済(識別済)であるか否かを示すフラグをいう。したがって、識別済FLAG=0の場合、前回のフレーム画像データについてモデル構図案候補が未選択である。このため、識別済FLAG=0の場合、ステップS22においてNOであると判定されて、処理はステップS26に進み、それ以降の処理が実行される。その結果、処理対象画像データに対するモデル構図案候補が選択される。ただし、ステップS26以降の処理の詳細については後述する。
これに対して、識別済FLAG=1の場合、前回のフレーム画像データについてモデル構図案候補が選択済であるため、処理対象画像データに対するモデル構図案候補の選択が不要になる場合もある。すなわち、CPU9は、ステップS26以降の処理を実行するか否かを判断する必要がある。このため、識別済FLAG=1の場合、ステップS22においてYESであると判定されて、処理はステップS23に進み、次のような処理が実行される。
すなわち、ステップS23において、CPU9は、処理対象画像データと前回のフレーム画像データとを比較する。ステップS24において、CPU9は、撮影条件又は被写体状態に、所定以上の変化があるか否かを判定する。撮影条件及び被写体状態に所定以上の変化がない場合、ステップS24においてNOであると判定されて、ステップS26以降の処理は実行されずに、シーン構図識別処理は終了となる。
これに対して、撮影条件と被写体状態のうち少なくとも一方に所定以上の変化がある場合、ステップS24においてYESであると判定されて、処理はステップS25に進む。ステップS25において、CPU9は、識別済FLAGを0に変更する。これにより、次のようなステップS26以降の処理が実行される。
ステップS26において、CPU9は、注目点領域推定処理を実行する。すなわち、上述した図2のステップSa乃至Scに対応する処理が実行される。これにより、上述したように、処理対象画像データについての注目点領域が得られることになる。なお、注目点領域推定処理の詳細例については、図8乃至図10を参照して後述する。
ステップS27において、CPU9は、注目点領域評価処理を実行する。すなわち、上述した図2のステップSdに対応する処理が実行される。
ステップS28において、CPU9は、エッジ画像生成処理を実行する。すなわち、上述した図2のステップSeに対応する処理が実行される。これにより、上述したように、処理対象画像データについてのエッジ画像が得られることになる。
ステップS29において、CPU9は、エッジ画像評価処理を実行する。すなわち、上述した図2のステップSfに対応する処理が実行される。
ステップS30において、CPU9は、注目点評価処理の結果やエッジ画像評価処理の結果を用いて、構図分類処理を実行する。すなわち、上述した図2のステップSh(ステップSg含む)に対応する処理が実行される。なお、構図分類処理の詳細例については、図11を参照して後述する。
ステップS31において、CPU9は、構図の分類識別に成功したか否かを判定する。
ステップS30の処理でP=1以上のモデル構図案候補案が選択された場合、ステップS31においてYESであると判定されて、処理はステップS32に進む。ステップS32において、CPU9は、識別済FLAGを1に設定する。
これに対して、ステップS30の処理でモデル構図案候補案が選択されなかった場合、ステップS31においてNOであると判定されて、処理はステップS33に進む。ステップS33において、CPU9は、識別済FLAGを0に設定する。
識別済FLAGが、ステップS32の処理で1に設定されるか、又は、ステップS33の処理で0に設定されると、シーン構図識別処理は終了し、すなわち、図5のステップS2の処理は終了し、処理はステップS3に進み、それ以降の処理が実行される。
次に、図7のシーン構図識別処理のうち、ステップS26(図2のステップSa乃至Sc)の注目点領域処理の詳細例について説明する。
上述したように、注目点領域推定処理では、注目点領域の推定のために、顕著性マップが作成される。したがって、注目点領域推定処理に対して、例えば、Treismanの特徴統合理論や、Itti及びKochらによる顕著性マップを適用することができる。
なお、Treismanの特徴統合理論については、「A.M.Treisman and G.Gelade,“A feature―integration theory of attention”,Cognitive Psychology,Vol.12,No.1,pp.97−136,1980.」を参照すると良い。
また、Itti及びKochらによる顕著性マップについては、「L.Itti,C.Koch, and E.Niebur,“A Model of Saliency−Based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,VOl.20,No11,November 1998.」を参照すると良い。
図8は、Treismanの特徴統合理論やNitti及びKochらによる顕著性マップを適用した場合における、注目点領域推定処理の流れの詳細例を示すフローチャートである。
ステップS41において、CPU9は、処理対象画像データを取得する。なお、ここで取得される処理対象画像データとは、図7のステップS21の処理で入力された処理対象画像データを意味する。
ステップS42において、CPU9は、ガウシアン解像度ピラミット(Gaussian Resolution Pyramid)を作成する。具体的には例えば、CPU9は、処理対象画像データ{(x,y)の位置の画素データ}をI(0)=I(x,y)として、ガウシアンフィルタ処理とダウンサンプリング処理とを順次繰り返し実行する。その結果として、階層型のスケール画像データI(L)(例えばL∈{0・・・8})の組が生成される。この階層型のスケール画像データI(L)の組が、ガウシアン解像度ピラミッドと称されている。ここで、スケールL=k(ここではkは1乃至8のうちの何れかの整数値)の場合、スケール画像データI(k)は、1/2の縮小画像(k=0の場合は原画像)を示す。
ステップS43において、CPU9は、各特徴量マップ作成処理を開始する。各特徴量マップ作成処理の詳細例については、図9や図10を参照して後述する。
ステップS44において、CPU9は、全ての特徴量マップ作成処理が終了したか否かを判定する。各特徴量マップ作成処理のうち1つでも処理が終了していない場合、ステップS44において、NOであると判定されて、処理はステップS44に再び戻される。すなわち、各特徴量マップ作成処理の全処理が終了するまでの間、ステップS44の判定処理が繰り返し実行される。そして、各特徴量マップ作成処理の全処理が終了して、全ての特徴量マップが作成されると、ステップS44においてYESであると判定されて、処理はステップS45に進む。
ステップS45において、CPU9は、各特徴量マップを線形和で結合して、顕著性マップS(Saliency Map)を求める。
ステップS46において、CPU9は、顕著性マップSを用いて、処理対象画像データから注目領域を推定する。すなわち、一般に、主要被写体となる人物や撮影対象(objects)となる物体の多くは、背景(background)領域に比べ、顕著性(saliency)が高いと考えられる。そこで、CPU9は、顕著性マップSを用いて、処理対象画像データから顕著性(saliency)が高い領域を認識する。そして、CPU9は、その認識結果に基づいて、人間の視覚的注意を引く可能性の高い領域、すなわち、注目点領域を推定する。このようにして、注目点領域が推定されると、注目点領域推定処理は終了する。すなわち、図7のステップS26の処理は終了し、処理はステップS27に進む。図2の例でいえば、ステップSa乃至Scの一連の処理は終了し、処理はステップSdに進む。
次に、各特徴量マップ作成処理の具体例について説明する。
図9は、輝度、色、及び、方向性の特徴量マップ作成処理の流れの一例を示すフローチャートである。
図9Aは、輝度の特徴量マップ作成処理の一例を示している。
ステップS61において、CPU9は、処理対象画像データに対応する各スケール画像から、各注目画素を設定する。例えば各注目画素c∈{2,3,4}が設定されたとして、以下の説明を行う。各注目画素c∈{2,3,4}とは、スケールc∈{2,3,4}のスケール画像データI(c)上の演算対象として設定された画素をいう。
ステップS62において、CPU9は、各注目画素c∈{2,3,4}の各スケール画像の輝度成分を求める。
ステップS63において、CPU9は、各注目画素の周辺画素s=c+δの各スケール画像の輝度成分を求める。各注目画素の周辺画素s=c+δとは、例えばδ∈{3,4}とすると、スケールs=c+δのスケール画像I(s)上の、注目画素(対応点)の周辺に存在する画素をいう。
ステップS64において、CPU9は、各スケール画像について、各注目画素c∈{2,3,4}における輝度コントラストを求める。例えば、CPU9は、各注目画素c∈{2,3,4}と、各注目画素の周辺画素s=c+δ(例えばδ∈{3,4})のスケール間差分を求める。ここで、注目画素cをCenterと呼称し、注目画素の周辺画素sをSurroundと呼称すると、求められたスケール間差分は、輝度のCenter−Surroundスケール間差分と呼称することができる。この輝度のCenter−Surroundスケール間差分は、注目画素cが白で周辺画素sが黒の場合又はその逆の場合には大きな値をとるという性質がある。したがって、輝度のCenter−Surroundスケール間差分は、輝度コントラストを表わすことになる。なお、以下、かかる輝度コントラストをI(c,s)と記述する。
ステップS65において、CPU9は、処理対象画像データに対応する各スケール画像において、注目画素に設定されていない画素が存在するか否かを判定する。そのような画素が存在する場合、ステップS65においてYESであると判定されて、処理はステップS61に戻され、それ以降の処理が繰り返される。
すなわち、処理対象画像データに対応する各スケール画像の各画素に対して、ステップS61乃至S65の処理がそれぞれ施されて、各画素の輝度コントラストI(c,s)が求められる。ここで、各注目画素c∈{2,3,4}、及び、周辺画素s=c+δ(例えばδ∈{3,4})が設定される場合、ステップS61乃至S65の1回の処理で、(注目画素cの3通り)×(周辺画素sの2通り)=6通りの輝度コントラストI(c,s)が求められる。ここで、所定のcと所定のsについて求められた輝度コントラストI(c,s)の画像全体の集合体を、以下、輝度コントラストIの特徴量マップと称する。輝度コントラストIの特徴量マップは、ステップS61乃至S65のループ処理の繰り返しの結果、6通り求められることになる。このようにして、6通りの輝度コントラストIの特徴量マップが求められると、ステップS65においてNOであると判定されて、処理はステップS66に進む。
ステップS66において、CPU9は、輝度コントラストIの各特徴量マップを正規化した上で結合することで、輝度の特徴量マップを作成する。これにより、輝度の特徴量マップ作成処理は終了する。なお、以下、輝度の特徴量マップを、他の特徴量マップと区別すべく、FIと記述する。
図9Bは、色の特徴量マップ作成処理の一例を示している。
図9Bの色の特徴量マップ作成処理は、図9Aの輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図9BのステップS81乃至S86のそれぞれの処理は、図9AのステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図9Aとは異なるだけである。したがって、図9Bの色の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
すなわち、図9AのステップS62とS63の処理対象は、輝度成分であったのに対して、図9BのステップS82とS83の処理対象は、色成分である。
また、図9AのステップS64の処理では、輝度のCenter−Surroundスケール間差分が、輝度コントラストI(c,s)として求められた。これに対して、図9BのステップS84の処理では、色相(R/G,B/Y)のCenter−Surroundスケール間差分が、色相コントラストとして求められる。なお、色成分のうち、赤の成分がRで示され、緑の成分がGで示され、青の成分がBで示され、黄の成分がYで示されている。また、以下、色相R/Gについての色相コントラストを、RG(c,s)と記述し、色相B/Yについての色相コントラストを、BY(c,s)と記述する。
ここで、上述の例にあわせて、注目画素cが3通り存在して、周辺画素sが2通り存在するとする。この場合、図9AのステップS61乃至S65のループ処理の結果、6通りの輝度コントラストIの特徴量マップが求められた。これに対して、図9BのステップS81乃至S85のループ処理の結果、6通りの色相コントラストRGの特徴量マップと、6通りの色相コントラストBYの特徴量マップとが求められる。
最終的に、図9AのステップS66の処理で、輝度の特徴量マップFIが求められた。これに対して、図9BのステップS86の処理で、色の特徴量マップが求められる。なお、以下、色の特徴量マップを、他の特徴量マップと区別すべく、FCと記述する。
図9Cは、方向性の特徴量マップ作成処理の一例を示している。
図9Cの方向性の特徴量マップ作成処理は、図9Aの輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図9CのステップS101乃至S106のそれぞれの処理は、図9AのステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図9Aとは異なるだけである。したがって、図9Cの方向性の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
すなわち、ステップS102とS1023の処理対象は、方向成分である。ここで、方向成分とは、輝度成分に対してガウスフィルタφを畳み込んだ結果得られる各方向の振幅成分をいう。ここでいう方向とは、ガウスフィルタφのパラメターとして存在する回転角θにより示される方向をいう。例えば回転角θとしては、0°,45°,90°,135°の4方向を採用することができる。
また、ステップS104の処理では、方向性のCenter−Surroundスケール間差分が、方向性コントラストとして求められる。なお、以下、方向性コントラストを、O(c,s,θ)と記述する。
ここで、上述の例にあわせて、注目画素cが3通り存在して、周辺画素sが2通り存在するとする。この場合、ステップS101乃至S105のループ処理の結果、回転角θ毎に、6通りの方向性コントラストOの特徴量マップが求められる。例えば回転角θとして、0°,45°,90°,135°の4方向が採用されている場合には、24通り(=6×4通り)の方向性コントラストOの特徴量マップが求められる。
最終的に、ステップS106の処理で、方向性の特徴量マップが求められる。なお、以下、方向性の特徴量マップを、他の特徴量マップと区別すべく、FOと記述する。
以上説明した図9の特徴量マップ作成処理のより詳細な処理内容については、例えば、「L.Itti,C.Koch, and E.Niebur,“A Model of Saliency−Based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,VOl.20,No11,November 1998.」を参照すると良い。
なお、特徴量マップ作成処理は、図9の例に特に限定されない。例えば、特徴量マップ作成処理として、明度、彩度、色相、及びモーションの各特徴量を用いて、それぞれの特徴量マップを作成する処理を採用することもできる。
また例えば、特徴量マップ作成処理として、マルチスケールのコントラスト、Center−Surroundの色ヒストグラム、及び、色空間分布の各特徴量を用いて、それぞれの特徴量マップを作成する処理を採用することもできる。
図10は、マルチスケールのコントラスト、Center−Surroundの色ヒストグラム、及び、色空間分布の特徴量マップ作成処理の一例を示すフローチャートである。
図10Aは、マルチスケールのコントラストの特徴量マップ作成処理の一例を示している。
ステップS121において、CPU9は、マルチスケールのコントラストの特徴量マップを求める。これにより、マルチスケールのコントラストの特徴量マップ作成処理は終了となる。
なお、以下、マルチスケールのコントラストの特徴量マップを、他の特徴量マップと区別すべく、Fcと記述する。
図10Bは、Center−Surroundの色ヒストグラムの特徴量マップ作成処理の一例を示している。
ステップS141において、CPU9は、異なるアスペクト比毎に、矩形領域の色ヒストグラムと、周辺輪郭の色ヒストグラムとを求める。アスペクト比自体は、特に限定されず、例えば{0.5,0.75,1.0,1.5,2.0}などを採用することができる。
ステップS142において、CPU9は、異なるアスペクト比毎に、矩形領域の色ヒストグラムと、周辺輪郭の色ヒストグラムとのカイ2乗距離を求める。ステップS143において、CPU9は、カイ2乗距離が最大となる矩形領域の色ヒストグラムを求める。
ステップS144において、CPU9は、カイ2乗距離が最大となる矩形領域の色ヒストグラムを用いて、Center−Surroundの色ヒストグラムの特徴量マップを作成する。これにより、Center−Surroundの色ヒストグラムの特徴量マップ作成処理は終了となる。
なお、以下、Center−Surroundの色ヒストグラムの特徴量マップを、他の特徴量マップと区別すべく、Fhと記述する。
図10Cは、色空間分布の特徴量マップ作成処理の一例を示している。
ステップS161において、CPU9は、色空間分布について、水平方向の分散を計算する。また、ステップS162において、CPU9は、色空間分布について、垂直方向の分散を計算する。そして、ステップS163において、CPU9は、水平方向の分散と垂直方向の分散とを用いて、色の空間的な分散を求める。
ステップS164において、CPU9は、色の空間的な分散を用いて、色空間分布の特徴量マップを作成する。これにより、色空間分布の特徴量マップ作成処理は終了となる。
なお、以下、色空間分布の特徴量マップを、他の特徴量マップと区別すべく、Fsと記述する。
以上説明した図10の特徴量マップ作成処理のより詳細な処理内容については、例えば、「T.Liu,J.Sun,N.Zheng,X.Tang,H.Sum,“Learning to Detect A Salient Object”,CVPR07,pp.1−8,2007.」を参照すると良い。
次に、図7のシーン構図識別処理のうち、ステップS30の構図分類処理の詳細例について説明する。
図11は、構図分析処理の流れの詳細例を示すフローチャートである。
なお、図11の例では、上述したモデル構図案C1乃至C11のうちの1つが、モデル構図案候補として選択される。すなわち、図11の例では、P=1のモデル構図案候補が選択される。
ステップS201において、CPU9は、構図要素抽出処理を実行する。すなわち、上述した図2のステップSgに対応する処理が実行される。これにより、上述したように、図7のステップS21の処理で入力された処理対象画像データから、構図要素とその配列パターンが抽出される。
そこで、図2のステップSh(ステップSgを除く)に対応する処理として、次のようなステップS202以降の処理が実行される。なお、図11の例では、ステップS201の処理の結果として、構図要素とその配置パターンの内容を示す情報が得られるとする。このため、図3と図4のテーブル情報に格納されている分類識別パターンの形態は、同図に示されるような画像データではなく、構図要素と配置パターンの内容を示す情報であるとする。すなわち、以下のステップS202以降の処理においては、ステップS201の処理の結果得られた構図要素及びその配置パターンと、分類識別パターンとしての構図要素及びその配置パターンとが比較照合される。
ステップS202において、CPU9は、注目点領域が画面全体に広く分布しているか否かを判定する。
ステップS202において、注目点領域が画面全体に広く分布していないと判定された場合、すなわち、NOであると判定された場合、処理はステップS212に進む。ただし、ステップS212以降の処理については後述する。
これに対して、ステップS202において、注目点領域が画面全体に広く分布していると判定された場合、すなわち、YESであると判定された場合、処理はステップS203に進む。ステップS203において、CPU9は、注目点領域が上下に分割又は水平に分布しているか否かを判定する。
ステップS203において、注目点領域が上下に分割しておらず、かつ水平に分布していないと判定された場合、すなわち、NOであると判定された場合、処理はステップS206に進む。ただし、ステップS206以降の処理については後述する。
これに対して、ステップS203において、注目点領域が上下に分割又は水平に分布していると判定された場合、すなわち、YESであると判定された場合、処理はステップS204に進む。ステップS204において、CPU9は、水平に長い直線エッジがあるか否かを判定する。
ステップS204において、水平に長い直線エッジはないと判定された場合、すなわち、NOであると判定された場合、処理はステップS227に進む。ただし、ステップS227以降の処理については後述する。
これに対して、ステップS204において、水平に長い直線エッジがあると判定された場合、すなわち、YESであると判定された場合、処理はステップS205に進む。ステップS205において、CPU9は、モデル構図案C1「水平線構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS203の処理でNOであると判定されると、処理はステップS206に進む。ステップS206において、CPU9は、注目点領域が左右に分割又は垂直に分布しているか否かを判定する。
ステップS206において、注目点領域が左右に分割しておらず、かつ垂直に分布していないと判定された場合、すなわち、NOであると判定された場合、処理はステップS209に進む。ただし、ステップS209以降の処理については後述する。
これに対して、ステップS206において、注目点領域が左右に分割又は垂直に分布していると判定された場合、すなわち、YESであると判定された場合、処理はステップS207に進む。ステップS207において、CPU9は、垂直に長い直線エッジがあるか否かを判定する。
ステップS207において、垂直に長い直線エッジはないと判定された場合、すなわち、NOであると判定された場合、処理はステップS227に進む。ただし、ステップS227以降の処理については後述する。
これに対して、ステップS207において、垂直に長い直線エッジがあると判定された場合、すなわち、YESであると判定された場合、処理はステップS208に進む。ステップS208において、CPU9は、モデル構図案C2「垂直線構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS206の処理でNOであると判定されると、処理はステップS209に進む。ステップS209において、CPU9は、注目点領域が斜めに分割又は対角に分布しているか否かを判定する。
ステップS209において、注目点領域が斜めに分割しておらず、かつ対角に分布していないと判定された場合、すなわち、NOであると判定された場合、処理はステップS227に進む。ただし、ステップS227以降の処理については後述する。
これに対して、ステップS209において、注目点領域が斜めに分割又は対角に分布していると判定された場合、すなわち、YESであると判定された場合、処理はステップS210に進む。ステップS210において、CPU9は、長い斜線エッジがあるか否かを判定する。
ステップS210において、長い斜線エッジはないと判定された場合、すなわち、NOであると判定された場合、処理はステップS227に進む。ただし、ステップS227以降の処理については後述する。
これに対して、ステップS210において、長い斜線エッジがあると判定された場合、すなわち、YESであると判定された場合、処理はステップS211に進む。ステップS211において、CPU9は、モデル構図案C3「斜線構図/対角線構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS202の処理でNOであると判定されると、処理はステップS212に進む。ステップS212において、CPU9は、注目点領域が略中央にやや広く分布しているか否かを判定する。
ステップS212において、注目点領域が略中央にやや広く分布していないと判定された場合、すなわち、NOであると判定された場合、処理はステップS219に進む。ただし、ステップS219以降の処理については後述する。
これに対して、ステップS212において、注目点領域が略中央にやや広く分布していると判定された場合、すなわち、YESであると判定された場合、処理はステップS213に進む。ステップS213において、CPU9は、長い曲線があるか否かを判定する。
ステップS213において、長い曲線はないと判定された場合、すなわち、NOであると判定された場合、処理はステップS215に進む。ただし、ステップS215以降の処理については後述する。
これに対して、ステップS213において、長い曲線があると判定された場合、すなわち、YESであると判定された場合、処理はステップS214に進む。ステップS214において、CPU9は、モデル構図案C5「曲線構図/S字構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS32の処理でYESであると判定されて、ステップS31の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS213の処理でNOであると判定されると、処理はステップS215に進む。ステップS215において、CPU9は、斜線エッジ又は放射線エッジが存在するか否かを判定する。
ステップS215において、斜線エッジ及び放射線エッジが存在しないと判定された場合、すなわち、NOであると判定された場合、処理はステップS217に進む。ただし、ステップS217以降の処理については後述する。
これに対して、ステップS215において、斜線エッジ又は放射線エッジが存在すると判定された場合、すなわち、YESであると判定された場合、処理はステップS216に進む。ステップS216において、CPU9は、モデル構図案C6「三角形/逆三角形構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS215の処理でNOであると判定されると、処理はステップS217に進む。ステップS217において、CPU9は、注目点領域及びエッジが共に、中央下方にトンネル状であるか否かを判定する。
ステップS217において、注目点領域及びエッジが共に、中央下方にトンネル状でないと判定された場合、すなわち、NOであると判定された場合、処理はステップS227に進む。ただし、ステップS227以降の処理については後述する。
これに対して、ステップS217において、注目点領域及びエッジが共に、中央下方にトンネル状であると判定された場合、すなわち、YESであると判定された場合、処理はステップS218に進む。ステップS218において、CPU9は、モデル構図案C8「トンネル構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS212の処理でNOであると判定されると、処理はステップS219に進む。ステップS219において、CPU9は、注目点領域が分散又は孤立であるか否かを判定する。
ステップS219において、注目点領域が分散でもなく孤立でもないと判定された場合、すなわち、NOであると判定された場合、処理はステップS227に進む。ただし、ステップS227以降の処理については後述する。
これに対して、ステップS219において、注目点領域が分散又は孤立であると判定された場合、すなわち、YESであると判定された場合、処理はステップS220に進む。ステップS220において、CPU9は、主要被写体は人物の顔であるか否かを判定する。
ステップS220において、主要被写体は人物の顔ではないと判定された場合、すなわち、NOであると判定された場合、処理はステップS222に進む。ただし、ステップS222以降の処理については後述する。
これに対して、ステップS220において、主要被写体は人物の顔であると判定された場合、すなわち、YESであると判定された場合、処理はステップS221に進む。ステップS221において、CPU9は、モデル構図案C10「ポートレート構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS220の処理でNOであると判定されると、処理はステップS222に進む。ステップS222において、CPU9は、注目点領域が左右又は対称に並列であるか否かを判定する。
ステップS222において、注目点領域が左右及び対称に並列でないと判定された場合、すなわち、NOであると判定された場合、処理はステップS224に進む。ただし、ステップS224以降の処理については後述する。
これに対して、ステップS222において、注目点領域が左右又は対称に並列であると判定された場合、すなわち、YESであると判定された場合、処理はステップS223に進む。ステップS223において、CPU9は、モデル構図案C7「対比/対称構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS222の処理でNOであると判定されると、処理はステップS224に進む。ステップS224において、CPU9は、注目点領域又は輪郭が複数の相似形で分散であるか否かを判定する。
ステップS224において、注目点領域又は輪郭が複数の相似形で分散であると判定された場合、すなわち、YESであると判定された場合、処理はステップS225に進む。ステップS225において、CPU9は、モデル構図案C9「パターン構図」を、モデル構図案候補として選択する。
これに対して、ステップS224において、注目点領域及び輪郭が複数の相似形でもないし分散でもないいと判定された場合、すなわち、NOであると判定された場合、処理はステップS226に進む。ステップS226において、CPU9は、モデル構図案C11「3分割/4分割構図」を、モデル構図案候補として選択する。
ステップS225又はS226の処理が終了すると、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS204,S207,S209,S210,S217,又はS219の処理でNOであると判定されると、処理はステップS227に進む。ステップS227において、CPU9は、複数の斜線又は放射線があるか否かを判定する。
ステップS227において、複数の斜線も複数の放射線もないと判定された場合、すなわち、NOであると判定された場合、処理はステップS234に進む。ただし、ステップS234以降の処理については後述する。
これに対して、ステップS227において、複数の斜線又は放射線があると判定された場合、すなわち、YESであると判定された場合、処理はステップS228に進む。ステップS228において、CPU9は、略同一方向に複数の斜線があるか否かを判定する。
ステップS228において、略同一方向に複数の斜線がないと判定された場合、すなわち、NOであると判定された場合、処理はステップS230に進む。ただし、ステップS230以降の処理については後述する。
これに対して、ステップS228において、略同一方向に複数の斜線があると判定された場合、すなわち、YESであると判定された場合、処理はステップS229に進む。ステップS229において、CPU9は、モデル構図案C3「斜線構図/対角線構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS228の処理でNOであると判定されると、処理はステップS230に進む。ステップS230において、CPU9は、斜線がやや中央から上下又は左右に放射状であるか否かを判定する。
ステップS230において、斜線がやや中央から上下に放射状でもないし左右に放射状でもないと判定された場合、すなわち、NOであると判定された場合、処理はステップS232に進む。ただし、ステップS232以降の処理については後述する。
これに対して、ステップS230において、斜線がやや中央から上下又は左右に放射状であると判定された場合、すなわち、YESであると判定された場合、処理はステップS231に進む。ステップS231において、CPU9は、モデル構図案C4「放射線構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS230の処理でNOであると判定されると、処理はステップS232に進む。ステップS232において、CPU9は、斜線が上又は下から放射状であるか否かを判定する。
ステップS232において、斜線が上から放射状でもないし下から放射状でもないと判定された場合、すなわち、NOであると判定された場合、処理はステップS234に進む。ただし、ステップS234以降の処理については後述する。
これに対して、ステップS232において、斜線が上又は下から放射状であると判定された場合、すなわち、YESであると判定された場合、処理はステップS233に進む。ステップS233において、CPU9は、モデル構図案C6「三角形/逆三角形構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
上述したように、ステップS227又はS232の処理でNOであると判定されると、処理はステップS234に進む。ステップS234において、CPU9は、主要被写体は人物の顔であるか否かを判定する。
ステップS234において、主要被写体は人物の顔であると判定された場合、すなわち、YESであると判定された場合、処理はステップS235に進む。ステップS235において、CPU9は、モデル構図案C10「ポートレート構図」を、モデル構図案候補として選択する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でYESであると判定されて、ステップS32の処理で、識別済FLAGが1に設定される。その結果、シーン構図識別処理全体が終了となる。
これに対して、ステップS234において、主要被写体は人物の顔ではないと判定された場合、すなわち、NOであると判定された場合、処理はステップS236に進む。ステップS236において、CPU9は、構図の分類識別に失敗と認定する。これにより、構図分類処理は終了となる。すなわち、図7のステップS30の処理が終了し、ステップS31の処理でNOであると判定されて、ステップS33の処理で、識別済FLAGが0に設定される。その結果、シーン構図識別処理全体が終了となる。
以上説明したように、第1実施形態に係る画像処理装置100のCPU9は、主要被写体を含む入力画像に対して、入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する機能を有している。CPU9は、注目点領域を用いて、複数のモデル構図案の中から、主要被写体の配置状態(例えば、配列パターンや位置関係)に関して入力画像と類似するモデル構図案を識別する機能を有している。
このようにして識別された構図案は、主要被写体の配置状態(例えば、配列パターンや位置関係)に関して入力画像(スルー画像)と類似するので、入力画像にとって理想的な構図案やセンスの良い構図案であると把握することができる。したがって、このような構図案がユーザに提示されて受け入れられた場合には、ユーザは、様々な被写体や一般のシーンにおいても、理想的な構図やセンスの良い構図で撮影することが可能になる。
第1実施形態に係るCPU9の構図案を識別する機能には、注目点領域に加えてさらに、入力画像に対応するエッジ画像の線成分を用いて、主要被写体の配置状態(例えば、配列パターンや位置関係)に関して入力画像と類似する構図案を識別する機能が含まれる。
このような機能を採用することで、従来の黄金分割線(3分割線)グリッドの交点に被写体を置くというような単純な構図案以外の多種多様な構図案も、構図案候補として提示することができる。その結果、構図案候補として提示された構図案は紋切り型の構図にならないので、ユーザは、シーンや被写体に応じて多種多様な構図で、また、臨機応変の様々な構図で、主要被写体を撮影することが可能になる。
第1実施形態に係るCPU9はまた、識別されたモデル構図案を提示する機能を有する。これにより、ユーザは、ファインダなどで入力画像(スルー画像)を見ながら主要被写体を狙うだけで、人物の顔以外の一般の主要被写体を撮影する際のモデル構図案が提示される。したがって、ユーザは、提示されたモデル構図案に基づいて構図の良し悪しを評価することができる。また、ユーザは、シーンを変更することで、シーン毎の複数のモデル構図案が提示されるので、提示された複数のモデル構図案の中から所望のものを、撮影時の構図として選択することができる。
第1実施形態に係るCPU9はまた、識別されたモデル構図案に対する評価をする機能を有している。そして、提示の機能には、この評価結果を、識別されたモデル構図案とともに提示する機能が含まれる。これにより、CPU9は、構図取りの変更(フレーミング)に応じて刻々とモデル構図案を識別し、それらの評価を刻々とすることができる。したがって、ユーザは、刻々と変化する評価を用いることで、入力画像にとってより良い構図を探したり、様々な構図取りを容易に試すことができる。
第1実施形態に係るCPU9はまた、識別されたモデル構図案に基づいて、所定構図(例えば理想的な構図)に導くガイド情報を生成する機能を有している。そして、提示の機能には、このガイド情報を提示する機能が含まれる。これにより、撮影に不慣れなユーザであっても、理想的な構図や、センスの良い構図、又は、バランスの良い構図で、主要被写体を撮影することが容易にできる。
さらに、第1実施形態に係るCPU9は、識別したモデル構図案に対応する構図となるように、フレーミングやズーミングを移動したり変更するようにユーザをガイドしていくこともできる。また、CPU9は、識別したモデル構図案に対応する構図に近づくように、自動フレーミングや自動トリミングを実行して、撮影することもできる。また、複数枚連写がなされた場合、CPU9は、連写された複数の撮影画像をそれぞれ入力画像として、モデル構図案を識別することができる。したがって、CPU9は、連写された複数の撮影画像の中から構図の良い撮影画像を、識別された各モデル構図案に基づいて選択し、記録させることもできる。その結果、ユーザは、「日の丸構図」や単調な構図から脱して、適切な構図で撮影することが可能になる。また、ユーザにとっては、失敗構図で撮影してしまうことを回避することが可能になる。
〔第2実施形態〕
次に、本発明の第2実施形態を説明する。
なお、本発明の第2実施形態に係る画像処理装置のハードウェアの構成は、第1実施形態に係る画像処理装置100の図1のハードウェアの構成と基本的に同様である。また、CPU9の機能も、第1実施形態のCPU9が有する上述した各種機能をそのまま有している。
第2実施形態に係る画像処理装置100は、さらに、「ピクチャモード」や「BEST SHOT(登録商標)」などの機能に基づいて、複数のシーンをユーザに提示する機能を有している。
図12は、液晶ディスプレイ13の表示例として、複数のシーンをそれぞれ特定可能な情報(以下、シーン情報と称する)が表示された例を示している。
シーン情報201は、「朝日/夕日」のシーンを示している。シーン情報202は、「花」のシーンを示している。シーン情報203は、「桜」のシーンを示している。シーン情報204は、「渓流」のシーンを示している。シーン情報205は、「木」のシーンを示している。シーン情報206は、「森/林」のシーンを示している。シーン情報207は、「空/雲」のシーンを示している。シーン情報208は、「滝」のシーンを示している。シーン情報209は、「山」のシーンを示している。シーン情報210は、「海」のシーンを示している。
なお、説明の簡略上、シーン情報201乃至210としては、各シーンの名称が表示されるように図12には描画されているが、特に図12の例に限定されず、その他例えば、各シーンの見本画像であっても構わない。
ユーザは、操作部14を操作して、シーン情報201乃至210の中から、所望のシーン情報を選択することができる。第2実施形態に係る画像処理装置100は、このような選択に対する機能として、次のような機能を有している。すなわち、画像処理装置100は、選択されたシーン情報に対応するシーン、そのシーンに含まれ得る被写体の種類、そのシーンの作風などに応じて、複数のモデル構図案の中から、そのシーンに対して推奨するモデル構図案を識別する機能を有している。
具体的には例えば、シーン情報201が選択された場合、画像処理装置100は、「朝日/夕日」のシーンに対して、モデル構図案C11「3分割/4分割構図」を識別する。これにより、太陽と水平線が3分割法に基づく位置に配置させて撮影することが可能になる。
例えばシーン情報202が選択された場合、画像処理装置100は、「花」のシーンに対して、モデル構図案C7「対比/対称構図」を識別する。これにより、主役の花を引き立てる脇役を見つけ、主役と脇役による「対比構図」での撮影が可能になる。
例えばシーン情報203が選択された場合、画像処理装置100は、「桜」のシーンに対して、モデル構図案C4「放射線構図」を識別する。これにより、木の幹と枝とについて「放射線構図」での撮影が可能になる。
例えばシーン情報204が選択された場合、画像処理装置100は、「渓流」のシーンに対して、モデル構図案C12「遠近法構図」を識別する。これにより、距離感を強調した「遠近法構図」にて、ポイントとなる被写体を配置させた撮影が可能になる。
例えばシーン情報205が選択された場合、画像処理装置100は、「木」のシーンに対して、モデル構図案C7「対比/対称構図」を識別する。これにより、主役の古木などを引き立てる脇役を背景の木々として、主役と脇役による「対比構図」での撮影が可能になる。その結果、古木など被写体のスケール感を引き出すことが可能になる。
例えばシーン情報206が選択された場合、画像処理装置100は、「森/林」のシーンに対して、モデル構図案C4「放射線構図」を識別する。これにより、光が降り注ぐ透過光下で、木の幹をアクセントラインとする「放射線構図」で撮影することが可能になる。
例えばシーン情報207が選択された場合、画像処理装置100は、「空/雲」のシーンに対して、モデル構図案C4「放射線構図」やモデル構図案C3「斜線構図/対角線構図」を識別する。これにより、雲のラインを「放射線構図」や「対角線構図」で撮影することが可能になる。
例えばシーン情報208が選択された場合、画像処理装置100は、「滝」のシーンに対して、低速シャッタで得られる滝の流れを「構図の軸」にして撮影することが可能なモデル構図案を識別する。
例えばシーン情報209が選択された場合、画像処理装置100は、「山」のシーンに対して、モデル構図案C3「斜線構図/対角線構図」を識別する。これにより、稜線を「斜線構図」で撮影し、撮影画像にリズム感を出すすることが可能になる。なお、この場合、空は広く撮影しすぎないことが好適である。
例えばシーン情報210が選択された場合、画像処理装置100は、「海」のシーンに対して、モデル構図案C1「水平線構図」とモデル構図案C7「対比/対称構図」を識別する。これにより、海を「水平線構図」と「対比構図」との組み合わせで撮影することが可能になる。
このような第2実施形態では、第1実施形態で奏することが可能な効果をそのまま奏することができることは勿論のこと、さらに、次のような効果を奏することが可能になる。
すなわち、第2実施形態では、シーン別の撮影プログラムが選択されて撮影する場合などにおいて、シーンに対応するモデル構図案が識別されるので、入力画像(スルー画像)における主要被写体の配置や位置関係だけによらず、シーンを引き立てるような最適なモデル構図案を識別することが可能になる。その結果、何人も、理想的な構図で撮影することが可能になる。
例えば、シーン別の撮影プログラムに対応する見本画像や、モデル構図案として、ユーザが撮影した画像や、有名作家の写真作品などを追加登録できるとする。この場合、画像処理装置100は、登録画像から注目点領域などを抽出して、抽出結果に基づいて構図要素や配列パターンなどを自動的に抽出することができる。これにより、画像処理装置100は、抽出された構図要素や配列パターンなどを、新たなモデル構図案や配列パターン情報として追加登録することができる。この場合、シーン別の撮影プログラムによる撮影時に、ユーザは、追加登録されたモデル構図案を選択することで、所望の構図案による撮影をより一段と簡単に行うことができる。
なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良などは本発明に含まれるものである。
例えば、上述した実施形態では、本発明が適用される画像処理装置は、デジタルカメラとして構成される例として説明した。しかしながら、本発明は、デジタルカメラに特に限定されず、電子機器一般に適用することができる。具体的には例えば、本発明は、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機などに適用可能である。
また、また、第1実施形態と第2実施形態とを組み合わせても良い。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータなどにネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであっても良い。
このようなプログラムを含む記録媒体は、図示はしないが、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体などで構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスクなどにより構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)などにより構成される。光磁気ディスクは、MD(Mini−Disk)などにより構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM11や、図示せぬハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
100・・・画像処理装置、1・・・光学レンズ装置、2・・・シャッタ装置、3・・・アクチュエータ、4・・・CMOSセンサ、5・・・AFE、6・・・TG、7・・・DRAM、8・・・DSP、9・・・CPU、10・・・RAM、11・・・ROM11・・・液晶表示コントローラ、13・・・液晶ディスプレイ、14・・・操作部、15・・・メモリカード、16・・・測距センサ、17・・・測光センサ

Claims (6)

  1. 主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定部と、
    前記推定部により推定された前記注目点領域を用いて、複数のモデル構図案の中から、前記主要被写体の配置状態に関して前記入力画像と類似するモデル構図案を識別する識別部と、
    を備える画像処理装置。
  2. 前記識別部は、前記注目点領域に加えてさらに、前記入力画像に対応するエッジ画像の線成分を用いて、前記主要被写体の配置状態に関して前記入力画像と類似する構図案を識別する
    請求項1に記載の画像処理装置。
  3. 前記識別部により識別された前記モデル構図案を提示する提示部
    をさらに備える請求項1又は2に記載の画像処理装置。
  4. 前記識別部により識別された前記モデル構図案に対する評価をする評価部をさらに備え、
    前記提示部は、前記評価部の評価結果をさらに提示する
    請求項3に記載の画像処理装置。
  5. 前記識別部により識別された前記モデル構図案に基づいて、所定構図に導くガイド情報を生成する生成部をさらに備え、
    前記提示部は、前記生成部により生成された前記ガイド情報をさらに提示する
    請求項3又は4に記載の画像処理装置。
  6. 主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定ステップと、
    前記推定ステップの処理により推定された前記注目点領域を用いて、複数のモデル構図案の中から、前記主要被写体の配置状態に関して前記入力画像と類似するモデル構図案を識別する識別ステップと、
    を含む画像処理方法。
JP2009179549A 2009-07-31 2009-07-31 画像処理装置及び方法 Expired - Fee Related JP4844657B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009179549A JP4844657B2 (ja) 2009-07-31 2009-07-31 画像処理装置及び方法
US12/845,944 US20110026837A1 (en) 2009-07-31 2010-07-29 Image processing device and method
KR1020100073334A KR101199804B1 (ko) 2009-07-31 2010-07-29 화상 처리 장치 및 방법
TW099125233A TWI446786B (zh) 2009-07-31 2010-07-30 影像處理裝置及方法
CN201010244014XA CN101990068B (zh) 2009-07-31 2010-07-30 图像处理装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009179549A JP4844657B2 (ja) 2009-07-31 2009-07-31 画像処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2011035633A true JP2011035633A (ja) 2011-02-17
JP4844657B2 JP4844657B2 (ja) 2011-12-28

Family

ID=43527080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009179549A Expired - Fee Related JP4844657B2 (ja) 2009-07-31 2009-07-31 画像処理装置及び方法

Country Status (5)

Country Link
US (1) US20110026837A1 (ja)
JP (1) JP4844657B2 (ja)
KR (1) KR101199804B1 (ja)
CN (1) CN101990068B (ja)
TW (1) TWI446786B (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012042720A (ja) * 2010-08-19 2012-03-01 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012199807A (ja) * 2011-03-22 2012-10-18 Casio Comput Co Ltd 撮像装置、撮像方法、及びプログラム
JP2013197980A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 画像処理装置、画像処理方法、及び、プログラム
JP2013232861A (ja) * 2012-05-02 2013-11-14 Sony Corp 表示制御装置、表示制御方法、プログラムおよび記録媒体
JP2014103598A (ja) * 2012-11-21 2014-06-05 Canon Inc 情報表示装置、その制御方法、撮影装置、およびプログラム
JP2016516369A (ja) * 2013-03-27 2016-06-02 ▲華▼▲為▼終端有限公司Huawei Device Co., Ltd. 写真出力方法および装置
JP2016537912A (ja) * 2013-10-30 2016-12-01 インテル コーポレイション 画像キャプチャフィードバック
JPWO2016199483A1 (ja) * 2015-06-08 2018-03-29 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US10115178B2 (en) 2012-12-26 2018-10-30 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2021083073A (ja) * 2020-07-03 2021-05-27 株式会社エクサウィザーズ 撮影装置、情報処理装置、方法およびプログラム

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102782708A (zh) 2009-12-02 2012-11-14 高通股份有限公司 用于图像辨识的描述符小块的快速子空间投影
US9530073B2 (en) * 2010-04-20 2016-12-27 Qualcomm Incorporated Efficient descriptor extraction over multiple levels of an image scale space
US8855911B2 (en) 2010-12-09 2014-10-07 Honeywell International Inc. Systems and methods for navigation using cross correlation on evidence grids
US20130088602A1 (en) * 2011-10-07 2013-04-11 Howard Unger Infrared locator camera with thermal information display
JP2013090241A (ja) * 2011-10-20 2013-05-13 Nikon Corp 表示制御装置、撮像装置および表示制御プログラム
US8818722B2 (en) 2011-11-22 2014-08-26 Honeywell International Inc. Rapid lidar image correlation for ground navigation
CN103188423A (zh) * 2011-12-27 2013-07-03 富泰华工业(深圳)有限公司 摄像装置及摄像方法
US9157743B2 (en) 2012-07-18 2015-10-13 Honeywell International Inc. Systems and methods for correlating reduced evidence grids
CN103870138B (zh) * 2012-12-11 2017-04-19 联想(北京)有限公司 一种信息处理方法及电子设备
JP6107518B2 (ja) * 2013-07-31 2017-04-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN103533245B (zh) * 2013-10-21 2018-01-09 努比亚技术有限公司 拍摄装置及辅助拍摄方法
US20150132455A1 (en) 2013-11-12 2015-05-14 Paisal Angkhasekvilai Processing in making ready to eat confectionery snack shapes for decoration
US9667860B2 (en) * 2014-02-13 2017-05-30 Google Inc. Photo composition and position guidance in a camera or augmented reality system
CN106233283A (zh) * 2014-04-15 2016-12-14 奥林巴斯株式会社 图像处理装置、通信***以及通信方法和摄像装置
CN103929596B (zh) * 2014-04-30 2016-09-14 努比亚技术有限公司 引导拍摄构图的方法及装置
CN103945129B (zh) * 2014-04-30 2018-07-10 努比亚技术有限公司 基于移动终端的拍照预览构图指导方法及***
KR20160024143A (ko) * 2014-08-25 2016-03-04 삼성전자주식회사 영상 처리 방법 및 전자 장치
US20170121060A1 (en) * 2015-11-03 2017-05-04 Mondi Jackson, Inc. Dual-compartment reclosable bag
CN106131418A (zh) * 2016-07-19 2016-11-16 腾讯科技(深圳)有限公司 一种构图控制方法、装置及拍照设备
US10776659B2 (en) 2016-08-26 2020-09-15 Goodrich Corporation Systems and methods for compressing data
WO2018117662A1 (en) 2016-12-22 2018-06-28 Samsung Electronics Co., Ltd. Apparatus and method for processing image
KR102407815B1 (ko) * 2016-12-22 2022-06-13 삼성전자주식회사 영상 처리 장치 및 방법
US10579898B2 (en) * 2017-04-16 2020-03-03 Facebook, Inc. Systems and methods for provisioning content using barrel projection representation
CN108093174A (zh) * 2017-12-15 2018-05-29 北京臻迪科技股份有限公司 拍照设备的构图方法、装置和拍照设备
US11503206B2 (en) * 2020-07-15 2022-11-15 Sony Corporation Techniques for providing photographic context assistance
CN114140694A (zh) * 2021-12-07 2022-03-04 盐城工学院 一种个体审美与摄影美学耦合的美学构图方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001126070A (ja) * 1999-10-28 2001-05-11 Atr Media Integration & Communications Res Lab 注目領域抽出装置およびそれを用いた自動構図決定装置
JP2004343747A (ja) * 2003-05-15 2004-12-02 Lg Electronics Inc カメラ付移動通信端末機の撮影方法
JP2006133990A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 画像処理装置
JP2007158868A (ja) * 2005-12-07 2007-06-21 Sony Corp 画像処理装置および方法
JP2007174548A (ja) * 2005-12-26 2007-07-05 Casio Comput Co Ltd 撮影装置及びプログラム
JP2009055448A (ja) * 2007-08-28 2009-03-12 Fujifilm Corp 撮影装置
JP2009521134A (ja) * 2005-12-22 2009-05-28 オリンパス株式会社 シーン認識撮影システム及びシーン認識撮影方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4573070A (en) * 1977-01-31 1986-02-25 Cooper J Carl Noise reduction system for video signals
US5047930A (en) * 1987-06-26 1991-09-10 Nicolet Instrument Corporation Method and system for analysis of long term physiological polygraphic recordings
US5441051A (en) * 1995-02-09 1995-08-15 Hileman; Ronald E. Method and apparatus for the non-invasive detection and classification of emboli
KR100324610B1 (ko) * 1996-05-28 2002-02-27 모리시타 요이찌 화상예측 복호화장치 및 방법
US6084989A (en) * 1996-11-15 2000-07-04 Lockheed Martin Corporation System and method for automatically determining the position of landmarks in digitized images derived from a satellite-based imaging system
US6597818B2 (en) * 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6285788B1 (en) * 1997-06-13 2001-09-04 Sharp Laboratories Of America, Inc. Method for fast return of abstracted images from a digital image database
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US6473522B1 (en) * 2000-03-14 2002-10-29 Intel Corporation Estimating text color and segmentation of images
TWI222039B (en) * 2000-06-26 2004-10-11 Iwane Lab Ltd Information conversion system
US6633683B1 (en) * 2000-06-26 2003-10-14 Miranda Technologies Inc. Apparatus and method for adaptively reducing noise in a noisy input image signal
GB2370438A (en) * 2000-12-22 2002-06-26 Hewlett Packard Co Automated image cropping using selected compositional rules.
US6741741B2 (en) * 2001-02-01 2004-05-25 Xerox Corporation System and method for automatically detecting edges of scanned documents
US6930804B2 (en) * 2001-02-01 2005-08-16 Xerox Corporation System and method for automatically detecting edges of scanned documents
US20030065409A1 (en) * 2001-09-28 2003-04-03 Raeth Peter G. Adaptively detecting an event of interest
US7505604B2 (en) * 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
AU2002347754A1 (en) * 2002-11-06 2004-06-07 Agency For Science, Technology And Research A method for generating a quality oriented significance map for assessing the quality of an image or video
US7349020B2 (en) * 2003-10-27 2008-03-25 Hewlett-Packard Development Company, L.P. System and method for displaying an image composition template
EP1713063B1 (en) * 2003-12-19 2011-03-16 Creative Technology Ltd. A printable audio format
CA2616871A1 (en) * 2004-07-30 2006-02-02 Algolith Inc. Apparatus and method for adaptive 3d noise reduction
US20060115185A1 (en) * 2004-11-17 2006-06-01 Fuji Photo Film Co., Ltd. Editing condition setting device and program for photo movie
US7412282B2 (en) * 2005-01-26 2008-08-12 Medtronic, Inc. Algorithms for detecting cardiac arrhythmia and methods and apparatuses utilizing the algorithms
JP4654773B2 (ja) * 2005-05-31 2011-03-23 富士フイルム株式会社 情報処理装置、動画像符号化装置、情報処理方法及び情報処理プログラム
US7881544B2 (en) * 2006-08-24 2011-02-01 Dell Products L.P. Methods and apparatus for reducing storage size
US7995106B2 (en) * 2007-03-05 2011-08-09 Fujifilm Corporation Imaging apparatus with human extraction and voice analysis and control method thereof
US7940985B2 (en) * 2007-06-06 2011-05-10 Microsoft Corporation Salient object detection
US7991237B2 (en) * 2007-06-28 2011-08-02 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
US8577156B2 (en) * 2008-10-03 2013-11-05 3M Innovative Properties Company Systems and methods for multi-perspective scene analysis

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001126070A (ja) * 1999-10-28 2001-05-11 Atr Media Integration & Communications Res Lab 注目領域抽出装置およびそれを用いた自動構図決定装置
JP2004343747A (ja) * 2003-05-15 2004-12-02 Lg Electronics Inc カメラ付移動通信端末機の撮影方法
JP2006133990A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 画像処理装置
JP2007158868A (ja) * 2005-12-07 2007-06-21 Sony Corp 画像処理装置および方法
JP2009521134A (ja) * 2005-12-22 2009-05-28 オリンパス株式会社 シーン認識撮影システム及びシーン認識撮影方法
JP2007174548A (ja) * 2005-12-26 2007-07-05 Casio Comput Co Ltd 撮影装置及びプログラム
JP2009055448A (ja) * 2007-08-28 2009-03-12 Fujifilm Corp 撮影装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012042720A (ja) * 2010-08-19 2012-03-01 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012199807A (ja) * 2011-03-22 2012-10-18 Casio Comput Co Ltd 撮像装置、撮像方法、及びプログラム
JP2013197980A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 画像処理装置、画像処理方法、及び、プログラム
JP2013232861A (ja) * 2012-05-02 2013-11-14 Sony Corp 表示制御装置、表示制御方法、プログラムおよび記録媒体
JP2014103598A (ja) * 2012-11-21 2014-06-05 Canon Inc 情報表示装置、その制御方法、撮影装置、およびプログラム
US10115178B2 (en) 2012-12-26 2018-10-30 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2016516369A (ja) * 2013-03-27 2016-06-02 ▲華▼▲為▼終端有限公司Huawei Device Co., Ltd. 写真出力方法および装置
JP2016537912A (ja) * 2013-10-30 2016-12-01 インテル コーポレイション 画像キャプチャフィードバック
JPWO2016199483A1 (ja) * 2015-06-08 2018-03-29 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP2021083073A (ja) * 2020-07-03 2021-05-27 株式会社エクサウィザーズ 撮影装置、情報処理装置、方法およびプログラム

Also Published As

Publication number Publication date
KR20110013301A (ko) 2011-02-09
CN101990068A (zh) 2011-03-23
CN101990068B (zh) 2013-04-24
TW201130294A (en) 2011-09-01
KR101199804B1 (ko) 2012-11-09
JP4844657B2 (ja) 2011-12-28
US20110026837A1 (en) 2011-02-03
TWI446786B (zh) 2014-07-21

Similar Documents

Publication Publication Date Title
JP4844657B2 (ja) 画像処理装置及び方法
TWI805869B (zh) 計算場景的主要分類的系統及方法
CN101416219B (zh) 数字图像中的前景/背景分割
US10303983B2 (en) Image recognition apparatus, image recognition method, and recording medium
CN104580878B (zh) 电子装置以及自动决定影像效果的方法
JP4862930B2 (ja) 画像処理装置、画像処理方法及びプログラム
US6301440B1 (en) System and method for automatically setting image acquisition controls
US8908976B2 (en) Image information processing apparatus
US8687887B2 (en) Image processing method, image processing apparatus, and image processing program
JP2011035636A (ja) 画像処理装置及び方法
JP2011010275A (ja) 画像再生装置及び撮像装置
SE1150505A1 (sv) Metod och anordning för tagning av bilder
US9020269B2 (en) Image processing device, image processing method, and recording medium
Rahman et al. Real-time face-priority auto focus for digital and cell-phone cameras
CN107547789B (zh) 影像获取装置及其摄影构图的方法
JP5471130B2 (ja) 画像処理装置及び方法
JP5515492B2 (ja) 画像処理装置及び方法
JP5375401B2 (ja) 画像処理装置及び方法
JP5509621B2 (ja) 画像処理装置、カメラおよびプログラム
JP2011035634A (ja) 画像処理装置及び方法
JP5044472B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP4573599B2 (ja) 表示装置
JP2007316892A (ja) 自動トリミング方法および装置ならびにプログラム
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP5287965B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110926

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4844657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees