JP2011160044A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2011160044A
JP2011160044A JP2010017984A JP2010017984A JP2011160044A JP 2011160044 A JP2011160044 A JP 2011160044A JP 2010017984 A JP2010017984 A JP 2010017984A JP 2010017984 A JP2010017984 A JP 2010017984A JP 2011160044 A JP2011160044 A JP 2011160044A
Authority
JP
Japan
Prior art keywords
image
information
target
subject
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010017984A
Other languages
English (en)
Inventor
Hiroshi Toshimitsu
洋 利光
Makoto Yamanaka
誠 山中
Norikazu Tsunekawa
法和 恒川
Seiji Okada
誠司 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010017984A priority Critical patent/JP2011160044A/ja
Publication of JP2011160044A publication Critical patent/JP2011160044A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

【課題】ユーザの好みに沿った撮影制御を自動的に再現する。
【解決手段】対象画像上の各被写体を複数のカテゴリ(人物、犬、山など)の何れかに分類して検出する被写体検出部を用いて、対象画像の撮影の度に、対象画像上の複数の被写体の検出カテゴリの組み合わせ(例えば人物と山)に関連付けて合焦被写体のカテゴリ、合焦被写体の大きさ、合焦被写体の位置を学習する。一定量の学習の完了後、シャッタボタンの半押し操作が成されると、その時点の入力画像に対して被写体分類を行って、その入力画像についての検出カテゴリの組み合わせに対応する学習内容を学習メモリから読み出し、読み出した内容に沿った画角自動調整及びフォーカス自動調整を行う。
【選択図】図9

Description

本発明は、デジタルカメラ等の撮像装置に関する。
近年のデジタルカメラには、撮影モードを自動的に選択して対象画像の撮影を行う機能が備えられていることが多い(例えば特許文献1参照)。この機能では、被写体や撮影シーンをカメラ側で自動的に認識して複数の撮影モードの中から最適な撮影モードを選択し、選択撮影モードに規定された撮影条件(フォーカス、ISO感度、信号処理等の条件)にて対象画像の撮影を行う。しかしながら、最適な撮影モードとしての選択撮影モードに規定される撮影条件は、カメラメーカ側が予め設定したものである。このため、ユーザによっては、選択撮影モードによるカメラ制御が行われた後、真に希望する撮影条件が設定されるように、手動操作を成す必要があった。
このような問題に対応する方法として、ユーザに質問形式で最適な処理を選択させる方法が提案されている(例えば特許文献2参照)。しかしながら、この方法は、返答操作の負担をユーザに課すことになる。
また、被写体をきめ細かく分類し、分類結果に応じて撮影条件の制御を行う方法も提案されている(例えば特許文献3参照)。しかしながら、この方法では、固有の被写体に撮影モードが個別に設定されるのみであり、注目被写体がどの被写体と共に写っているのか、どういう撮影シーンの中で写っているのか等を考慮した制御ができない。即ち例えば、人物が犬と共に写っているときに適用されるべき最適な撮影条件と人物が山と共に写ってときに適用されるべき最適な撮影条件は異なる場合があり、また、最適な撮影条件の具体的内容はユーザによってまちまちであるが、上記方法では、個々のユーザの好みに対応することはできない。
特開2003−344891号公報 特開2007−110619号公報 特開2007−74141号公報
ユーザに格別の負担を強いることなく、ユーザの好み(嗜好性)に沿った撮影制御を成すことは重要である。
同様に、音響信号を伴った画像を取得する際、ユーザに格別の負担を強いることなく、ユーザの好み(嗜好性)に沿った音声制御を成すことができれば有益である。
そこで本発明は、ユーザに格別の負担を強いることなくユーザの好みに沿った撮影制御又は音声制御を成しうる撮像装置を提供することを目的とする。
本発明に係る撮像装置は、被写体の光学像を光電変換して得た信号を出力する撮像素子を有し、所定操作が成された際に得られる前記撮像素子の出力信号から対象画像を生成する撮像装置において、前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、当該撮像装置は、前記撮像素子の出力信号に基づく画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、前記第1対象画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせを特定組み合わせとし、前記第1対象画像の特徴又は前記第1対象画像の生成条件に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像を評価用画像とし、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像の生成を行う撮影制御部と、を備えたことを特徴とする。
これにより、ユーザの好みを反映した学習情報を用いて対象画像の生成を行うことが可能となる。つまり、ユーザに格別の負担を強いることなくユーザの好みに沿った撮影制御を学習情報から再現することが可能となる。
具体的には例えば、前記学習情報は、前記第1対象画像の特徴に応じた情報であって、前記第1対象画像上の複数の被写体の内、何れのカテゴリの被写体にピントがあっているかを表すフォーカス情報を含む。
これにより、フォーカスに関するユーザの好みを、学習情報から再現することが可能となる。
また例えば、前記学習情報は、更に、前記第1対象画像上のピントの合っている被写体の大きさを表すサイズ情報を含む。
また例えば、前記学習情報は、更に、前記第1対象画像上のピントの合っている被写体の位置を表す位置情報を含む。
これらにより、被写体の大きさや構図に関するユーザの好みを、学習情報から再現することが可能となる。
また例えば、当該撮像装置は、前記第1対象画像の生成条件の指定を受け付ける操作部を更に備えて、前記操作部を介して指定された前記第1対象画像の生成条件に従って前記第1対象画像を生成し、前記学習情報は、前記第1対象画像の生成条件に応じた情報である。
これにより、操作部を介したユーザの指定内容を学習情報に保存することができ、以後、ユーザの好みに沿った撮影制御を学習情報から再現することが可能となる。
具体的には例えば、前記撮影制御部は、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記第1対象画像の特徴に応じた前記学習情報に基づき、前記第2対象画像が前記第1対象画像の特徴に応じた特徴を有するように、前記第2対象画像に対するフォーカス制御及びズーム制御を行う、或いは、前記第1対象画像の生成条件に応じた前記学習情報に基づき、前記第1対象画像の生成条件に応じた生成条件にて前記第2対象画像を生成する。
本発明に係る他の撮像装置は、被写体の光学像を光電変換して得た信号を出力する撮像素子を有し、所定操作が成された際に得られる前記撮像素子の出力信号から対象画像を生成する撮像装置において、前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、当該撮像装置は、前記撮像素子の出力信号に基づく画像上に存在する被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、前記撮像素子の出力信号に基づく画像の撮影シーンを複数の登録シーンの中から選択することで判定するシーン判定部と、前記第1対象画像上の被写体に対する前記被写体検出部の検出カテゴリと前記第1対象画像に対する前記シーン判定部の判定シーンとの組み合わせを特定組み合わせとし、前記第1対象画像の特徴又は前記第1対象画像の生成条件に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像を評価用画像とし、前記評価用画像上の被写体に対する前記被写体検出部の検出カテゴリと前記評価用画像に対する前記シーン判定部の判定シーンとの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像の生成を行う撮影制御部と、を備えたことを特徴とする。
これにより、ユーザの好みを反映した学習情報を用いて対象画像の生成を行うことが可能となる。つまり、ユーザに格別の負担を強いることなくユーザの好みに沿った撮影制御を学習情報から再現することが可能となる。
本発明に係る更に他の撮像装置は、被写体の光学像を光電変換して得た信号を出力する撮像素子及び複数のマイクロホンから成るマイク部を有し、所定操作が成された際、前記撮像素子の出力信号から対象画像を生成する一方で前記複数のマイクロホンの出力音響信号に基づき対象音響信号を生成して該対象音響信号を前記対象画像に対応付ける撮像装置において、前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、当該撮像装置は、前記撮像素子の出力信号に基づく画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、前記第1対象画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせを特定組み合わせとし、前記第1対象画像に対応付けられた対象音響信号の特徴に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像又は前記第2対象画像を評価用画像とし、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像に対応付けられるべき対象音響信号の生成を行う対象音響信号生成部と、を備えたことを特徴とする。
これにより、ユーザの好みを反映した学習情報を用いて対象音響信号の生成を行うことが可能となる。つまり、ユーザに格別の負担を強いることなくユーザの好みに沿った音声制御を学習情報から再現することが可能となる。
本発明によれば、ユーザに格別の負担を強いることなくユーザの好みに沿った撮影制御又は音声制御を成しうる撮像装置を提供することが可能である。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
本発明の実施形態に係る撮像装置の全体ブロック図である。 図1の撮像部の内部構成図である。 本発明の実施形態に係る特殊撮影モードの動作が学習段階動作と制御段階動作に大別される様子を示した図である。 本発明の第1実施例に係り、特殊撮影モードの動作に特に関与する部位のブロック図である。 本発明の第1実施例に係る学習段階動作のフローチャートである。 学習段階動作中に撮影される対象入力画像の例を示す図(a)と、その対象入力画像上の被写体領域を示す図(b)である。 本発明の第1実施例に係る特徴情報の構成を示す図である。 入力画像の全体画像領域内に9つのブロックが設定される様子を示す図である。 本発明の第1実施例に係り、制御段階動作の実行時における学習メモリの記録内容を示す図である。 本発明の第1実施例に係る制御段階動作のフローチャートである。 本発明の第1実施例に係り、制御段階動作の実行時に取得される評価用画像を示す図である。 本発明の第1実施例に係り、画角自動調整後に得られる入力画像の例を示す図である。 本発明の第4実施例において想定される入力画像を示す図である。 本発明の第4実施例に係る特徴情報の構成を示す図である。 本発明の第8実施例に係り、特殊撮影モードの動作に特に関与する部位のブロック図である。 本発明の第8実施例に係る学習段階動作のフローチャートである。 本発明の第8実施例に係る生成条件情報の構成を示す図である。 本発明の第8実施例に係り、制御段階動作の実行時における学習メモリの記録内容を示す図である。 本発明の第8実施例に係る制御段階動作のフローチャートである。 本発明の第9実施例に係るシーン判定部を示す図である。 図1のマイク部の内部ブロック図である。 図1の撮像装置の外観斜視図である。 本発明の第10実施例に係り、学習段階動作において取得される対象入力画像を示す図である。 本発明の第10実施例に係る音制御情報の構成を示す図である。 本発明の第10実施例に係り、制御段階動作の実行時における学習メモリの記録内容を示す図である。 本発明の第10実施例に係る制御段階動作のフローチャートである。 本発明の第10実施例に係り、制御段階動作の実行時に取得される評価用画像を示す図である。 本発明の第11実施例に係る表示画面の様子を示す図である。 本発明の第12実施例に係る表示画面の様子を示す図である。 本発明の第13実施例に係り、実際の撮影に基づく特徴情報を示す図である。 本発明の第13実施例に係り、擬似的に生成された特徴情報を示す図である。
以下、本発明の一実施形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。
図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、符号11〜28によって参照される各部位を有する。撮像装置1は、デジタルビデオカメラであり、動画像及び静止画像を撮影可能となっていると共に動画像撮影中に静止画像を同時に撮影することも可能となっている。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。尚、表示部27及び/又はスピーカ28は撮像装置1の外部装置(不図示)に設けられたものである、と解釈することも可能である。
撮像部11は、撮像素子を用いて被写体の撮影を行う。図2は、撮像部11の内部構成図である。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子(固体撮像素子)33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、撮像部11の画角を調節するためのズームレンズ30及び焦点を合わせるためのフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。CPU23からの撮影制御信号に基づき、光学系35内におけるズームレンズ30及びフォーカスレンズ31の位置並びに絞り32の開度が制御される。
撮像素子33は、水平及び垂直方向に複数の受光画素が配列されることによって形成される。撮像素子33の各受光画素は、光学系35及び絞り32を介して入射した被写体の光学像を光電変換し、該光電変換によって得られた電気信号をAFE12(Analog Front End)に出力する。
AFE12は、撮像素子33(各受光画素)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから画像信号処理部13に出力する。AFE12における信号増幅の増幅度はCPU(Central Processing Unit)23によって制御される。画像信号処理部13は、AFE12の出力信号によって表される画像に対して必要な画像処理を施し、画像処理後の画像を表す画像信号を生成する。画像信号は、例えば、輝度信号及び色差信号を含む。マイク部14は、撮像装置1の周辺音をアナログの音響信号に変換し、音響信号処理部15は、このアナログの音響信号をデジタルの音響信号に変換する。
圧縮処理部16は、画像信号処理部13からの画像信号及び音響信号処理部15からの音響信号を、所定の圧縮方式を用いて圧縮する。内部メモリ17は、DRAM(Dynamic Random Access Memory)などから成り、各種のデータを一時的に保存する。記録媒体としての外部メモリ18は、半導体メモリや磁気ディスクなどの不揮発性メモリであり、圧縮処理部16による圧縮後の画像信号及び音響信号などの各種信号を記録することができる。
伸張処理部19は、外部メモリ18から読み出された圧縮された画像信号及び音響信号を伸張する。伸張処理部19による伸張後の画像信号又は画像信号処理部13からの画像信号は、表示処理部20を介して、液晶ディスプレイ等から成る表示部27に送られて画像として表示される。また、伸張処理部19による伸張後の音響信号は、音響信号出力回路21を介してスピーカ28に送られて音として出力される。
TG(タイミングジェネレータ)22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。CPU23は、撮像装置1内の各部位の動作を統括的に制御する。操作部26は、動画像の撮影及び記録の開始/終了を指示するための録画ボタン26a、静止画像の撮影及び記録を指示するためのシャッタボタン26b、並びに、ズーム倍率を指定するためのズームボタン26c等を有し、ユーザによる各種操作を受け付ける。操作部26に対する操作内容はCPU23に伝達される。
撮像装置1の動作モードには、画像(静止画像又は動画像)の撮影及び記録が可能な撮影モードと、外部メモリ18に記録された画像(静止画像又は動画像)を表示部27に再生表示する再生モードと、が含まれる。操作部26に対する操作に応じて、各モード間の遷移は実施される。撮影モードにおいて、撮像装置1は、所定のフレーム周期にて周期的に被写体の撮影を行って被写体の撮影画像を順次取得することができる。
尚、本明細書では、或る画像の画像信号のことを単に画像と言うこともある。また、画像信号及び音響信号の圧縮及び伸張は、本発明の本質とは関係ないため、以下の説明では、特に必要のない限り、画像信号及び音響信号の圧縮及び伸張の存在を無視する。従って例えば、或る画像についての圧縮された画像信号を記録することを、単に、画像信号を記録する又は画像を記録すると表現することがある(音響信号についても同様)。また、或る画像の大きさ又は画像領域の大きさを、画像サイズとも呼ぶ。注目画像又は注目画像領域の画像サイズを、注目画像を形成する画素の数又は注目画像領域に属する画素の数にて表現することができる。また、本明細書において、信号又は情報のメモリへの記録を保存と表現することもある。また、本明細書では、記号又は符号を示すことによって、その記号又は符号に対応する用語の名称を略記することがある。従って例えば、外部メモリ18とメモリ18は同じものを指す。
撮像装置1には、過去の撮影結果及びマニュアル操作等から撮影者としてのユーザの嗜好性に関する情報を抽出し、その情報に基づき、現時点において該嗜好性に合致した撮影結果が再現されるように撮影制御を行う特殊機能が備えられている。撮影モードの一種である、上記特殊機能が働く撮像装置1の動作モードを特殊撮影モードと呼ぶ。
図3に示す如く、特殊撮影モードにおける動作は、ユーザの嗜好性を学習する学習段階動作と、その学習結果を用いて撮影制御を行う制御段階動作とに大別される。制御段階動作は、学習段階動作を経て実行される。学習段階動作が一旦完了して制御段階動作の実行が可能になってからも、ユーザの嗜好性の学習を継続し、学習結果を更新していくことができる。
以下、特殊撮影モードに関連する、撮像装置1の動作及び構成例を第1〜第13実施例として説明する。矛盾なき限り、或る実施例について記載した事項を他の実施例に適用することが可能であると共に、第1〜第13実施例の内の複数の実施例を組み合わせて実施することも可能である。以下の説明は、特に記述なき限り、特殊撮影モードにおける撮像装置1の動作の説明である。
<<第1実施例>>
第1実施例を説明する。図4は、特殊撮影モードの動作に特に関与する部位のブロック図である。被写体検出部51、特徴情報生成部52、メモリ制御部53及び撮影制御部55を、画像信号処理部13によって、或いは、画像信号処理部13とCPU23の組み合わせによって実現することができる。学習メモリ54は、内部メモリ17に設けられたフラッシュメモリ等の不揮発性メモリから形成される。
1フレーム分のAFE12の出力信号によって表される画像そのもの、或いは、その画像に対して所定の画像処理(デモザイキング処理やノイズ低減処理など)を施して得られる静止画像を入力画像と呼ぶ。更に、所定のシャッタ操作に従って得られた入力画像を特に対象入力画像と呼ぶ。シャッタ操作とは、シャッタボタン26bを押下する操作である。但し、シャッタ操作は、シャッタボタン26bを押下する操作以外の操作(例えば所定のタッチパネル操作)であっても良い。
[学習段階動作]
図5は、第1実施例に係る学習段階動作の手順を表すフローチャートであり、学習段階動作ではステップS11〜S14の各処理が実行される。ステップS11では、ユーザがシャッタ操作を成すことにより対象入力画像が取得される。ステップS12では、被写体検出部51により、対象入力画像の被写体検出及び被写体のカテゴリ分類が行われる。ステップS13では、特徴情報生成部52により対象入力画像からユーザの嗜好性に関する情報とも言える特徴情報が抽出及び生成される。ステップS14では、ステップS12及びS13の処理結果が学習メモリ54の記録内容に反映される(単純には例えば、ステップS13にて生成された特徴情報が学習メモリ54にそのまま保存される)。学習メモリ54に対する情報の記録制御はメモリ制御部53によって行われる。図4に示される各部位の内、撮影制御部55のみに関しては、制御段階動作に有益に機能する。以下、対象入力画像の具体例を挙げつつ、図4の各部位の動作を詳細に説明する。
図6(a)において、符号300は、ステップS11にて取得された対象入力画像の例を表している。人物及び山を被写体として撮影範囲内に含めた状態でシャッタ操作を成すことにより、対象入力画像300が得られたものとする。図6(a)において、符号301及び302は対象入力画像300の被写体を表している。被写体301及び302は、夫々、人物及び山である。
被写体検出部51及び特徴情報生成部52には、対象入力画像を含む各入力画像の画像信号が入力される。被写体検出部51は、入力画像の画像信号に基づき、入力画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する。即ち、入力画像上に存在する被写体ごとに、被写体が何れのカテゴリに属する被写体であるのかを検出する。カテゴリを種類とも読み替えることができる。上記複数のカテゴリは、被写体検出部51に予め登録されたカテゴリであり、人物、犬、猫、鳥、自動車、山、海、空、花などを含む。入力画像の画像信号に基づいて入力画像上の各被写体のカテゴリを検出する処理(顔検出処理等)は公知であるため、ここでは詳細な説明を割愛する。
対象入力画像300の画像信号が被写体検出部51に入力されると、被写体検出部51は、対象入力画像300の画像信号に基づき、対象入力画像300から被写体301及び302を検出して被写体301及び302が存在する画像領域を夫々被写体領域311及び312として抽出すると共に、被写体301及び302が何れのカテゴリに分類される被写体であるのかを検出する(図6(b)参照)。上述したように、被写体301及び302は夫々人物及び山であるため、被写体検出部51は、被写体301及び302のカテゴリが夫々人物及び山であると検出する。
尚、被写体領域311は、被写体301としての人物の全体像が表れている画像領域であっても良いが、本例では、人物の顔の部分だけを含む画像領域が被写体領域311として抽出されるものとする(後述の他の実施例においても同様)。また、図6(b)では、抽出される各被写体領域が矩形領域となっているが、各被写体領域は矩形領域以外であっても構わない(後述の他の実施例においても同様)。
特徴情報生成部52は、1枚の入力画像に対して、フォーカス情報、合焦被写体サイズ情報、合焦被写***置情報を生成することができる。フォーカス情報は、入力画像上における合焦被写体のカテゴリを表す。合焦被写体とは、ピントが合っている被写体を指す。或る入力画像に関し、その入力画像の撮影時に撮像装置1の被写界深度内に位置している被写体は、ピントが合っている被写体に含まれる。合焦被写体サイズ情報(以下、サイズ情報と略記することがある)は、入力画像上における合焦被写体の大きさを表す。或る被写体の大きさとは、例えば、その被写体の被写体領域の画像サイズを指す。合焦被写***置情報(以下、位置情報と略記することがある)は、入力画像上における合焦被写体の位置を表す。或る被写体の位置とは、厳密には例えば、その被写体の被写体領域の中心位置を指す。
或る入力画像に対する特徴情報は、その入力画像に対するフォーカス情報、合焦被写体サイズ情報及び合焦被写***置情報から成り、該特徴情報に必要に応じて付加情報が付加される(図7参照)。付加情報も特徴情報の一部であると考えることも可能であるが、本例においては、付加情報は特徴情報の構成要素ではないと考える。付加情報に、入力画像の撮影時における時刻、天候の情報など、任意の情報を内包させることができる。メモリ制御部53は、対象入力画像に対して被写体検出部51により検出された複数の被写体のカテゴリの組み合わせに注目し、注目した組み合わせに対して対象入力画像に対する特徴情報を関連付けた上でそれらを学習メモリ54に保存する。
図7に、対象入力画像300に対する、学習メモリ54の保存内容を示す。今、対象入力画像300上においてピントの合っている被写体が被写体301であって(被写体302にはピントが合っていない)、且つ、対象入力画像300上における被写体領域311の画像サイズがSIZEA1であって、且つ、対象入力画像300上における被写体領域311の中心位置がブロックBL5に属しているものとする。そうすると、対象入力画像300に対するフォーカス情報は被写体301のカテゴリである人物であり、且つ、対象入力画像300に対するサイズ情報及び位置情報は夫々SIZEA1及びBL5とされる。フォーカス情報が人物であるとは、フォーカス情報によって指し示される、ピントの合っている被写体のカテゴリが人物である、ことを意味する。
ブロックBL5の意義について説明する。図8に、注目した1枚の入力画像を示す。注目した入力画像を水平及び垂直方向の夫々に沿って3等分することにより注目した入力画像の全体画像領域を9等分し、得られた9つの画像領域をブロックBL1〜BL9と定義する。上述のブロックBL5は、ブロックBL1〜BL9の1つである。尚、入力画像の分割数(即ち、上記ブロックの個数)としての9は勿論例示であり、それを9以外とすることもできるが、以下の説明では、それが9であるものとする。
特徴情報生成部52は、対象入力画像300のフォーカス情報、サイズ情報及び位置情報を含む特徴情報305を生成し、メモリ制御部53は、この特徴情報305を、対象入力画像300上の被写体のカテゴリの組み合わせに関連付けて学習メモリ54に保存する。対象入力画像300上の被写体のカテゴリの組み合わせとは、被写体301及び302のカテゴリの組み合わせ、即ち、「人物」と「山」の組み合わせである。以下、被写体のカテゴリの組み合わせを、カテゴリ組み合わせとも表記する。従って、「人物」と「山」の組み合わせは、カテゴリ組み合わせ「人物及び山」と表記される。
特徴情報生成部52は、被写体領域311に対するAF評価値と被写体領域312に対するAF評価値とを比較し、前者が後者よりも大きければ被写体301を合焦被写体と判断する一方、後者が前者よりも大きければ被写体302を合焦被写体と判断して、その判断結果から対象入力画像300のフォーカス情報を生成する。本例では、前者が後者よりも大きいために、被写体301が合焦被写体であると判断される。尚、被写体検出部51により検出される、対象入力画像300上の複数の被写体の中に、ピントが合っている被写体が必ず含まれているものとする(他の対象入力画像及び合焦被写体が議論される任意の入力画像についても同様)。
AF評価値は、画像信号処理部13内のAF評価部(不図示)によって算出される。該AF評価部が特徴情報生成部52に内在していると考えても構わない。AF評価部は、AF評価値算出の対象となる入力画像の全体画像領域を複数のAF評価ブロックに分割し、AF評価ブロックごとに、AF評価ブロック内の画像のコントラスト量に応じたAF評価値を算出する。撮像装置1は、このAF評価値に基づき、コントラスト検出法によるオートフォーカス制御を実施することができる。或るAF評価ブロックのAF評価値は、そのAF評価ブロック内の画像のコントラスト(換言すれば、エッジの強度)が大きいほど大きくなる。
対象入力画像300に関しては、被写体領域311に属するAF評価ブロックのAF評価値の平均値を被写体領域311のAF評価値として取り扱い、且つ、被写体領域312に属するAF評価ブロックのAF評価値の平均値を被写体領域312のAF評価値として取り扱えば良い(各被写体領域に複数のAF評価ブロックが属していると仮定)。或いは、被写体領域311及び312を第1及び第2のAF評価ブロックとして取り扱って、夫々のAF評価値を算出するようにしても良い。尚、或る入力画像に対して算出された複数のAF評価値の内、最大のAF評価値に対応するAF評価ブロック、又は、所定の閾値以上のAF評価値に対応するAF評価ブロックが、合焦被写体の存在する画像領域であると判断することもできる。
上述のようにして対象入力画像300の合焦被写体が被写体301であると検出した後、特徴情報生成部52は、被写体301の画像信号が存在する画像領域である被写体領域311の大きさ及び中心位置を検出することで、対象入力画像300に対するサイズ情報(SIZEA1)及び位置情報(BL5)を生成する。尚、被写体領域311の大きさ及び中心位置の検出自体は被写体検出部51にて行われる、と考えても良い。
学習段階動作では、ステップS11〜S14から成る一連の処理を繰り返し実行することで、ユーザの嗜好性を繰り返し学習する。1つのカテゴリ組み合わせについて、学習段階動作から制御段階動作へ移行するために必要な学習回数をLNUMにて表す。LNUMは1以上の整数に設定されるが、説明の具体化のため、LNUM=3である場合を考える。図9は、対象入力画像300の取得後、対象入力画像300a、300b、330、330a、330b、331及び331a(全て不図示)が更に取得された後の、学習メモリ54の記録内容を示している。対象入力画像300a及び300bの夫々のカテゴリ組み合わせは「人物及び山」であり、且つ、対象入力画像330、330a、330bの夫々のカテゴリ組み合わせは「犬及び海」であり、且つ、対象入力画像331及び331aの夫々のカテゴリ組み合わせは「人及び海」であるとする。
特徴情報生成部52は、対象入力画像300の特徴情報305を生成する方法と同様の方法にて、対象入力画像300aの特徴情報305a及び対象入力画像300bの特徴情報305bを生成する。メモリ制御部53は、特徴情報305、305a及び305bが生成されると、それらをカテゴリ組み合わせ「人物及び山」に関連付けつつ学習メモリ54に保存する。一方で、特徴情報生成部52又はメモリ制御部53は、特徴情報305、305a及び305bに一致又は類似する特徴情報W1Aを統計学に基づいて作成し、特徴情報W1Aもカテゴリ組み合わせ「人物及び山」に関連付けて学習メモリ54に保存する。1枚1枚の対象入力画像の特徴情報を特に要素特徴情報とも呼び、複数枚の対象入力画像の特徴情報から統計学に基づき生成された特徴情報を特に総合特徴情報とも呼ぶ。本例において、特徴情報305、305a及び305bの夫々は要素特徴情報であり、特徴情報W1Aは総合特徴情報である。
図9の要素特徴情報305は、図7に示すそれと同じである。更に、図9に示す如く、要素特徴情報305aにおけるフォーカス情報、サイズ情報及び位置情報が、夫々、人物、SIZEA2及びBL5であって、要素特徴情報305bにおけるフォーカス情報、サイズ情報及び位置情報が、夫々、人物、SIZEA3及びBL4である場合を考える。この場合、総合特徴情報W1Aにおけるフォーカス情報、サイズ情報及び位置情報は、夫々、人物、SIZEA及びBL5とされる。情報W1Aに付随する付加情報には、カテゴリ組み合わせ「人物及び山」に対する学習回数が記録される。情報W1Aは、3回分の学習結果に基づき、即ち特徴情報305、305a及び305bを元に生成される。従って、情報W1Aの付加情報には、学習回数を表す数値として3が記録される。
総合特徴情報W1Aの元となる要素特徴情報のフォーカス情報の内、最も頻度の多いフォーカス情報を、総合特徴情報W1Aのフォーカス情報とすることができる。図9の例では、要素特徴情報305、305a及び305bのフォーカス情報が全て「人物」であるため、総合特徴情報W1Aのフォーカス情報も「人物」とされる。仮に、要素特徴情報305、305a及び305bのフォーカス情報の内、2つのみが「人物」であっても、総合特徴情報W1Aのフォーカス情報は「人物」とされる。
総合特徴情報W1Aにおけるサイズ情報SIZEAは、例えば、総合特徴情報W1Aの元となる要素特徴情報のサイズ情報の平均(即ち、SIZEA1〜SIZEA3の平均)とされる。但し、フォーカス情報において総合特徴情報W1Aと一致しない要素特徴情報のサイズ情報は、サイズ情報SIZEAに反映されないものとする。従って仮に、要素特徴情報305、305a及び305bのフォーカス情報が夫々「人物」、「人物」及び「山」であるならば、要素特徴情報305、305aのサイズ情報の平均(即ち、SIZEA1及びSIZEA2の平均)がサイズ情報SIZEAとなる。
総合特徴情報W1Aの元となる要素特徴情報の位置情報の内、最も頻度の多い位置情報を、総合特徴情報W1Aの位置情報とすることができる。但し、フォーカス情報において総合特徴情報W1Aと一致しない要素特徴情報の位置情報は、総合特徴情報W1Aの位置情報に反映されないものとする。図9の例では、要素特徴情報305、305a及び305bのフォーカス情報が全て「人物」であるため、要素特徴情報305、305a及び305bの位置情報の内、最も頻度が多い位置情報BL5が総合特徴情報W1Aの位置情報とされる。仮に、要素特徴情報305、305a及び305bのフォーカス情報が夫々「人物」、「山」及び「人物」であるならば、要素特徴情報305の位置情報BL5又は要素特徴情報305bの位置情報BL4が総合特徴情報W1Aの位置情報とされる。この場合において、対象入力画像300の撮影後に対象入力画像300bが撮影されていたのならば、新しく撮影された方の対象入力画像300bを優先し、要素特徴情報305bの位置情報BL4を総合特徴情報W1Aの位置情報にするようにしてもよい。
図9において、中央部分に示された特徴情報群は、上記の対象入力画像330、330a及び330b(不図示)に基づく、カテゴリ組み合わせ「犬及び海」についての特徴情報群である。W1Bは、上記の対象入力画像330、330a及び330bの要素特徴情報に基づく、カテゴリ組み合わせ「犬及び海」についての総合特徴情報である。総合特徴情報W1Bも、総合特徴情報W1Aと同様にして作成される。図9において、下方部分に示された特徴情報群は、上記の対象入力画像331及び331a(不図示)に基づく、カテゴリ組み合わせ「人及び海」についての特徴情報群である。図9に示す状態において、カテゴリ組み合わせ「人及び海」についての要素特徴情報は2つしかないため、カテゴリ組み合わせ「人及び海」については学習段階動作から制御段階動作へ移行することができないが、カテゴリ組み合わせ「人及び山」と「犬及び海」については学習回数が必要学習回数LNUM(=3)に達しているため制御段階動作を実行することができる。
対象入力画像300、300a及び300bの撮影後、更に、カテゴリ組み合わせが「人及び山」となる対象入力画像300c(不図示)が撮影された場合には、その最新の対象入力画像300cの特徴情報を用いて総合特徴情報W1Aを更新すると良い。例えば、画像300、300a、300b及び300cの要素特徴情報を元にして、或いは、画像300a、300b及び300cの要素特徴情報を元にして、総合特徴情報W1Aを再作成することができる。更に或いは、対象入力画像300cが撮影された時点では総合特徴情報W1Aを更新せず、カテゴリ組み合わせが「人及び山」となる対象入力画像300d及び300eが更に撮影された時点で、対象入力画像300c、300d及び300eの要素特徴情報を元に総合特徴情報W1Aを再作成するようにしてもよい。
[制御段階動作]
カテゴリ組み合わせ「人及び山」について、要素特徴情報305、305a及び305bに基づく図9の総合特徴情報W1Aが学習メモリ54に保存され、且つ、総合特徴情報W1A以外の幾つかの総合特徴情報(情報W1Bを含む)が学習メモリ54に保存されている状態を、便宜上、図9の学習状態と呼ぶ。第1実施例では、以下、図9の学習状態の下における制御段階動作の説明を行う。図10は、第1実施例に係る制御段階動作の手順を表すフローチャートであり、制御段階動作ではステップS21〜S28の各処理が実行される。
まず、ステップS21において、図1のCPU23又は図4の撮影制御部55によりシャッタボタン26bが半押し状態となっているかが確認され、それが半押し状態になっている場合には、ステップS21からステップS22へ移行してステップS22〜S27の処理が順次実行される一方、それが半押し状態となっていない場合には、ステップS21の確認動作が繰り返し実行される。シャッタボタン26bは2段階の押下操作が可能となっており、ユーザがシャッタボタン26bを軽く押すとシャッタボタン26bの状態は半押し状態となり、その状態から更にシャッタボタン26bを押し込むとシャッタボタン26bの状態は全押し状態となる。シャッタボタン26bの状態を全押し状態にする操作がシャッタ操作である。シャッタボタン26bの状態を半押し状態にする操作を半押し操作と呼ぶ。
尚、半押し操作が成されたか否かではなく、撮像装置1の筐体の静止状態(換言すれば動き状態)に基づいて、ステップS21からステップS22への移行可否を決定しても良い。即ち例えば、ステップS21において、撮像装置1の筐体が一定時間継続して静止していると判断される場合に、ステップS21からステップS22への移行を実行するようにしても良い。撮像装置1の筐体の動きの大きさを表す動き量が一定時間継続して所定値以下であるとき、撮像装置1の筐体が一定時間継続して静止していると判断することができる。撮像装置1の筐体の動きを検出する動きセンサ(不図示)を撮像装置1に設けておけば、動きセンサの検出結果を用いて上記動き量を検出することができる。或いは、時間的に隣接して取得された入力画像間のオプティカルフローに基づいて上記動き量を検出することもできる。動きセンサは、例えば、撮像装置1の筐体の角速度を検出する角速度センサ、又は、撮像装置1の筐体の加速度を検出する加速度センサである。
特殊撮影モードを含む撮影モードでは、所定のフレーム周期(例えば、1/60秒)にて周期的に被写体の撮影が行われて入力画像を順次取得され、順次取得された入力画像は次々と表示部27上に更新表示される(学習段階動作においても同様、且つ、後述の他の実施例においても同様)。ステップS22において、図4の被写体検出部51は、最新の入力画像を評価用画像として取り扱い、その評価用画像に対して、上述の被写体検出及び被写体のカテゴリ分類を行う。即ち、評価用画像の画像信号に基づき、評価用画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する。これにより、上述と同様の方法にて、評価用画像についてのカテゴリ組み合わせが決定する。
ステップS22に続くステップS23において、図4の撮影制御部55は、評価用画像のカテゴリ組み合わせに一致するカテゴリ組み合わせの総合特徴情報を、学習メモリ54から読み出す。例えば、評価用画像の組み合わせカテゴリが「人物及び山」であったならば総合特徴情報W1Aが読み出され、評価用画像の組み合わせカテゴリが「犬及び海」であったならば総合特徴情報W1Bが読み出される(図9参照)。以下では、評価用画像が図11の画像350である場合を考える。画像上350には人物である被写体351及び山である被写体352の画像信号が存在している。その結果、評価用画像350の組み合わせカテゴリは「人物及び山」であると判断されたものとする。そうすると、ステップS23において総合特徴情報W1Aが読み出される。以下、ステップS23にて読み出される総合特徴情報を、読み出し特徴情報とも呼ぶ。
ステップS23に続くステップS24において、撮影制御部55は、読み出し特徴情報のフォーカス情報に示された被写体(読み出し特徴情報のフォーカス情報に示されたカテゴリの被写体)を主要被写体として設定する。読み出し特徴情報である総合特徴情報W1Aのフォーカス情報に示された被写体のカテゴリは「人物」であるため、人物が主要被写体として設定される。
図11の画像領域361は、被写体351の画像信号が存在する被写体領域である。図6(b)の被写体領域311の検出方法と同様の方法にて、評価用画像350の画像信号に基づき被写体領域361が検出される。評価用画像350上における被写体領域361の画像サイズがSIZEA’であるものとする。ステップS24に続くステップS25において、撮影制御部55は、読み出し特徴情報のサイズ情報であるSIZEAと、上記のSIZEA’とに基づき、ズーム自動制御とも言うべき画角自動調整を実行する。
画角自動調整では、主要被写体の大きさを示す画像サイズをSIZEA’からSIZEAへと変更するために必要な光学ズーム倍率を目標ズーム倍率として算出し、実際の光学ズーム倍率を目標ズーム倍率に向かって変更する。実際の光学ズーム倍率が目標ズーム倍率と一致するように光学ズーム倍率が変更されたならば、その変更後に得られる入力画像上の主要被写体の大きさ(主要被写体の被写体領域の画像サイズ)は、理想的にはSIZEAとなる。光学ズーム倍率の変更は図2のズームレンズ30の位置変更によって実現され、光学ズーム倍率の変更によって、入力画像の画角とも言うべき撮像部11の撮影画角が変更される。具体的には例えば、主要被写体の被写体領域の面積として表されるSIZEA’がSIZEAの1/4であるなら、画角自動調整によって光学ズーム倍率を2倍にする(光学ズーム倍率が2倍になれば、主要被写体の被写体領域の面積は4倍になるからである)。図12の画像370は、画角自動調整前のそれとの対比において、光学ズーム倍率を1.5倍にする画角自動調整を経て得られる入力画像を表している。
但し、画角自動調整は、主要被写体の位置が、読み出し特徴情報の位置情報に示されたブロックからはみ出さないという前提の下で行われ、そのようなはみ出しが生じる場合には、そのようなはみ出しが生じる直前にて画角自動調整は強制的に終了される。主要被写体の位置とは、厳密には例えば、主要被写体の被写体領域の中心位置である。例えば、評価用画像350上における主要被写体の位置(被写体領域361の中心位置)がブロックBL5に属しており、且つ、評価用画像350の撮影時における光学ズーム倍率がZF1であって、且つ、SIZEA>SIZEA’であるとき、ZF1よりも大きな目標ズーム倍率ZF2が設定され、目標ズーム倍率ZF2に向かって光学ズーム倍率の増大が成されるが、その増大の過程において、最新の入力画像上における主要被写体の位置がブロックBL5からはみ出しそうになったとき、そのはみ出しが生じる直前において光学ズーム倍率の増大を中止して光学ズーム倍率を固定する。この場合、ステップS25の画角自動調整後の光学ズーム倍率は、ZF1よりも大きいがZF2よりも小さくなる。
ステップS25の画角自動調整の終了後、ステップS26において、撮影制御部55は、主要被写体にピントが合うようにフォーカス自動調整を実行する。フォーカス自動調整を、上述のAF評価値を用いたコントラスト検出法によるオートフォーカス制御により実現できる。つまり、主要被写体の被写体領域のAF評価値が最大化されるように図2のフォーカスレンズ31の位置を調整することにより、主要被写体にピントを合わせることができる。
フォーカス自動調整中に取得される各入力画像に対して被写体検出を継続的に行うことで、それらの入力画像の夫々からAF評価値が最大化されるべき主要被写体の被写体領域を逐次検出し、その逐次検出の結果を用いてフォーカス自動調整を行うようにしても良い。或いは、評価用画像の撮影時における光学ズーム倍率及び現時点の光学ズーム倍率と、評価用画像上における主要被写体の位置から、現時点の入力画像上における主要被写体の位置を推定し、その推定の結果を用いてフォーカス自動調整を行うようにしても良い。
ステップS26のフォーカス自動調整後、ステップS27において、シャッタボタン26bが全押し状態になるのを待機し、それが全押し状態になったことが確認されるとステップS27からステップS28へ移行して、新たな対象入力画像の撮影を行う。ステップS28で得られた対象入力画像は外部メモリ18に記録される。
尚、上述の説明では、入力画像の画角を決定するズーム倍率が光学ズームによる光学ズーム倍率であることを想定している。しかしながら、入力画像の画角を決定するズーム倍率を電子ズームによる電子ズーム倍率とし、電子ズームによって画角自動調整を実現するようにしても良い。同様に考えて、光学ズームと電子ズームとの組み合わせによって画角自動調整を実現するようにしても良い。
学習メモリ54に記録された特徴情報は、過去に撮影された対象入力画像の特徴を表している。ここで、対象入力画像の特徴には、対象入力画像上の複数の被写体の内、何れのカテゴリの被写体が合焦被写体(ピントが合っている被写体)であるのかを表す第1特徴、対象入力画像上の合焦被写体の大きさ及び位置を表す第2及び第3特徴が含まれる。第1〜第3特徴は、夫々、フォーカス情報、サイズ情報及び位置情報によって示される。
フォーカス情報を学習メモリ54に記録することで、フォーカスに関するユーザの好みを再現することが可能となり、サイズ情報及び位置情報を学習メモリ54に記録することで、合焦被写体の大きさ及び構図に関するユーザの好みを再現することが可能となる。つまり、制御段階動作では、現時点の被写体のカテゴリに応じた特徴情報を学習メモリ54から読み出してズーム制御(画角自動調整)及びフォーカス制御(フォーカス自動調整)を行うことで、ユーザの嗜好性に適合した画角設定、構図設定及びフォーカス設定を自動的に再現する。これにより、ユーザの嗜好性に適合した画角設定、構図設定及びフォーカス設定が支援され、ユーザの利便性向上が図られる。
以下の第2〜第7実施例には、第1実施例に適用可能な、第1実施例に対する変形技術が示される。但し、矛盾無き限り、第2〜第7実施例に示された技術を、第1実施例以外の他の実施例に適用することも可能である。
<<第2実施例>>
第2実施例を説明する。第1実施例では、必要学習回数LNUMが3であることを想定しているが、必要学習回数LNUMは1であってもよく、LNUM=1のときは、学習段階動作において図6(a)の対象入力画像300が取得されて要素特徴情報305(図7及び図9参照)が生成された時点で、その要素特徴情報305が総合特徴情報W1Aとして機能することとなる。但し、制御段階動作においてユーザの嗜好性を適切に再現するためには、LNUMを2以上に設定することが望ましい。
<<第3実施例>>
第3実施例を説明する。入力画像において人物が存在する場合、その人物の個人認識処理を行って個人認識処理の結果に応じたカテゴリ分類を行うようにしても良い。個人認識処理では、例えば、複数の登録人物の顔画像の画像信号に応じた顔辞書データベースを予め被写体検出部51内に用意しておき、顔辞書データベースと入力画像の画像信号に基づいて、入力画像上に存在する人物が何れかの登録人物であるかを認識する。そして、入力画像上に存在する人物が第i登録人物であると認識したならば、その人物のカテゴリは第i登録人物であると検出するようにしてもよい(iは整数)。
第1入力画像上の人物が第1登録人物であって且つ第2入力画像上の人物が第2登録人物である場合、第1入力画像上の人物のカテゴリと第2入力画像上の人物のカテゴリは、互いに異なると判断され、結果、第1及び2入力画像間においてカテゴリ組み合わせは異なると判断される。i及びjが互いに異なる整数である場合、第i登録人物と第j登録人物は互いに異なる人物であるとする。
<<第4実施例>>
第4実施例を説明する。第1実施例で想定されている入力画像では、人物が一人しか存在していないが、人物が複数存在する場合には、複数の人物をまとめて1つのカテゴリに分類するようにしてもよい。
例えば、図13に示す画像400が入力画像として被写体検出部51に入力された場合を考える。入力画像400には、二人の人物である被写体401及び402と山である被写体403の画像信号が存在しており、被写体検出部51によって、被写体401〜403の被写体領域411〜413が入力画像400から抽出される。被写体検出部51は、被写体401及び402をまとめて1つのカテゴリ「人物二人」に分類し、特徴情報生成部52は、入力画像400に対するカテゴリ組み合わせを「人物二人と山」とみなすことができる。
図14の特徴情報405は、入力画像400に対して生成される特徴情報の例を示している。入力画像400における合焦被写体が被写体401及び402であるものとする。そうすると、要素特徴情報405におけるフォーカス情報は人物二人とされ、要素特徴情報405におけるサイズ情報は、入力画像400上における被写体401及び402の大きさの平均(厳密には例えば、被写体領域411の画像サイズと被写体領域412の画像サイズの平均)SIZEDとされ、要素特徴情報405における位置情報は、入力画像400上における被写体401及び402の位置とされる。入力画像400上における被写体領域411及び412の中心位置が、夫々、入力画像400上のブロックBL4及びBL5内に位置していたものとする。そうすると、図14に示す如く、要素特徴情報405における位置情報はBL4及びBL5となる。
今、説明の簡略化上、特徴情報405そのものが、カテゴリ組み合わせ「人物二人と山」についての総合特徴情報として機能していた場合を考える。この場合において、制御段階動作中に、カテゴリ組み合わせが「人物二人と山」である評価用画像が取得されたとき、特徴情報405が読み出し特徴情報として学習メモリ54から読み出され(図10のステップS23)、特徴情報405のフォーカス情報に基づき人物二人が主要被写体として設定され(ステップS24)、画角自動調整後の入力画像上における人物二人の大きさの平均(人物二人の被写体領域の画像サイズ平均)がSIZEDとなるように画角自動調整が成され(ステップS25)、人物二人にピントが合うようにフォーカス自動調整が成される(ステップS26)。その後、シャッタボタン26bの全押しが成されると(ステップS27のY)、新たな対象入力画像の撮影及び記録が成される(ステップS28)。
但し、画角自動調整の過程において、入力画像上の一方の人物の位置がブロックBL4内に位置し且つ他方の人物の位置がブロックBL5内に位置するという条件の成否が確認され、その条件が成り立たなくなると判断されると、その時点で、第1実施例で述べたように画角自動調整による光学ズーム倍率(又は電子ズーム倍率)の変更は終了される。
<<第5実施例>>
第5実施例を説明する。第1実施例(及び上述の他の実施例)では、カテゴリ組み合わせを形成するカテゴリの個数が2であることを想定しているが、その個数は3以上でも良い。例えば、その個数が3である場合において、学習段階動作中に、人、犬及び山を被写体として含む対象入力画像が取得された場合、その対象入力画像のカテゴリ組み合わせは「人、犬及び山」となり、その対象入力画像の特徴情報がカテゴリ組み合わせ「人、犬及び山」に関連付けて学習メモリ54に保存される。
カテゴリ組み合わせ「人、犬及び山」についての総合特徴情報が生成された後、制御段階動作中に、人、犬及び山を被写体として含む入力画像が評価用画像として取得されると、カテゴリ組み合わせ「人、犬及び山」についての総合特徴情報が読み出し特徴情報として読み出されて、図10のステップS24以降の各処理が実行される。
<<第6実施例>>
第6実施例を説明する。カテゴリ組み合わせを形成するカテゴリの個数が2である場合において、学習段階動作中に、カテゴリ組み合わせ「人及び犬」の総合特徴情報420、カテゴリ組み合わせ「犬及び山」の総合特徴情報421、カテゴリ組み合わせ「人及び山」の総合特徴情報422が生成されて学習メモリ54に保存された場合を考える(総合特徴情報420〜422は図示せず)。
この場合において、制御段階動作中に、人と犬と山を被写体として含む評価用画像(不図示)が取得された場合、総合特徴情報420〜422の何れかが、図10のステップS23にて読み出される。この際、総合特徴情報420〜422の付加情報に格納されている学習回数を参照し、学習回数が最も多い総合特徴情報を、ステップS23にて読み出すようにすると良い。
総合特徴情報420〜422の中に、学習回数が同数の総合特徴情報が複数存在していた場合、最も新しい学習時刻に学習された総合特徴情報をステップS23にて読み出すようにすると良い。これを実現すべく、学習メモリ54の各付加情報に学習時刻を付与しておくと良い。或る特徴情報の学習時刻とは、その特徴情報の元となる対象入力画像の撮影時刻を表す。例えば、総合特徴情報420〜422の学習回数が夫々「3」、「4」及び「4」である場合、総合特徴情報421の元となる4つの要素特徴情報の学習時刻の内、最新の学習時刻を第1学習時刻として抽出する一方で、総合特徴情報422の元となる4つの要素特徴情報の学習時刻の内、最新の学習時刻を第2学習時刻として抽出する。そして、第1学習時刻が第2学習時刻よりも遅ければ総合特徴情報421をステップS23にて読み出し、逆に第2学習時刻が第1学習時刻よりも遅ければ総合特徴情報422をステップS23にて読み出せばよい。
<<第7実施例>>
第7実施例を説明する。第1実施例では、フォーカス情報、サイズ情報及び位置情報を特徴情報に含めることで、制御段階動作において画角自動調整及びフォーカス自動調整を実現している。
しかしながら、特徴情報からサイズ情報及び位置情報を削除することで、制御段階動作において画角自動調整の実行を割愛するようにしてもよい(図10参照)。特徴情報からサイズ情報及び位置情報を削除した場合、制御段階動作においてステップ25の画角自動調整が実行されず、フォーカス情報に基づくフォーカス自動調整を経てから(ステップS26)、ステップS28の対象入力画像の撮影が成される。
或いは、特徴情報から位置情報のみを削除するようにしても良い。第1実施例では、主要被写体の位置が、読み出し特徴情報の位置情報に示されたブロックからはみ出さないという前提の下で画角自動調整が行われ、そのようなはみ出しが生じる場合には、そのようなはみ出しが生じる直前にて画角自動調整が強制的に終了されるが、特徴情報から位置情報を削除した場合には、そのような強制的な終了は発生しなくなる。つまり、特徴情報から位置情報を削除した場合には、入力画像上の主要被写体の位置に関係なく、ステップS28の対象入力画像上の主要被写体の大きさが読み出し特徴情報のサイズ情報に従った大きさとなるように画角自動調整が成される。
<<第8実施例>>
第8実施例を説明する。第8実施例では、学習段階動作中に生成される対象入力画像の生成条件が、ユーザのマニュアル操作によって指定されていることを想定する。マニュアル操作は、ユーザによる操作部26への操作である。表示部27にタッチパネル機能が備えられている場合においては、タッチパネル操作によってマニュアル操作が実現されても良い。この場合、表示部27は、対象入力画像の生成条件の指定を受け付ける第2操作部としても機能する。
対象入力画像の生成条件には、対象入力画像の画質を変化させる(より広くいえば、対象入力画像の画像信号を変化させる)任意の条件が含まれる。指定された生成条件に依存して、手ぶれ補正のON/OFF、AFE12の増幅率、対象入力画像の生成過程においてAFE12の出力信号に成される画像処理(鮮鋭化処理やホワイトバランス調整用処理)の内容などが規定される。より具体的には、対象入力画像の生成条件には、対象入力画像の生成時に手ぶれ補正を成すか否かを既定する手ぶれ補正ON/OFF条件、対象入力画像の感度を既定する感度条件、対象入力画像の鮮鋭度合いを既定する鮮鋭化条件、対象入力画像のホワイトバランスの状態を規定するホワイトバランス条件などが含まれる。
手ぶれ補正がOFFとなっている場合、対象入力画像の画像信号を得るために撮像素子33にて実施された露光の期間中に撮像装置1の筐体が動けば、撮像素子33上の像がぶれて、そのぶれが対象入力画像に混入する。手ぶれ補正がONとなっている場合には、対象入力画像に混入するおそれのあるぶれが、公知の方法を用いて光学的又は電子的に除去される。
感度条件にて規定される感度は、ISO感度である。ISO感度は、ISO(International Organization for Standardization)によって規定された感度を意味し、ISO感度を調節することで対象入力画像の明るさ(輝度レベル)を調節することができる。実際には、ISO感度に応じてAFE12における信号増幅の増幅度を決定する。
AFE12の出力信号そのものによって表される画像に対して鮮鋭化処理を施すことで対象入力画像を生成することができる。鮮鋭化条件によって、鮮鋭化処理そのものを実行するのか否かを含め、鮮鋭化処理の内容が規定される。
ホワイトバランス条件によって、オートホワイトバランス制御を用いて対象入力画像を生成するのか否か等が規定される。
第8実施例における以下の説明では、説明の簡略化上、手ぶれ補正ON/OFF条件及び感度条件のみがマニュアル操作によって指定されることを想定する。
図15は、第8実施例に係る特殊撮影モードの動作に特に関与する部位のブロック図である。生成条件情報生成部56は、後述の生成条件情報を生成する。生成条件情報生成部56を、画像信号処理部13によって、或いは、画像信号処理部13とCPU23の組み合わせによって実現することができる。
[学習段階動作]
図16は、第8実施例に係る学習段階動作の手順を表すフローチャートであり、学習段階動作ではステップS51〜S54の各処理が実行される。ステップS51では、シャッタ操作に先立ち、撮像装置1は、上記マニュアル操作による対象入力画像の生成条件の指定を受け付け、その後、ステップS52においてユーザによりシャッタ操作が成されると、指定された生成条件にて対象入力画像を生成する。対象入力画像の生成後、ステップS53において、被写体検出部51により、対象入力画像の被写体検出及び被写体のカテゴリ分類が行われる。最後に、ステップS54では、対象入力画像のカテゴリ組み合わせに関連付けた状態で、対象入力画像の生成条件を表す生成条件情報が学習メモリ54の記録内容に反映される。
例えば、ステップS51において、ユーザのマニュアル操作によりISO感度を「ISO100」にすべきこと及び手ぶれ補正をONとすべきことが指定され、その指定内容に従って、図6(a)の対象入力画像300が生成された場合を考える。この場合、対象入力画像300に対するマニュアル操作の内容に基づいて図17に示す生成条件情報505が生成され、生成条件情報505が対象入力画像300の組み合わせカテゴリ「人物及び山」と関連付けた状態で学習メモリ54に保存される。組み合わせカテゴリの検出方法は、第1実施例で述べた通りである。
或る入力画像に対する生成条件情報は、感度条件を表す感度情報及び手ぶれ補正ON/OFF条件を表す手ぶれ補正情報から成り、該生成条件情報に必要に応じて、上述したような付加情報が付加される(図17参照)。付加情報も生成条件情報の一部であると考えることも可能であるが、本例においては、付加情報は生成条件情報の構成要素ではないと考える。生成条件情報505において、感度情報は「ISO100」であり、手ぶれ補正情報は「ON」である。
学習段階動作では、ステップS51〜S54から成る一連の処理を繰り返し実行することで、ユーザの嗜好性を繰り返し学習する。LNUMを1以上の任意の整数とすることができるが、今、LNUMが3であるとする。LNUMの意義は上述した通りである。図18は、対象入力画像300の取得後、図9の情報の生成元となった上述の対象入力画像300a、300b、330、330a、330b、331及び331a(全て不図示)が更に取得された後の、学習メモリ54の記録内容を示している。
生成条件情報生成部56は、対象入力画像300の生成条件情報505を生成する方法と同様の方法にて、対象入力画像300a及び300bに対するマニュアル操作の内容に基づき、対象入力画像300aの生成条件情報505a及び対象入力画像300bの生成条件情報505bを生成する。メモリ制御部53は、生成条件情報505、505a及び505bが生成されると、それらをカテゴリ組み合わせ「人物及び山」に関連付けつつ学習メモリ54に保存する。一方で、生成条件情報生成部56又はメモリ制御部53は、生成条件情報505、505a及び505bに一致又は類似する生成条件情報W2Aを統計学に基づいて作成し、生成条件情報W2Aもカテゴリ組み合わせ「人物及び山」に関連付けて学習メモリ54に保存する。1枚1枚の対象入力画像の生成条件情報を特に要素生成条件情報とも呼び、複数枚の対象入力画像の生成条件情報から統計学に基づき生成された生成条件情報を特に総合生成条件情報とも呼ぶ。本例において、生成条件情報505、505a及び505bの夫々は要素生成条件情報であり、生成条件情報W2Aは総合生成条件情報である。
要素生成条件情報505、505a及び505bにおいて、感度情報は、夫々、「ISO100」、「ISO100」及び「ISO200」であり、手ぶれ補正情報は、夫々、「ON」、「OFF」及び「ON」である。複数の要素特徴情報のフォーカス情報から総合特徴情報のフォーカス情報を生成する方法(第1実施例で述べた方法)と同様の方法にて(図9参照)、情報505、505a及び505bの感度情報から情報W2Aの感度情報を生成することができると共に、情報505、505a及び505bの手ぶれ補正情報から情報W2Aの手ぶれ補正情報を生成することができる。即ち例えば、情報W2Aの元となる要素生成条件情報の感度情報の内、最も頻度の多い感度情報を、情報W2Aの感度情報とすることができる(手ぶれ補正情報も同様)。従って、情報W2Aにおける感度情報及び手ぶれ補正情報は、夫々、「ISO100」及び「ON」となる。情報W2Aに付随する付加情報には、カテゴリ組み合わせ「人物及び山」に対する学習回数が記録される。情報W2Aは、3回分の学習結果に基づき、即ち情報505、505a及び505bを元に生成される。従って、情報W2Aの付加情報には、学習回数を表す数値として3が記録される。
図18において、中央部分に示された生成条件情報群はカテゴリ組み合わせ「犬及び海」についての生成条件情報群であり、W2Bは、カテゴリ組み合わせ「犬及び海」についての総合生成条件情報である。総合生成条件情報W2Bも、総合生成条件情報W2Aと同様にして作成される。図18において、下方部分に示された生成条件情報群はカテゴリ組み合わせ「人及び海」についての生成条件情報群である。図18に示す状態において、カテゴリ組み合わせ「人物及び山」と「犬及び海」については学習回数が必要学習回数LNUM(=3)に達しているため制御段階動作を実行することができる。
尚、第1実施例で述べたように、対象入力画像300、300a及び300bの撮影後、更に、カテゴリ組み合わせが「人物及び山」となる対象入力画像300c(不図示)が撮影された場合には、その最新の対象入力画像300cの生成条件情報を用いて総合生成条件情報W2Aを更新すると良い。
[制御段階動作]
カテゴリ組み合わせ「人物及び山」について、要素生成条件情報505、505a及び505bに基づく図18の総合生成条件情報W2Aが学習メモリ54に保存され、且つ、総合生成条件情報W2A以外の幾つかの総合生成条件情報(情報W2Bを含む)が学習メモリ54に保存されている状態を、便宜上、図18の学習状態と呼ぶ。第8実施例では、以下、図18の学習状態の下における制御段階動作の説明を行う。図19は、第8実施例に係る制御段階動作の手順を表すフローチャートであり、制御段階動作ではステップS61〜S65の各処理が実行される。
ステップS61及びS62の処理内容は、図10のステップS21及びS22のそれと同じである。従って、シャッタボタン26bが半押し状態になっている場合、或いは、撮像装置1の筐体が一定時間継続して静止していると判断される場合、ステップS61からステップS62への移行が成され、被写体検出部51は、最新の入力画像を評価用画像として取り扱って、評価用画像の画像信号に基づき、評価用画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する。これにより、上述と同様の方法にて、評価用画像についてのカテゴリ組み合わせが決定する。
ステップS62に続くステップS63において、図4の撮影制御部55は、評価用画像のカテゴリ組み合わせに一致するカテゴリ組み合わせの総合生成条件情報を、学習メモリ54から読み出す。例えば、評価用画像の組み合わせカテゴリが「人物及び山」であったならば情報W2Aが読み出され、評価用画像の組み合わせカテゴリが「犬及び海」であったならば情報W2Bが読み出される(図18参照)。以下では、評価用画像が図11の画像350である場合を考える。評価用画像350の組み合わせカテゴリは「人物及び山」であるため、ステップS63において総合生成条件情報W2Aが読み出される。以下、ステップS63にて読み出される総合生成条件情報を、読み出し生成条件情報とも呼ぶ。
ステップS63の読み出し処理の後、ステップS64において、シャッタボタン26bが全押し状態になるのを待機し、それが全押し状態になったことが確認されるとステップS64からステップS65へ移行して、新たな対象入力画像の撮影を行い、その対象入力画像の画像信号を外部メモリ18に記録する。ステップS65にて取得される対象入力画像の生成条件は、読み出し生成条件情報に従ったものとされる。即ち、読み出し生成条件情報が情報W2Aであるならば、ステップS65にて取得される対象入力画像のISO感度は「ISO100」とされ、且つ、手ぶれ補正をONにした状態でステップS65の対象入力画像の撮影が成される。
学習メモリ54に記録された生成条件情報には、ユーザの嗜好性が反映されている。制御段階動作では、現時点の被写体のカテゴリに応じた生成条件情報を学習メモリ54から読み出すことで、ユーザの嗜好性に適合した生成条件(ISO感度等)を自動的に再現する。これにより、ユーザの嗜好性に適合した生成条件(ISO感度等)の設定が支援され、ユーザの利便性向上が図られる。
<<第9実施例>>
第9実施例を説明する。上述の各実施例では、複数の被写体を関係付けることでカテゴリ組み合わせを形成しているが、シーン判定を利用し、入力画像上の被写体と入力画像に対して判定されたシーンとを関係付けることでカテゴリ組み合わせを形成しても良い。この方法を具体的に説明する。
第9実施例では、図20に示すシーン判定部58が利用される。シーン判定部58を、図1の画像信号処理部13に設けておくことができる。シーン判定部58は、入力画像の画像信号に基づいて入力画像の撮影シーンを判定する。この判定を、入力画像ごとに行うことができる。入力画像の撮影シーンの判定は、入力画像の被写体の検出、入力画像の被写体のカテゴリ分類、入力画像の色相の分析、入力画像の撮影時における被写体の光源状態の推定等を用いて実行され、その判定に公知の任意の方法(例えば、特開2009−71666号公報に記載の方法)を用いることができる。
複数の登録シーンが予めシーン判定部58に設定されている。複数の登録シーンには、例えば、人物が注目された撮影シーンであるポートレートシーン、山が注目された撮影シーンである山シーン、海が注目された撮影シーンである海シーン、日中の撮影状態を表す日中シーン、夜景の撮影状態を表す夜景シーンなどが含まれうる。シーン判定部58は、注目した入力画像の画像信号からシーン判定に有効な特徴データを抽出することで、その注目した入力画像の撮影シーンを上記複数の登録シーンの中から選択し、これによって、注目した入力画像の撮影シーンを判定する。シーン判定部58によって判定された撮影シーンを、判定シーンと呼ぶ。
シーン判定部58を第1又は第8実施例に適用する方法を説明する。判定シーンを表す判定シーン情報は、図4の特徴情報生成部52又は図15の生成条件情報生成部56に伝達される。特徴情報生成部52又は生成条件情報生成部56は、任意の入力画像に対する被写体検出部51の検出結果と判定シーン情報に基づき、その入力画像に対するカテゴリ組み合わせを設定する。例えば、図6(a)の対象入力画像300に関し、対象入力画像300上の被写体301が被写体検出部51により検出され且つ対象入力画像300の撮影シーンがシーン判定部58により山シーンと判定されると、被写体301のカテゴリである人物と山シーンとを関係付け、「人物」及び「山シーン」の組み合わせを、対象入力画像300のカテゴリ組み合わせとして設定する。「人物」及び「山シーン」の組み合わせは、カテゴリ組み合わせ「人物及び山シーン」と表記される。同様に例えば、或る対象入力画像から犬のカテゴリの被写体が検出されると共に該対象入力画像の判定シーンが海シーンであると判断されると、その対象入力画像のカテゴリ組み合わせは、カテゴリ組み合わせ「犬及び海シーン」となる。
カテゴリ組み合わせの設定方法が第1又は第8実施例と異なるだけで、シーン判定部58を第1又は第8実施例に適用した場合における学習段階動作及び制御段階動作は、第1又は第8実施例のそれと同様である。即ち例えば、第1又は第8実施例の記述中の文言「山」及び「海」をそれぞれ文言「山シーン」及び「海シーン」に適宜読みかえた上で、第1又は第8実施例にて述べた事項を第9実施例に適用することができる(第2〜第7実施例についても同様)。
第1実施例が適用される場合、学習段階動作において、対象入力画像を繰り返し撮影することで各対象入力画像の特徴情報を生成し、被写体のカテゴリと判定シーンとの組み合わせであるカテゴリ組み合わせに各特徴情報を関連付けて学習メモリ54に保存してゆく。学習メモリ54に総合特徴情報が生成されると、制御段階動作に移行する。制御段階動作では(図10参照)、評価用画像に対して被写体のカテゴリ分類を行うと共にシーン判定部58による判定を行うことで評価用画像のカテゴリ組み合わせ(評価用画像の被写体のカテゴリと評価用画像の判定シーンとの組み合わせ)を決定し、決定したカテゴリ組み合わせに対応する総合特徴情報を学習メモリ54から読み出す。そして、読み出した総合特徴情報に基づき、第1実施例で述べた方法に従って主要被写体に注目した画角自動調整及びフォーカス自動調整を行い、その後、新たな対象入力画像を撮影すればよい。
第8実施例が適用される場合、学習段階動作において、対象入力画像をマニュアル操作を介して繰り返し撮影することで各対象入力画像の生成条件情報を生成し、被写体のカテゴリと判定シーンとの組み合わせであるカテゴリ組み合わせに各生成条件情報を関連付けて学習メモリ54に保存してゆく。学習メモリ54に総合生成条件情報が生成されると、制御段階動作に移行する。制御段階動作では(図19参照)、評価用画像に対して被写体のカテゴリ分類を行うと共にシーン判定部58による判定を行うことで評価用画像のカテゴリ組み合わせ(評価用画像の被写体のカテゴリと評価用画像の判定シーンとの組み合わせ)を決定し、決定したカテゴリ組み合わせに対応する総合生成条件情報を学習メモリ54から読み出す。そして、第8実施例で述べた方法に従い、読み出した総合生成条件情報に規定された生成条件にて、新たな対象入力画像を撮影すればよい。
<<第10実施例>>
第10実施例を説明する。第10実施例では、音響信号に対して特徴的な制御を行う。図1のマイク部14は、複数のマイクロホンから形成される。今、図21に示す如く、マイク部14は、2つのマイクロホン14L及び14Rから成るものとする。マイクロホン14L及び14Rとして指向性を有する有指向性マイクロホンを採用することも可能であるが、マイクロホン14L及び14Rは、指向性を有さない無指向性マイクロホンであるとする。
図22は、撮像装置1の外観斜視図である。マイクロホン14L及び14Rは、撮像装置1の筐体上の互いに異なる位置に設置される。図22に示す如く、マイクロホン14Lは撮像装置1の筐体上の左側に設置され、マイクロホン14Rは撮像装置1の筐体上の右側に設置される。図22に示す如く、撮像部11にて撮影可能な被写体が存在する方向を前方と定義し、その逆の方向を後方と定義する。前方及び後方は、撮像部11の光軸に沿った方向である。また、右及び左とは、後方側から前方側を見たときの右及び左を意味するものとする。
マイクロホン14L及び14Rの夫々は、自身が収音した音をアナログの音響信号に変換して出力する。図1の音響信号処理部15は、マイクロホン14L及び14Rから出力されるアナログの音響信号をデジタルの音響信号に変換する。この変換によって得られた、マイクロホン14L及び14Rの出力信号に基づくデジタルの音響信号を夫々左原信号及び右原信号と呼ぶ。音響信号処理部15は、左原信号及び右原信号に対して公知の指向性制御を施すことにより指向性を持った音響信号を生成することができる。
また、撮像装置1は、音声付静止画像を生成する機能が備えられている。即ち、シャッタ操作に従って対象入力画像を撮影した際、その対象入力画像の撮影時刻を基準とした一定期間中の音響信号を対象音響信号として生成し、対象音響信号を対象入力画像の画像信号に対応付けて該画像信号と共に外部メモリ18に記録することができる。対象音響信号の生成は、図1の音響信号処理部15に内在する対象音響信号生成部(不図示)によって成される。再生モードにおいて、対象入力画像の再生が指示されると、対象入力画像が表示部27にて表示再生されると共に対象音響信号が音としてスピーカ28により再生される。
更に、撮像装置1は、音声付静止画像を生成する際、指向性制御によって、対象入力画像上の強調対象被写体の方向に指向性を持った音響信号を対象音響信号として生成することができ、ユーザは、何れの被写体を強調対象被写体とすべきかを操作部26等を用いて指定することができる。対象入力画像上の強調対象被写体の方向に指向性を持った音響信号を対象音響信号として生成するための指向性制御を、特に、特定方向強調制御と呼ぶ。撮像装置1は、ユーザの指定内容を音に関するユーザの嗜好性情報と捉えて学習し、以降の撮影に役立てることができる。以下、このような方法の詳細な実現法を説明する。尚、第10実施例においても、図4又は図15に示される各部位が利用される。
[学習段階動作]
まず、学習段階動作について説明する。学習段階動作では、シャッタ操作に従って対象入力画像が撮影される。図23に示す対象入力画像600が得られた場合を考える。対象入力画像600は、第3実施例で述べた第1及び第2登録人物を被写体に含んだ状態で撮影された入力画像であり、被写体601及び602は、夫々、対象入力画像600上における第1及び第2登録人物である。被写体検出部51は、対象入力画像600から被写体601及び602を検出して被写体601及び602が人物であると検出すると共に、互いに異なる被写体領域611及び612を設定する。被写体領域611及び612は、夫々、被写体601及び602の画像信号が存在する画像領域である。更に、対象入力画像600の画像信号に基づく上記の個人認識処理によって(第3実施例参照)、被写体検出部51は、被写体601及び602が夫々第1及び第2登録人物であると認識する。
被写体検出部51において、第1及び第2登録人物は互いに異なるカテゴリの被写体であるとみなされる。今、ユーザが、第1登録人物を強調対象被写体とすべきことを操作部26等を用いて指定したとする。この指定は、対象入力画像600の撮影前に行うこともできるし、対象入力画像600の撮影後に行うこともできる。この指定によって、被写体600が強調対象被写体として設定される。音響信号処理部15は、対象入力画像600の撮影時刻を基準とする抽出期間P600を設定し、抽出期間P600中の左原信号及び右原信号から特定方向強調制御によって被写体601から到来する音の成分を強調した音響信号を対象音響信号SD600として生成する。この対象音響信号SD600は、対象入力画像600に対応付けられて対象入力画像600の画像信号と共に外部メモリ18に記録される。
或る入力画像の撮影時刻とは、厳密には例えば、その入力画像の画像信号を取得するために撮像素子33で実施される露光の開始時刻、中間時刻又は終了時刻を指す。或る撮影時刻を基準とする抽出期間とは、該撮影時刻からΔtA秒だけ前の時刻を始期とし且つ該撮影時刻からΔtB秒だけ後の時刻を終期とする期間をさす(ΔtA及びΔtBは所定の正の値)。一定時間分の左原信号及び右原信号を内部メモリ17に記録しておくようにすれば、対象入力画像600の撮影後に強調対象被写体の指定が行われたとしても、内部メモリ17の記録信号から対象音響信号SD600を作り出すことができる(他の対象音響信号についても同様)。
音響信号処理部15は、対象入力画像600上における被写体領域611の位置と、対象入力画像600の撮影時刻における焦点距離(撮像部11の焦点距離)から、撮像装置1から見た被写体601の方向を推定し、推定方向から到来する音の信号成分(即ち、音源としての被写体601から到来する音の信号成分)が強調されるように対象音響信号SD600を生成する。推定方向から到来する音の信号成分を抽出期間P600中の左原信号及び右原信号から必要成分として抽出し、抽出した必要成分そのものを対象音響信号SD600とすることができる。或いは、その必要成分を抽出期間P600中の左原信号及び右原信号から抽出する一方で、必要成分以外の信号成分を抽出期間P600中の左原信号及び右原信号から不必要成分として抽出した後、必要成分の混合比率が比較的大きくなるように必要成分と不必要成分を加重加算することで対象音響信号SD600を生成しても良い。つまり、0<kB<kAを満たす係数kA及びkBを設定し、上記必要成分に係数kAを乗じた信号と上記不必要成分に係数kBを乗じた信号とを足し合わせた信号を対象音響信号SD600として生成しても良い。
音響信号処理部15は、対象音響信号SD600’の代わりに、指向性制御の一種であるスレテオ化制御によって抽出期間P600中の左原信号及び右原信号から対象音響信号SD600’を作り出すこともできる。スレテオ化制御による対象音響信号は、強調対象被写体の位置に関係なく生成されたL信号とR信号から成るステレオ信号である。L信号及びR信号は、互いに異なる方向に指向軸を有する、指向性を持った音響信号である。信号SD600’が生成された場合には、信号SD600の代わりに信号SD600’が、対象入力画像600に対応付けられて対象入力画像600の画像信号と共に外部メモリ18に記録される。
被写体検出部51によって対象入力画像600のカテゴリ組み合わせとしてカテゴリ組み合わせ「第1及び第2登録人物」が設定され、メモリ制御部53によって、対象入力画像600の対象音響信号の指向性に関する音制御情報がカテゴリ組み合わせ「第1及び第2登録人物」に関連付けた状態で学習メモリ54に記録される。例えば、図24に示す音制御情報605が対象入力画像600のカテゴリ組み合わせ「第1及び第2登録人物」に関連付けた状態で学習メモリ54に記録される。音制御情報は、例えば、図1のCPU23に内在する音制御情報生成部(不図示)によって生成される。
或る入力画像に対する音制御情報は、特定方向強調制御のON/OFFを表す制御ON/OFF情報及び強調対象被写体を表す強調対象情報から成り、その音制御情報に必要に応じて、上述したような付加情報が付加される(図24参照)。付加情報も音制御情報の一部であると考えることも可能であるが、本例においては、付加情報は音制御情報の構成要素ではないと考える。
制御ON/OFF情報はON又はOFFとされる。制御ON/OFF情報がONであることは、対応する対象入力画像に対して特定方向強調制御を用いて対象音響信号が生成されていることを意味し、制御ON/OFF情報がOFFであることは、対応する対象入力画像に対してステレオ化制御を用いて対象音響信号が生成されていることを意味する。
強調対象情報は、対象入力画像上の何れのカテゴリの被写体が強調対象被写体であるかを示しており、制御ON/OFF情報がONのときにのみ、意義のあるデータを持つ。
対象入力画像600に対して対象音響信号SD600が生成されたものとする。そうすると、音制御情報605において、制御ON/OFF情報は「ON」であり、強調対象情報は「第1登録人物」である。
学習段階動作では、対象入力画像の撮影を繰り返し実行することで、ユーザの嗜好性を繰り返し学習する。LNUMを1以上の任意の整数とすることができるが、今、LNUMが3であるとする。LNUMの意義は上述した通りである。図25は、対象入力画像600の取得後、対象入力画像600a及び600b(全て不図示)が更に取得された後の、学習メモリ54の記録内容を示している。対象入力画像600a及び600bの夫々には、第1及び第2登録人物が被写体として含まれていて、対象入力画像600a及び600bの夫々の組み合わせカテゴリは「第1及び第2登録人物」であるとする。更に、対象入力画像600の場合と同様にして、対象入力画像600a及び600bの夫々に対しても対象音響信号が生成されているものとする。
CPU23は、対象入力画像600の音制御情報605を生成する方法と同様の方法にて、対象入力画像600aの音制御情報605a及び対象入力画像600bの音制御情報605bを生成する。メモリ制御部53は、音制御情報605、605a及び605bが生成されると、それらをカテゴリ組み合わせ「第1及び第2登録人物」に関連付けつつ学習メモリ54に保存する。一方で、CPU23又はメモリ制御部53は、音制御情報605、605a及び605bに一致又は類似する音制御情報W3Aを統計学に基づいて作成し、音制御情報W3Aもカテゴリ組み合わせ「第1及び第2登録人物」に関連付けて学習メモリ54に保存する。1枚1枚の対象入力画像の音制御情報を特に要素音制御情報とも呼び、複数枚の対象入力画像の音制御情報から統計学に基づき生成された音制御情報を特に総合音制御情報とも呼ぶ。本例において、音制御情報605、605a及び605bの夫々は要素音制御情報であり、音制御情報W3Aは総合音制御情報である。
要素音制御情報605、605a及び605bにおいて、制御ON/OFF情報は、夫々、「ON」、「ON」及び「OFF」であり、要素音制御情報605及び605aにおける強調対象情報は共に「第1登録人物」である。複数の要素特徴情報のフォーカス情報から総合特徴情報のフォーカス情報を生成する方法(第1実施例で述べた方法)と同様の方法にて(図9参照)、情報605、605a及び605bの制御ON/OFF情報から情報W3Aの制御ON/OFF情報を生成することができると共に、情報605、605a及び605bの強調対象情報から情報W3Aの強調対象情報を生成することができる。即ち例えば、情報W3Aの元となる要素音制御情報の強調対象情報の内、最も頻度の多い強調対象情報を、情報W3Aの強調対象情報とすることができる(制御ON/OFF情報も同様)。従って、情報W3Aにおける制御ON/OFF情報及び強調対象情報は、夫々、「ON」及び「第1登録人物」とされる。情報W3Aに付随する付加情報には、カテゴリ組み合わせ「第1及び第2登録人物」に対する学習回数が記録される。情報W3Aは、3回分の学習結果に基づき、即ち情報605、605a及び605bを元に生成される。従って、情報W3Aの付加情報には、学習回数を表す数値として3が記録される。
尚、第1実施例で述べたように、対象入力画像600、600a及び600bの撮影後、更に、カテゴリ組み合わせが「第1及び第2登録人物」となる対象入力画像600c(不図示)が対象音響信号と共に生成された場合には、その最新の対象入力画像600cの音制御情報を用いて総合音制御情報W3Aを更新すると良い。
[制御段階動作]
カテゴリ組み合わせ「第1及び第2登録人物」について、要素音制御情報605、605a及び605bに基づく図25の総合音制御情報W3Aが学習メモリ54に保存され、且つ、総合音制御情報W3A以外の幾つかの総合音制御情報が学習メモリ54に保存されている状態を想定し、この想定状態の下における制御段階動作の説明を行う。図26は、第10実施例に係る制御段階動作の手順を表すフローチャートであり、制御段階動作ではステップS81〜S84の各処理が実行される。
制御段階動作においてシャッタ操作が成されると、ステップS81において、新たな対象入力画像が撮影される一方で評価用画像に対して被写体検出部51による検出処理が成される。ここにおける評価用画像は、通常、ステップS81にて撮影される対象入力画像である。但し、制御段階動作中に得られた入力画像であって且つステップS81の対象入力画像の撮影前に撮影された入力画像(例えば、ステップS81の対象入力画像の撮影直前に撮影された入力画像)を、評価用画像としても良い。被写体検出部51は、評価用画像の画像信号に基づき、評価用画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する。これにより、上述と同様の方法にて、評価用画像についてのカテゴリ組み合わせが決定する。
ステップS81に続くステップS82において、音響信号処理部15は、評価用画像のカテゴリ組み合わせに一致するカテゴリ組み合わせの総合音制御情報を、学習メモリ54から読み出す。例えば、評価用画像の組み合わせカテゴリが「第1及び第2登録人物」であったならば情報W3Aが読み出され、評価用画像の組み合わせカテゴリが「第3及び第4登録人物」であったならば組み合わせカテゴリ「第3及び第4登録人物」に対応する総合音制御情報が読み出される。以下では、評価用画像が図27の画像650である場合を考える。更に、評価用画像650は、ステップS81にて撮影される対象入力画像であるとする。画像上650には第1登録人物である被写体651及び第2登録人物である被写体652の画像信号が存在している。そうすると、評価用画像650の組み合わせカテゴリは「第1及び第2登録人物」となるため、ステップS82において総合音制御情報W3Aが読み出される。以下、ステップS82にて読み出される総合音制御情報を、読み出し音制御情報とも呼ぶ。図27の画像650上の被写体領域661及び662は、夫々、被写体651及び652の画像信号が存在する画像領域である。
ステップS82の読み出し処理の後、ステップS83において、音響信号処理部15は、ステップS81にて撮影される対象入力画像の撮影時刻を基準とした抽出期間P650を設定し、ステップS81の対象入力画像に対応付けられるべき対象音響信号SD650を生成する。対象音響信号SD650の生成方法は上述した通りであるが、対象音響信号SD650は、読み出し音制御情報に規定された条件に従って生成される。
今、読み出し音制御情報が情報W3Aであることが想定されているため(図25参照)、強調対象被写体が第1登録人物であるとみなした上で抽出期間P650中の左原信号及び右原信号に上述の特定方向強調制御を施すことで対象音響信号SD650を生成する。対象入力画像と評価用画像650が同じである場合、評価用画像650と一致する対象入力画像上における被写体領域661の位置と、ステップS81の対象入力画像の撮影時刻における焦点距離(撮像部11の焦点距離)から、撮像装置1から見た被写体651の方向を推定し、推定方向から到来する音の信号成分(即ち、音源としての被写体651から到来する音の信号成分)が強調されるように対象音響信号SD650を生成する。尚、上記の想定とは異なるが、仮に読み出し音制御情報における制御ON/OFF情報が「OFF」であるならば、スレテオ化制御によって抽出期間P650中の左原信号及び右原信号から対象音響信号SD650が生成される。
その後、ステップS84では、ステップS81にて撮影された対象入力画像の画像信号とステップS83にて生成された対象音響信号が互いに対応付けられて外部メモリ18に記録される。
学習メモリ54に記録された音制御情報には、ユーザの音に関する嗜好性が反映されている。制御段階動作では、現時点の被写体のカテゴリに応じた音制御情報を学習メモリ54から読み出すことで、ユーザの嗜好性に適合した音の特徴を自動的に再現する。これにより、ユーザの利便性向上が図られる。
尚、上述の具体的動作例では個人認識処理の利用が想定されているが、個人認識処理の利用がない状態でも同様の処理が可能である。例えば、学習段階動作中に得られた対象入力画像のカテゴリ組み合わせが「人物及び犬」であるときに人物が強調対象被写体として指定されると、「ON」の制御ON/OFF情報と「人物」の強調対象情報を内包する音制御情報が作成され、その音制御情報がカテゴリ組み合わせ「人物及び犬」に関連付けられた状態で学習メモリ54に保存される。対象入力画像の撮影の繰り返しによって、カテゴリ組み合わせ「人物及び犬」についての総合音制御情報が学習メモリ54上に生成された後、制御段階動作のステップS81においてカテゴリ組み合わせが「人物及び犬」となる対象入力画像(又は評価用画像)が撮影されると、カテゴリ組み合わせ「人物及び犬」に対応する総合音制御情報が読み出し音制御情報として読み出される。そして、その読み出し音制御情報における制御ON/OFF情報及び強調対象情報が夫々「ON」及び「人物」であるならば、ステップS81の対象入力画像上の人物を強調対象被写体とみなした上で特定方向強調制御を用いてステップS83の対象音響信号を生成すればよい。
また、上述の方法を動画像に対しても適用することができる。対象動画像の画像信号に基づき対象動画像上の被写体の検出及びカテゴリ分類を行うことで、静止画像としての対象入力画像と同様、対象動画像のカテゴリ組み合わせも設定することができる。対象動画像の撮影の繰り返しによって、カテゴリ組み合わせ「人物及び犬」についての総合音制御情報が学習メモリ54上に生成された後、制御段階動作においてカテゴリ組み合わせが「人物及び犬」となる対象動画像が撮影されると、カテゴリ組み合わせ「人物及び犬」に対応する総合音制御情報が読み出し音制御情報として読み出される。そして、その読み出し音制御情報における制御ON/OFF情報及び強調対象情報が夫々「ON」及び「人物」であるならば、制御段階動作中に撮影される対象動画像上の人物を強調対象被写体とみなした上で特定方向強調制御を用いて対象音響信号を生成すればよい。この場合、強調対象被写体からの音を追尾したような対象音響信号が生成されて対象動画像に対応付けられる。
尚、第10実施例で述べた方法は、他の実施例で述べた方法と組み合わせて実施することができる。
<<第11実施例>>
第11実施例を説明する。学習段階動作において、学習段階動作から制御段階動作へ移行するために必要な残りの学習回数をユーザに提示するようにしても良い。
例えば、第1実施例においてカテゴリ組み合わせが「人物及び山」である対象入力画像をあとm1回撮影すれば学習段階動作から制御段階動作へ移行することができる場合、m1回を示す第1指標を、表示部27に表示すると良い(m1は自然数)。LNUM=3であって且つ図9の特徴情報305及び305aのみが学習メモリ54に記録されている場合には、m1=1である。
同様に例えば、第8実施例においてカテゴリ組み合わせが「人物及び山」である対象入力画像をあとm2回撮影すれば学習段階動作から制御段階動作へ移行することができる場合、m2回を示す第2指標を、表示部27に表示すると良い(m2は自然数)。LNUM=3であって且つ図18の生成条件情報505及び505aのみが学習メモリ54に記録されている場合には、m2=1である。
同様に例えば、第10実施例においてカテゴリ組み合わせが「第1及び第2登録人物」である対象入力画像をあとm3回撮影すれば学習段階動作から制御段階動作へ移行することができる場合、m3回を示す第3指標を、表示部27に表示すると良い(m3は自然数)。LNUM=3であって且つ図25の音制御情報605及び605aのみが学習メモリ54に記録されている場合には、m3=1である。
1〜m3の値は、学習メモリ54の記録内容を参照すれば容易に判明する。
上記の第1指標を、図28(a)に示すように文字で構成しても良いし、或いは、図28(b)に示すように図形で構成しても良いし、或いは、文字と図形の組み合わせで構成しても良い。第2及び第3指標についても同様である。図28(a)及び(b)は、第1指標が表示されている状態の表示画面例を示す図である。特に記述なき限り、表示画面とは、表示部27の表示画面を指す。また、上述の複数の実施例(例えば、第1、第8及び第10実施例)の動作を実現可能なように撮像装置1が形成されている場合には、第1〜第3指標の内の2以上の指標を同時に表示するようにしても良い。
<<第12実施例>>
第12実施例を説明する。第12実施例では、マニュアル操作に関する第8実施例に適用可能な技術を説明する。
説明の便宜上、第12実施例では、各生成条件情報に、感度情報及び手ぶれ補正情報に加えて、鮮鋭化条件を表す鮮鋭化情報が含まれていることを想定する(鮮鋭化条件の意義は、第8実施例で述べられている)。
ユーザは、学習段階動作においてマニュアル操作を成すことで、各対象入力画像の感度条件、鮮鋭化条件及び手ぶれ補正ON/OFF条件の全部又は一部を初期条件から変更することができる。それらの変更が成された際、図15のメモリ制御部53は、変更が成された条件が何であるか及び条件ごとの変更回数を学習メモリ54の付加情報に記録しておく。CPU23は、その付加情報に基づき、ユーザが比較的頻繁に変更する条件を特定条件として設定する。そして、特定条件の設定後には、特定条件の変更が容易となるようなユーザインターフェースを実現する。
具体例を説明する。学習段階動作の開始直後において、カテゴリ組み合わせが「人物及び山」となる入力画像が撮影されると、図29(a)に示す如く、単に該入力画像が表示部27に表示される。仮に、この状態において、ユーザが感度条件の変更を希望する場合、感度条件、鮮鋭化条件及び手ぶれ補正ON/OFF条件を変更可能な操作メニューを表示させるための第1操作を成した後、感度条件、鮮鋭化条件及び手ぶれ補正ON/OFF条件の中から感度条件を選択する第2操作と、ISO感度の具体的数値を指定するための第3操作を順次成す必要がある。この第1〜第3操作から成る一連の操作を総称して基本操作と呼ぶ。
学習段階動作において、カテゴリ組み合わせが「人物及び山」となるn枚の対象入力画像が撮影されたとし、そのn枚の対象入力画像の撮影時の夫々において、対象入力画像の生成条件を変更するためのマニュアル操作が成されたものとする(nは2以上の整数)。但し、この変更は感度条件のみに対する変更であり、鮮鋭化条件はn枚の対象入力画像間で一定であったとする。この場合、CPU23は、学習メモリ54の付加情報に基づき、感度条件に対する変更回数(即ちn回)が、鮮鋭化条件及び手ぶれ補正ON/OFF条件に対する変更回数(即ち0回)よりも多いと判断し、結果、感度条件を特定条件に設定する。そして、その設定後、制御段階動作(又は学習段階動作)において、カテゴリ組み合わせが「人物及び山」となる入力画像が取得された場合、撮像装置1は、図29(b)に示す如く、表示部27上に入力画像と共に操作アイコン721を表示させる(例えば入力画像上に操作アイコン721を重畳表示させる)。図29(b)は、操作アイコン721が表示されている状態の表示画面である。ユーザは、操作部26に対する操作やタッチパネル操作により操作アイコン721を選択した後、第3操作のみを成すことで感度情報の指定を完了することができる。即ち、ユーザによる第1操作が不要となり、また、基本操作と比べて第2操作も簡単となる。尚、上述の想定とは異なるが、鮮鋭化条件に対する変更回数も比較的多いならば、鮮鋭化条件の変更指示用のアイコン(不図示)も操作アイコン721に並んで表示される。
ユーザにより操作アイコン721が選択された場合、CPU23は、学習メモリ54内の各感度情報から、ユーザが比較的頻繁に設定するISO感度の値を抽出し、その抽出結果を用いた表示を表示部27に行わせる。例えば、上記n枚の対象入力画像の撮影時におけるISO感度が、ISO50又はISO100であった場合、操作アイコン721を選択する操作を受けると、図29(b)の表示画面を図29(c)の表示画面に変更する。図29(c)の表示画面では、「ISO50」についてのアイコン731と「ISO100」についてのアイコン732が現在の入力画像と共に示されている。
図29(c)の表示が成されている状態において、ユーザは、アイコン731を選択する操作を成すだけで現在のISO感度を「ISO50」に設定することができ、或いは、アイコン732を選択する操作を成すだけで現在のISO感度を「ISO100」に設定することができる。この設定内容は、即時、入力画像の生成条件に反映されるため、ユーザは反映結果を表示画面上で容易に確認することができる。基本操作における第3操作では、3以上(10個程度)のISO感度の中から希望のISO感度を選択する必要があるが、図29(c)に示すような表示を成すことで第3操作が基本操作よりも簡単となる。
また、図29(c)の表示を成す場合において、比較的頻繁に設定されるISO感度のアイコンが表示画面の上方に配置されるように、表示画面上におけるアイコン731及び732の並び方を学習メモリ54内の各感度情報に基づいて決定するようにしても良い。例えば、上記n枚の対象入力画像の内、n1枚の対象入力画像についてのISO感度が「ISO50」であって且つn2枚の対象入力画像についてのISO感度が「ISO100」である場合において(n1及びn2は整数であってn1+n2=n)、n1>n2なら、図29(c)に示す如く表示画面上においてアイコン731をアイコン732よりも上方に表示し、逆に、n2>n1なら、表示画面上においてアイコン732をアイコン731よりも上方に表示すると良い。これにより、より頻繁に設定されるISO感度が、より少ない操作数で選択できるようになる。尚、ここでは、表示画面上において上方に配置されているアイコンの方が下方に配置されているアイコンよりも少ない操作数で選択できることを想定している。
<<第13実施例>>
第13実施例を説明する。上述の特徴情報、生成条件情報及び音制御情報(図9、図18及び図25参照)を、まとめて学習情報と呼ぶことができる。上述してきた方法では、カテゴリ組み合わせごとに学習情報を生成してゆくため、全てのカテゴリ組み合わせについての学習情報を生成するまでに相応の時間(相応の撮影回数)を要し、分類検出されるカテゴリの種類が多くなると、その時間も長期化する。
第13実施例では、学習情報の生成に必要な時間(撮影回数)を短縮するための技術を説明する。第13実施例で述べた技術は、上述してきた任意の実施例に適用することができる。説明の簡略化上、カテゴリ組み合わせを形成するカテゴリの個数が2であるとし、また、本実施例の技術を第1実施例に係る特徴情報に適用する方法を説明する。
今、図30(a)〜(c)に示す総合特徴情報801及び802と特徴情報803が、学習メモリ54に保存されていることを想定する。
総合特徴情報801は、カテゴリ組み合わせ「自動車及び山」に対する総合特徴情報であり、総合特徴情報802は、カテゴリ組み合わせ「自動車及び人物」に対する総合特徴情報である。総合特徴情報801において、フォーカス情報、サイズ情報及び位置情報は、夫々、「自動車」、「SIZE1」及び「BL5」であり、総合特徴情報802において、フォーカス情報、サイズ情報及び位置情報は、夫々、「自動車」、「SIZE2」及び「BL6」である。また、総合特徴情報801は、カテゴリ組み合わせ「自動車及び山」についてのN1個の要素特徴情報に基づいて作成されたものとし、総合特徴情報802は、カテゴリ組み合わせ「自動車及び人物」についてのN2個の要素特徴情報に基づいて作成されたものとする。即ち、総合特徴情報801及び802の学習回数は夫々N1及びN2である(N1及びN2は自然数)。
第13実施例では、単一のカテゴリについての特徴情報も特徴情報生成部52(図4参照)において生成されて、学習メモリ54に保存されるものとする。図30(c)の学習情報803は、単一のカテゴリについての特徴情報である。学習段階動作において被写体検出部51及び特徴情報生成部52により、或る対象入力画像から自動車のみが検出され、且つ、その対象入力画像の合焦被写体が自動車であることが検出され、且つ、その対象入力画像上における自動車の大きさ(自動車の被写体領域の画像サイズ)がSIZE3であることが検出され、且つ、その対象入力画像上における自動車の位置がブロックBL5に属していると検出されたものとする。そうすると、特徴情報生成部52は、フォーカス情報、サイズ情報及び位置情報が夫々「自動車」、「SIZE3」及び「BL5」となる特徴情報803を生成し、特徴情報803は単一のカテゴリ「自動車」に関連付けられて学習メモリ54に保存される。
学習メモリ54に、情報801〜803のみが保存されている状態において、特徴情報生成部52は、情報801〜803に基づき、カテゴリ組み合わせ「人物及び山」に対する特徴情報804を擬似的に生成することができる。図31に、擬似的に生成された特徴情報804を示す。この生成は、以下のように成される。
特徴情報生成部52は、まず、情報801及び802に基づき、ピントが合わせられるべき被写体の優先順位を判断し、その判断結果から、特徴情報804のフォーカス情報を生成する。情報801〜803の生成を実現したユーザにとっては、山よりも自動車の方にピントを合わせることの方が好ましいことが情報801から推定されると共に、人物よりも自動車の方にピントを合わせることの方が好ましいことが情報802から推定される。従って、自動車、人物及び山の内、自動車の優先順位が最も高い。一方で、人物と山との間の優劣は、情報801及び802だけでは推定できない。但し、人物と人物以外の被写体とを比較した場合、通常は、人物の方にピントを合わせることが望まれやすい。これを考慮し、特徴情報生成部52は、特徴情報804のフォーカス情報を「人物」とする。尚、上述の想定とは異なるが、仮に情報801のフォーカス情報が「山」であるのであれば、情報802をも参照すると優先順位は「山>自動車>人物」となるため、特徴情報804のフォーカス情報は「山」とされる。以下では、特徴情報804のフォーカス情報は「人物」であるとする。
情報801におけるサイズ情報SIZE1は、画像上における、山の大きさを基準とした自動車の大きさである、と考えることもできる。同様に、情報802におけるサイズ情報SIZE2は、画像上における、人物の大きさを基準とした自動車の大きさである、と考えることもできる。これを考慮すれば、SIZE1とSIZE2の比から、山の大きさを基準とした人物の大きさを推定することができる。但し、この際、自動車の大きさの基準値として、特徴情報803のサイズ情報SIZE3を用いる。即ち、“SIZE4=(SIZE1/SIZE2)×SIZE3”に従って求められたサイズ情報SIZE4を、特徴情報804のサイズ情報とすることができる。
情報801及び802の位置情報から、合焦被写体の配置位置の好み(ユーザの好み)を推定することができる。仮に、情報801及び802間で位置情報が同じならば、それらと同じ位置情報を特徴情報804に含めれば足るが、位置情報が情報801及び802間で異なる場合、学習回数が多いほうの位置情報を特徴情報804の位置情報として採用する。本例では、N1>N2であることを想定する。そうすると、情報801の位置情報BL5が特徴情報804の位置情報に代入される(仮に、N1<N2であれば、情報802の位置情報BL6が特徴情報804の位置情報に代入される)。
特徴情報804の生成後、特徴情報804を総合特徴情報とみなして学習段階動作から制御段階動作へ移行することができ、制御段階動作においてカテゴリ組み合わせが「人物及び山」となる入力画像が評価用画像として取得されたならば(図10)、特徴情報804を読み出し特徴情報として学習メモリ54から読み出して第1実施例で述べた動作を成すことができる。
ここで、擬似的に生成された特徴情報804の学習回数N4は、便宜上、0<N4<1を満たすように設定される(例えば、N4=0.5)。このように設定しておくことで、制御段階動作において、人物、山及び自動車が同時に被写体に含められたとき、第6実施例の方法よって特徴情報804が読み出し特徴情報として読み出されることはない(この場合、N1>N2>N4なので、第6実施例の方法によって特徴情報801が読み出し特徴情報として読み出される)。
特徴情報804の生成後、カテゴリ組み合わせが「人物及び山」となる対象入力画像が実際に撮影されたならば、その対象入力画像に基づく特徴情報が生成される。この際、特徴情報804を破棄して、その対象入力画像に基づく特徴情報をカテゴリ組み合わせ「人物及び山」の特徴情報として学習メモリ54に保存することができる。この場合、カテゴリ組み合わせ「人物及び山」についての学習回数N4は1に変更される。或いは、その対象入力画像に基づく特徴情報と特徴情報804から、カテゴリ組み合わせ「人物及び山」についての特徴情報を再作成するようにしてもよい(換言すれば、対象入力画像に基づく特徴情報を用いて特徴情報804を修正するようにしても良い)。この場合、N4=1、又は、1<N4<2とされる。
特徴情報を擬似的に生成する方法を説明したが、同様にして、生成条件情報及び音制御情報(図18及び図25参照)も擬似的に生成することが可能である。
<<変形等>>
上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
図1の撮像装置1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能を実現するようにしてもよい。
1 撮像装置
11 撮像部
13 画像信号処理部
14 マイク部
15 音響信号処理部
30 ズームレンズ
31 フォーカスレンズ
32 絞り
33 撮像素子
51 被写体検出部
52 特徴情報生成部
53 メモリ制御部
54 学習メモリ
55 撮影制御部
56 生成条件情報生成部
58 シーン判定部

Claims (6)

  1. 被写体の光学像を光電変換して得た信号を出力する撮像素子を有し、所定操作が成された際に得られる前記撮像素子の出力信号から対象画像を生成する撮像装置において、
    前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、
    当該撮像装置は、
    前記撮像素子の出力信号に基づく画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、
    前記第1対象画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせを特定組み合わせとし、前記第1対象画像の特徴又は前記第1対象画像の生成条件に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、
    前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像を評価用画像とし、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像の生成を行う撮影制御部と、を備えた
    ことを特徴とする撮像装置。
  2. 前記学習情報は、前記第1対象画像の特徴に応じた情報であって、
    前記第1対象画像上の複数の被写体の内、何れのカテゴリの被写体にピントがあっているかを表すフォーカス情報を含む
    ことを特徴とする請求項1に記載の撮像装置。
  3. 当該撮像装置は、前記第1対象画像の生成条件の指定を受け付ける操作部を更に備えて、前記操作部を介して指定された前記第1対象画像の生成条件に従って前記第1対象画像を生成し、
    前記学習情報は、前記第1対象画像の生成条件に応じた情報である
    ことを特徴とする請求項1に記載の撮像装置。
  4. 前記撮影制御部は、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、
    前記第1対象画像の特徴に応じた前記学習情報に基づき、前記第2対象画像が前記第1対象画像の特徴に応じた特徴を有するように、前記第2対象画像に対するフォーカス制御及びズーム制御を行う、或いは、
    前記第1対象画像の生成条件に応じた前記学習情報に基づき、前記第1対象画像の生成条件に応じた生成条件にて前記第2対象画像を生成する
    ことを特徴とする請求項1〜請求項3の何れかに記載の撮像装置。
  5. 被写体の光学像を光電変換して得た信号を出力する撮像素子を有し、所定操作が成された際に得られる前記撮像素子の出力信号から対象画像を生成する撮像装置において、
    前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、
    当該撮像装置は、
    前記撮像素子の出力信号に基づく画像上に存在する被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、
    前記撮像素子の出力信号に基づく画像の撮影シーンを複数の登録シーンの中から選択することで判定するシーン判定部と、
    前記第1対象画像上の被写体に対する前記被写体検出部の検出カテゴリと前記第1対象画像に対する前記シーン判定部の判定シーンとの組み合わせを特定組み合わせとし、前記第1対象画像の特徴又は前記第1対象画像の生成条件に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、
    前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像を評価用画像とし、前記評価用画像上の被写体に対する前記被写体検出部の検出カテゴリと前記評価用画像に対する前記シーン判定部の判定シーンとの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像の生成を行う撮影制御部と、を備えた
    ことを特徴とする撮像装置。
  6. 被写体の光学像を光電変換して得た信号を出力する撮像素子及び複数のマイクロホンから成るマイク部を有し、所定操作が成された際、前記撮像素子の出力信号から対象画像を生成する一方で前記複数のマイクロホンの出力音響信号に基づき対象音響信号を生成して該対象音響信号を前記対象画像に対応付ける撮像装置において、
    前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、
    当該撮像装置は、
    前記撮像素子の出力信号に基づく画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、
    前記第1対象画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせを特定組み合わせとし、前記第1対象画像に対応付けられた対象音響信号の特徴に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、
    前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像又は前記第2対象画像を評価用画像とし、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像に対応付けられるべき対象音響信号の生成を行う対象音響信号生成部と、を備えた
    ことを特徴とする撮像装置。
JP2010017984A 2010-01-29 2010-01-29 撮像装置 Pending JP2011160044A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010017984A JP2011160044A (ja) 2010-01-29 2010-01-29 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010017984A JP2011160044A (ja) 2010-01-29 2010-01-29 撮像装置

Publications (1)

Publication Number Publication Date
JP2011160044A true JP2011160044A (ja) 2011-08-18

Family

ID=44591662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010017984A Pending JP2011160044A (ja) 2010-01-29 2010-01-29 撮像装置

Country Status (1)

Country Link
JP (1) JP2011160044A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013190756A (ja) * 2012-03-15 2013-09-26 Omron Corp 撮影装置、撮影装置の制御方法、撮影装置制御プログラム、および該プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2014036257A (ja) * 2012-08-07 2014-02-24 Nikon Corp 再生処理装置、撮像装置および再生処理プログラム
JP2015141262A (ja) * 2014-01-28 2015-08-03 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
JP2016061884A (ja) * 2014-09-17 2016-04-25 カシオ計算機株式会社 撮影装置、撮影方法及びプログラム
JP2017204869A (ja) * 2017-06-29 2017-11-16 株式会社ニコン 再生処理装置、撮像装置および再生処理プログラム
JP2018113660A (ja) * 2017-01-13 2018-07-19 キヤノン株式会社 情報処理装置、情報処理方法、システム
JP2019118097A (ja) * 2017-12-26 2019-07-18 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、記憶媒体
WO2020045598A1 (ja) * 2018-08-31 2020-03-05 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
JP2020156076A (ja) * 2019-03-13 2020-09-24 パナソニックIpマネジメント株式会社 撮像装置
WO2022004303A1 (ja) * 2020-06-30 2022-01-06 富士フイルム株式会社 情報処理装置、学習機器、撮像装置、情報処理装置の制御方法、及びプログラム
US11463615B2 (en) 2019-03-13 2022-10-04 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013190756A (ja) * 2012-03-15 2013-09-26 Omron Corp 撮影装置、撮影装置の制御方法、撮影装置制御プログラム、および該プログラムを記録したコンピュータ読み取り可能な記録媒体
US9253408B2 (en) 2012-03-15 2016-02-02 Omron Corporation Photographing device, photographing device controlling method, photographing device controlling program, and computer-readable recording medium in which photographing device controlling program is recorded
JP2014036257A (ja) * 2012-08-07 2014-02-24 Nikon Corp 再生処理装置、撮像装置および再生処理プログラム
JP2015141262A (ja) * 2014-01-28 2015-08-03 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
US9936120B2 (en) 2014-01-28 2018-04-03 Casio Computer Co., Ltd. Image capture apparatus performing interval shooting, image capture method and storage medium
JP2016061884A (ja) * 2014-09-17 2016-04-25 カシオ計算機株式会社 撮影装置、撮影方法及びプログラム
JP2018113660A (ja) * 2017-01-13 2018-07-19 キヤノン株式会社 情報処理装置、情報処理方法、システム
JP2017204869A (ja) * 2017-06-29 2017-11-16 株式会社ニコン 再生処理装置、撮像装置および再生処理プログラム
JP2019118097A (ja) * 2017-12-26 2019-07-18 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、記憶媒体
WO2020045598A1 (ja) * 2018-08-31 2020-03-05 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
EP3846442A4 (en) * 2018-08-31 2021-09-15 Sony Semiconductor Solutions Corporation ELECTRONIC APPARATUS AND IMAGE CAPTURING SOLID STATE DEVICE
JPWO2020045598A1 (ja) * 2018-08-31 2021-09-24 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
JP7386792B2 (ja) 2018-08-31 2023-11-27 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
US11889177B2 (en) 2018-08-31 2024-01-30 Sony Semiconductor Solutions Corporation Electronic device and solid-state imaging device
JP2020156076A (ja) * 2019-03-13 2020-09-24 パナソニックIpマネジメント株式会社 撮像装置
US11463615B2 (en) 2019-03-13 2022-10-04 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
JP7217471B2 (ja) 2019-03-13 2023-02-03 パナソニックIpマネジメント株式会社 撮像装置
WO2022004303A1 (ja) * 2020-06-30 2022-01-06 富士フイルム株式会社 情報処理装置、学習機器、撮像装置、情報処理装置の制御方法、及びプログラム
JP7495498B2 (ja) 2020-06-30 2024-06-04 富士フイルム株式会社 情報処理装置、学習機器、撮像装置、情報処理装置の制御方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP2011160044A (ja) 撮像装置
US8570422B2 (en) Apparatus, method, and recording medium containing program for photographing
JP4957943B2 (ja) 撮像装置及びそのプログラム
US7668451B2 (en) System for and method of taking image
US7652714B2 (en) Imaging device and image processing method
US20110102621A1 (en) Method and apparatus for guiding photographing
US20110007187A1 (en) Imaging Device And Image Playback Device
US20010035909A1 (en) Image recording apparatus and method
CN103227902A (zh) 摄像装置、显示控制方法
KR101739379B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
JP4974812B2 (ja) 電子カメラ
EP2573758B1 (en) Method and apparatus for displaying summary video
JP2007215091A (ja) 撮像装置及びそのプログラム
US8081804B2 (en) Electronic camera and object scene image reproducing apparatus
JP4639965B2 (ja) 撮像装置、画像処理方法及びプログラム
US8687076B2 (en) Moving image photographing method and moving image photographing apparatus
KR101737086B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
US7796163B2 (en) System for and method of taking image based on objective body in a taken image
JP4683337B2 (ja) 画像表示装置及び画像表示方法
KR20120011920A (ko) 디지털 영상 신호 처리 장치, 디지털 영상 신호 처리 방법 및 상기 방법을 기록한 기록 매체
JP4591120B2 (ja) 撮像装置、オートフォーカス制御方法、及びオートフォーカス制御プログラム
JP4842232B2 (ja) 撮影装置及び画像再生装置
JP6590681B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2008028956A (ja) 撮像装置、および、撮像装置における対象物検出用画像信号の生成方法
KR101946574B1 (ko) 영상 재생 장치, 방법, 및 컴퓨터 판독가능 저장매체