JP6833607B2 - 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 - Google Patents

制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 Download PDF

Info

Publication number
JP6833607B2
JP6833607B2 JP2017093648A JP2017093648A JP6833607B2 JP 6833607 B2 JP6833607 B2 JP 6833607B2 JP 2017093648 A JP2017093648 A JP 2017093648A JP 2017093648 A JP2017093648 A JP 2017093648A JP 6833607 B2 JP6833607 B2 JP 6833607B2
Authority
JP
Japan
Prior art keywords
information
image
panning
control device
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017093648A
Other languages
English (en)
Other versions
JP2018191205A (ja
JP2018191205A5 (ja
Inventor
浩平 古谷
浩平 古谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017093648A priority Critical patent/JP6833607B2/ja
Publication of JP2018191205A publication Critical patent/JP2018191205A/ja
Publication of JP2018191205A5 publication Critical patent/JP2018191205A5/ja
Application granted granted Critical
Publication of JP6833607B2 publication Critical patent/JP6833607B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Description

本発明は、流し撮りを行うことが可能な撮像装置に関する。
被写体(動体)のスピード感を表現する撮影技術として流し撮りがある。この撮影技術は、撮影者が被写体の動きに合わせてカメラを動かすことにより、移動している被写体像を静止させて背景像を流すことを目的とする。流し撮りにおいて撮影者が被写体の動きに合わせてカメラを動かす際、カメラを動かす速度が適切でない場合、被写体の移動速度とカメラを動かす速度との間に差が生じ、被写体がぶれた画像になることが多い。
特許文献1には、シフトレンズの移動により被写体の移動速度とカメラを動かす速度との差を吸収する方法が開示されている。しかし、例えば流し撮りの露光中に被写体の移動速度が変化する場合でも、被写体がぶれた画像になる可能性がある。
特許文献2には、流し撮りした撮影画像における被写体のコントラスト値に応じて、流し撮りの成否を判定して記録方式を変更する撮像装置が開示されている。特許文献2に開示されている撮像装置によれば、流し撮りの成否を判定することにより、以降の処理にその成否に関する情報を活用することができる。
特開2006−317848号公報 特開2014−150370号公報
しかしながら、特許文献2に開示されている撮像装置は、撮影画像から被写体を検出するが、流し撮りが失敗した場合には被写体の検出が困難である。これに関し、図4を参照して説明する。図4は、流し撮りの説明図である。図4に示されるように、流し撮りの本撮影の前後において、撮影前フレーム(a−1)、(a−2)、および、撮影後フレーム(a−3)、(a−4)を取得する。これらのフレームは、例えば撮影者が撮影画角を確認するための画像(スルー映像)として取得される。
ここで、流し撮りが成功した場合、図4中の記録画像(b)のように被写体が静止して背景だけが流れたような画像を取得することができる。一方、流し撮りが失敗した場合、図4中の記録画像(c)のように被写体がぶれた画像となる。このため、流し撮りが失敗した画像から被写体を検出しようとすると、ぶれている領域が背景だからぶれているのか、被写体がぶれているのかを区別することが難しい。
撮影前フレーム(a−1)、(a−2)から検出された被写体情報を用いたとしても、流し撮りは背景が流れる程度の長秒で撮影されるため、撮影前後のフレームの撮影条件と、本撮影による記録画像の撮影条件とは互いに異なっている場合が多い。図4の例では、絞り値、露光時間、および、感度がそれぞれ異なっている。このため、撮影前フレーム(a−1)、および、記録画像(b)、(c)のそれぞれにおける被写体領域は、(d)、(e)、(f)のように互いに異なる。その結果、ぶれているか否かの基準を決定することが難しい。
そこで本発明は、流し撮りの際に、撮影画像の成否を判定するための流し撮り成功割合を算出することが可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することを目的とする。
本発明の一側面としての制御装置は、撮像装置の流し撮り撮影の開始前の第1の画像から第1の情報を取得し、前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得する取得手段と、前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出する算出手段とを有する。
本発明の他の側面としての撮像装置は、撮像光学系を介して形成された光学像を光電変換する撮像素子と、前記制御装置とを有する。
本発明の他の側面としての制御方法は、撮像装置の流し撮り撮影の開始前の第1の画像から第1の情報を取得するステップと、前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得するステップと、前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出するステップとを有する。
本発明の他の側面としてのプログラムは、前記画像処理方法をコンピュータに実行させる。
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。
本発明の他の目的及び特徴は、以下の実施形態において説明される。
本発明によれば、流し撮りの際に、撮影画像の成否を判定するための流し撮り成功割合を算出することが可能な制御装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。
各実施形態における撮像装置のブロック図である。 第1の実施形態における流し撮り成功割合の算出処理を示すフローチャートである。 第2の実施形態における流し撮り成功割合の算出処理を示すフローチャートである。 各実施形態における流し撮りの説明図である。 第1の実施形態における露光前情報および露光後情報の説明図である。 第3の実施形態における露光前情報および露光後情報の説明図である。 第4の実施形態における露光前情報および露光後情報の説明図である。 第5の実施形態における露光前情報および露光後情報の説明図である。 第6の実施形態における露光前情報および露光後情報の説明図である。 第7の実施形態における流し撮り成功割合の利用例を示す図である。 第8の実施形態における流し撮り成功割合の利用例を示す図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
(第1の実施形態)
まず、図1を参照して、本発明の第1の実施形態における撮像装置について説明する。図1は、本実施形態における撮像装置100のブロック図である。撮像装置100は、デジタルカメラやデジタルビデオカメラなどのカメラだけでなく、カメラ機能付き携帯電話やカメラ付きコンピュータなど、カメラ機能を備える電子機器であってもよい。光学系101は、レンズ群、シャッタ、および、絞りなどを備える結像光学系(撮像光学系)である。レンズ群は、手振れなどによる像ブレ補正を行う補正レンズやフォーカスレンズなどを含む。
光学系101は、CPU(中央演算処理装置、制御装置)103の制御信号に従って、被写体からの光を撮像素子102に結像させる。撮像素子102は、CCD(電荷結合素子)イメージセンサやCMOS(相補型金属酸化膜半導体)イメージセンサなどの撮像デバイスであり、光学系101を介して形成された光学像(被写体像)を光電変換して画像信号を出力する。なお本実施形態において、光学系101は撮像素子102を備えた撮像装置本体と一体的に構成されているが、これに限定されるものではない。本実施形態は、撮像装置本体と、撮像装置本体に対して着脱可能な光学系(交換レンズ)とを備えた撮像装置にも適用可能である。角速度センサ105は、例えばジャイロセンサであり、撮像装置100の移動量を表す角速度を検出し、電気信号としての角速度検出信号をCPU103へ出力する。
CPU(制御装置)103は、二次記憶装置108などのメモリ(記憶手段)に予め記憶されたプログラムを実行することにより、入力信号などに従って撮像装置100を構成する各部を制御する。本実施形態において、CPU103は、取得手段103a、算出手段103b、駆動手段103c、および、記録制御手段103dを有する。一次記憶装置104は、例えばRAM(ランダム・アクセス・メモリ)などの揮発性メモリであり、一時的なデータを記憶し、CPU103のワークメモリとして使用される。一次記憶装置104に記憶されているデータは、画像処理装置106により用いられ、また記録媒体107に記録される場合もある。二次記憶装置108は、例えばEEPROM(Electrically Erasable Programmable Read−Only Memory)などの不揮発性メモリである。二次記憶装置108は、撮像装置100を制御するためのプログラム(ファームウエア)や各種の設定情報を記憶している。二次記憶装置108に記憶されているプログラムや各種情報はCPU103により利用される。
記録媒体(記録手段)107は、記録制御手段103dによる制御に基づいて、一次記憶装置104に記憶されている撮影画像データなどを記録する。記録媒体107は、例えば半導体メモリカードのように、撮像装置100から取り外し可能である。記録媒体107に記録されたデータは、パーソナルコンピュータなどの外部機器に装着して読み出すことが可能である。このように撮像装置100は、記録媒体107の着脱機構および読み書き機能を有する。表示部109は、撮影の際におけるビューファインダ画像、撮影画像、または、対話的な操作のためのGUI(グラフィカル・ユーザ・インターフェース)画像などを表示する。操作部110は、撮影者の操作を受け付けてCPU103へ入力情報を伝達する入力デバイス群であり、ボタン、レバー、および、タッチパネルなどを備える。操作部110は、音声や視線などを用いて操作可能な入力機器を含むこともできる。
本実施形態の撮像装置100は、画像処理装置106が撮影画像に適用する画像処理パターンを複数有し、画像処理パターンを撮像モードとして操作部110により設定可能である。画像処理装置106は、いわゆる現像処理と呼ばれる画像処理に加えて、撮影モードに応じた色調の調整などの各種の画像処理を行う。なお、画像処理装置106の機能の少なくとも一部は、CPU103によるソフトウエア処理で実現してもよい。
次に、図2を参照して、本実施形態における流し撮り成功割合の算出処理について説明する。図2(a)は、流し撮り成功割合の算出処理を示すフローチャートである。図2(b)は、図2(a)のステップS207の詳細を示すフローチャートである。図2(a)、(b)の各ステップは、主に、CPU103の各部により実行される。
まず、ステップS201において、CPU103はフレーム(フレーム画像)を取得する。CPU103は、例えば、図4の撮影前フレーム(a−1)として示されるように、流し撮りの本撮影の前のフレーム画像を取得する。なおステップS201は、後述のように複数回実行されるため、図4の撮影前フレーム(a−1)よりも前に、複数のフレームが存在する。続いてステップS202において、CPU103は、ステップS201にて取得したフレーム画像から被写体(被写体情報)を検出する。なお、被写体の検出に関しては、例えば特許文献1に開示されているような、フレーム画像から得られた動きベクトルを用いて被写体エリアを抽出する手法など種々の方法が知られているため、ここでの説明は省略する。
続いてステップS203において、CPU103は、流し撮りの本撮影の露光動作を行うか否かを判定する。本実施形態において、CPU103は、操作部110に含まれるシャッターボタンの全押し(以降、S2と表記)がなされたか否かを判定する。全押しS2が行われていない場合、CPU103はステップS201、S202の動作を繰り返し行い、図4の撮影前フレーム(a−1)、(a−2)のような画像を順次取得する。一方、ステップS203にて全押しS2がなされた場合、ステップS204へ進む。
ステップS204において、CPU103(取得手段103a)は、露光前情報211を取得する。図5は、本実施形態における露光前後の情報の説明図である。本実施形態において、CPU103は、図5中のフレーム(a)として示されるように、画面を等間隔に分割して複数のブロック(被写体ブロック、背景ブロック)を設定する。CPU103は、最後に実施したステップS202にて得られた被写体情報に基づいて、複数のブロックのうち被写体が属するブロック(被写体ブロック)の位置を露光前情報211として記憶する。露光前情報211は、例えば一次記憶装置104に記憶される。
続いてステップS205において、CPU103は、流し撮りの露光動作を開始する。CPU103は、例えば、光学系101に含まれるシャッタを制御する。続いてステップS206において、CPU103は、露光時間として予め定められた露光時間が経過したか否かを判定する。露光時間が経過していない場合、露光時間が経過するまでステップS206を繰り返す。一方、露光時間が経過した場合、ステップS207へ進む。ステップS207において、CPU103は、流し撮りの露光動作を終了する。続いてステップS208において、CPU103(取得手段103a)は、ステップS204と同様に、露光後情報212を取得する。
ここで、図2(b)を参照して、露光後情報212の取得方法(ステップS208)について詳述する。図2(b)は、露光後情報212の取得方法(ステップS208)のフローチャートである。
まず、ステップS2081において、CPU103は、フレームを取得する。CPU103は、例えば図4中の撮影後フレーム(a−3)、(a−4)として示されるような画像を取得する。なお、ここで取得した画像に関しては、必ずしも撮影者に見えるように表示する必要はない。続いてステップS2082において、CPU103は、被写体(被写体情報)を検出する。CPU103は、例えばステップS202と同様に、ステップS2081にて取得された撮影後フレーム(a−3)、(a−4)から被写体エリアを抽出することにより被写体を検出する。続いてステップS2083において、CPU103は、ステップS2082にて取得した被写体情報に基づいて、露光後情報212を取得する。本実施形態において、CPU103は、ステップS204と同様に露光後情報212を取得する。例えばCPU103は、図5中のフレーム(b)として示されるように、ステップS2082にて得られた被写体情報に基づいて、画面を等間隔に分割して得られた複数のブロックのうち被写体が属するブロックの位置を露光後情報212として記憶する。露光後情報212は、例えば一次記憶装置104に記憶される。
続いて、図2(a)のステップS209において、CPU103(算出手段103b)は、流し撮り成功割合を算出する。ここで、図5を参照して、本実施形態における流し撮り成功割合の算出処理を説明する。流し撮りの際には、前述のように適切な速度で撮像装置100(カメラ)を動かすことにより、撮像装置100が被写体を追うことができている状態である必要がある。被写体を追うことができている場合、撮像装置100の撮像面上(撮像素子102の面上)における被写***置は、常に一定の位置にあることになる。例えば、露光前の被写体が図5中のフレーム(a)に示される位置にある場合、露光後の被写体はフレーム(b)のように、画面に対する被写***置がフレーム(a)と同等の位置となっている必要がある。一方、流し撮りが失敗している場合、撮像装置100が被写体を適切に追うことができていないため、露光後の被写体はフレーム(c)のように、被写***置がフレーム(a)とは異なる位置になっている可能性が高い。そこで本実施形態では、露光前後の被写***置を比較することにより、流し撮りの成功割合を算出する。なお、被写***置の検出方法としては、前述のように、特許文献1のようにフレーム画像から得られた動きベクトルを用いて被写体エリアを抽出する手法など、種々の方法が知られているため、ここでの説明は省略する。
本実施形態では、例えば露光前後でどの程度被写体領域が重なっているかを判定することにより、流し撮りの成功割合を算出することが可能である。まず、図5中のフレーム(a)においては、画面を等間隔に分割して得られた複数のブロックのうち、実線で示される被写体ブロックが4ブロック存在している。一方、図5のフレーム(b)においては、図5のフレーム(a)の被写体ブロックと重複した位置にある被写体ブロックの数は4である。このときの流し撮り成功割合Rは、例えば以下の式(1)のように算出される。
一方、例えば図5のフレーム(c)においては、フレーム(a)の被写体ブロックと重複した位置にある被写体ブロックの数は2である。このときの流し撮り成功割合Rは、例えば以下の式(2)のように算出される。
このように本実施形態において、制御装置(CPU103)は、取得手段103aおよび算出手段103bを有する。取得手段103aは、撮像装置の流し撮り撮影の開始前の第1の画像(本撮影前の画像)から第1の情報(露光前情報211)を取得し、撮像装置の流し撮り撮影の終了後の第2の画像(本撮影後の画像)から第2の情報(露光後情報212)を取得する。算出手段は、第1の情報と第2の情報とに基づいて、流し撮りが成功したか否かに関するデータを算出する。
好ましくは、算出手段103bは、流し撮りが成功したか否かに関するデータとして、流し撮り成功割合(成功度合い)を算出する。また好ましくは、取得手段103aは、第1の情報として、第1の画像から被写体領域(主被写体を含む領域)に関する情報を取得し、第2の情報として、第2の画像から被写体領域に関する情報を取得する。より好ましくは、取得手段103aは、被写体領域に関する情報として、移動体(移動被写体)を含む領域に関する情報を取得する。また好ましくは、取得手段103aは、被写体領域に関する情報として、被写体領域の位置(被写体ブロック)に関する情報を取得する。
本実施形態によれば、露光前の被写体情報(露光前情報211)および露光後の被写体情報(露光後情報212)に基づいて、流し撮り成功割合の算出を行うことができる。また、流し撮りの前後の被写体情報を利用することにより、被写体の検出が流し撮りの成功または失敗の影響を受けず、かつ、流し撮り成功割合の算出処理において同等の条件で撮影した画像に基づいて判定を行うことが可能である。
(第2の実施形態)
次に、図3を参照して、本発明の第2の実施形態について説明する。本実施形態において、光学系101は、光軸と直交する方向に移動することが可能なシフトレンズを含む。本実施形態の撮像装置100は、シフトレンズを移動させることにより、被写体の移動速度と撮像装置100の移動速度との差を吸収して撮影者の流し撮りを補助する機能を有する。
図3は、本実施形態における流し撮り成功割合の算出処理を示すフローチャートである。図3の各ステップは、主に、CPU103の指令に基づいて実行される。図3において、シフトレンズ駆動(ステップS306)およびシフトレンズセンタリング(ステップS311)が追加されている点で、図2を参照して説明した第1の実施形態とは異なる。なお、図3の他のステップS301〜S305、S307〜S310は、図2のステップS201〜S209とそれぞれ同様であるため、それらの説明については省略する。
ステップS306において、CPU103は、シフトレンズを駆動する。シフトレンズの駆動により、被写体の移動速度と撮像装置100の移動速度との差を吸収して撮影者の流し撮りを補助することができる。なお、流し撮りの補助に関しても、例えば特許文献1に開示されているような、被写体の動きベクトルをシフトレンズの移動量に換算してシフトレンズを駆動する手法などの種々の方法が知られているため、ここでの説明は省略する。
このようにして撮影者の流し撮りの補助が行われるが、撮影が完了した際には、次の撮影のためにシフトレンズの位置を初期位置に戻す必要がある。このため、ステップS311において、CPU103はシフトレンズのセンタリングを行う。シフトレンズセンタリング動作を行った場合、撮像される画像の撮像面上の位置も同様に動いてしまう。このとき、撮像面上の被写体の位置も変化するため、前述したような流し撮り成功割合の算出を行うことが難しい。このため、ステップS309における露光後情報212の取得よりも後にシフトレンズのセンタリングを行うことにより、流し撮り成功割合を容易かつ正確に算出することができる。
このように本実施形態において、駆動手段103cは、流し撮りを補助するように、撮像光学系の光軸と直交する方向にシフトレンズを駆動する。好ましくは、駆動手段103cは、取得手段103aが第2の情報(露光後情報212)を取得した後に、シフトレンズを初期位置に駆動する(センタリングを行う)。このため本実施形態によれば、シフトレンズの移動による撮影者の流し撮りを補助しながら、流し撮り成功割合の算出処理を行うことが可能である。
(第3の実施形態)
次に、図6を参照して、本発明の第3の実施形態について説明する。第1の実施形態では、露光前情報および露光後情報として被写体が属する画面内のブロック(被写体ブロック)の情報を利用する方法を説明したが、本実施形態では、露光前情報および露光後情報として被写体領域内の輝度情報を利用する方法を説明する。図6は、本実施形態における露光前情報および露光後情報の説明図である。
本実施形態では、ステップS203における露光前情報211として、画面を等間隔に分割して得られた複数のブロックのうち被写体が属するブロック(被写体ブロック)の輝度ヒストグラムを記憶する。このとき、例えば図6中の画像データ(a−2)から、輝度と度数との関係を示すヒストグラム(a−3)が取得される。露光後情報212も同様に、画像データ(b−2)または(c−2)から、ヒストグラム(b−3)、(c−3)がそれぞれ取得される。
ここで、例えば、ヒストグラム(a−3)、(b−3)、(c−3)をそれぞれH、H、Hとすると、流し撮り成功割合R、Rは例えば以下の式(3)、(4)のようにそれぞれ算出される。
式(3)、(4)において、Min(a,b)は、a、bのうち小さいほうの値を選択することを意味する。なお本実施形態において、ヒストグラムH、H、Hのそれぞれを画素値0〜255の度数で表しており、ある画素値xの度数をH[x]として表している。
このようにして、露光前の被写体情報(露光前情報211)および露光後の被写体情報(露光後情報212)に基づいて、流し撮り成功割合を算出することができる。なお本実施形態において、被写***置は露光前に取得してあり、露光後の再取得を行わない。このため、露光後に取得するフレームは最低1フレームで済むという利点がある。
本実施形態の取得手段103aは、被写体領域に関する情報として、被写体領域の輝度情報(被写体領域の画素値)を取得する。そして算出手段103bは、流し撮り成功割合の算出を行うため、被写体領域に限定して画素値の差分を算出する。流し撮りにおいて、被写体は常に撮像面の同じ位置に撮像されていることが理想であるが、背景は流れているため、背景が撮像される位置は変化する。本実施形態によれば、被写体領域に限定して露光前後の被写体情報を比較することにより、流し撮り成功割合を算出することが可能となる。
(第4の実施形態)
次に、図7を参照して、本発明の第4の実施形態について説明する。本実施形態では、露光前情報および露光後情報として被写体領域のベクトル情報を利用する方法を説明する。図7は、本実施形態における露光前情報および露光後情報の説明図である。
例えば、図2のステップS201の被写体検出において、特許文献1に開示されている方法などにより、CPU103は、図7中のフレーム(a−1)のように、各ブロック内の動きベクトルを算出する。そしてCPU103は、算出された動きベクトルの中から被写体領域における動きベクトルを抽出する。続いて、CPU103は、移動量ごとにヒストグラムを取ることにより、ヒストグラム(a−2)を得ることができる。露光後情報も同様に、図7のヒストグラム(b−2)、(c−2)が得られる。例えば、ヒストグラム(a−2)、(b−2)、(c−2)の度数をそれぞれH、H、Hとすると、流し撮り成功割合R、Rは例えば以下の式(5)、(6)のようにそれぞれ算出される。
なお本実施形態では、ヒストグラムHにおける、あるベクトル量xの度数をH[x]として表しており、これを全移動量に対して積分する。
このように本実施形態において、取得手段103aは、被写体領域に関する情報として、被写体領域の移動量に関する情報(動きベクトル、ベクトル情報)を取得する。好ましくは、取得手段103aは、被写体領域の移動量に関する情報として、第1の画像に関する第1の移動量(第1のベクトル情報)と第2の画像に関する第2の移動量(第2のベクトル情報)とを取得する。そして算出手段103bは、第1の移動量と第2の移動量とを比較して(第1の移動量と第2の移動量との類似度に基づいて)、流し撮り成功割合を算出する。
このようにして、露光前の被写体情報(露光前情報211)と露光後の被写体情報(露光後情報212)とに基づいて、流し撮り成功割合の算出を行うことができる。なお本実施形態の方法によれば、第1の実施形態や第2の実施形態よりも、被写体のサイズや被写体のコントラストの影響を受けにくい。
(第5の実施形態)
次に、図8を参照して、本発明の第5の実施形態について説明する。本実施形態では、露光前情報および露光後情報として露光前および露光後の動きベクトルを利用する方法を説明する。第4の実施形態では、図4の撮影前フレーム(a−1)、(a−2)間で算出された動きベクトル、および、撮影後フレーム(a−3)、(a−4)間で算出された動きベクトルの類似度を判定した。一方、本実施形態では、撮影前フレーム(a−2)と撮影後フレーム(a−3)との間で動きベクトルを算出する。
図8は、本実施形態における露光前情報および露光後情報の説明図である。例えば、図2のステップS204にて取得される露光前情報211として、動きベクトルを算出するために必要な情報を保持する。ステップS208の露光後情報212に関しても同様に、動きベクトルを算出するために必要な情報を保持する。ステップS209の成功割合の算出の際に、CPU103は、露光前情報211および露光後情報212を利用して、被写体領域における動きベクトルを算出する。ここで、流し撮りの際に、被写体に関しては移動速度に合わせて撮像装置100を追従させているため、理想的には動きベクトルは小さくなる。
そこで、図8中のヒストグラム(b−2)または(c−2)のように動きベクトルの度数をそれぞれH、Hとすると、流し撮り成功割合R、Rは例えば以下の式(7)、(8)ようにそれぞれ算出される。
(|x|はxの絶対値)
式(7)、(8)において、|x|はxの絶対値を示す。また式(7)、(8)において、Nは任意の定数であり、R、Rはそれぞれ0以上1以下の値を取る。また、ヒストグラムHにおける、あるベクトル量xの度数をH[x]として表わしており、これを全ベクトル量に対して積分する。
このように本実施形態において、取得手段103aは、第1の画像(本撮影前の画像)と第2の画像(本撮影後の画像)とを比較して被写体領域の移動量に関する情報(ベクトル情報)を取得する。このため本実施形態によれば、露光前の被写体情報(露光前情報211)および露光後の被写体情報(露光後情報212)に基づいて、流し撮り成功割合の算出を行うことができる。なお、本実施形態では、第3の実施形態と同様に、被写体のサイズや被写体のコントラストの影響を受けにくい。また、第2の実施形態と同様に、露光後に取得するフレームは最低1フレームで済むという利点がある。
(第6の実施形態)
次に、図9を参照して、本発明の第6の実施形態について説明する。第1から第5の実施形態では、被写体が静止した状態で流し撮り画像を撮影することができたか否かに着目したが、本実施形態のように背景の流し量に対する評価値を算出することも可能である。図9は、本実施形態における露光前情報および露光後情報の説明図である。第5の実施形態では被写体領域の動きベクトルを算出していたが、本実施形態では背景領域の動きベクトルを算出する。これにより、図9のヒストグラム(b−2)、(c−2)のような、背景の動きベクトルのヒストグラムを取得することができる。
このようにして得られた背景領域の移動量から、例えば図9のヒストグラム(b−2)、(c−2)として示される動きベクトルの度数をそれぞれH、Hとする。このとき、以下の式(9)、(10)で表されるように、流し撮り成功割合R、Rと掛け合わせてR’、R’を算出することができる。
式(9)、(10)において、Nは任意の定数である。
このように本実施形態において、取得手段103aは、第1の情報として、第1の画像から背景領域(背景を含む領域)の移動量に関する情報を取得し、第2の情報として、第2の画像から背景領域の移動量に関する情報(ベクトル情報)を取得する。このため本実施形態によれば、背景の流し量に対する評価値(背景領域の移動量に関する情報)を算出することにより、被写体が静止しており、かつ背景の流し量が多いほど高い成功割合として算出することができる。なお、第1から第6の実施形態において、種々の流し撮り成功割合の算出方法を説明したが、各算出方法において例えば被写体のサイズや撮影モードに応じて特定の方法を選択し、または複数の算出方法を組み合わせることも可能である。
(第7の実施形態)
次に、図10を参照して、本発明の第7の実施形態について説明する。第1から第6の実施形態では、流し撮り成功割合の算出方法を説明したが、本実施形態では、算出された流し撮り成功割合の利用方法を説明する。図10は、本実施形態における流し撮り成功割合の利用方法の説明図である。
例えば流し撮り成功割合として、図10中のフレーム(a)、(b)、(c)、(d)に示されるように、0.98、0.60、0.50、0.90という値がそれぞれ得られたとする(数値が高いほうがより流し撮り成功割合が高い)。画像を記録する際に、撮影画像とともに流し撮り成功割合を合わせて保存させることにより、画像の閲覧ツールなどにおいて、保存した成功割合を参照することができる。例えば、撮影者が流し撮り画像を選択する際に、ソート順を「流し撮り成功割合順」とした場合、図10中のフレーム(e)、(f)、(g)、(h)のように、流し撮り成功割合の高い順にソートする。これにより、撮影者が簡易に適した流し撮り画像を選択することができる。
本実施形態において、記録制御手段103dは、流し撮りによる画像データと流し撮り成功割合とを関連付けて記録媒体107に記録する。すなわち、撮影の際に算出した流し撮り成功割合を画像に記録する(付帯させる)ことにより、後から撮影者が画像を選択する際の手間を軽減させることが可能となる。
(第8の実施形態)
次に、図11を参照して、本発明の第8の実施形態について説明する。本実施形態では、第7の実施形態と同様に、流し撮り成功割合の他の利用方法を説明する。図11は、本実施形態における流し撮り成功割合の利用方法の説明図である。
本実施形態では、流し撮りの連写において、図11中のフレーム(a−1)、(a−2)から検出された被写体の移動速度に基づいて、シフトレンズを光軸と直交する方向に移動させて光学補正を行い、撮影者の流し撮りを補助する場合を考える。まず、検出された被写体の移動速度を更新せずに連写し続ける場合を考えると、連写中に被写体の移動速度が変化した際に、以降の撮影で図11中の撮影画像(d)のような失敗画像を量産してしまう可能性がある。一方、毎回被写体を検出して移動速度を更新する場合、処理が増加するため、連写速度が低下する可能性がある。
そこで、例えば流し撮りごとに図11中のフレーム(a−3)、(a−4)、(a−5)を取得し、各フレームに関して流し撮り成功割合を算出すると、図11中の撮影画像(d)の撮影においては、流し撮り成功割合が低くなる。ここで、例えば流し撮り成功割合が一定の閾値よりも低くなった場合、一度連写を中断してから再検出を行うことにより、連写速度を維持しつつ流し撮り成功画像を取得しやすくすることができる。
このように本実施形態において、算出手段103bは連写撮影ごとに流し撮り成功割合を算出し、駆動手段103cは流し撮り成功割合に応じて動作を変更する。このため本実施形態によれば、連写速度を維持しながら、失敗画像が発生する頻度を軽減することが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施形態によれば、流し撮りの際に、撮影画像の成否を判定するための流し撮り成功割合を算出することが可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
103 CPU(制御装置)
103a 取得手段
103b 算出手段

Claims (18)

  1. 撮像装置の流し撮り撮影の開始前の第1の画像から第1の情報を取得し、前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得する取得手段と、
    前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出する算出手段と、を有することを特徴とする制御装置。
  2. 前記算出手段は、前記流し撮り撮影が成功したか否かに関するデータとして、流し撮り成功割合を算出することを特徴とする請求項1に記載の制御装置。
  3. 前記取得手段は、
    前記第1の情報として、前記第1の画像から被写体領域に関する情報を取得し、
    前記第2の情報として、前記第2の画像から前記被写体領域に関する情報を取得することを特徴とする請求項1または2に記載の制御装置。
  4. 前記取得手段は、前記被写体領域に関する情報として、移動体を含む領域に関する情報を取得することを特徴とする請求項3に記載の制御装置。
  5. 前記取得手段は、前記被写体領域に関する情報として、該被写体領域の位置に関する情報を取得することを特徴とする請求項3または4に記載の制御装置。
  6. 前記取得手段は、前記被写体領域に関する情報として、該被写体領域の輝度情報を取得することを特徴とする請求項3または4に記載の制御装置。
  7. 前記取得手段は、前記被写体領域に関する情報として、該被写体領域の移動量に関する情報を取得することを特徴とする請求項3または4に記載の制御装置。
  8. 前記取得手段は、前記被写体領域の前記移動量に関する情報として、前記第1の画像に関する第1の移動量と前記第2の画像に関する第2の移動量とを取得し、
    前記算出手段は、前記第1の移動量と前記第2の移動量とを比較して、前記流し撮り撮影が成功したか否かに関するデータを算出することを特徴とする請求項7に記載の制御装置。
  9. 前記取得手段は、前記第1の画像と前記第2の画像とを比較して前記被写体領域の前記移動量に関する情報を取得することを特徴とする請求項7に記載の制御装置。
  10. 前記取得手段は、
    前記第1の情報として、前記第1の画像から背景領域の移動量に関する情報を取得し、
    前記第2の情報として、前記第2の画像から前記背景領域の移動量に関する情報を取得することを特徴とする請求項1または2に記載の制御装置。
  11. 撮像光学系の光軸と直交する方向にシフトレンズを駆動する駆動手段を更に有し、
    前記駆動手段は、前記流し撮り撮影を補助するように前記シフトレンズを駆動することを特徴とする請求項1乃至10のいずれか1項に記載の制御装置。
  12. 前記駆動手段は、前記取得手段が前記第2の情報を取得した後に、前記シフトレンズを初期位置に駆動することを特徴とする請求項11に記載の制御装置。
  13. 前記駆動手段は、前記流し撮り撮影が成功したか否かに関するデータに応じて動作を変更することを特徴とする請求項11または12に記載の制御装置。
  14. 前記流し撮り撮影による画像データと該流し撮り撮影が成功したか否かに関するデータとを関連付けて記録手段に記録する記録制御手段を更に有することを特徴とする請求項1乃至12のいずれか1項に記載の制御装置。
  15. 撮像光学系を介して形成された光学像を光電変換する撮像素子と、
    撮像装置の流し撮り撮影の開始前の第1の画像から第1の情報を取得し、前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得する取得手段と、
    前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出する算出手段と、を有することを特徴とする撮像装置。
  16. 撮像装置の流し撮り撮影の開始前の第1の画像から第1の情報を取得するステップと、
    前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得するステップと、
    前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出するステップと、を有することを特徴とする制御方法。
  17. 撮像装置の流し撮り撮影の開始前の第1の画像から第1の情報を取得するステップと、
    前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得するステップと、
    前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出するステップと、をコンピュータに実行させることを特徴とするプログラム。
  18. 請求項17に記載のプログラムを記憶していることを特徴とするコンピュータが読み取り可能な記憶媒体。
JP2017093648A 2017-05-10 2017-05-10 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 Active JP6833607B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017093648A JP6833607B2 (ja) 2017-05-10 2017-05-10 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017093648A JP6833607B2 (ja) 2017-05-10 2017-05-10 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体

Publications (3)

Publication Number Publication Date
JP2018191205A JP2018191205A (ja) 2018-11-29
JP2018191205A5 JP2018191205A5 (ja) 2020-05-21
JP6833607B2 true JP6833607B2 (ja) 2021-02-24

Family

ID=64480381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017093648A Active JP6833607B2 (ja) 2017-05-10 2017-05-10 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体

Country Status (1)

Country Link
JP (1) JP6833607B2 (ja)

Also Published As

Publication number Publication date
JP2018191205A (ja) 2018-11-29

Similar Documents

Publication Publication Date Title
JP5507014B2 (ja) 動体検出装置及び方法
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
JP6157242B2 (ja) 画像処理装置及び画像処理方法
JP5484631B2 (ja) 撮像装置、撮像方法、プログラム、及びプログラム記憶媒体
EP1998558B1 (en) Image pickup apparatus equipped with function of detecting image shaking
JP5029137B2 (ja) 撮像装置及びプログラム
JP6671994B2 (ja) 撮像装置およびその制御方法、プログラム、記憶媒体
US20060210264A1 (en) Imaging apparatus and method for controlling display device
JP6497987B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
WO2010128579A1 (ja) 電子カメラ、画像処理装置及び画像処理方法
US8411159B2 (en) Method of detecting specific object region and digital camera
JP2006211139A (ja) 撮像装置
JP2009115981A (ja) 撮影装置、その制御方法およびプログラム
JP6338424B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
US10212348B2 (en) Image processing apparatus, its control method, image capturing apparatus, and storage medium
JP2006067452A (ja) 映像記録装置、および電子カメラ
JP2019083364A (ja) 画像処理装置、撮像装置および制御方法
US10212349B2 (en) Imaging apparatus and control method
JP4807623B2 (ja) 撮像装置、撮像方法及び撮像プログラム
JP6833607B2 (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP2009152725A (ja) 自動追跡装置及び方法
JP5446660B2 (ja) 画像認識装置、および、撮像装置
JP7254555B2 (ja) 撮像装置および撮像装置の制御方法
US10681274B2 (en) Imaging apparatus and control method thereof
JP5301690B2 (ja) 撮影装置および方法並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6833607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151