JP2013132065A - 撮像装置及びフラッシュ制御方法 - Google Patents
撮像装置及びフラッシュ制御方法 Download PDFInfo
- Publication number
- JP2013132065A JP2013132065A JP2013021760A JP2013021760A JP2013132065A JP 2013132065 A JP2013132065 A JP 2013132065A JP 2013021760 A JP2013021760 A JP 2013021760A JP 2013021760 A JP2013021760 A JP 2013021760A JP 2013132065 A JP2013132065 A JP 2013132065A
- Authority
- JP
- Japan
- Prior art keywords
- face
- flash
- light source
- image
- perform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Exposure Control For Cameras (AREA)
- Stroboscope Apparatuses (AREA)
- Studio Devices (AREA)
Abstract
【課題】 逆光またはトップライト現象が起きている場合であっても、被写体と背景の露出が共に適正な画像を得ること。
【解決手段】 フラッシュ撮影を行うことが可能な撮像装置であって、撮像素子(101)から得られる画像信号の画像から顔領域を検出する顔検出部(114)と、検出された顔領域における輝度に基づいてフラッシュ撮影を行うかを決定する制御手段(115)と、画像信号から光源を推定する推定手段(103)とを有し、制御手段は、顔領域の一部が明るくとも前記フラッシュ撮影を行うことを決定するものであり、フラッシュ撮影を行うことを決定する条件として、顔領域を分割した分割領域のうち、目を含む分割領域の輝度が露出アンダーを示すこと、及び、分割領域のうち、予め設定された2つの領域の輝度差が閾値以上であることの少なくともいずれかであって、且つ、前記推定された光源が予め設定された光源であることを含む。
【選択図】 図1
【解決手段】 フラッシュ撮影を行うことが可能な撮像装置であって、撮像素子(101)から得られる画像信号の画像から顔領域を検出する顔検出部(114)と、検出された顔領域における輝度に基づいてフラッシュ撮影を行うかを決定する制御手段(115)と、画像信号から光源を推定する推定手段(103)とを有し、制御手段は、顔領域の一部が明るくとも前記フラッシュ撮影を行うことを決定するものであり、フラッシュ撮影を行うことを決定する条件として、顔領域を分割した分割領域のうち、目を含む分割領域の輝度が露出アンダーを示すこと、及び、分割領域のうち、予め設定された2つの領域の輝度差が閾値以上であることの少なくともいずれかであって、且つ、前記推定された光源が予め設定された光源であることを含む。
【選択図】 図1
Description
本発明は撮像装置及びフラッシュ制御方法に関し、更に詳しくは、撮影した画像から検出した顔領域に応じて、フラッシュの発光制御を行う撮像装置及びフラッシュ制御方法に関する。
従来、デジタルカメラにおいて、撮影して得られた画像データに基づいて自動的に露出を決定する自動露出制御機能を備えた撮像装置がある。自動露出制御の為に行われる測光方式として、例えば、画面全体を考慮して行う測光や、画面内の測光領域を複数のブロックに分割し、各ブロックの測光を行う多分割測光がある。他にも、画面の中央部に重点を置いて測光を行う中央重点測光や、画面の中央部の任意の範囲のみ測光するスポット測光などがある。しかしながら、これらの測光方式では、一般的に主被写体となることが多い、人物を適正に露光できないことがあった。
そこで、主被写体の輝度が適正になるようにするために、ユーザーに主被写体が存在するエリアを指示させ、指示されたエリアの輝度に合わせて露出を調節するものがある。更に、撮影して得られた画像データの中から形状解析等の手法によって主被写体として例えば顔を自動的に検出し、検出された顔が適正な露出になるように、露出制御を行うカメラが提案されている(例えば、特許文献1を参照)。このカメラでは、画面全体の輝度が適正でも、顔が露出アンダーであれば画面全体を明るくし、顔がオーバーであれば画面全体を暗くする。このように、どのようなシーンにおいても、主被写体の輝度が適正になるように撮影を行うことができる。
また、フラッシュ撮影時においても、テスト発光して得た画像から顔を検出し、顔領域が適正な露出になるように露出制御を行うカメラも提案されている(例えば、特許文献2を参照)。
更に、逆光であるかどうかを判断し、逆光であると判断した場合に、自動的にフラッシュ撮影を行う撮像装置も従来市販されている。
しかしながら、上記特許文献1に開示されている方法では、検出した顔の輝度が適正になるように露出を制御するため、顔の輝度は適正になっても、背景の露出がオーバーまたはアンダーになってしまうことがある。図9は、顔が露出アンダーで背景がオーバーである場合に、顔の輝度が適正になるように露出制御することにより、背景のオーバーが悪化する例を示している。このような場合、画像全体として見た場合には失敗画像となってしまうといった問題があった。
また、逆光時に自動的にフラッシュ撮影を行う撮像装置では、上部からの照明(トップライト)により顔領域に影が生じる現象(以下、「トップライト現象」と呼ぶ。)では顔の一部が明るいために「逆光」と判断されないことがあった。その結果、フラッシュ撮影が行われず、顔の輝度が十分とならない場合があった。例えば、日中の屋外で帽子を被った場合には、逆光でなくても顔領域に大きく影が生じ、顔が暗く写ってしまうことがある。
また、特許文献2に開示されている発明では、日中の屋外で人物撮影を行う通常の撮影ではフラッシュ撮影が必要であると判断されず、逆光時やトップライト現象が起きている場合には顔が暗く写ってしまう。
本発明は上記問題点を鑑みてなされたものであり、本発明のフラッシュを用いたフラッシュ撮影を行うことが可能な撮像装置は、撮像素子から得られる画像信号の画像から顔領域を検出する顔検出手段と、前記顔検出手段により検出された顔領域における輝度に基づいてフラッシュ撮影を行うかを決定する制御手段と、前記画像信号から光源を推定する推定手段とを有し、前記制御手段は、前記顔領域の一部が明るくとも前記フラッシュ撮影を行うことを決定するものであり、前記フラッシュ撮影を行うことを決定する条件として、前記顔領域を分割した分割領域のうち、目を含む前記分割領域の輝度が露出アンダーを示すこと、及び、前記分割領域のうち、予め設定された2つの領域の輝度差が閾値以上であることの少なくともいずれかであって、且つ、前記推定された光源が予め設定された光源であることを含む。
本発明によれば、逆光またはトップライト現象が起きている場合であっても、被写体と背景の露出が共に適正な画像を得ることができる。
以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。
図1は、画像処理装置の一例として、本発明の第1の実施形態における顔検出機能を備えた撮像装置の機能構成を示す概略ブロック図である。
図1において、101はCCDセンサやCMOSセンサ等から成る固体撮像素子であり、その表面は、例えばベイヤー配列のRGBカラーフィルタにより覆われ、カラー撮影が可能な構成となっている。102はメモリで、撮像素子101から得られた画像信号を一旦記憶する。
114は顔検出部であり、メモリ102に記憶された画像信号から、顔領域を検出する。なお、顔領域を検出する技術としては様々な手法が提案されており、顔の位置およびサイズ情報を取得できればどのような手法を用いてもよく、本発明は、顔検出の手法により制限されるものではない。例えば、ニューラルネットワークに代表される学習を用いた方法や、目や鼻と言った物理的形状に特徴のある部位を画像領域からテンプレートマッチングで抽出する手法が知られている。他にも、肌の色や目の形といった画像特徴量を検出し、統計的手法を用いて解析する手法が挙げられる(例えば、特開平10−232934号公報、特開2000−48184号公報を参照)。他に、現在製品として提案されているものとしては、ウェーブレット変換と画像特徴量を利用して顔検出する方法等や、テンプレートマッチング等を組み合わせた方法などがある。
ここで、顔検出の手法として、パターン認識の一つであるテンプレートマッチングについて説明する。パターン認識とは、観測されたパターンをあらかじめ定められた概念(クラス)の一つに対応させる処理である。図2は、パターン認識処理のフローチャートであり、顔検出部114によって実行される。
先ず、メモリ102から画像データを読み出して前処理し(ステップS1)、前処理された画像データから特徴的部分のパターンを抽出する(ステップS2)。そして、抽出されたパターンをテンプレート(標準パターン)に対応させる(テンプレートマッチング)。例えば、図3に示すように特徴的部分のパターン63が抽出された場合、テンプレート61の中心点62を取得したパターン63のある座標点(i,j)に置く。そして、中心点62のパターン63における位置をずらしながら、テンプレート61とパターン63との重なり部分の類似度を計算していき、類似度が最大になる位置を決定する。パターン63を例えば目や耳等の形状を含むテンプレート61にマッチングさせることにより、目の位置情報や顔領域(顔座標)を取得することができる。
このようにして、認識パターンを取得して(ステップS3)、取得した認識パターンを出力し(ステップS4)、パターン認識処理を終了する。
図1の説明に戻る。CPU115では、顔検出部114から送られた信号に基づいて、顔が検出されていれば、顔が最適な明るさになるようなシャッタースピードTv、絞り値Avを計算し、また顔に合焦するようにフォーカスレンズ駆動量を計算する。更に、フラッシュ116の発光/非発光の判断も行う。一方、顔が検出されていなければ、CPU115は画像全体が最適な明るさになるようなシャッタースピードTv、絞り値Avを計算すると共に、予め設定された合焦領域内にある被写体に合焦するようなフォーカスレンズ駆動量を計算する。CPU115で計算された露出値(Tv、Av)及びフォーカスレンズ駆動量、フラッシュ116の発光/非発光の判断結果は制御回路113に送られる。そして、これら各値に基づいて不図示のレンズや絞り、シャッター、撮像素子101、フラッシュ116がそれぞれ制御される。
103はホワイトバランス(WB)制御部であり、メモリ102に記憶された画像信号及び顔検出部114から得られる顔情報に基づいてWB補正値を算出し、算出したWB補正値を用いて、メモリ102に記憶された画像信号に対してWB補正を行う。なお、このWB制御部103で用いられるWB補正値の算出方法については、詳細に後述する。
104は、WB制御部103によりWB補正された画像信号が最適な色で再現されるように色ゲインをかけて色差信号R−Y、B−Yに変換する色変換マトリックス(MTX)回路である。105は色差信号R−Y、B−Yの帯域を制限するローパスフィルタ(LPF)回路、106はLPF回路105で帯域制限された画像信号の内、飽和部分の偽色信号を抑圧するCSUP(Chroma Supress)回路である。
一方、WB制御部103によりWB補正された画像信号は輝度信号(Y)生成回路111にも出力されて輝度信号Yが生成され、生成された輝度信号Yに対してエッジ強調回路112にてエッジ強調処理が施される。
CSUP回路106から出力される色差信号R−Y、B−Yと、エッジ強調回路112から出力される輝度信号Yは、RGB変換回路107にてRGB信号に変換され、ガンマ補正回路108にて階調補正が施される。その後、色輝度変換回路109にてYUV信号に変換され、更に圧縮回路110にて例えばJPEG圧縮されて、外部記録媒体または内部記録媒体に画像信号として記録される。
次に、本実施の形態におけるWB補正値の算出方法について図4を参照して説明する。
まず、WB制御部103はメモリ102に記憶された画像信号を読み出し、その画面を図5のような任意のm個のブロック(分割領域)に分割する(ステップS101)。そして、各ブロック(1〜m)毎に、画素値を色毎に加算平均して色平均値(R[i]、G[i]、B[i])を算出し、式(1)を用いて色評価値(Cx[i]、Cy[i])を算出する(ステップS102)。
Cx[i] = (R[i] - B[i]) / Y[i] × 1024
Cy[i] = (R[i] + B[i]) - 2G[i]/ Y[i] × 1024 …(1)
ただし、Y[i] = R[i] + 2G[i] + B[i]、[i]は各ブロックのインデックス番号
Cx[i] = (R[i] - B[i]) / Y[i] × 1024
Cy[i] = (R[i] + B[i]) - 2G[i]/ Y[i] × 1024 …(1)
ただし、Y[i] = R[i] + 2G[i] + B[i]、[i]は各ブロックのインデックス番号
次に、ステップS102で算出したi番目のブロックの色評価値(Cx[i]、Cy[i])が、図6に示す予め設定した白検出範囲301に含まれるかどうかを判断する(ステップS103)。白検出範囲301は、予め異なる光源下で白を撮影し、算出した色評価値をプロットしたものである。図6におけるx座標(Cx)の負方向が高色温度被写体の白を撮影したときの色評価値、正方向が低色温度被写体の白を撮影したときの色評価値である。またy座標(Cy)は光源の緑成分の度合いを意味しており、負方向になるにつれG成分が大きくなり、つまり光源が蛍光灯であることを示している。
図6のA領域は外光(Daylight)時の白分布であり、B領域はタングステンなどの低色温度光源分布、C領域は蛍光灯類の分布である。算出した色評価値(Cx[i]、Cy[i])がこの白検出範囲301に含まれる場合には(ステップS103でYES)そのブロックが白色であると判断する。この時、各ブロックがどの領域に多く含まれるかにより、照明を推定することができる。従って、WB制御部103が推定手段を構成している。そして、そのブロックの色平均値(R[i]、G[i]、B[i])を積算していき(ステップS104)、含まれない場合には加算せずにステップS105に進む。このステップS103及びステップS104の処理は、式(2)により表すことができる。
ここで、式(2)において、色評価値(Cx[i]、Cy[i])が白検出範囲301に含まれる場合はSw[i]を1に、含まれない場合にはSw[i]を0とする。このようにして、ステップS103の判断により色平均値(R[i]、G[i]、B[i])の加算を行うか、行わないかの処理を実質的に行っている。
ステップS105では、全てのブロックについて上記処理を行ったかどうかを判断し、未処理のブロックがあればステップS102に戻って上記処理を繰り返し、全てのブロックの処理が終了していればステップS106に進む。
ステップS106では、得られた色評価値の積分値(sumR、sumG、sumB)から、以下の式(3)を用いて、WB補正値(WBCo1_R、WBCo1_G、WBCo1_B)を算出する。
WBCo1_R = sumY × 1024 / sumR
WBCo1_G = sumY × 1024 / sumG …(3)
WBCo1_B = sumY × 1024 / sumB
ただし、sumY = (sumR + 2 × sumG + sumB) / 4
WBCo1_R = sumY × 1024 / sumR
WBCo1_G = sumY × 1024 / sumG …(3)
WBCo1_B = sumY × 1024 / sumB
ただし、sumY = (sumR + 2 × sumG + sumB) / 4
次に、本実施の形態におけるフラッシュ116の発光制御処理について図7のフローチャートを参照して説明する。この図7に示す処理は、撮影前の電子ビューファインダ(EVF)用画像取得時に画像全体の露出が適正となるように制御されている場合に、不図示のシャッターボタンをユーザが操作することによる撮影指示に応じて、CPU115の制御により実行される。即ち、CPU115が判定手段、決定手段、制御手段として機能する。
先ず、ステップS201においてメモリ102に記憶された画像信号を読み出し、ステップS202において、顔検出部114により顔が検出されたか否かを判定する。顔が検出されなかった場合は、ステップS208に進んで通常撮影を行う。
一方、顔が検出された場合、顔検出部114は、メモリ102にから読み出した画像信号の内、顔領域の画像信号を抽出してCPU115に送り、CPU115では、送られた画像信号の輝度値を、図5に示す各ブロック毎に算出する。算出された輝度信号Yの内、顔領域の輝度値を抽出し(ステップS203)、顔領域における暗部の割合が、閾値を超えているかどうかを判定する(ステップS204)。ここで行われる判定について、以下に説明する。
本実施の形態では、顔検出部114で検出された顔領域について、図5に示すブロック毎に輝度値を算出し、算出した輝度値が露出アンダーであるかどうかを判断することにより、顔領域の暗部を検知する。逆光状態では、画面全体を適正露出にした場合、図8(a)に示すように顔領域全体が露出アンダーになり、トップライト現象で顔の一部に影が生じている場合は、図8(b)に示すように顔領域の一部が露出アンダーになる。逆光の場合は顔領域全体が暗くなるので容易に逆光の可能性があると判断できる。トップライトの場合は、顔領域において暗分が占める割合で判断する。すなわち、顔領域のあるブロックが暗部と判定され、顔領域における暗部と判定されたブロックの割合が、例えば、2割以上、8割以下である場合に、トップライト現象が起きている可能性があると判断することができる。トップライト現象を判断するための暗部ブロックの割合については、2割以上8割以下で無くても良く、顔の大きさや構図に応じて、或いは実験によって得られた好適な数値に設定しても良い。
ステップS204で暗部の割合が閾値を超えていない場合は、ステップS208に進んで、通常撮影を行い、超えている場合はステップS205に進む。
ステップS205では、WB制御部103はWB補正値を算出する。先にも述べたように、日中の屋外で人物撮影を行う通常の撮影では、画面全体の輝度が十分に高くフラッシュ撮影が必要であると判断されないため、逆光時やトップライト現象が起きている場合には顔がアンダーに撮影されてしまう。WB制御部103におけるホワイトバランス演算結果を逆光、トップライト現象の判断基準として適用する。上述したように、白ブロックを検出する時に、撮影下の光源を予測することができる。例えば、「白点」であると判断されたブロックが、図6の領域Aに多く分布している場合には、日中の日向のような外光(Daylight)下で撮影が行われていると判断する。従って、ホワイトバランス演算の結果、WB制御部103において日中の日向(Daylight)と判断された場合に(ステップS206でYES)、逆光またはトップライト現象が起きていると判断する。そして、ステップS207に進んでフラッシュ116を用いたフラッシュ撮影を行う。日中の日向(Daylight)と判断されなかった場合には、ステップS208に進んで通常撮影を行う。
以上のように本実施の形態によれば、顔領域における暗部の割合及びホワイトバランス演算結果が外光(Daylight)であるか否かに応じて、逆光及びトップライト現象の判別を行い、フラッシュを発光制御する。これにより、日中の屋外で逆光及びトップライト現象が起きている場合であっても、人物と背景が共に適正に露出された画像を得ることができる。
なお、上記実施の形態においては、光源を推定するために、ホワイトバランスの演算結果を利用する場合について説明したが、これに限るものではなく、どのように光源を推定しても構わない。例えば、光源を推定するための構成を追加してもよい。
<変形例>
上記例では、ステップS204における処理において、顔領域における暗部が占める割合に応じて、逆光またはトップライト現象を判断したが、例えば、以下のような判断条件を用いてもよい。
上記例では、ステップS204における処理において、顔領域における暗部が占める割合に応じて、逆光またはトップライト現象を判断したが、例えば、以下のような判断条件を用いてもよい。
先ず、顔検出結果から目を含むブロックを判断し、そのブロックが暗部である場合に、トップライト現象が起きている可能性があると判断しても良い。これは、頭上に光源が有る場合に、トップライト現象によって目が影になるためである。
また、顔検出結果から目及び口を示すブロックを判断し、これらブロックの輝度差が閾値以上である場合に、トップライト現象が起きている可能性があると判断しても良い。
Claims (3)
- フラッシュを用いたフラッシュ撮影を行うことが可能な撮像装置であって、
撮像素子から得られる画像信号の画像から顔領域を検出する顔検出手段と、
前記顔検出手段により検出された顔領域における輝度に基づいてフラッシュ撮影を行うかを決定する制御手段と、
前記画像信号から光源を推定する推定手段とを有し、
前記制御手段は、前記顔領域の一部が明るくとも前記フラッシュ撮影を行うことを決定するものであり、前記フラッシュ撮影を行うことを決定する条件として、前記顔領域を分割した分割領域のうち、目を含む前記分割領域の輝度が露出アンダーを示すこと、及び、前記分割領域のうち、予め設定された2つの領域の輝度差が閾値以上であることの少なくともいずれかであって、且つ、前記推定された光源が予め設定された光源であることを含むことを特徴とする撮像装置。 - 前記予め設定された光源は、日中の外光であることを特徴とする請求項1に記載の撮像装置。
- フラッシュを用いたフラッシュ撮影を行うことが可能な撮像装置におけるフラッシュ制御方法であって、
顔検出手段が、撮像素子から得られる画像信号の画像から顔領域を検出する顔検出工程と、
制御手段が、前記顔検出工程で検出された顔領域における輝度に基づいてフラッシュ撮影を行うかを決定する制御工程と、
推定手段が、前記画像信号から光源を推定する推定工程とを有し、
前記制御工程は、前記顔領域の一部が明るくとも前記フラッシュ撮影を行うことを決定するものであり、前記フラッシュ撮影を行うことを決定する条件として、前記顔領域を分割した分割領域のうち、目を含む前記分割領域の輝度が露出アンダーを示すこと、及び、前記分割領域のうちの予め設定された2つの領域の輝度差が閾値以上であることの少なくともいずれかであって、且つ、前記推定された光源が予め設定された光源であることを含むことを特徴とするフラッシュ制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013021760A JP2013132065A (ja) | 2013-02-06 | 2013-02-06 | 撮像装置及びフラッシュ制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013021760A JP2013132065A (ja) | 2013-02-06 | 2013-02-06 | 撮像装置及びフラッシュ制御方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007229453A Division JP2009063674A (ja) | 2007-09-04 | 2007-09-04 | 撮像装置及びフラッシュ制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013132065A true JP2013132065A (ja) | 2013-07-04 |
Family
ID=48909253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013021760A Pending JP2013132065A (ja) | 2013-02-06 | 2013-02-06 | 撮像装置及びフラッシュ制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013132065A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108200352A (zh) * | 2017-12-27 | 2018-06-22 | 努比亚技术有限公司 | 一种调解图片亮度的方法、终端及存储介质 |
CN112243582A (zh) * | 2019-08-30 | 2021-01-19 | 深圳市大疆创新科技有限公司 | 补光控制方法、装置、***和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001222048A (ja) * | 2000-02-08 | 2001-08-17 | Olympus Optical Co Ltd | カメラ |
JP2004166196A (ja) * | 2002-09-20 | 2004-06-10 | Seiko Epson Corp | 画像生成履歴情報を用いた画像の逆光処理 |
JP2005020341A (ja) * | 2003-06-26 | 2005-01-20 | Fuji Photo Film Co Ltd | 露出制御方法および装置 |
JP2007201979A (ja) * | 2006-01-30 | 2007-08-09 | Sony Corp | 露出制御装置および撮像装置 |
-
2013
- 2013-02-06 JP JP2013021760A patent/JP2013132065A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001222048A (ja) * | 2000-02-08 | 2001-08-17 | Olympus Optical Co Ltd | カメラ |
JP2004166196A (ja) * | 2002-09-20 | 2004-06-10 | Seiko Epson Corp | 画像生成履歴情報を用いた画像の逆光処理 |
JP2005020341A (ja) * | 2003-06-26 | 2005-01-20 | Fuji Photo Film Co Ltd | 露出制御方法および装置 |
JP2007201979A (ja) * | 2006-01-30 | 2007-08-09 | Sony Corp | 露出制御装置および撮像装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108200352A (zh) * | 2017-12-27 | 2018-06-22 | 努比亚技术有限公司 | 一种调解图片亮度的方法、终端及存储介质 |
CN108200352B (zh) * | 2017-12-27 | 2021-03-05 | 上海营湾医疗科技有限公司 | 一种调解图片亮度的方法、终端及存储介质 |
CN112243582A (zh) * | 2019-08-30 | 2021-01-19 | 深圳市大疆创新科技有限公司 | 补光控制方法、装置、***和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10397486B2 (en) | Image capture apparatus and method executed by image capture apparatus | |
JP4217698B2 (ja) | 撮像装置及び画像処理方法 | |
CN110033418B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
JP6049343B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5743696B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US9036046B2 (en) | Image processing apparatus and method with white balance correction | |
US8810681B2 (en) | Image processing apparatus and image processing method | |
CN110047060B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
JP5225137B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
JP2021128791A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN111434104B (zh) | 图像处理装置、摄像装置、图像处理方法及记录介质 | |
JP4029206B2 (ja) | 撮像装置 | |
JP2009063674A (ja) | 撮像装置及びフラッシュ制御方法 | |
JP4726251B2 (ja) | 撮像装置及び画像処理方法 | |
JP5854716B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5791274B2 (ja) | 画像処理装置、方法及びプログラム | |
JP5316923B2 (ja) | 撮像装置及びそのプログラム | |
JP2010011153A (ja) | 撮像装置、撮像方法及びプログラム | |
JP2013132065A (ja) | 撮像装置及びフラッシュ制御方法 | |
JP6570311B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6316006B2 (ja) | 被写体探索装置、その制御方法、および制御プログラム、並びに撮像装置 | |
JP2015119436A (ja) | 撮像装置 | |
JP5943682B2 (ja) | 撮像装置、その制御方法及びプログラム | |
CN115086566B (zh) | 图片场景检测方法、装置 | |
JP2002268116A (ja) | 自動露出制御装置およびそのプログラムを組み込んだ外部記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140411 |