JP2008306404A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2008306404A JP2008306404A JP2007150897A JP2007150897A JP2008306404A JP 2008306404 A JP2008306404 A JP 2008306404A JP 2007150897 A JP2007150897 A JP 2007150897A JP 2007150897 A JP2007150897 A JP 2007150897A JP 2008306404 A JP2008306404 A JP 2008306404A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- lens
- determination
- numerical value
- covered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置に関し、特にレンズの少なくとも一部が指に覆われていることを警告する撮像装置に関する。 The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that warns that at least a part of a lens is covered with a finger.
近年、デジタルカメラの小型化が進んでいる。このデジタルカメラの小型化傾向に伴い、撮影者がレンズを指で覆ってしまうことで発生する撮影ミスが増加する傾向にある。 In recent years, digital cameras have been downsized. Along with the trend toward miniaturization of digital cameras, there is a tendency that photographing errors that occur when a photographer covers a lens with a finger increase.
この撮影ミスに関し、特許文献1には、レリーズボタンの半押しによってプリ露光を行い、それにより得られた画像データから輝度評価値とAF評価値を算出し、これら評価値からレンズが指に覆われているか否かを判定する技術が開示されている。
しかしながら、上記特許文献1に開示された技術では、輝度評価値とAF評価値とで判定しているため、レンズの少なくとも一部が指に覆われているか否かを判定する精度が低いという問題点があった。
However, in the technique disclosed in
本発明は上記問題点に鑑み、レンズの少なくとも一部が指に覆われているか否かを精度良く判定する撮像装置を提供することを目的とする。 In view of the above-described problems, an object of the present invention is to provide an imaging apparatus that accurately determines whether or not at least a part of a lens is covered with a finger.
上記目的を達成するために、請求項1の発明は、レンズを介して被写体を撮像し、前記被写体像を示す画像データを出力する撮像手段と、前記撮像手段により出力された画像データにより、前記被写体の輝度を数値で示す輝度関連情報、及び前記被写体の色を数値で示す色関連情報を含む画像情報を取得する取得手段と、前記取得手段により取得された画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、前記レンズの少なくとも一部が指で覆われているか否か判定する判定手段と、前記判定手段により、前記レンズの少なくとも一部が指で覆われていると判定された場合に、その旨を警告する警告手段と、を有する。
In order to achieve the above object, the invention of
請求項1の発明によれば、撮像手段がレンズを介して被写体を撮像し、前記被写体像を示す画像データを出力し、取得手段が前記撮像手段により出力された画像データにより、前記被写体の輝度を数値で示す輝度関連情報、及び前記被写体の色を数値で示す色関連情報を含む画像情報を取得し、判定手段が前記取得手段により取得された画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、前記レンズの少なくとも一部が指で覆われているか否か判定すると、警告手段が前記判定手段により、前記レンズの少なくとも一部が指で覆われていると判定された場合に、その旨を警告する。このように、被写体の輝度を数値で示す輝度関連情報、及び前記被写体の色を数値で示す色関連情報を含む画像情報に基づきレンズが指に覆われているか否かを判定することにより、精度良くレンズの少なくとも一部が指に覆われているか否かを判定することができる。 According to the first aspect of the present invention, the imaging unit images the subject via the lens, outputs image data indicating the subject image, and the acquisition unit uses the image data output by the imaging unit to obtain the luminance of the subject. Brightness-related information indicating numerical values and image information including color-related information indicating the color of the subject numerically, and each of the numerical values indicated by the image information acquired by the acquiring means by the determining means, When it is determined whether or not at least a part of the lens is covered with a finger by comparing with a predetermined threshold value provided correspondingly, a warning means causes the determination means to at least a part of the lens. If it is determined that the cover is covered, a warning to that effect is given. Thus, by determining whether or not the lens is covered with a finger based on luminance-related information indicating the luminance of the subject as a numerical value and image information including color-related information indicating the color of the subject as a numerical value, It is possible to determine whether or not at least a part of the lens is covered with a finger.
なお、本発明は、請求項2の発明のように、前記判定手段は、前記画像データが示す被写体像の所定の領域に対応する前記画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、前記レンズの少なくとも一部が指で覆われているか否か判定するようにしても良い。
In the present invention, as in the invention of
請求項2の発明によれば、被写体像の所定の領域に対応する画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、指がかかりやすい所定の領域で判定できるため、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。
According to the invention of
なお、本発明は、請求項3の発明のように、当該撮像装置が撮影者により把持されている状態を検出する状態検出手段を更に有し、前記判定手段は、前記状態検出手段により検出された状態に基づき、前記所定の閾値を変更する。 The present invention further includes state detection means for detecting a state in which the imaging device is held by a photographer, as in the invention of claim 3, wherein the determination means is detected by the state detection means. The predetermined threshold is changed based on the state.
請求項3の発明によれば、撮像装置が撮影者により把持されている状態により、指で覆われるレンズの位置が異なるため、その状態に基づき指かかりか否かを判定する閾値を変更することで、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。 According to the invention of claim 3, since the position of the lens covered with the finger differs depending on the state in which the imaging device is held by the photographer, the threshold for determining whether or not the finger is applied is changed based on the state. Thus, it can be accurately determined whether or not at least a part of the lens is covered with the finger.
なお、本発明は、請求項4の発明のように、前記判定手段は、当該撮像装置における前記レンズの位置に基づき、前記所定の閾値を変更するようにしても良い。 In the present invention, the determination unit may change the predetermined threshold based on a position of the lens in the imaging apparatus.
請求項4の発明によれば、撮像装置における前記レンズの位置により、指で覆われるレンズの位置が異なるため、そのレンズの位置に基づき指かかりか否かを判定する閾値を変更することで、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。 According to the invention of claim 4, since the position of the lens covered with the finger differs depending on the position of the lens in the imaging device, by changing the threshold for determining whether or not the finger is applied based on the position of the lens, It is possible to accurately determine whether or not at least a part of the lens is covered with a finger.
また、本発明は、請求項5の発明のように、当該撮像装置が使用される地域のアナログカラーテレビ放送に関する規格、及び当該撮像装置の言語仕様を設定する設定手段を更に有し、前記設定手段により設定された前記規格、及び前記言語仕様により前記所定の閾値の値を変更するようにしても良い。 Further, the present invention, as in the invention of claim 5, further comprises setting means for setting a standard relating to an analog color television broadcast in a region where the image pickup apparatus is used and a language specification of the image pickup apparatus. The predetermined threshold value may be changed according to the standard set by the means and the language specification.
請求項5の発明によれば、アナログカラーテレビ放送に関する規格及び当該撮像装置の言語仕様により、人種を推定することが可能となるため、その人種の肌の色の応じて所定の閾値の値を変更することにより、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。 According to the invention of claim 5, since it becomes possible to estimate the race based on the standard relating to analog color television broadcasting and the language specification of the imaging device, a predetermined threshold value is set according to the skin color of the race. By changing the value, it can be accurately determined whether or not at least a part of the lens is covered with the finger.
また、請求項1から請求項5の発明は、請求項6の発明のように、前記判定手段は、露出を定める絞り値に基づき、前記所定の閾値を変更するようにしても良い。
In the inventions of
請求項6の発明によれば、絞り値により被写界深度は異なるため、その絞り値に基づき所定の閾値を変更することにより、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。 According to the invention of claim 6, since the depth of field differs depending on the aperture value, it is possible to accurately determine whether or not at least a part of the lens is covered with a finger by changing a predetermined threshold based on the aperture value. Can be judged well.
また、請求項1から請求項5の発明は、請求項7の発明のように、前記判定手段は、露出を定める絞り値を所定の絞り値より大きい絞り値とした状態で前記撮像手段により出力された画像データから前記画像情報取得手段により取得された画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、前記レンズの少なくとも一部が指で覆われているが否か判定するようにしても良い。 Further, according to the first to fifth aspects of the invention, as in the seventh aspect of the invention, the determination means outputs the aperture value that determines the exposure from the imaging means in a state where the aperture value is larger than a predetermined aperture value. By comparing each numerical value indicated by the image information acquired from the image data acquired by the image information acquisition means with a predetermined threshold value corresponding to the numerical value, at least a part of the lens indicates You may make it determine whether it is covered with.
請求項7の発明によれば、絞り値を大きくし、被写界深度を深くすることにより、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。 According to the seventh aspect of the present invention, it is possible to accurately determine whether or not at least a part of the lens is covered with a finger by increasing the aperture value and increasing the depth of field.
また、請求項1から請求項5の発明は、請求項8の発明のように、前記判定手段は、露出を定める絞り値を異なる複数の絞り値とした状態毎に前記撮像手段により出力された複数の画像データから前記画像情報取得手段により取得された画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを、前記複数の画像データ毎に比較することにより、前記レンズの少なくとも一部が指で覆われているが否か判定する。
In the inventions of
請求項8の発明によれば、絞り値の異なる状態で出力された複数の画像データから画像情報取得手段により取得された画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較するため、1つの画像情報のみで判定する場合と比較して、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。 According to the invention of claim 8, each numerical value indicated by the image information acquired by the image information acquiring means from the plurality of image data output in different states of the aperture value, and the predetermined number provided corresponding to the numerical value Therefore, it is possible to accurately determine whether or not at least a part of the lens is covered with a finger as compared with a case where determination is performed using only one piece of image information.
また、本発明は、請求項9の発明のように、前記警告手段による警告には複数の種類が存在し、前記警告手段による警告を、いずれの種類の警告とするかを設定する設定手段を更に有する。 Further, according to the present invention, as in the invention of claim 9, there are a plurality of types of warnings by the warning unit, and setting means for setting which type of warning the warning by the warning unit is set Also have.
請求項9によれば、撮影者により警告の種類を設定することができる。 According to the ninth aspect, the type of warning can be set by the photographer.
また、本発明は、請求項10の発明のように、撮影者の指の色を示す撮影者情報を登録する登録手段を更に有し、前記判定手段は、前記登録手段により登録された前記撮影者情報に応じて、前記所定の閾値を変更するようにしても良い。
The present invention further includes registration means for registering photographer information indicating the color of a photographer's finger, as in the invention of
請求項10によれば、撮影者の指の色を示す撮影者情報に応じて、所定の閾値を変更することでレンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。
According to
本発明によれば、レンズの少なくとも一部が指に覆われているか否かを精度良く判定する撮像装置を提供することができるという効果が得られる。 According to the present invention, it is possible to provide an imaging apparatus that can accurately determine whether or not at least a part of a lens is covered with a finger.
以下、図面を参照して、本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
まず、図1を参照して、本実施の形態に係るデジタルカメラ10の外観上の構成を説明する。デジタルカメラ10の正面には、被写体像を結像させるための光学部材であるレンズ21と、撮影する被写体の構図を決定するために用いられるファインダ20と、が備えられている。また、デジタルカメラ10の上面には、撮影を実行する際に押圧操作されるレリーズボタン(所謂シャッターボタン)56Aと、電源スイッチ56Bと、が備えられている。
First, an external configuration of the
なお、本実施の形態に係るデジタルカメラ10のレリーズボタン56Aは、中間位置まで押下される状態(以下、「半押し状態」という。)と、当該中間位置を超えた最終押下位置まで押下される状態(以下、「全押し状態」という。)と、の2段階の押圧操作が検出可能に構成されている。
Note that the
そして、デジタルカメラ10では、レリーズボタン56Aを半押し状態にすることにより被写体の明るさが測光され、測光された被写体の明るさに基づきAE(Automatic Exposure、自動露出)機能が働いて露出状態(シャッタースピード、及び絞りの状態)が設定された後、AF(Auto Focus、自動合焦)機能が働いて合焦制御され、その後、引き続き全押し状態にすると露光(撮影)が行われる。
In the
一方、デジタルカメラ10の背面には、前述のファインダ20の接眼部と、撮影された被写体像やメニュー画面等を表示するための上記LCD38と、撮影を行うモードである撮影モード及び撮影によって得られた被写体像をLCD38に再生表示するモードである再生モードの何れかのモードに設定する際にスライド操作されるモード切替スイッチ56Cと、が備えられている。
On the other hand, on the back of the
また、デジタルカメラ10の背面には、十字カーソルボタン56Dと、撮影時にストロボ44を強制的に発光させるモードである強制発光モードを設定する際に押圧操作される強制発光スイッチ56Eと、が更に備えられている。
Further, on the back surface of the
なお、十字カーソルボタン56Dは、LCD38の表示領域における上・下・左・右の4方向の移動方向を示す4つの矢印キーと、それら矢印キーの中央に存在する決定キーとを含んで構成されている。 The cross-cursor button 56D includes four arrow keys that indicate four moving directions of up, down, left, and right in the display area of the LCD 38, and a determination key that exists in the center of the arrow keys. ing.
次に、図2を参照して、本実施の形態に係るデジタルカメラ10の電気系の構成を説明する。
Next, the configuration of the electrical system of the
デジタルカメラ10は、前述のレンズ21を含んで構成された光学ユニット22と、レンズ21の光軸後方に配設された電荷結合素子(以下、「CCD」という。)24と、入力されたアナログ信号に対して各種のアナログ信号処理を行うアナログ信号処理部26と、を含んで構成されている。
The
また、デジタルカメラ10は、入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)28と、入力されたデジタルデータに対して各種のデジタル信号処理を行うデジタル信号処理部30と、を含んで構成されている。
The
なお、デジタル信号処理部30は、所定容量のラインバッファを内蔵し、入力されたデジタルデータを後述するメモリ48の所定領域に直接記憶させる制御も行う。
The digital
CCD24の出力端はアナログ信号処理部26の入力端に、アナログ信号処理部26の出力端はADC28の入力端に、ADC28の出力端はデジタル信号処理部30の入力端に、各々接続されている。従って、CCD24から出力された被写体像を示すアナログ信号はアナログ信号処理部26によって所定のアナログ信号処理が施され、ADC28によってデジタル画像データに変換された後にデジタル信号処理部30に入力される。
The output terminal of the
一方、デジタルカメラ10は、被写体像やメニュー画面等をLCD38に表示させるための信号を生成してLCD38に供給するLCDインタフェース36と、デジタルカメラ10全体の動作を司るCPU40と、撮影により得られたデジタル画像データ等を記憶するメモリ48と、メモリ48に対するアクセスの制御を行うメモリインタフェース46と、を含んで構成されている。
On the other hand, the
更に、デジタルカメラ10は、可搬型のメモリカード52をデジタルカメラ10でアクセス可能とするための外部メモリインタフェース50と、デジタル画像データに対する圧縮処理及び伸長処理を行う圧縮・伸長処理回路54と、傾斜センサ58と、を含んで構成されている。
Further, the
なお、本実施の形態のデジタルカメラ10では、メモリ48としてVRAM(Video RAM)、SRAM又はDRAM、フラッシュメモリのうちのいずれか1つ以上が用いられ、メモリカード52としてスマートメディア(Smart Media(登録商標))が用いられている。
In the
デジタル信号処理部30、LCDインタフェース36、CPU40、メモリインタフェース46、外部メモリインタフェース50、傾斜センサ58、及び圧縮・伸長処理回路54はシステムバスBUSを介して相互に接続されている。従って、CPU40は、デジタル信号処理部30の作動の制御、圧縮・伸長処理回路54の作動の制御、傾斜センサ58の制御、LCD38に対するLCDインタフェース36を介した各種情報の表示、メモリ48及びメモリカード52へのメモリインタフェース46、及び外部メモリインタフェース50を介したアクセスを各々行うことができる。
The digital
一方、デジタルカメラ10には、主としてCCD24を駆動させるためのタイミング信号を生成してCCD24に供給するタイミングジェネレータ32が備えられており、CCD24の駆動はCPU40によりタイミングジェネレータ32を介して制御される。
On the other hand, the
更に、デジタルカメラ10にはモータ駆動部34が備えられており、光学ユニット22に備えられた図示しない焦点調整モータ、ズームモータ及び絞り駆動モータの駆動もCPU40によりモータ駆動部34を介して制御される。
Further, the
すなわち、本実施の形態に係るレンズ21は複数枚のレンズを有し、焦点距離の変更(変倍)が可能なズームレンズとして構成されており、図示しないレンズ駆動機構を備えている。このレンズ駆動機構に上記焦点調整モータ、ズームモータ、及び絞り駆動モータは含まれるものであり、これらのモータは各々CPU40の制御によりモータ駆動部34から供給された駆動信号によって駆動される。
In other words, the
更に、前述のレリーズボタン56A、電源スイッチ56B、モード切替スイッチ56C、十字カーソルボタン56D、及び強制発光スイッチ56E(同図では、「操作部56」と総称。)はCPU40に接続されており、CPU40は、これらの操作部56に対する操作状態を常時把握できる。
Further, the
また、デジタルカメラ10には、ストロボ44とCPU40との間に介在されると共に、CPU40の制御によりストロボ44を発光させるための電力を充電する充電部42が備えられている。更に、ストロボ44はCPU40にも接続されており、ストロボ44の発光はCPU40によって制御される。
In addition, the
次に、本実施の形態に係るデジタルカメラ10の撮影時における全体的な動作について簡単に説明する。
Next, an overall operation at the time of shooting of the
まず、CCD24は、光学ユニット22を介した撮影を行い、被写体像を示すR(赤)、G(緑)、B(青)毎のアナログ信号をアナログ信号処理部26に順次出力する。アナログ信号処理部26は、CCD24から入力されたアナログ信号に対して相関二重サンプリング処理等のアナログ信号処理を施した後にADC28に順次出力する。
First, the
ADC28は、アナログ信号処理部26から入力されたR、G、B毎のアナログ信号を各々12ビットのR、G、Bの信号(デジタル画像データ)に変換してデジタル信号処理部30に順次出力する。デジタル信号処理部30は、内蔵しているラインバッファにADC28から順次入力されるデジタル画像データを蓄積して一旦メモリ48の所定領域に直接格納する。
The
メモリ48の所定領域に格納されたデジタル画像データは、CPU40による制御に応じてデジタル信号処理部30により読み出され、所定の物理量に応じたデジタルゲインをかけることでホワイトバランス調整を行なうと共に、ガンマ処理及びシャープネス処理を行なって所定ビット、例えば8ビットのデジタル画像データを生成する。
Digital image data stored in a predetermined area of the memory 48 is read out by the digital
そして、デジタル信号処理部30は、生成した所定ビットのデジタル画像データに対しYC信号処理を施して輝度信号Yとクロマ信号Cr、Cb(以下、「YC信号」という。)を生成し、YC信号をメモリ48の上記所定領域とは異なる領域に格納する。
The digital
なお、LCD38は、CCD24による連続的な撮影によって得られた動画像(スルー画像)を表示してファインダとして使用することができるものとして構成されており、LCD38をファインダとして使用する場合には、生成したYC信号を、LCDインタフェース36を介して順次LCD38に出力する。これによってLCD38にスルー画像が表示されることになる。
The LCD 38 is configured to display a moving image (through image) obtained by continuous photographing by the
ここで、レリーズボタン56Aが撮影者によって半押し状態とされた場合、前述のようにAE機能が働いて露出状態が設定された後、AF機能が働いて合焦制御され、その後、引き続き全押し状態とされた場合、この時点でメモリ48に格納されているYC信号を、圧縮・伸長処理回路54によって所定の圧縮形式(本実施の形態では、JPEG形式)で圧縮した後に外部メモリインタフェース50を介してメモリカード52に記録する。
Here, when the
次に、図3を用いて本実施の形態に係る指かかり警告処理について、フローチャートを用いて説明する。なお、以下に説明するフローチャートは、上述したCPU40により実行される。また、レンズの少なくとも一部が指で覆われていることを指かかりと表現することがある。 Next, the finger contact warning process according to the present embodiment will be described using a flowchart with reference to FIG. The flowchart described below is executed by the CPU 40 described above. In addition, the fact that at least a part of the lens is covered with a finger may be expressed as a finger hook.
最初に、ステップ101で、後述する撮影準備処理を実行する。次のステップ102で、上記撮影準備処理により、合焦しているか否か判断する。レンズの少なくとも一部が指で覆われている場合は合焦しないため、ステップ102で、否定判断した場合には、指かかりはないと判断し、処理を終了する。
First, in step 101, a shooting preparation process described later is executed. In the
一方、ステップ102で否定判断した場合には、ステップ103で後述する指かかり判定処理を実行する。この指かかり判定処理は、被写体の輝度を数値で示す輝度関連情報、及び被写体の色を数値で示す色関連情報を含む画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、レンズ21の少なくとも一部が指で覆われているか否か判定する処理である。
On the other hand, if a negative determination is made in
この処理では、レンズ21の少なくとも一部が指で覆われていると判定すると指判定フラグはオンとされ、そうでない場合にはオフとされる。
In this process, the finger determination flag is turned on when it is determined that at least a part of the
次のステップ104で、指判定フラグがオンか否か判断する。ステップ104で肯定判断した場合には、ステップ105でレンズの少なくとも一部が指で覆われていることを警告する警告処理を行う。一方、ステップ104で否定判断した場合には、ステップ106で合焦していないことを警告するAF警告処理を行う。
In the
以上説明した処理により、被写体の輝度を数値で示す輝度関連情報、及び前記被写体の色を数値で示す色関連情報を含む画像情報に基づきレンズが指に覆われているか否かを判定することにより、精度良くレンズ21の少なくとも一部が指に覆われているか否かを判定することができる。
By determining whether or not the lens is covered with a finger based on the luminance-related information indicating the luminance of the subject as a numerical value and the image information including the color-related information indicating the color of the subject as a numerical value by the processing described above. Whether or not at least a part of the
次に、上記ステップ101の撮影準備処理について、図4のフローチャートを用いて説明する。まず、ステップ201で、上述したレリーズボタン半押しを検出すると、ステップ202で、上述したAF機能によりAF制御、及びAE機能によりアイリス制御を行う。その後、ステップ203で、上述したスルー画像を取得する。このスルー画像に対して指かかり判定処理が行われる。
Next, the photographing preparation process in step 101 will be described with reference to the flowchart of FIG. First, when the release button half-press described above is detected in step 201, AF control is performed by the above-described AF function and iris control is performed by the AE function in
次に、指かかり判定処理(図3のステップ103)を、図5のフローチャートを用いて説明する。この処理の引数は、指かかり判定する被写体像内の領域を示す情報である。引数が指定されない場合には、被写体像全領域に対して判定する。 Next, the finger contact determination process (step 103 in FIG. 3) will be described with reference to the flowchart in FIG. The argument of this process is information indicating an area in the subject image to be determined to be fingered. If no argument is specified, the determination is made for the entire area of the subject image.
まず、ステップ301で、上記領域における空間周波数が閾値Fより小さいか否か判断する。空間周波数が小さい場合、指に覆われたことで合焦されていない可能性が高い。このステップ301で否定判断した場合には、ステップ310で指判定フラグをオフとし、処理を終了する。なお、空間周波数は数値で示される輝度関連情報である。
First, in
次のステップ302でkを0で初期化する。このkは、後述する判定処理で判定フラグがオンとされたドットの個数をカウントするためのものである。 In the next step 302, k is initialized to zero. This k is for counting the number of dots whose determination flag is turned on in the determination process described later.
次のステップ303で、領域内のドットを1つ取得する。そのドットに対し、ステップ304で、後述する判定処理を行う。この処理では、そのドットの位置に対応するレンズ21での領域が指で覆われていると判定すると判定フラグはオンとされ、そうでない場合にはオフとされる。
In the next step 303, one dot in the area is acquired. In step 304, a determination process described later is performed on the dot. In this process, if it is determined that the area on the
次のステップ305で、判定フラグがオンか否か判定する。ステップ305で否定判断すると、ステップ309に処理が進む。一方、ステップ305で肯定判断すると、ステップ306で、kを1つ増分する。
In the
次のステップ307で、kが領域に属するドット数のM%を超えたか否か判断する。このM%は、領域の面積に応じて定めるようにしても良い。例えば指で領域全てが覆われるような狭い領域の場合には、90%とし、広い領域では10%などと定めておく。
In the
ステップ307で肯定判断した場合には、判定対象となった領域が指で覆われていると判断し、ステップ308で指判定フラグをオンとし、処理を終了する。
If an affirmative determination is made in
一方、ステップ307で否定判断した場合には、ステップ309で領域に属する全てのドットに対して判定が終了したか否か判断する。このステップ309で否定判断した場合には、ステップ303に戻り、判定されていないドットを取得する。ステップ309で肯定判断した場合には、kが領域に属するドット数のM%を超えなかったため、ステップ310で指判定フラグをオフとし、処理を終了する。
On the other hand, if a negative determination is made in
次に、上記ステップ304の判定処理を、図6のフローチャートを用いて説明する。この処理は、1つのドットに対して行われる処理である。まず、ステップ401で、判定対象ドットの、数値で示される輝度関連情報である輝度が閾値Cより小さいか否か判断する。この輝度は、上述した輝度信号より得ることができる。このように、ステップ401では、ドットの位置に対応するレンズ21での領域が指で覆われていると輝度は低下するため、閾値Cを設けて判断する処理である。
Next, the determination process in step 304 will be described with reference to the flowchart of FIG. This process is performed for one dot. First, in step 401, it is determined whether or not the luminance, which is luminance related information indicated by numerical values, of the determination target dot is smaller than a threshold value C. This luminance can be obtained from the luminance signal described above. As described above, in step 401, since the luminance decreases when the area of the
このステップ401で否定判断した場合には、ステップ404で判定フラグをオフとし、処理を終了する。 If a negative determination is made in step 401, the determination flag is turned off in step 404, and the process ends.
一方、ステップ401で肯定判断した場合には、次のステップ402で、判定対象ドットの、数値で示される色関連情報である上述したR、G、Bの信号を用いた判断を行う。ステップ402に示されるように、r1<R<r2、g1<G<g2、b1<B<b2の3つの条件を同時に満たすか否か判断される。この条件において、r1、r2はRの閾値、g1、g2はGの閾値、b1、b2はBの閾値であり、それらの閾値は、RGBは肌色を示すか否かを判断するものである。なお、この処理では、上述した3つの条件となっているが、3つに限らず条件の数を増減して判定するようにしても良い。
On the other hand, if an affirmative determination is made in step 401, in the
このステップ402で否定判断した場合、上述したステップ404に処理が進み、肯定判断した場合には、ステップ403で判定フラグをオンとし、処理を終了する。
If a negative determination is made in
以上説明した処理で用いられた各閾値は、後述する閾値と比較して、指かかりと判定する度合いが標準的なものである。 Each threshold used in the above-described processing has a standard degree of determination as a finger contact compared to a threshold described later.
次に、警告処理(図3のステップ105)を、図7のフローチャートを用いて説明する。まず、ステップ501で、撮影者によりモードの設定がされる。このモードについては以下のフローチャートの説明とともに説明される。
Next, warning processing (step 105 in FIG. 3) will be described with reference to the flowchart in FIG. First, in
次のステップ502でオートモードか否か判断する。オートモードとは、デジタルカメラ10が自動で撮影に関する設定を行うものである。この場合、撮影者は、失敗せずに撮影できるという期待があり、また何でも気軽に撮影すると思われる。従って、ステップ502で肯定判断した場合には、警告を分かり安くするためにステップ506で音声を発生する。この音声とは単なる音や、警告を意味する声であっても良い。また、音声を発生する場合には、上述したデジタルカメラ10の構成(図2参照)にスピーカが加わることとなる。
In the next step 502, it is determined whether or not the auto mode is set. In the auto mode, the
ステップ502で否定判断した場合には、ステップ503で高感度モードか否か判断する。高感度モードの場合、撮影者は暗い場所で何とか撮影したいと考え、また撮影が成功すると期待していると考えられる。従って、ステップ503で肯定判断した場合には、先ほどと同様、警告を分かり安くするためにステップ506で音声を発生する。
If a negative determination is made in step 502, it is determined in step 503 whether or not the mode is a high sensitivity mode. In the high sensitivity mode, the photographer wants to shoot in a dark place and expects that the shooting will be successful. Therefore, if an affirmative determination is made in step 503, a voice is generated in
ステップ503で否定判断した場合には、ステップ504でマニュアルモードか否か判断する。マニュアルモードの場合、撮影者は自分の意志の通り撮影したいと考え、また種々の設定によりベストな撮影ができることを期待していると思われる。この場合、警告は撮影者が認識できればよい程度である。従って、ステップ505でLCD38に警告を表示するようにする。
If a negative determination is made in step 503, it is determined in step 504 whether the manual mode is set. In the manual mode, the photographer wants to shoot according to his / her will and expects to be able to shoot the best with various settings. In this case, the warning is only required to be recognized by the photographer. Accordingly, a warning is displayed on the LCD 38 at
また、ステップ504で否定判断した場合、すなわち、いずれもモードでもない場合は、ステップ506で音声を発生する。上述した処理では、モードを設定することでいずれの種類の警告とするかを設定する処理であるが、単にいずれの警告とするかを設定する処理としても良い。
If a negative determination is made in step 504, that is, if none of the modes is in the mode, a sound is generated in
このように、上述した処理により、撮影者により警告の種類を設定することができる。 As described above, the type of warning can be set by the photographer by the above-described processing.
次に、AF警告処理(図3のステップ106)を、図8のフローチャートを用いて説明する。このAF警告処理は、合焦していないことを警告するための処理である。まず、ステップ601で、オートモードか否か判断する。オートモードの場合、撮影者は、失敗せずに撮影できるという期待があり、また何でも気軽に撮影すると思われる。従って、ステップ601で肯定判断した場合には、失敗を回避するためにステップ605でシャッタを使用不可とし、撮影できないようにする。 Next, the AF warning process (step 106 in FIG. 3) will be described using the flowchart in FIG. This AF warning process is a process for warning that the subject is not in focus. First, in step 601, it is determined whether or not the auto mode is set. In the auto mode, the photographer expects to be able to shoot without failure, and will be able to shoot anything casually. Therefore, if an affirmative determination is made in step 601, the shutter is disabled in step 605 to prevent photographing in order to avoid failure.
ステップ601で否定判断した場合には、ステップ602で高感度モードか否か判断する。高感度モードの場合、撮影者は暗い場所で何とか撮影したいと考え、また撮影が成功すると期待していると考えられる。従って、ステップ602で肯定判断した場合には、警告を分かり安くするためにステップ606で音声を発生する。この音声とは単なる音や、警告を意味する声であっても良い。
If a negative determination is made in step 601, it is determined in step 602 whether or not the mode is a high sensitivity mode. In the high sensitivity mode, the photographer wants to shoot in a dark place and expects that the shooting will be successful. Therefore, if an affirmative determination is made in step 602, a voice is generated in
ステップ602で否定判断した場合には、ステップ603でマニュアルモードか否か判断する。マニュアルモードの場合、撮影者は自分の意志の通り撮影したいと考え、また種々の設定によりベストな撮影ができることを期待していると思われる。この場合、警告は撮影者が認識できればよい程度である。従って、ステップ604でLCD38に警告を表示するようにする。
If a negative determination is made in step 602, it is determined in step 603 whether or not the manual mode is set. In the manual mode, the photographer wants to shoot according to his / her will and expects to be able to shoot the best with various settings. In this case, the warning is only required to be recognized by the photographer. Accordingly, a warning is displayed on the LCD 38 in
また、ステップ604で否定判断した場合、すなわち、いずれもモードでもない場合は、ステップ607で音声を発生する。
If a negative determination is made in
次に、上述した指かかり判定をする領域について、図9を用いて説明する。レンズ21に指がかかる場合、被写体像全体ではなく、同図に示されるように、被写体像の枠付近である領域Aの一部に指がかかる場合が多い。
Next, the above-described region for finger contact determination will be described with reference to FIG. When a finger is placed on the
従って、領域Aと、被写体像から領域Aを除いた領域Bなど、所定の領域で指かかり判定をすることで精度良く判定することが可能となる。 Therefore, it is possible to determine with high accuracy by performing finger contact determination on a predetermined area such as the area A and the area B obtained by removing the area A from the subject image.
このように所定の領域で指かかり判定を行う場合の例として、図9に示される領域A又は全領域に対して指かかり判定をする処理を、図10のフローチャートを用いて説明する。この処理は、画像データが示す被写体像の所定の領域に対応する画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、前記レンズ21の少なくとも一部が指で覆われているか否か判定する処理である。
As an example of performing finger contact determination in a predetermined area as described above, processing for performing finger contact determination on the area A or the entire area shown in FIG. 9 will be described with reference to the flowchart of FIG. This processing is performed by comparing each numerical value indicated by the image information corresponding to the predetermined area of the subject image indicated by the image data with a predetermined threshold provided corresponding to the numerical value, so that at least the
まず、ステップ701で、上述した撮影準備処理を行う。次のステップ702で、合焦しているか否か判断する。ステップ702で肯定判断した場合、ステップ704で領域Aに対する指かかり判定処理を行う。そして、ステップ706で指判定フラグがオンとなっているか否か判断する。ステップ706で否定判断した場合には、指がレンズ21にかかっていないと判断し、処理を終了する。
First, in
一方ステップ706で肯定判断した場合には、ステップ707で上述した警告処理を行い、処理を終了する。
On the other hand, if an affirmative determination is made in
ステップ702の判断に戻り、ステップ702で否定判断した場合には、ステップ703で全領域に対する指かかり判定処理を行う。そして、ステップ705で指判定フラグがオンとなっているか否か判断する。ステップ705で否定判断した場合には、指がレンズ21にかかっていないと判断し、ステップ708で上述したAF警告処理を行い、処理を終了する。
Returning to the determination in step 702, if a negative determination is made in step 702, a finger contact determination process for all regions is performed in
一方、ステップ705で肯定判断した場合には、ステップ707で警告処理を行い、処理を終了する。
On the other hand, if an affirmative determination is made in step 705, a warning process is performed in
以上説明した処理により、被写体像の所定の領域に対応する画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、指がかかりやすい所定の領域で判定できるため、レンズ21の少なくとも一部が指に覆われているか否かを精度良く判定することができる。
By the above-described processing, each numerical value indicated by the image information corresponding to the predetermined area of the subject image is compared with a predetermined threshold value provided corresponding to the numerical value, so that the predetermined area where the finger is likely to be applied Therefore, it can be accurately determined whether or not at least a part of the
次に、レリーズボタン56Aとレンズ21との位置関係について、図11を用いて説明する。一般的なデジタルカメラ10のレリーズボタン56Aは、右利き人口が多いことから、レンズ21から向かって左、すなわち撮影時には右手側に設置されることが多い。このとき、レンズのデジタルカメラ10における位置は、同図に示されるように、(A)〜(B)の5種類の位置が代表的な位置である。
Next, the positional relationship between the
また、図12に示されるように、右手だけでデジタルカメラ10を把持する場合と、更に左手を添えて両手でデジタルカメラ10を把持する場合がある。
In addition, as shown in FIG. 12, there are a case where the
このように、レンズ21の位置により、図13に示されるように、被写体像で指がかかりやすい領域(斜線部分)が存在する。従って、デジタルカメラ10におけるレンズ21の位置に基づき指がかかりやすい領域をまず定めるようにする。
Thus, depending on the position of the
この指がかかりやすい領域を判定する領域判定処理を、図14のフローチャートを用いて説明する。なお、この処理は、デジタルカメラ10におけるレンズ21の位置に基づき、所定の閾値を変更する処理である。また、この処理で指がかかりやすい領域を上下左右で示しているが、これらの位置は、図13に示した上下左右の位置である。
The area determination process for determining an area where the finger is likely to be applied will be described with reference to the flowchart of FIG. This process is a process of changing a predetermined threshold based on the position of the
まず、ステップ801で、レンズ21の位置を検出する。これは例えば上記フラッシュメモリなどに、出荷時に記録されているレンズ21の位置を示す情報を参照することで得ることができる。
First, in
レンズ21の位置を検出すると、次のステップ802で、レンズ21の位置が中央か否か判断する。ステップ802で肯定判断した場合には、ステップ805で被写体像の上、下、右の領域を指かかり判定領域とし、上記閾値を変更する。
When the position of the
一方、ステップ802で否定判断した場合には、ステップ803で、レンズ21の位置が右側か否か判断する。ステップ803で肯定判断した場合には、ステップ806で被写体像の右の領域を指かかり判定領域をとし、閾値を変更する。
On the other hand, if a negative determination is made in step 802, it is determined in
一方、ステップ803で否定判断した場合には、ステップ804で、レンズ21の位置が左側か否か判断する。ステップ804で肯定判断した場合には、ステップ807で被写体像の右の領域を指かかり判定領域とし、閾値を変更する。一方、ステップ804で否定判断した場合には、そのまま処理を終了する。この場合、全領域が指がかかりやすい領域となる。
On the other hand, if a negative determination is made in
以上説明した処理における閾値の変更は、指かかりと判定しやすい閾値に変更するものである。この指かかりと判定しやすい閾値については後述する。 The change of the threshold value in the above-described processing is changed to a threshold value that is easy to determine that the finger is applied. The threshold value that is easily determined to be a finger contact will be described later.
上述した処理により、デジタルカメラ10におけるレンズ21の位置により、指で覆われるレンズ21の位置が異なるため、そのレンズ21の位置に基づき指かかりか否かを判定する閾値を変更することで、レンズ21の少なくとも一部が指に覆われているか否かを精度良く判定することができる。
Since the position of the
このようにレンズ21の位置によっても指がかかりやすい領域が存在するが、デジタルカメラ10が撮影者により把持されている状態によっても指がかかりやすい領域が存在する。ここで把持されている状態とは、デジタルカメラ10が縦に把持されているか、又は横に把持されているかを示すものである。デジタルカメラ10がどのように把持されているかは、上述した傾斜センサ58により検出することができる。
As described above, there is a region where the finger is easily applied depending on the position of the
図15に指がかかりやすい領域を示す。同図に示されるように、横に把持されていることを示す同図(A)の場合、指がかかりやすい領域は、同図(a)に示される領域となる。また、縦に把持されていることを示す同図(B)の場合、指がかかりやすい領域は、同図(b)に示される領域となる。更に、同図(B)とは逆に縦に把持されていることを示す同図(C)の場合、指がかかりやすい領域は、同図(c)に示される領域となる。 FIG. 15 shows a region where a finger is easily applied. As shown in the figure, in the case of FIG. 9A indicating that the finger is being held sideways, the region where the finger is easily applied is the region shown in FIG. Further, in the case of FIG. 5B showing that the finger is held vertically, the region where the finger is easily applied is the region shown in FIG. Further, in the case of FIG. 5C, which indicates that the finger is held vertically, as opposed to FIG. 5B, the region where the finger is easily applied is the region shown in FIG.
このように、把持されている状態によって指がかかりやすい領域に対して、閾値を変更する把持状態対応処理を、図16のフローチャートを用いて説明する。なお、この処理は、デジタルカメラ10が撮影者により把持されている状態を検出し、検出された状態に基づき、所定の閾値を変更する処理である。まず、ステップ901で、傾斜センサ58により把持状態を検出する。次のステップ902で把持状態により分岐する。把持状態によりデジタルカメラ10が横と判定された場合には、ステップ903で領域を指かかり判定領域とし、閾値を変更する。ここでの領域Aは、図15(a)に示される斜線で示された領域である。一方、ステップ902でデジタルカメラ10が縦と判定された場合には、ステップ904で領域Bを指かかり判定領域とし、閾値を変更する。ここでの領域Bは、図15(b)に示される斜線で示された領域である。
A gripping state handling process for changing the threshold value for an area where a finger is easily applied depending on the gripped state will be described with reference to the flowchart of FIG. This process is a process of detecting a state in which the
以上説明した処理における閾値の変更は、指かかりと判定しやすい閾値に変更するものである。この指かかりと判定しやすい閾値については後述する。 The change of the threshold value in the above-described processing is changed to a threshold value that is easy to determine that the finger is applied. The threshold value that is easily determined to be a finger contact will be described later.
以上説明した処理により、デジタルカメラ10が撮影者により把持されている状態により、指で覆われるレンズ21の位置が異なるため、その状態に基づき指かかりか否かを判定する閾値を変更することで、レンズ21の少なくとも一部が指に覆われているか否かを精度良く判定することができる。
By the process described above, the position of the
また、上述した図14、図16に示されるフローチャートは、図3のステップ102とステップ103との間で行われる処理である。
Further, the flowcharts shown in FIGS. 14 and 16 described above are processes performed between
次に、絞り値に関する処理について説明する。絞り値が大きく被写界深度が深い場合では、被写体像のほとんどの領域でピントが合いやすくなる。この場合、指かかり判定で用いられる閾値を、指かかりと判定しやすいように変更する。 Next, processing related to the aperture value will be described. When the aperture value is large and the depth of field is deep, it is easy to focus on almost all areas of the subject image. In this case, the threshold value used in the finger contact determination is changed so that it is easy to determine that the finger is applied.
一方、絞り値が小さく被写界深度が浅い場合では、被写体像のほとんどの領域でピントが合いにくくなる。この場合、誤判定を回避するため、指かかり判定で用いられる閾値を、指かかりと判定しにくいように変更する。こうすることで、誤判定を減らし、撮影に支障が出ないようにする。 On the other hand, when the aperture value is small and the depth of field is shallow, it is difficult to focus on most areas of the subject image. In this case, in order to avoid erroneous determination, the threshold value used in finger contact determination is changed so that it is difficult to determine finger contact. In this way, misjudgments are reduced and shooting is not hindered.
以上説明した露出を定める絞り値に基づき、閾値を変更する絞り閾値変更処理の詳細を、図17のフローチャートを用いて説明する。なお、このフローチャートでは、多くの閾値が用いられるが、これらの関係については後述する。まず、ステップ1001で、上述した撮影準備処理を行う。次のステップ1002で、現在の撮影モードが小絞り優先か否か判断する。ステップ1002で肯定判断した場合、小絞りであることから被写界深度が深いため、指かかりと判定しやすいようにステップ1004で同図に示されるように上述した閾値を変更し、ステップ1006で指かかり判定処理を行う。
Details of the aperture threshold value changing process for changing the threshold value based on the aperture value for determining the exposure described above will be described with reference to the flowchart of FIG. In this flowchart, many threshold values are used, and these relationships will be described later. First, in
一方、ステップ1002で否定判断した場合には、ステップ1003で現在の撮影モードが大絞り優先か否か判断する。ステップ1003で否定判断した場合には、図6で説明した閾値を変更せずに、上述したステップ1006の指かかり判定処理を行う。ステップ1003で肯定判断した場合には、被写界深度が浅いため、指かかりと判定しにくいようにステップ1005で上述した閾値を変更し、ステップ1006で指かかり判定処理を行う。
On the other hand, if a negative determination is made in
次のステップ1007で、指判定フラグがオンか否か判断し、肯定判断した場合には、ステップ1008で警告処理を行い処理を終了する。一方、否定判断した場合には、そのまま処理を終了する。上述した処理により、絞り値により被写界深度は異なるため、その絞り値に基づき所定の閾値を変更することにより、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。
In the
なお、以上説明した処理で用いられた閾値の関係は以下の通りである。
C2<C<C1
r11<r1<r12
r22<r2<r21
g11<g1<g12
g22<g2<g21
b11<b1<b12
b22<b2<b21
F2<F<F1
いずれの閾値も、指かかりと判定しやすくするときは、上記ステップ401及び402で指かかりと判定される範囲を広くするもので、逆に判定しにくくするときは、上記ステップ401及び402で指かかりと判定される範囲を狭くするものである。従って、指かかりと判定しやすい閾値は上記範囲を広くする閾値である。
The relationship between the threshold values used in the processing described above is as follows.
C2 <C <C1
r11 <r1 <r12
r22 <r2 <r21
g11 <g1 <g12
g22 <g2 <g21
b11 <b1 <b12
b22 <b2 <b21
F2 <F <F1
When it is easy to determine that any of the thresholds is fingered, the range determined to be fingered in
以上説明した処理は、被写界深度に合わせて閾値を変えるものであった。次に説明する処理は、閾値ではなく絞り値を変えることで指かかり判定をする絞り変更処理である。この処理を、図18のフローチャートを用いて説明する。 The processing described above changes the threshold according to the depth of field. The process to be described next is an aperture changing process for determining finger contact by changing the aperture value instead of the threshold value. This process will be described with reference to the flowchart of FIG.
なお、この処理は、露出を定める絞り値を所定の絞り値より大きい絞り値とした状態で出力された画像データの画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、レンズ21の少なくとも一部が指で覆われているが否か判定する処理である。
In this process, each numerical value indicated by the image information of the image data output in a state where the aperture value for determining the exposure is set to an aperture value larger than the predetermined aperture value, and a predetermined value provided corresponding to the numerical value This is a process for determining whether or not at least a part of the
まず、ステップ1101で、上述した撮影準備処理を行う。次のステップ1102で、現在の撮影モードが小絞り優先か否か判断する。ステップ1102で肯定判断した場合、被写界深度が深いため、被写体像のほとんどの領域でピントが合いやすくなることから、ステップ1103で判定画像を撮影準備処理で取得したスルー画像として、そのままステップ1107で指かかり判定処理を行う。
First, in step 1101, the above-described shooting preparation process is performed. In the next step 1102, it is determined whether or not the current shooting mode is a small aperture priority. If the determination in step 1102 is affirmative, since the depth of field is deep, it is easy to focus on most areas of the subject image. Therefore, in
一方、ステップ1102で否定判断した場合は、被写界深度が浅いことから、指かかりが判定しにくいため、ステップ1104で、現時点での絞り値である所定の絞り値を大きくすることで、絞りを可能な限り絞り、被写界深度を深くして次のステップ1105でその状態で取得した画像を指かかり判定画像とする。 On the other hand, if a negative determination is made in step 1102, since it is difficult to determine finger contact because the depth of field is shallow, in step 1104, by increasing a predetermined aperture value that is the current aperture value, Is set as much as possible, and the depth of field is increased, and an image acquired in that state in the next step 1105 is set as a finger contact determination image.
次のステップ1106で、絞りを元の状態に戻し、ステップ1107で指かかり判定処理を行う。次のステップ1108で、指判定フラグがオンか否か判断し、肯定判断した場合には、ステップ1109で警告処理を行い処理を終了する。一方、否定判断した場合には、そのまま処理を終了する。
In the
このように、絞り値を大きくし、被写界深度を深くすることにより、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。 Thus, by increasing the aperture value and increasing the depth of field, it is possible to accurately determine whether or not at least a part of the lens is covered with the finger.
次に、2つの画像を用いて指かかり判定を行う処理について説明する。実際の撮影では、撮影したい被写体の手前に、図19に示すような合焦していない顔による肌色成分が存在することがある。この場合、これらの顔により指かかりと判定される可能性が高い。 Next, a process for performing finger contact determination using two images will be described. In actual photographing, a skin color component due to an unfocused face as shown in FIG. 19 may exist in front of the subject to be photographed. In this case, there is a high possibility that it is determined that these faces are fingered.
指かかりの場合は、指がレンズ21の間近にあるため、絞りを可能な限り小さくすることで被写界深度を深くしても、或いはマクロモードでAF制御しても、指にピントが合うことはない。
When the finger is engaged, the finger is close to the
その一方で、図19に示される合焦していない顔は、ピントが合わないまでも空間周波数は高くなる。従って、絞りを小さくしたマクロモードなどでフォーカスポイントの変更を行い、2つめの判定用画像を取得することで指かかり判定を行う。 On the other hand, the non-focused face shown in FIG. 19 has a higher spatial frequency even if it is not in focus. Therefore, the focus point is changed in a macro mode or the like with a small aperture, and finger contact determination is performed by acquiring a second determination image.
このように複数(ここでは2つ)の画像を用いて指かかり判定をする2種類画像判定処理の詳細を、図20のフローチャートを用いて説明する。なお、この処理は、露出を定める絞り値を異なる複数の絞り値とした状態毎に撮影された複数の画像データの各々に対応する画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを、複数の画像データ毎に比較することにより、前記レンズの少なくとも一部が指で覆われているが否か判定する処理である。 Details of the two-type image determination processing for determining finger contact using a plurality of (here, two) images will be described with reference to the flowchart of FIG. This process is provided corresponding to each numerical value indicated by the image information corresponding to each of a plurality of image data captured for each state in which the aperture value that determines the exposure is set to a plurality of different aperture values. This is a process for determining whether or not at least a part of the lens is covered with a finger by comparing the predetermined threshold for each of a plurality of image data.
まず、ステップ1201で、上述した撮影準備処理を行う。次のステップ1202で、合焦しているか否か判断する。このステップ1202で否定判断した場合には、ステップ1203で全領域に対して指かかり判定処理を行う。次のステップ1204で指判定フラグがオンか否か判断する。
First, in step 1201, the above-described shooting preparation process is performed. In the next step 1202, it is determined whether or not the subject is in focus. If a negative determination is made in step 1202, a finger contact determination process is performed for all areas in
このステップ1204で指判定フラグがオンの場合には、ステップ1206で警告処理を行い、処理を終了する。一方、ステップ1204で否定判断した場合には、ステップ1205で、上述したAF警告処理を行い、処理を終了する。
If the finger determination flag is on in step 1204, a warning process is performed in step 1206, and the process ends. On the other hand, if a negative determination is made in step 1204, the above-described AF warning process is performed in
ステップ1202の処理に戻り、このステップ1202で肯定判断した場合には、ステップ1207で領域A(図19参照)に対して、指かかり判定処理を行う。そして、ステップ1208で指判定フラグがオンか否か判断する。このステップ1208で否定判断した場合には、指かかりしていないと判断し、処理を終了する。 Returning to the process of step 1202, if an affirmative determination is made in step 1202, a finger contact determination process is performed on the area A (see FIG. 19) in step 1207. In step 1208, it is determined whether the finger determination flag is on. If a negative determination is made in step 1208, it is determined that no finger has been applied, and the process ends.
一方、ステップ1208で肯定判断した場合には、ステップ1209で、絞りを可能な限り絞り、次のステップ1210で、その状態で取得した画像を指かかり判定画像とする。 On the other hand, if an affirmative determination is made in step 1208, the aperture is stopped as much as possible in step 1209, and in the next step 1210, the image acquired in that state is set as a finger contact determination image.
次のステップ1211で領域Aに対する指かかり判定処理を行う。次のステップ1212で、指判定フラグがオンか否か判断し、肯定判断した場合には、ステップ1206で警告処理を行い、処理を終了する。一方、否定判断した場合には、そのまま処理を終了する。
In the next step 1211, a finger contact determination process for the area A is performed. In the
このように、絞り値の異なる状態で出力された複数の画像データに対応する画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較するため、1つの画像情報のみで判定する場合と比較して、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。 Thus, one image is used for comparing each numerical value indicated by the image information corresponding to the plurality of image data output with different aperture values and a predetermined threshold provided corresponding to the numerical value. Compared with the case where the determination is based only on information, it is possible to determine with high accuracy whether or not at least a part of the lens is covered with the finger.
次に、撮影者の指の色を予め登録しておく処理について説明する。これは、肌色は個人差が大きいため、上述したRGBの各閾値で誤った判定をすることを回避するための処理である。また、撮影者の指の色を示す撮影者情報に応じて、所定の閾値を変更する処理である。 Next, a process for registering the photographer's finger color in advance will be described. This is a process for avoiding erroneous determination at each of the RGB threshold values described above because the skin color has a large individual difference. In addition, the predetermined threshold value is changed according to the photographer information indicating the color of the photographer's finger.
この肌色の登録処理を、図21のフローチャートを用いて説明する。なお、この処理は、上述した十字キーなどにより、撮影者により設定されるもので、例えばメニュー画面から操作するようになっている。 This skin color registration process will be described with reference to the flowchart of FIG. This process is set by the photographer with the above-described cross key or the like, and is operated from, for example, a menu screen.
この肌色の登録処理は、まずステップ1301で、マクロ撮影するためのモードであるマクロ撮影モードに設定し、ステップ1302でストロボを使用しないストロボなし設定とする。
In this skin color registration process, first, in step 1301, a macro shooting mode, which is a mode for macro shooting, is set, and in
次のステップ1303で、登録するための指を撮影するための撮影準備処理、そして、ステップ1304で指を撮影する。このようして撮影した指から、ステップ1305で撮影した指に含まれる1つ以上の肌色を抽出し、ステップ1306で抽出した1つ以上の肌色から登録する色(RGBの各値)を決定し、ステップ1307で決定した色を登録する。
In the
撮影者の指の肌色は上述した処理により登録でき、登録されたRGBの各値は上述したフラッシュメモリに記憶される。また、複数の肌色を登録することができる。上述した処理により、撮影者の指の色を示す撮影者情報に応じて、所定の閾値を変更することでレンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。 The skin color of the photographer's finger can be registered by the above-described processing, and each registered RGB value is stored in the above-described flash memory. A plurality of skin colors can be registered. By the processing described above, it is possible to accurately determine whether or not at least a part of the lens is covered with the finger by changing the predetermined threshold according to the photographer information indicating the color of the photographer's finger. .
このようにして登録されたRGBの各値が指かかり判定処理の際に用いられるが、その場合、例えばRがxで、Gがyで、Bがzで、aを定数としたとき、上記閾値を例えば以下のようにする。
r1=x−a、r2=x+a
g1=y−a、g2=y+a
b1=z−a、b2=z+a
この場合、aの値が小さいほどRGBに関する判定は、指かかりと判定しづらくなる。この肌色の登録を行わない場合、指か否かを判定する際の肌色は上述したRGBの閾値により定まるが、肌の色は、人種間で差が大きく、誤った指かかり判定をする場合がある。これを回避するために、デジタルカメラ10が使用される地域のアナログカラーテレビ放送に関する規格(映像規格:NTSCやPAL)、及びデジタルカメラ10の言語仕様を設定することで、人種を推定することにより、その人種に適したRGBの閾値を定めるようにしても良い。
The RGB values registered in this way are used in the finger detection process. In this case, for example, when R is x, G is y, B is z, and a is a constant, For example, the threshold is set as follows.
r1 = x−a, r2 = x + a
g1 = ya, g2 = y + a
b1 = z−a, b2 = z + a
In this case, the smaller the value of “a”, the harder it is to determine that the RGB-related determination is fingered. When this skin color is not registered, the skin color for determining whether or not it is a finger is determined by the RGB threshold values described above, but the skin color varies greatly between races, and an erroneous finger contact determination is made. There is. In order to avoid this, estimating the race by setting a standard (video standard: NTSC or PAL) related to the analog color television broadcasting in the area where the
この映像規格と言語仕様を設定する処理を、図22のフローチャートを用いて説明する。なお、この処理は、上述した十字キーなどにより、撮影者により設定されるもので、例えばメニュー画面から操作するようになっている。また、予め言語仕様と映像規格を定めると、それに対応するRGBの各値が得られるテーブルが用意されているものとする。 The processing for setting the video standard and language specification will be described with reference to the flowchart of FIG. This process is set by the photographer with the above-described cross key or the like, and is operated from, for example, a menu screen. In addition, when language specifications and video standards are determined in advance, a table for obtaining RGB values corresponding to the language specifications and video standards is prepared.
前記設定手段により設定された前記規格、及び前記言語仕様により前記所定の閾値の値を変更する
まず、ステップ1401で、言語仕様を設定する。これは、例えば言語の一覧を表示し、その一覧から撮影者が言語を選択することで設定できるようになっている。次のステップ1402で、映像規格を設定する。これも言語と同様に例えば映像規格の一覧を表示し、その一覧から撮影者が映像規格を選択することで設定できるようになっている。
The predetermined threshold value is changed according to the standard and the language specification set by the setting means. First, in step 1401, a language specification is set. For example, a list of languages is displayed, and the photographer can set the language by selecting a language from the list. In the
それら設定された言語仕様と映像規格から、ステップ1403で上述したテーブルを参照することで、RGBの各値を取得する。上述した処理により、映像規格及び当該デジタルカメラ10の言語仕様により、人種を推定することが可能となるため、その人種の肌の色の応じて所定の閾値の値を変更することにより、レンズの少なくとも一部が指に覆われているか否かを精度良く判定することができる。
Each value of RGB is obtained by referring to the table described above in step 1403 from the set language specification and video standard. By the above-described processing, it becomes possible to estimate the race according to the video standard and the language specification of the
このように取得されたRGBが、それぞれ例えばRがxで、Gがyで、Bがzで、aを定数としたとき、上記閾値を例えば以下のようにする。
r1=x−a、r2=x+a
g1=y−a、g2=y+a
b1=z−a、b2=z+a
この場合、aの値が小さいほどRGBに関する判定は、指かかりと判定しづらくなる。
In the RGB thus obtained, for example, when R is x, G is y, B is z, and a is a constant, the threshold is set as follows, for example.
r1 = x−a, r2 = x + a
g1 = ya, g2 = y + a
b1 = z−a, b2 = z + a
In this case, the smaller the value of “a”, the harder it is to determine that the RGB-related determination is fingered.
なお、以上説明した各フローチャートにおける判断処理で用いられた各値は、その値に限定するものではなく、撮影者による設定、或いは仕様として適宜定めることができる。また、各フローチャートの処理の流れは一例であり、本発明の主旨を逸脱しない範囲内で処理順序を入れ替えたり、新たなステップを追加したり、不要なステップを削除したりすることができることは言うまでもない。 Each value used in the determination process in each flowchart described above is not limited to the value, and can be appropriately determined as a setting or specification by the photographer. Further, the processing flow of each flowchart is an example, and it goes without saying that the processing order can be changed, new steps can be added, and unnecessary steps can be deleted without departing from the gist of the present invention. Yes.
10 デジタルカメラ
21 レンズ
22 光学ユニット
36 LCDインタフェース
38 LCD
40 CPU
46 メモリインタフェース
48 メモリ
56A レリーズボタン
56D 十字カーソルボタン
56 操作部
58 傾斜センサ
10
40 CPU
46 Memory interface 48
Claims (10)
前記撮像手段により出力された画像データにより、前記被写体の輝度を数値で示す輝度関連情報、及び前記被写体の色を数値で示す色関連情報を含む画像情報を取得する取得手段と、
前記取得手段により取得された画像情報が示す各々の数値と、当該数値に対応して設けられた所定の閾値とを比較することにより、前記レンズの少なくとも一部が指で覆われているか否か判定する判定手段と、
前記判定手段により、前記レンズの少なくとも一部が指で覆われていると判定された場合に、その旨を警告する警告手段と、
を有する撮像装置。 Imaging means for imaging a subject via a lens and outputting image data indicating the subject image;
Acquisition means for acquiring luminance-related information indicating the luminance of the subject as a numerical value and image information including color-related information indicating the color of the subject as a numerical value based on the image data output by the imaging means;
Whether or not at least a part of the lens is covered with a finger by comparing each numerical value indicated by the image information acquired by the acquiring means with a predetermined threshold value corresponding to the numerical value Determination means for determining;
A warning means for warning that if the determination means determines that at least a part of the lens is covered with a finger;
An imaging apparatus having
前記判定手段は、前記状態検出手段により検出された状態に基づき、前記所定の閾値を変更する請求項1又は請求項2に記載の撮像装置。 It further has state detection means for detecting the state where the imaging device is held by the photographer,
The imaging apparatus according to claim 1, wherein the determination unit changes the predetermined threshold based on a state detected by the state detection unit.
前記設定手段により設定された前記規格、及び前記言語仕様により前記所定の閾値の値を変更する請求項1から請求項4のいずれか1項に記載の撮像装置。 It further has a setting means for setting a standard for analog color television broadcasting in a region where the imaging device is used, and a language specification of the imaging device,
The imaging apparatus according to any one of claims 1 to 4, wherein the predetermined threshold value is changed according to the standard set by the setting unit and the language specification.
前記警告手段による警告を、いずれの種類の警告とするかを設定する設定手段を更に有する請求項1から請求項8のいずれか1項に記載の撮像装置。 There are multiple types of warnings by the warning means,
The imaging apparatus according to claim 1, further comprising a setting unit configured to set which type of warning is used as the warning by the warning unit.
前記判定手段は、前記登録手段により登録された前記撮影者情報に応じて、前記所定の閾値を変更する請求項1から請求項9のいずれか1項に記載の撮像装置。 A registration unit for registering photographer information indicating the color of the photographer's finger;
The imaging apparatus according to claim 1, wherein the determination unit changes the predetermined threshold according to the photographer information registered by the registration unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007150897A JP2008306404A (en) | 2007-06-06 | 2007-06-06 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007150897A JP2008306404A (en) | 2007-06-06 | 2007-06-06 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008306404A true JP2008306404A (en) | 2008-12-18 |
Family
ID=40234746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007150897A Pending JP2008306404A (en) | 2007-06-06 | 2007-06-06 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008306404A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100165128A1 (en) * | 2008-12-31 | 2010-07-01 | Samsung Digital Imaging Co., Ltd. | Digital camera supporting intelligent self-timer mode and method of controlling the same |
JP2010199851A (en) * | 2009-02-24 | 2010-09-09 | Toshiba Corp | Electronic device |
WO2012001975A1 (en) * | 2010-06-30 | 2012-01-05 | 富士フイルム株式会社 | Device, method, and program for determining obstacle within imaging range when capturing images displayed in three-dimensional view |
WO2013022073A1 (en) * | 2011-08-10 | 2013-02-14 | 株式会社ニコン | Electronic device |
US8553134B2 (en) | 2009-09-29 | 2013-10-08 | Pentax Ricoh Imaging Company, Ltd. | Imager processing a captured image |
-
2007
- 2007-06-06 JP JP2007150897A patent/JP2008306404A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100165128A1 (en) * | 2008-12-31 | 2010-07-01 | Samsung Digital Imaging Co., Ltd. | Digital camera supporting intelligent self-timer mode and method of controlling the same |
US8711232B2 (en) * | 2008-12-31 | 2014-04-29 | Samsung Electronics Co., Ltd. | Digital camera supporting intelligent self-timer mode and method of controlling the same |
JP2010199851A (en) * | 2009-02-24 | 2010-09-09 | Toshiba Corp | Electronic device |
US8553134B2 (en) | 2009-09-29 | 2013-10-08 | Pentax Ricoh Imaging Company, Ltd. | Imager processing a captured image |
CN102959970B (en) * | 2010-06-30 | 2015-04-15 | 富士胶片株式会社 | Device, method, and program for determining obstacle within imaging range when capturing images displayed in three-dimensional view |
WO2012001975A1 (en) * | 2010-06-30 | 2012-01-05 | 富士フイルム株式会社 | Device, method, and program for determining obstacle within imaging range when capturing images displayed in three-dimensional view |
CN102959970A (en) * | 2010-06-30 | 2013-03-06 | 富士胶片株式会社 | Device, method, and program for determining obstacle within imaging range when capturing images displayed in three-dimensional view |
US20130113888A1 (en) * | 2010-06-30 | 2013-05-09 | Fujifilm Corporation | Device, method and program for determining obstacle within imaging range during imaging for stereoscopic display |
JP5492300B2 (en) * | 2010-06-30 | 2014-05-14 | 富士フイルム株式会社 | Apparatus, method, and program for determining obstacle in imaging area at the time of imaging for stereoscopic display |
WO2013022073A1 (en) * | 2011-08-10 | 2013-02-14 | 株式会社ニコン | Electronic device |
JPWO2013022073A1 (en) * | 2011-08-10 | 2015-03-05 | 株式会社ニコン | Electronics |
US20140152858A1 (en) * | 2011-08-10 | 2014-06-05 | Nikon Corporation | Electronic device |
US9594292B2 (en) * | 2011-08-10 | 2017-03-14 | Nikon Corporation | Electronic device including a housing and a camera that is activated based on a posture and a grabbing form |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7706674B2 (en) | Device and method for controlling flash | |
JP5251215B2 (en) | Digital camera | |
JP4460560B2 (en) | Imaging apparatus and imaging method | |
WO2013088917A1 (en) | Image processing device, image processing method, and recording medium | |
JP2007019973A (en) | Imaging device and imaging method | |
US20090102940A1 (en) | Imaging device and imaging control method | |
JP4153444B2 (en) | Digital camera | |
JP2007184733A (en) | Imaging apparatus and photographing mode display method | |
US8896742B2 (en) | Image pickup apparatus, and control method and program thereof | |
JP4649550B2 (en) | camera | |
JP2008306404A (en) | Imaging apparatus | |
US8736693B2 (en) | Digital photographing apparatus that corrects hand shake, method of controlling the same, and recording medium storing the method | |
JP2008054031A (en) | Digital camera and display control method | |
JP2008263478A (en) | Imaging apparatus | |
JP5978620B2 (en) | Imaging device | |
JP2005223588A (en) | Digital camera and control method therefor | |
JP2009049639A (en) | Image pick-up device | |
JP5030883B2 (en) | Digital still camera and control method thereof | |
JP2008124793A (en) | Imaging apparatus, and imaging method | |
JP2009139423A (en) | Imaging apparatus and subject distance calculating method | |
JP2007228233A (en) | Photographic device | |
JP2006222900A (en) | Imaging device and control program therefor | |
JP4727526B2 (en) | Imaging device | |
US9525815B2 (en) | Imaging apparatus, method for controlling the same, and recording medium to control light emission | |
JP2009017038A (en) | Digital camera |