JP2012119840A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012119840A
JP2012119840A JP2010266484A JP2010266484A JP2012119840A JP 2012119840 A JP2012119840 A JP 2012119840A JP 2010266484 A JP2010266484 A JP 2010266484A JP 2010266484 A JP2010266484 A JP 2010266484A JP 2012119840 A JP2012119840 A JP 2012119840A
Authority
JP
Japan
Prior art keywords
face
unit
image
illuminance
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010266484A
Other languages
Japanese (ja)
Inventor
Yuya Narasako
裕也 奈良迫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010266484A priority Critical patent/JP2012119840A/en
Publication of JP2012119840A publication Critical patent/JP2012119840A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus for appropriately adjusting the intensity of light to be radiated by an illumination device during imaging in accordance with a subject.SOLUTION: When a user performs an operation to turn on an illumination device, the illumination device is turned on at predetermined illuminance. Then, a face detection part performs face detection processing and outputs the result to a CPU. The CPU adjusts the illuminance of the illumination device in accordance with a distance between the imaging apparatus and the detected face when the face is detected, and adjusts the illuminance of the illumination device to the maximum when the face is not detected and performs the face detection processing again.

Description

本発明は、デジタルビデオカメラ等の撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital video camera.

近年、デジタルビデオカメラや動画撮影機能を備えるデジタルスチルカメラ等の撮像装置が広く普及し、様々な撮影シーンで使用されている。この種の撮像装置には、LED(Light Emitting Diode)ビデオライトなどの照明装置を備えているものがある。暗所で動画撮影を行う際に、被写体を明るく照らすことにより撮影画像の質を向上させることができる。しかしながら、被写体が人である場合には、照射する光を強くし過ぎると、人にまぶしさを感じさせ不快感を与えるだけでなく、眼に損傷を与えるおそれもあるという問題がある。また、照射する光を過剰に強くした状態で撮影を継続すると撮像装置或いは照明装置の電池の消耗を招き、結果、撮影可能時間が減少してしまうという問題も発生する。   In recent years, imaging apparatuses such as digital video cameras and digital still cameras having a moving image shooting function have been widely used and used in various shooting scenes. Some image pickup apparatuses of this type include an illumination device such as an LED (Light Emitting Diode) video light. When shooting a moving image in a dark place, the quality of the shot image can be improved by brightly illuminating the subject. However, when the subject is a person, if the light to be irradiated is excessively strong, there is a problem that not only the person feels dazzling but uncomfortable, and the eyes may be damaged. Further, if shooting is continued with excessively strong light to be irradiated, the battery of the imaging device or the lighting device is consumed, resulting in a problem that the shootable time is reduced.

このような問題を解消するためには、被写体に応じて、或いは被写体が人である場合には被写体距離に応じて、照射する光の強さを適宜調整する必要がある。しかしながら、撮影中に撮影者が手動で随時照射する光の強さを調整しなければならないとなると、これは撮影者にとって非常に煩わしいことになる。また、利便性に欠けることにもなる。   In order to solve such a problem, it is necessary to appropriately adjust the intensity of light to be irradiated according to the subject, or when the subject is a person, according to the subject distance. However, if the photographer has to manually adjust the intensity of light emitted from time to time during photographing, this is very troublesome for the photographer. In addition, it is not convenient.

尚、下記特許文献1には、カメラで撮影された画像からドライバー(運転者)の顔の向きや角度を検出し、その検出結果に基づき、当該顔に照射するLEDの照度を制御するドライバー監視装置が開示されている。しかしながら、下記特許文献1では、人が存在するか否かによって、或いは人と撮像装置との距離に応じて照射するLEDの照度を変更する技術は開示されていない。   In Patent Document 1 below, driver monitoring that detects the orientation and angle of the face of a driver (driver) from an image photographed by a camera and controls the illuminance of an LED that irradiates the face based on the detection result. An apparatus is disclosed. However, the following Patent Document 1 does not disclose a technique for changing the illuminance of the LED to be irradiated depending on whether or not a person exists or according to the distance between the person and the imaging device.

特開2010−23626号公報JP 2010-23626 A

本願発明は上記問題に鑑みてなされたものであり、撮影中に照明装置が照射する光の強さを、被写体に応じて適切に調整することができる撮像装置を提供することを目的とする。また、被写体が人である場合には、被写体と撮像装置との距離に応じて、照射する光の強さを適切に調整することができる撮像装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging apparatus capable of appropriately adjusting the intensity of light emitted from an illumination apparatus during photographing according to a subject. It is another object of the present invention to provide an imaging device that can appropriately adjust the intensity of light to be irradiated according to the distance between the subject and the imaging device when the subject is a person.

本発明に係る撮像装置は、撮影により被写体の撮影画像を取得する撮影手段、被写体に光を照射する照明手段、被写体から特定被写体を検出する特定被写体検出手段、
を備え、特定被写体検出手段により特定被写体が検出された場合、照明手段は、当該撮像装置から前記特定被写体までの距離に応じて、照射する光の強さを変更することを特徴とする。
An imaging apparatus according to the present invention includes a photographing unit that acquires a photographed image of a subject by photographing, a lighting unit that irradiates light on the subject, a specific subject detection unit that detects a specific subject from the subject,
When the specific subject is detected by the specific subject detection means, the illumination means changes the intensity of light to be irradiated according to the distance from the imaging device to the specific subject.

本発明に係る撮像装置は、照明手段の有効又は無効を切り替える切り替え手段、特定被写体検出手段の有効又は無効を設定する設定手段、を更に備え、特定被写体検出手段は、照明手段が有効化された場合には、設定手段による有効又は無効の設定にかかわらず、特定被写体の検出を行うことを特徴とする。   The imaging apparatus according to the present invention further includes a switching unit that switches between valid and invalid of the illumination unit, and a setting unit that sets whether the specific subject detection unit is valid or invalid, and the specific subject detection unit has the illumination unit activated In this case, a specific subject is detected regardless of whether the setting means is enabled or disabled.

本発明によると、撮影中に照明装置が照射する光の強さを、被写体に応じて適切に調整することができる撮像装置を提供することができる。また、被写体が人である場合には、被写体と撮像装置との距離に応じて、照射する光の強さを適切に調整することができる撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can adjust appropriately the intensity | strength of the light which an illuminating device irradiates during imaging | photography according to a to-be-photographed object can be provided. In addition, when the subject is a person, it is possible to provide an imaging device that can appropriately adjust the intensity of light to be irradiated according to the distance between the subject and the imaging device.

本発明に係る撮像装置1の構成の概略を示すブロック図である。It is a block diagram which shows the outline of a structure of the imaging device 1 which concerns on this invention. 特定被写体検出部7aの内部構成の概略を示すブロック図である。It is a block diagram which shows the outline of an internal structure of the specific subject detection part 7a. 縮小画像生成手段によって得られる階層画像の一例を示す図解図である。It is an illustration figure which shows an example of the hierarchy image obtained by a reduction image production | generation means. 被写体検出処理の処理動作を示す図解図である。FIG. 6 is an illustrative view showing a processing operation of subject detection processing. テーブル構造の一例を示す図解図である。It is an illustration figure which shows an example of a table structure. 照度調整処理の処理動作を示すフローチャートである。<第1の実施の形態>(撮像装置の構成) 図1は、本発明の一実施例における撮像装置1の概略を示したブロック図である。撮像装置1は、被写体の光学像を所定のフレーム周期でデジタル画像信号(以下、フレーム画像信号、または、フレーム画像と記載する。)に変換する撮像部2、撮像部2から出力されるフレーム画像を一時記録するメモリ6、メモリ6に一時記録されたフレーム画像に色補間処理、ホワイトバランス調整、ノイズリダクション処理等の各種信号処理を施す信号処理部4、フレーム画像を走査し、人の顔を検出する顔検出部8、信号処理部4で処理されたフレーム画像が静止画を撮影したものである場合はJPEG(Joint Photographic Experts Group)方式、動画を撮影したものである場合はMPEG(Moving Picture Experts Group)方式などにより該フレーム画像に圧縮符号化処理を施し圧縮画像信号を生成する画像コーデック部10、フレーム画像を表示する表示部12、撮影されたフレーム画像を記録する記録媒体14、撮像装置1の動作を制御するCPU(Central Processing Unit)16、撮像装置1に対するユーザからの操作を受け付け、当該操作に応じた指示をCPU16に与える操作部18、被写体を照らすための光を照射する照明装置20、照明装置20が照射する光の強さ(以下、照度と記載する。)を調節する照度調節部22、を備えている。It is a flowchart which shows the processing operation of an illumination intensity adjustment process. <First Embodiment> (Configuration of Imaging Device) FIG. 1 is a block diagram showing an outline of an imaging device 1 according to an embodiment of the present invention. The imaging apparatus 1 converts an optical image of a subject into a digital image signal (hereinafter referred to as a frame image signal or a frame image) at a predetermined frame period, and a frame image output from the imaging unit 2 A memory 6 for temporarily recording, a signal processing unit 4 for performing various signal processing such as color interpolation processing, white balance adjustment, noise reduction processing on the frame image temporarily recorded in the memory 6, and scanning the frame image to detect the human face If the frame image processed by the face detection unit 8 and the signal processing unit 4 to be detected is a still image, JPEG (Joint Photographic Experts Group) method, and if it is a movie, MPEG (Moving Picture) Image codec unit 10 that generates a compressed image signal by performing compression coding processing on the frame image by an Experts Group) method, etc., and displays the frame image Display unit 12, recording medium 14 that records the captured frame image, CPU (Central Processing Unit) 16 that controls the operation of the imaging apparatus 1, and an operation from the user for the imaging apparatus 1 is received, and an instruction according to the operation Is provided with an operation unit 18 that gives the image to the CPU 16, an illumination device 20 that emits light for illuminating the subject, and an illuminance adjustment unit 22 that adjusts the intensity of light emitted by the illumination device 20 (hereinafter referred to as illuminance). ing.

撮像部2は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子を備える。   The imaging unit 2 includes a solid-state imaging device such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

メモリ6は、例えば、VRAM(Video Random Access Memory)、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、或いはSDRAM(Synchronous DRAM)などの一般的に用いられているメモリが使用される。   As the memory 6, for example, a commonly used memory such as a video random access memory (VRAM), a static random access memory (SRAM), a dynamic random access memory (DRAM), or a synchronous DRAM (SDRAM) is used. .

記録媒体14は、例えばフラッシュメモリなどの撮像装置1に内蔵される内部記録媒体、或いはSDメモリカードやメモリスティック(登録商標)などの撮像装置1への着脱が自在な外部記録媒体が使用される。   As the recording medium 14, for example, an internal recording medium built in the imaging apparatus 1 such as a flash memory or an external recording medium that can be freely attached to and detached from the imaging apparatus 1 such as an SD memory card or a Memory Stick (registered trademark) is used. .

表示部12は、例えば、LCD(Liquid Crystal Display)モニタや有機EL(Electro-Luminescence)モニタが使用される。   For example, an LCD (Liquid Crystal Display) monitor or an organic EL (Electro-Luminescence) monitor is used as the display unit 12.

照明装置20は、例えば、LEDライトが使用され、照度(換言すると光量)を調節することが可能である。   For example, an LED light is used as the lighting device 20, and the illuminance (in other words, the amount of light) can be adjusted.

(撮像装置の基本撮影動作)
この撮像装置の動画撮影時の基本動作について説明する。まず、ユーザによって操作部18が操作され、撮影モードが選択されると、CPU16は、スルー画像(プレビュー画像とも言う。)処理を実行する命令を撮像部2に与える。
(Basic shooting operation of the imaging device)
A basic operation at the time of moving image shooting of the imaging apparatus will be described. First, when the operation unit 18 is operated by the user and the shooting mode is selected, the CPU 16 gives the imaging unit 2 a command for executing a through image (also referred to as a preview image) process.

撮像部2は、後述の動画撮影処理の場合よりも低解像度のフレーム画像信号を、所定のフレームレートで生成し、メモリ6に書き込む。信号処理部4は、メモリ6に書き込まれたフレーム画像信号に対して、色同時化処理、ホワイトバランス調整、ノイズリダクション処理等の信号処理を施す。このとき、顔検出機能がオンに設定されている場合はフレーム画像信号に対して顔検出処理を行う。この顔検出機能については後述する。表示部12は、信号処理が施されたフレーム画像をスルー画像として表示する。   The imaging unit 2 generates a frame image signal with a resolution lower than that in the case of a moving image shooting process described later, and writes the frame image signal in the memory 6. The signal processing unit 4 performs signal processing such as color synchronization processing, white balance adjustment, and noise reduction processing on the frame image signal written in the memory 6. At this time, if the face detection function is set to ON, face detection processing is performed on the frame image signal. This face detection function will be described later. The display unit 12 displays the frame image subjected to signal processing as a through image.

次に、操作部18から動画撮影の操作がなされると、撮像装置1は動画撮影処理を開始する。CPU16は、上述のフレーム画像生成の一連の動作を実行する命令を撮像部2に出力する。   Next, when a moving image shooting operation is performed from the operation unit 18, the imaging apparatus 1 starts a moving image shooting process. The CPU 16 outputs a command to execute the series of operations for generating the frame image described above to the imaging unit 2.

また、CPU16は、操作部18の撮影操作に応答して、画像コーデック部10に圧縮命令及び記録命令を与える。画像コーデック部10は、メモリ6から信号処理が施されたフレーム画像を読み出し、読み出したフレーム画像に、例えば、MPEG等の圧縮符号化処理を施し、圧縮したフレーム画像を、記録媒体14に記録する。   Further, the CPU 16 gives a compression command and a recording command to the image codec unit 10 in response to the photographing operation of the operation unit 18. The image codec unit 10 reads a frame image that has been subjected to signal processing from the memory 6, performs compression encoding processing such as MPEG on the read frame image, and records the compressed frame image on the recording medium 14. .

撮像装置1は、上記処理を繰り返し、複数のフレーム画像信号から1つの動画像信号(以下、動画とも記載する。)を生成し、記録することで動画撮影を行う。
操作部18から撮影終了の操作がなされると、撮像装置1は、動画撮影処理を終了し、撮影開始から撮影終了までに記録された動画像信号を動画ファイルとして保存する。
The imaging device 1 repeats the above processing, generates a single moving image signal (hereinafter also referred to as a moving image) from a plurality of frame image signals, and records a moving image.
When an operation for ending shooting is performed from the operation unit 18, the imaging apparatus 1 ends the moving image shooting process, and saves a moving image signal recorded from the start of shooting to the end of shooting as a moving image file.

(顔検出処理)
ここで、撮像装置1の顔検出処理について説明する。顔検出部8は顔検出装置81を備え、入力されるフレーム画像から人の顔を検出することができる。顔検出装置81の構成及び動作について以下に説明する。
(Face detection process)
Here, the face detection process of the imaging apparatus 1 will be described. The face detection unit 8 includes a face detection device 81 and can detect a human face from an input frame image. The configuration and operation of the face detection device 81 will be described below.

図2は、顔検出装置81の構成の概略を示すブロック図である。顔検出装置81は、撮像部2から得られたフレーム画像から1または複数の縮小画像を生成する縮小画像生成部82、フレーム画像及びその縮小画像から構成される各階層画像とメモリ6に記憶された顔検出用の重みテーブルを用いてフレーム画像に顔が存在するか否かを判定する顔判定部83、および顔判定部83の判定結果を出力する判定結果出力部84を備えている。判定結果出力部84は、顔が検出された場合には、検出された顔のフレーム画像を基準とする大きさ及び顔の位置から撮像装置1から当該顔までの距離を推定し、CPU16に出力する。   FIG. 2 is a block diagram showing an outline of the configuration of the face detection device 81. The face detection device 81 is stored in the memory 6 and a reduced image generation unit 82 that generates one or a plurality of reduced images from the frame image obtained from the imaging unit 2, each hierarchical image composed of the frame image and the reduced image, and the memory 6. A face determination unit 83 that determines whether or not a face is present in the frame image using the face detection weight table, and a determination result output unit 84 that outputs the determination result of the face determination unit 83. When a face is detected, the determination result output unit 84 estimates the distance from the imaging device 1 to the face from the size and the position of the face based on the detected frame image of the face, and outputs it to the CPU 16. To do.

図3は、縮小画像生成部82によって得られる階層画像の一例を示している。階層画像とは、フレーム画像を任意の縮小率R(0<R<1、理想的には0.8や0.9など1に近い値が望ましい。)で縮小した複数の画像である。図3において、P1は、フレーム画像を、P2〜P5は、フレーム画像がそれぞれR倍、R倍、R倍、R倍に縮小された縮小画像を示しており、F1は判定領域を示している。 FIG. 3 shows an example of a hierarchical image obtained by the reduced image generation unit 82. Hierarchical images are a plurality of images obtained by reducing a frame image at an arbitrary reduction ratio R (0 <R <1, ideally a value close to 1 such as 0.8 or 0.9 is desirable). In FIG. 3, P1 is a frame image, P2-P5 is frame image R times, respectively, R 2 fold, R 3 times, shows a reduced image reduced to R 4 fold, F1 the determination region Show.

判定領域は、顔検出の対象となる領域を示しており、例えば、縦24画素、横24画素の大きさに設定される。判定領域F1は、フレーム画像P1及びその縮小画像P2〜P5のいずれの画像においても同じ大きさである。   The determination area indicates a face detection target area, and is set to a size of 24 pixels vertically and 24 pixels horizontally, for example. The determination area F1 has the same size in both the frame image P1 and the reduced images P2 to P5.

顔検出処理は、走査される判定領域毎に、フレーム画像P1及び階層画像P2〜P5それぞれに対応する複数のエッジ特徴画像と判定領域に対応する顔らしさを表す重みに基づいて行われる。   The face detection process is performed based on a plurality of edge feature images corresponding to the frame image P1 and the hierarchical images P2 to P5 and weights representing the likelihood of the face corresponding to the determination region for each determination region to be scanned.

本実施例では、矢印で示すように、フレーム画像及び階層画像上で判定領域を左から右に移動させる水平方向走査を、画像の上方から下方に向かって行う。フレーム画像P1の他に、階層画像P2〜P5を生成しているのは、一種類の判定領域及びこれに対応する重みテーブルのみを用いて大きさの異なる複数の顔を検出するためである。   In the present embodiment, as indicated by arrows, horizontal scanning is performed from the top to the bottom of the image to move the determination region from left to right on the frame image and the hierarchical image. The reason why the hierarchical images P2 to P5 are generated in addition to the frame image P1 is to detect a plurality of faces having different sizes using only one type of determination region and a weight table corresponding thereto.

図4は、顔検出処理を説明するための図である。顔判定部83による顔検出処理は、フレーム画像P1と階層画像P2〜P5のそれぞれに対して行なわれるが、処理方法は同様なので、ここではフレーム画像P1に対して行なわれる顔検出処理についてのみ説明する。   FIG. 4 is a diagram for explaining the face detection process. The face detection processing by the face determination unit 83 is performed for each of the frame image P1 and the hierarchical images P2 to P5. However, since the processing method is the same, only the face detection processing performed for the frame image P1 will be described here. To do.

顔判定部83は、フレーム画像P1が入力されると、フレーム画像P1について水平方向、垂直方向、右斜上方向、及び左斜上方向の合計4方向についてのエッジ特徴画像を生成する。生成される4つのエッジ特徴画像はフレーム画像P1と同じ大きさ(画素数)である。図4は、フレーム画像P1とフレーム画像P1内に設定された判定領域F1を示している。   When the frame image P1 is input, the face determination unit 83 generates edge feature images for the frame image P1 in a total of four directions including the horizontal direction, the vertical direction, the upper right oblique direction, and the upper left oblique direction. The four edge feature images generated are the same size (number of pixels) as the frame image P1. FIG. 4 shows the frame image P1 and the determination area F1 set in the frame image P1.

顔判定部83は、判定領域F1内におけるフレーム画像P1の画素に対応する4方向のエッジ特徴画像の値から顔らしさを表す重みを導出する。顔らしさを表す重みとは、判定領域F1内の一つの画素に対応する4方向エッジ特徴画像の4つの画素値に基づいて予め設定された人の顔らしさを表す値である。   The face determination unit 83 derives a weight representing the likelihood of a face from the values of the edge feature images in the four directions corresponding to the pixels of the frame image P1 in the determination region F1. The weight representing the face-likeness is a value representing the face-likeness of the person set in advance based on the four pixel values of the four-direction edge feature image corresponding to one pixel in the determination area F1.

例えば、判定領域F1における画素Aに対応する水平方向エッジ特徴画像の値HO、垂直方向エッジ特徴画像の値VE、右斜上方向エッジ特徴画像の値UR、及び左斜上方向エッジ特徴画像の値ULが、(HO,VE,UR,UL)=(1,1,1,1)である場合には、画素Aの人の顔らしさを表す重み=10、(HO,VE,UR,UL)=(1,1,1,2)である場合には、画素Aの人の顔らしさを表す重み=20・・・という具合に設定されている。判定領域F1の全画素(24×24=576画素)それぞれに対応する4つのエッジ特徴画像の画素値に応じた顔らしさを表す重みが重みテーブルに格納されている。   For example, the value HO of the horizontal edge feature image corresponding to the pixel A in the determination area F1, the value VE of the vertical edge feature image, the value UR of the upper right edge feature image, and the value of the upper left edge feature image When UL is (HO, VE, UR, UL) = (1, 1, 1, 1), weight = 10 representing the human face of pixel A, (HO, VE, UR, UL) = (1, 1, 1, 2), the weight representing the human face likeness of the pixel A = 20... Is set. Weights representing facialness corresponding to the pixel values of the four edge feature images corresponding to all the pixels (24 × 24 = 576 pixels) in the determination area F1 are stored in the weight table.

顔判定部83は、フレーム画像P1の判定領域F1内の24画素×横24画素分の重みの総和から当該判定領域F1に顔が存在するかどうかを検出する。顔判定部83は、このようにしてフレーム画像P1に顔が存在するか否かを判定する。このような顔検出処理については、特開2007−257358号公報に詳しく開示されている。
そして、顔が検出された場合は、いずれの階層画像が用いられていたかによって、フレーム画像を基準とする顔の大きさを推定することができる。
The face determination unit 83 detects whether or not a face exists in the determination region F1 from the sum of the weights of 24 pixels × 24 pixels in the determination region F1 of the frame image P1. In this way, the face determination unit 83 determines whether or not a face exists in the frame image P1. Such face detection processing is disclosed in detail in Japanese Patent Application Laid-Open No. 2007-257358.
When a face is detected, the size of the face based on the frame image can be estimated depending on which layer image is used.

また、固体撮像素子の大きさとフォーカスレンズの焦点距離から撮影画角を求めることができるため、撮影画角と検出された顔の大きさから、顔までの距離を推定することができる。このようにして、検出された顔の位置、大きさ及びその顔までの距離は判定結果出力部84によってCPU16に出力される。   Further, since the shooting angle of view can be obtained from the size of the solid-state imaging device and the focal length of the focus lens, the distance to the face can be estimated from the shooting angle of view and the detected face size. In this way, the position and size of the detected face and the distance to the face are output to the CPU 16 by the determination result output unit 84.

(照度調整処理)
次に、撮像装置1で、照明装置20を使用する場合の処理動作について説明する。動画撮影中に操作部18が操作され、照明装置20がオンに設定されると、照明装置20が点灯する。このときの照明装置20の照度は照度調節部22によって予め定められた値に設定されている。
(Illuminance adjustment processing)
Next, the processing operation in the case of using the illumination device 20 in the imaging device 1 will be described. When the operation unit 18 is operated during moving image shooting and the lighting device 20 is turned on, the lighting device 20 is turned on. At this time, the illuminance of the illuminating device 20 is set to a predetermined value by the illuminance adjusting unit 22.

撮像装置1の至近距離に人が存在する場合、照明装置20の点灯時の照度が強すぎると、その人にまぶしさを感じさせる、或いはその人の目に悪影響を及ぼすおそれがある。従って、照明点灯時の照度は至近距離に人が存在しても、その人にまぶしさを感じさせず、またその人の目に悪影響を及ぼさない程度の強さに設定されている。   When a person is present at a close distance of the imaging device 1, if the illumination intensity when the lighting device 20 is turned on is too strong, the person may feel glare or adversely affect the eyes of the person. Accordingly, the illuminance at the time of lighting is set to such a strength that even if a person exists at a close distance, the person does not feel glare and does not adversely affect the eyes of the person.

照明装置20が点灯すると、CPU16は、顔検出部8に顔検出処理を実行させる。CPU16は、顔検出機能がオフに設定されていたとしても、照明装置20が点灯した場合は顔検出機能をオンに設定し、顔検出処理を実行させる。   When the illumination device 20 is turned on, the CPU 16 causes the face detection unit 8 to execute face detection processing. Even if the face detection function is set to OFF, the CPU 16 sets the face detection function to ON when the lighting device 20 is turned on, and executes face detection processing.

顔検出部8は、CPU16からの命令を受けて、撮像部2から得られるフレーム画像に対して顔検出処理を行い、検出結果をCPU16に出力する。CPU16は顔検出部8から出力された検出結果に応じて以下の処理を行う。   The face detection unit 8 receives a command from the CPU 16, performs face detection processing on the frame image obtained from the imaging unit 2, and outputs the detection result to the CPU 16. The CPU 16 performs the following processing according to the detection result output from the face detection unit 8.

1.顔が検出された場合
顔検出処理によって顔が検出された場合、CPU16は、撮像装置1から検出された顔までの距離dと図5に示すテーブルに基づき、照明装置20の照度を決定する。また、CPU16は、照明装置20の照度が決定された照度となるように、照度調節部22に照度を調節させる。本実施例では、0<d<D1の場合、照明装置20の照度はL1に決定され、D1≦d<D2の場合、照明装置20の照度はL2に決定される。
1. When a Face is Detected When a face is detected by the face detection process, the CPU 16 determines the illuminance of the lighting device 20 based on the distance d from the imaging device 1 to the detected face and the table shown in FIG. Further, the CPU 16 causes the illuminance adjustment unit 22 to adjust the illuminance so that the illuminance of the lighting device 20 becomes the determined illuminance. In this embodiment, when 0 <d <D1, the illuminance of the lighting device 20 is determined as L1, and when D1 ≦ d <D2, the illuminance of the lighting device 20 is determined as L2.

この照度調節処理は、ユーザによって照明装置20が消灯されるまで繰り返される。また、この照度調節処理は、フレーム画像毎に行われても良いし、所定のフレーム毎(例えば、60フレーム毎など。)に行われるようにしても良い。   This illuminance adjustment process is repeated until the lighting device 20 is turned off by the user. Further, the illuminance adjustment processing may be performed for each frame image, or may be performed for each predetermined frame (for example, every 60 frames).

2.顔が検出されなかった場合
顔検出処理によって顔が検出されなかった場合、CPU16は照度調節部22に照明装置20の照度を最大にするように命令を与える。照度調節部22はCPU16から与えられた命令を受けて照明装置20の照度を最大に調節する。
2. When no face is detected When no face is detected by the face detection process, the CPU 16 instructs the illuminance adjusting unit 22 to maximize the illuminance of the lighting device 20. The illuminance adjusting unit 22 adjusts the illuminance of the lighting device 20 to the maximum in response to a command given from the CPU 16.

これは撮影領域に人が存在しているが、撮像装置1と人との距離が離れ過ぎているため、照明装置20の光が人まで届かずに顔検出ができなかったのか、或いは、現在、撮影領域に人が存在しないのかを判断するためである。   This is because there is a person in the imaging area, but the distance between the imaging device 1 and the person is too far, so that the face detection could not be performed because the light from the lighting device 20 did not reach the person, or This is to determine whether or not there is a person in the shooting area.

照明装置20の照度が最大に設定されると、顔検出部8は再度顔検出処理を行う。その結果、顔が検出された場合は、上述した1の処理を行い照明装置20の照度を調節する。顔が検出されなかった場合は、現在、撮影領域に人は存在しないものとし、照明装置20の照度を最大のまま維持する。   When the illuminance of the illumination device 20 is set to the maximum, the face detection unit 8 performs the face detection process again. As a result, when a face is detected, the above-described process 1 is performed to adjust the illuminance of the lighting device 20. If no face is detected, it is assumed that there is currently no person in the shooting area, and the illuminance of the lighting device 20 is maintained at the maximum.

その間、各フレーム画像、又は、所定のフレーム毎(例えば、60フレーム毎など。)に顔検出処理を行い、顔が検出された場合は、上述した1の処理を行う。これにより、撮影領域に存在する人を安全かつ確実に検出することができる。また、撮像装置1から人までの距離に応じて適切な照度で照明装置20を点灯するため、無駄な電力消費を抑えることができる。   In the meantime, face detection processing is performed for each frame image or every predetermined frame (for example, every 60 frames). When a face is detected, the above-described processing 1 is performed. Thereby, the person who exists in the imaging | photography area | region can be detected safely and reliably. Moreover, since the illuminating device 20 is lighted with appropriate illuminance according to the distance from the imaging device 1 to a person, wasteful power consumption can be suppressed.

尚、ここでいう最大とは、人の目に悪影響を及ぼさない範囲内での最大であり、例えば、撮影場所が屋外である場合なら、JIS C 6802 「レーザー製品の安全基準」におけるクラス1に該当する範囲内、撮影場所が屋内である場合ならJIS C 6802 「レーザー製品の安全基準」におけるクラス1Mに該当する範囲内での最大を指す。   Note that the maximum here is the maximum within a range that does not adversely affect human eyes. For example, if the shooting location is outdoors, it is classified as Class 1 in JIS C 6802 “Safety Standards for Laser Products”. If the shooting location is indoors within the applicable range, it indicates the maximum within the range applicable to Class 1M in JIS C 6802 “Safety Standards for Laser Products”.

図6は、照度調整処理の動作を示すフローチャートである。撮像装置1の電源がオンされ、撮影モードが選択されると、ステップS1に移行する。ステップS1では、撮像装置1はプレビューモードに設定され、表示部12にスルー画像が表示される。   FIG. 6 is a flowchart showing the operation of the illuminance adjustment process. When the imaging apparatus 1 is turned on and the shooting mode is selected, the process proceeds to step S1. In step S <b> 1, the imaging apparatus 1 is set to the preview mode, and a through image is displayed on the display unit 12.

ステップS2では、撮影が開始されたか否かを判別する。撮影が開始された場合はステップS3に進み、そうでない場合はステップS1を繰り返す。
ステップS3では、照明装置20が点灯したか否かを判別する。照明装置20が点灯した場合はステップS4に進み、そうでない場合はステップS3を繰り返す。
In step S2, it is determined whether shooting has started. If shooting has started, the process proceeds to step S3, and if not, step S1 is repeated.
In step S3, it is determined whether or not the lighting device 20 is turned on. If the lighting device 20 is turned on, the process proceeds to step S4, and if not, step S3 is repeated.

ステップS4では顔検出機能がオンになっているか否かを判別する。顔検出機能がオンになっている場合はステップS7に進み、そうでない場合はステップS5に進む。ステップS5では顔検出機能をオンにし、ステップS7に進む。   In step S4, it is determined whether or not the face detection function is on. If the face detection function is on, the process proceeds to step S7, and if not, the process proceeds to step S5. In step S5, the face detection function is turned on, and the process proceeds to step S7.

ステップS7では、顔検出処理を行い、その結果、顔が検出されたか否かを判別する。顔が検出された場合はステップS9に進み、そうでない場合はステップS13に進む。ステップS9では、顔検出処理を行った際に算出した撮像装置1から顔までの距離とテーブルに基づき、照明装置20の照度を調節する。照明装置20の照度の調節が完了したらステップS11に進む。   In step S7, face detection processing is performed, and as a result, it is determined whether or not a face has been detected. If a face is detected, the process proceeds to step S9, and if not, the process proceeds to step S13. In step S9, the illuminance of the illuminating device 20 is adjusted based on the distance from the imaging device 1 to the face calculated when the face detection process is performed and the table. If adjustment of the illumination intensity of the illuminating device 20 is completed, it will progress to step S11.

ステップS11では、撮影が終了したか否かを判別する。撮影が終了した場合、照度調整処理を終了し、そうでない場合はステップS12に進む。   In step S11, it is determined whether or not shooting has been completed. If the photographing is finished, the illuminance adjustment process is finished, and if not, the process proceeds to step S12.

ステップS12は、照明装置20が消灯したか否かを判別する。照明装置20が消灯した場合は照度調整処理を終了する。そうでない場合はステップS7に戻る。   In step S12, it is determined whether or not the lighting device 20 is turned off. When the illumination device 20 is turned off, the illuminance adjustment process is terminated. Otherwise, the process returns to step S7.

ステップS13では、照明装置20の照度を最大に調節する。照明装置20の照度を最大にしたらステップS15に進む。ステップS15では顔検出処理を行い、その結果、顔が検出された否かを判別する。顔が検出された場合はステップS9に進み、そうでない場合はステップS11に進む。   In step S13, the illuminance of the lighting device 20 is adjusted to the maximum. When the illuminance of the illumination device 20 is maximized, the process proceeds to step S15. In step S15, face detection processing is performed, and as a result, it is determined whether or not a face is detected. If a face is detected, the process proceeds to step S9, and if not, the process proceeds to step S11.

上述した実施例は、照明装置20を点灯した時に行った顔検出処理で、顔が検出できなかった場合、自動的に照明装置20の照度を最大にするようにしているが、照明装置20の照度を最大にするか否かをユーザが状況に応じて選択できるようにしてもよい。また、照明装置20の照度を段階的に上げるようにしても良い。   In the above-described embodiment, the illuminance of the lighting device 20 is automatically maximized when the face cannot be detected by the face detection process performed when the lighting device 20 is turned on. The user may be able to select whether to maximize the illuminance depending on the situation. Moreover, you may make it raise the illumination intensity of the illuminating device 20 in steps.

また、上述した実施例では、撮影中に照明装置20がオンされた場合に照度調節処理を実行するようにしているが、プレビューモード時に照明装置20がオンされた場合にも、照度調節処理を実行するようにしても良い。   In the above-described embodiment, the illuminance adjustment process is executed when the illumination device 20 is turned on during shooting. However, the illuminance adjustment process is also performed when the illumination device 20 is turned on in the preview mode. You may make it perform.

また、上述した実施例では、照明装置20はユーザによってオンされたときに点灯するようにしているが、撮影された画像から撮影領域の明るさを判別し、所定の明るさを下回る場合は自動的に照明装置20をオンするようにしても良い。   In the above-described embodiment, the lighting device 20 is turned on when turned on by the user. However, the brightness of the shooting area is determined from the shot image, and if the brightness is lower than the predetermined brightness, the lighting device 20 is automatically turned on. Alternatively, the lighting device 20 may be turned on.

また、上述した実施例では、複数の顔を同時に検出した場合、撮像装置1との距離が近い顔の方が照明による悪影響を受けやすい。そのため複数の顔を同時に検出した場合は、撮像装置1と各顔の距離を比較し、最も近い距離に基づいて照明装置20の照度を制御するのが望ましい。   In the above-described embodiment, when a plurality of faces are detected at the same time, the face closer to the imaging device 1 is more likely to be adversely affected by illumination. Therefore, when a plurality of faces are detected at the same time, it is desirable to compare the distance between the imaging device 1 and each face and control the illuminance of the lighting device 20 based on the closest distance.

また、上述した実施例では、予め特定の人の顔に関する情報を撮像装置1に登録しておき、優先度を設定できるようにしておき、撮像装置1と最も優先度の高い顔との距離に応じて照明装置20の照度を調節するようにしても良い。   In the embodiment described above, information related to the face of a specific person is registered in the imaging device 1 in advance so that priority can be set, and the distance between the imaging device 1 and the face with the highest priority is set. Accordingly, the illuminance of the lighting device 20 may be adjusted.

以上、本発明の一実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で変形及び変更が可能である。   As mentioned above, although one Example of this invention was described, this invention is not limited to these Examples, A deformation | transformation and change are possible within the range of the summary.

1 撮像装置
2 撮像部
4 信号処理部
6 メモリ
8 顔検出部
81 顔検出装置
82 縮小画像生成部
83 顔判定部
84 判定結果出力部
10 画像コーデック部
12 表示部
14 記録媒体
16 CPU
18 操作部
20 照明
22 照度調節部
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging part 4 Signal processing part 6 Memory 8 Face detection part 81 Face detection apparatus 82 Reduced image generation part 83 Face determination part 84 Determination result output part 10 Image codec part 12 Display part 14 Recording medium 16 CPU
18 Operation part 20 Illumination 22 Illuminance adjustment part

Claims (2)

撮影により被写体の撮影画像を取得する撮影手段、
被写体に光を照射する照明手段、
被写体から特定被写体を検出する特定被写体検出手段、
を備えた撮像装置において、
特定被写体検出手段により特定被写体が検出された場合、照明手段は、当該撮像装置から前記特定被写体までの距離に応じて、照射する光の強さを変更することを特徴とする撮像装置。
Photographing means for obtaining a photographed image of the subject by photographing;
Illumination means for irradiating the subject with light,
Specific subject detection means for detecting a specific subject from the subject;
In an imaging apparatus comprising:
When the specific subject is detected by the specific subject detection unit, the illumination unit changes the intensity of light to be irradiated according to the distance from the imaging device to the specific subject.
前記照明手段の有効又は無効を切り替える切り替え手段、
前記特定被写体検出手段の有効又は無効を設定する設定手段、
を更に備え、
前記特定被写体検出手段は、前記照明手段が有効化された場合には、前記設定手段による有効又は無効の設定にかかわらず、特定被写体の検出を行うことを特徴とする請求項1記載の撮像装置。
Switching means for switching between valid and invalid of the illumination means,
Setting means for setting validity or invalidity of the specific subject detection means;
Further comprising
The imaging apparatus according to claim 1, wherein the specific subject detection unit detects the specific subject when the illuminating unit is enabled, regardless of whether the setting unit is enabled or disabled. .
JP2010266484A 2010-11-30 2010-11-30 Imaging apparatus Pending JP2012119840A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010266484A JP2012119840A (en) 2010-11-30 2010-11-30 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010266484A JP2012119840A (en) 2010-11-30 2010-11-30 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012119840A true JP2012119840A (en) 2012-06-21

Family

ID=46502220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010266484A Pending JP2012119840A (en) 2010-11-30 2010-11-30 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012119840A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212697A (en) * 2016-05-27 2017-11-30 キヤノン株式会社 Imaging apparatus
US10742892B1 (en) 2019-02-18 2020-08-11 Samsung Electronics Co., Ltd. Apparatus and method for capturing and blending multiple images for high-quality flash photography using mobile electronic device
US10911691B1 (en) 2019-11-19 2021-02-02 Samsung Electronics Co., Ltd. System and method for dynamic selection of reference image frame
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images
US11095829B2 (en) 2019-06-11 2021-08-17 Samsung Electronics Co., Ltd. Apparatus and method for high dynamic range (HDR) image creation of dynamic scenes using graph cut-based labeling
US11430094B2 (en) 2020-07-20 2022-08-30 Samsung Electronics Co., Ltd. Guided multi-exposure image fusion

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212697A (en) * 2016-05-27 2017-11-30 キヤノン株式会社 Imaging apparatus
US10742892B1 (en) 2019-02-18 2020-08-11 Samsung Electronics Co., Ltd. Apparatus and method for capturing and blending multiple images for high-quality flash photography using mobile electronic device
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images
US11095829B2 (en) 2019-06-11 2021-08-17 Samsung Electronics Co., Ltd. Apparatus and method for high dynamic range (HDR) image creation of dynamic scenes using graph cut-based labeling
US10911691B1 (en) 2019-11-19 2021-02-02 Samsung Electronics Co., Ltd. System and method for dynamic selection of reference image frame
US11430094B2 (en) 2020-07-20 2022-08-30 Samsung Electronics Co., Ltd. Guided multi-exposure image fusion

Similar Documents

Publication Publication Date Title
JP2008076902A (en) Digital camera and control method therefor
JP2012119840A (en) Imaging apparatus
JP4885902B2 (en) Imaging apparatus and control method thereof
JP5316070B2 (en) Imaging device
US8159571B2 (en) Method of generating HDR image and digital image pickup device using the same
JP2007124292A (en) Imaging apparatus, imaging method, and imaging program
JP2007052061A (en) Imaging device, focusing operation control method, and electronic information apparatus
JP2013005325A (en) Electronic camera
JP4717867B2 (en) Imaging apparatus and imaging method
JP2010176061A (en) Photographing apparatus and program
JP2008108024A (en) Image processor and imaging device
JP2007049572A (en) Photographic device
JP2004212891A (en) Electronic camera
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP6467830B2 (en) Imaging apparatus, imaging method, and program
JP2011066699A (en) Imaging apparatus and display program for same
JP2009276610A (en) Device and method for displaying image, and image-pickup device
JP4855363B2 (en) Imaging apparatus and camera shake correction method in imaging apparatus
JP2007336355A (en) Photographing device
JP4326997B2 (en) Imaging apparatus, focusing method, control program, and recording medium
JP2012134585A (en) Camera
JP3955080B2 (en) Digital camera and operation control method thereof
JP4701122B2 (en) camera
JP2009021893A (en) Imaging device and method
JP2008028938A (en) Camera

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404