JP2009077066A - Method of capturing image of imaging device, and imaging device using the method - Google Patents

Method of capturing image of imaging device, and imaging device using the method Download PDF

Info

Publication number
JP2009077066A
JP2009077066A JP2007242885A JP2007242885A JP2009077066A JP 2009077066 A JP2009077066 A JP 2009077066A JP 2007242885 A JP2007242885 A JP 2007242885A JP 2007242885 A JP2007242885 A JP 2007242885A JP 2009077066 A JP2009077066 A JP 2009077066A
Authority
JP
Japan
Prior art keywords
image
person
pixel density
imaging device
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007242885A
Other languages
Japanese (ja)
Inventor
Hideomi Hibino
秀臣 日比野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007242885A priority Critical patent/JP2009077066A/en
Publication of JP2009077066A publication Critical patent/JP2009077066A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem that discrimination of a target can not be sufficiently done because resolution is bad for parts used for discrimination of the target of a person's face which occupies a part of the whole image as a result of capturing an image which is done reducing a number of pixels resulting from problems of processing speed, etc. even though image sensor itself is proud of a high pixel number as a whole. <P>SOLUTION: An imaging device performs photoelectric conversion of input light received by the image sensor and captures the image, and includes a detection unit which detects whether there is a person in the image captured from the image sensor. The image sensor includes a low pixel density output mode which outputs a photographing object used for recording or monitor display by a predetermined pixel density, and a high pixel density output mode which outputs the person detected by the detection unit by high pixel density higher than the predetermined pixel density. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像装置の画像取り込み方法とその方法を用いる撮像装置に関し、特に人物の顔の認証をより適確に行う撮像装置とするための画像取り込み方法等に関する。   The present invention relates to an image capturing method for an image capturing apparatus and an image capturing apparatus using the method, and more particularly to an image capturing method for obtaining an image capturing apparatus that performs authentication of a human face more accurately.

ディジタルカメラを代表とする撮像装置において、CCDやCMOS等の撮像素子の高画素化は昨今特に著しく、コンパクトカメラであっても約10メガピクセル相当を謳う製品も出現しつつある。このように急激な撮像素子の高画素化による撮像デ−タの増大に対して、撮像素子で撮像デ−タを取得した後に後工程で処理される様様な画像処理や、表示機能が追いついていないのが現状である。   In an image pickup apparatus represented by a digital camera, the increase in the number of pixels of an image pickup element such as a CCD or a CMOS has been particularly remarkable recently, and even a compact camera having a product equivalent to about 10 megapixels is emerging. In contrast to the increase in image data due to the rapid increase in the number of pixels of the image sensor, image processing and display functions that are processed in a later process after the image data is acquired by the image sensor have caught up. There is no current situation.

すなわち、撮像素子全体の10メガピクセル相当の画素をすべて読み出して、画像処理や表示等していたのではCPU等の演算負荷が大きくなり、撮像装置内のデバイス間でのデ−タ通信にも遅延が生じることとなり、特に動画像の撮像記録やそのリアルタイム表示には適さないものとなる。   That is, if all the pixels corresponding to 10 megapixels of the entire image pickup device are read and image processing or display is performed, the calculation load of the CPU or the like increases, and data communication between devices in the image pickup apparatus also occurs. There will be a delay, and this is not particularly suitable for capturing and recording moving images and for real-time display thereof.

そこで、後工程での処理速度とマッチングを取るために、動画像の表示や記録、さらにスル−画像といわれる非撮像状況下における表示部への動画表示においては、撮像デ−タを間引きして取り込むことにより取り込み時間を低減し、また後工程で対応する取り扱い画像デ−タ量を実質上低減させる処理としている。   Therefore, in order to match the processing speed in the subsequent process, the display and recording of moving images, and the moving image display on the display unit in a non-imaging state called a through image, thin out the imaging data. By taking in, the time taken in is reduced, and the amount of handled image data corresponding to the subsequent process is substantially reduced.

一方、昨今の撮像装置は、被写体中における人物の検出機能や、その人物が誰であるのかを判断する人物判別機能も備えている。このような撮像装置において、正確に人物の判別をするためには、特にその対象人物の顔の特徴を適確に抽出する必要がある。
特開平9−251534 特開2004−320286
On the other hand, recent imaging apparatuses are also provided with a function for detecting a person in a subject and a person discrimination function for determining who the person is. In such an imaging apparatus, in order to accurately determine a person, it is particularly necessary to accurately extract facial features of the target person.
JP-A-9-251534 JP 2004-320286 A

被写体像の中に人物がいても、人物像が小さい場合には、その人物の顔部分に対応する撮像素子の画素数が少なくなり、いわゆる解像度が悪くなる。このため、十分な特徴の抽出が行えず、当該人物が誰なのか人物の判別も行えなかった。   Even if there is a person in the subject image, if the person image is small, the number of pixels of the image sensor corresponding to the face portion of the person is reduced, and so-called resolution is deteriorated. For this reason, sufficient features cannot be extracted, and who the person is cannot be determined.

特に、撮像素子自体は、全体として高画素数を誇るものであっても、処理速度等の問題から画素数を落として画像取り込みをする結果、画像全体の中の一部を占める人物の顔などのタ−ゲットの判別に用いる部分については、解像度が悪かった。   In particular, even if the image pickup device itself has a high number of pixels as a whole, the number of pixels is reduced due to problems such as processing speed, and as a result, the face of a person who occupies a part of the whole image is captured. The resolution used for the part used for discrimination of the target was poor.

このため、そのタ−ゲットの判別が十分に行えないという問題があった。   For this reason, there is a problem that the target cannot be determined sufficiently.

この発明にかかる撮像装置は、撮像素子で受光する入射光を光電変換して画像を取り込む撮像装置であって、撮像装置は、撮像素子から取り込んだ画像中に人物がいるかどうかを検出する検出部を備え、撮像素子は、記録又はモニタ−表示に用いる被写体を所定の画素密度で出力する低画素密度出力モ−ドと、検出部が検出する人物を所定の画素密度より高い画素密度で出力する高画素密度出力モ−ドとを備え、さらに撮像装置は、撮像素子が高画素密度出力モ−ドで出力する画像から、検出部が検出する人物の特徴を抽出する特徴抽出部を備えることを特徴とする。   An imaging apparatus according to the present invention is an imaging apparatus that captures an image by photoelectrically converting incident light received by an imaging element, and the imaging apparatus detects a person in the image captured from the imaging element. The image pickup device outputs a subject used for recording or monitor display at a predetermined pixel density, and outputs a person detected by the detection unit at a pixel density higher than the predetermined pixel density. A high pixel density output mode, and the imaging apparatus further includes a feature extraction unit that extracts a human feature detected by the detection unit from an image output by the imaging device in the high pixel density output mode. Features.

また、この発明にかかる撮像装置は、さらに好ましくは撮像素子が高画素密度出力モ−ドで出力する画像により自動焦点合わせをするAF部を備えることを特徴とする。   The image pickup apparatus according to the present invention is more preferably characterized in that the image pickup device includes an AF unit that performs automatic focusing based on an image output in a high pixel density output mode.

また、この発明にかかる撮像装置は、被写体からの入射光を撮像素子で光電変換して画像を取り込む撮像装置であって、撮像素子は、撮像素子から、記録又はモニタ−表示に用いる複数の被写体画像を順次出力する間に、被写体の特徴抽出に用いる被写体画像の一部を順次出力するよりも高画素密度で出力することを特徴とする。   The image pickup apparatus according to the present invention is an image pickup apparatus that captures an image by photoelectrically converting incident light from a subject with an image pickup element, and the image pickup element includes a plurality of subjects used for recording or monitor display. During the sequential output of images, a part of the subject image used for subject feature extraction is output at a higher pixel density than the sequential output.

また、この発明にかかる撮像装置は、好ましくは被写体の特徴抽出に用いる被写体画像の一部は、人物の顔であることを特徴とする。   The imaging apparatus according to the present invention is preferably characterized in that part of the subject image used for subject feature extraction is a human face.

また、この発明にかかる撮像装置は、さらに好ましくは被写体の特徴抽出に用いる高画素密度で出力される被写体画像の一部により自動焦点制御を行うAF部を備えることを特徴とする。   In addition, the imaging apparatus according to the present invention preferably further includes an AF unit that performs automatic focus control based on a part of a subject image output at a high pixel density used for subject feature extraction.

また、この発明にかかる撮像装置は、さらに好ましくは被写体画像中の人物の顔の有無を検出する検出部と、検出部が検出した人物の顔の特徴を抽出する特徴抽出部と、特徴抽出部が抽出する人物の顔の特徴に基づいて被写体画像の人物の顔を判別する判別部と、特徴抽出部が人物の顔の特徴を抽出できないときに、人物に対応する画像を被写体画像より高画素密度で撮像素子に出力させるCPUとを備え、AF部は、高画素密度で出力される画像を用いて自動焦点制御を行うことを特徴とする。
また、この発明にかかる撮像装置の画像取り込み方法は、被写体からの入射光を撮像素子で光電変換して画像を順次取り込む撮像装置において、記録又はモニタ−表示に用いる被写体画像を撮像素子から取り込む第一の取り込み工程と、被写体画像の一部に対して第一の取り込み工程で取り込んだ画素密度より大きな画素密度で、被写体画像の一部に対応する画像を取り込む第二の取り込み工程とを有することを特徴とする。
The imaging apparatus according to the present invention is more preferably a detection unit that detects the presence or absence of a human face in a subject image, a feature extraction unit that extracts a human face feature detected by the detection unit, and a feature extraction unit A discrimination unit for discriminating a person's face in the subject image based on the person's face feature extracted by the image, and when the feature extraction unit cannot extract the person's face feature, the image corresponding to the person is higher in pixel than the subject image. A CPU that outputs the image with a high density, and the AF unit performs automatic focus control using an image output with a high pixel density.
According to another aspect of the present invention, there is provided an image capturing method for capturing an object image to be used for recording or monitor display from an image sensor. A first capturing step and a second capturing step for capturing an image corresponding to a part of the subject image at a pixel density larger than the pixel density captured in the first capturing step for a part of the subject image. It is characterized by.

また、この発明にかかる撮像装置の画像取り込み方法は、好ましくは第一の取り込み工程で取り込んだ被写体画像中の人物の顔の有無を検出する工程と、人物の顔が検出されると人物の顔の特徴を抽出する工程と、人物の顔の特徴を抽出できないと、人物の顔に対応する被写体を取り込む第二の取り込み工程とを有することを特徴とする。   The image capturing method of the imaging apparatus according to the present invention preferably includes a step of detecting the presence or absence of a human face in the subject image captured in the first capturing step, and a human face when the human face is detected. And a second capturing step of capturing a subject corresponding to the person's face if the feature of the person's face cannot be extracted.

また、この発明にかかる撮像装置の画像取り込み方法は、さらに好ましくは複数の被写体画像を第一の取り込み工程により順次取り込む間に、第二の取り込み工程を行うことを特徴とする。   In the image capturing method of the imaging apparatus according to the present invention, it is more preferable that the second capturing step is performed while a plurality of subject images are sequentially captured by the first capturing step.

また、この発明にかかる人物の顔の特徴抽出方法は、撮像素子で受光する入射光を光電変換して被写体画像を順次取り込む撮像装置において、撮像装置は、取り込んだ被写体画像から人物の顔を検出する検出部と、検出部が検出する人物の顔の特徴を抽出する特徴抽出部とを備え、特徴抽出部が人物の顔の特徴を抽出できない場合に、CPUが、人物の顔をより高画素密度で撮像素子から出力させる工程と、特徴抽出部が、より高画素密度の人物の顔を取り込み、取り込んだ人物の顔の画像から人物の特徴を抽出する工程とを有することを特徴とする。   According to another aspect of the present invention, there is provided a human face feature extraction method in an imaging apparatus that sequentially captures subject images by photoelectrically converting incident light received by an image sensor, wherein the imaging apparatus detects a human face from the captured subject images. And a feature extraction unit for extracting the feature of the person's face detected by the detection unit, and when the feature extraction unit cannot extract the feature of the person's face, the CPU A step of outputting the image from the image sensor at a density; and a step of extracting a human feature from a captured human face image by the feature extraction unit capturing a human face having a higher pixel density.

スル−画像等には、処理速度を優先させて低解像度の画像としつつ、画像の一部について人物の顔を高解像度で取り込むことにより、正確に人物等タ−ゲットの判別をすることができる。   For a through image or the like, it is possible to accurately determine a target such as a person by capturing a person's face at a high resolution for a part of the image while giving priority to the processing speed to a low resolution image. .

この実施形態にかかる撮像装置は、撮像素子自体は1000万ピクセル相当の高画素を有する。動画の表示や記録に用いるいわゆるスル−画像については、例えば30fps(frame per second)で300万ピクセル相当の読み出しとする。これにより、全画素読み出しに伴う読み出し時間の増大を回避し、後処理において画像処理等の処理時間を低減しCPU等の演算処理部の負担を軽減する。従って、鑑賞に堪え得る程度の画質とフレ−ムレ−トを維持することが可能である。   In the imaging apparatus according to this embodiment, the imaging device itself has a high pixel equivalent to 10 million pixels. For a so-called through image used for displaying and recording a moving image, for example, reading is equivalent to 3 million pixels at 30 fps (frame per second). This avoids an increase in readout time associated with all-pixel readout, reduces processing time for image processing and the like in post-processing, and reduces the burden on an arithmetic processing unit such as a CPU. Therefore, it is possible to maintain an image quality and a frame rate that can be appreciated.

また、撮像する画像の一部に人物の顔を検出した場合には、そこに自動焦点動作を行うとともに、その顔の特徴抽出を試みる。人物の判別に十分な特徴抽出が可能ならば、その画像により、人物を判別する。   Further, when a human face is detected in a part of the image to be captured, an autofocus operation is performed on the face, and feature extraction of the face is attempted. If it is possible to extract features sufficient for discrimination of a person, the person is discriminated from the image.

一方、人物の顔が小さい等により信頼性の高い特徴抽出が不可能であれば、その人物の顔に対応する部分について、60fpsの300万ピクセル相当で部分的に全画素読み出しする。この場合、撮像画像全体ではなく、人物の顔部分に対応する被写体像の部分を高画素読み出しする。   On the other hand, if highly reliable feature extraction is impossible due to the small face of a person, all pixels are partially read out at a portion corresponding to the face of the person, corresponding to 3 million pixels of 60 fps. In this case, not the entire captured image but the portion of the subject image corresponding to the face portion of the person is read out with high pixels.

高画素読み出しした画像を用いて、人物の顔の特徴抽出や自動焦点動作を行い、人物の判別を行う。従って、より正確に適確な人物判別が行え、自動焦点動作も精密かつ正確に行えることとなる。   Using the high-pixel readout image, human face feature extraction and autofocus operation are performed to identify the person. Therefore, more accurate and accurate person discrimination can be performed, and the autofocus operation can be performed accurately and accurately.

また、スル−画像等については、30fpsで300万ピクセル相当の読み出しのままで処理速度を保つ。その間に必要に応じて別途30fpsで300万ピクセル相当で取り込んだ高精細な画像は、スル−画像等として表示したり動画記録に用いたりしないので、後工程での処理速度の低下を最低限に抑制する取り込み動作とできる。換言すれば、スル−画像表示用としては30fpsで画像を取り込む一方、高画素密度用に別途30fpsで画像を取り込むので、画像取り込みとしては併せて60fpsの取り込み速度とする。   In addition, for a through image or the like, the processing speed is maintained while reading at 3 fps at 30 fps. In the meantime, if necessary, high-definition images captured at 3fps separately at 30fps are not displayed as live images or used for moving image recording, so the reduction in processing speed in the subsequent process is minimized. It is possible to suppress the capturing operation. In other words, an image is captured at 30 fps for through image display, while an image is separately captured at 30 fps for high pixel density, so that the image capturing speed is 60 fps.

そこで、以下に図面を用いてさらに詳細に説明する。
(実施形態)
図1は、実施形態にかかる撮像装置1の全体構成について概念的に説明するブロック図である。この撮像装置1のレンズ10は、その焦点距離を連続的に変更可能な不図示のズ−ムレンズ、ピントを調整するフォ−カシングレンズ、撮像時の手振れを補正するVR(Vibration Reduction)レンズから構成される。
Therefore, this will be described in detail below with reference to the drawings.
(Embodiment)
FIG. 1 is a block diagram conceptually illustrating the overall configuration of the imaging apparatus 1 according to the embodiment. The lens 10 of the imaging apparatus 1 includes a zoom lens (not shown) whose focal length can be continuously changed, a focusing lens that adjusts the focus, and a VR (Vibration Reduction) lens that corrects camera shake during imaging. Composed.

レンズ10は、CPU17からの指示により不図示のレンズ駆動装置を駆動することにより制御され調整される。また、レンズ10の位置は、不図示のレンズ位置検出器によりその位置が検出され、CPU17によりフィ−ドバック制御される。   The lens 10 is controlled and adjusted by driving a lens driving device (not shown) according to an instruction from the CPU 17. The position of the lens 10 is detected by a lens position detector (not shown), and feedback control is performed by the CPU 17.

レンズ10は、撮像素子11の撮像面に被写体像を結像させる。撮像素子11は、撮像面上に結像された被写体像の光強度に応じて光電変換した電気信号を出力する。撮像素子11は、CMOS等の固体撮像素子を用いる。また、撮像素子11は、CPU17が有する不図示のタイミングジェネレ−タ等のクロック生成器からのトリガ−入力により、光電変換した電気信号を順次出力する。また、レンズ10と撮像素子11との間には、不図示の絞りが設けられ、CPU17により演算された適切な露出(自動露出AE:Auto Exposure)が指示され調整される。   The lens 10 forms a subject image on the imaging surface of the imaging element 11. The image sensor 11 outputs an electrical signal obtained by photoelectric conversion according to the light intensity of the subject image formed on the imaging surface. The image sensor 11 uses a solid-state image sensor such as a CMOS. Further, the image sensor 11 sequentially outputs electrical signals obtained by photoelectric conversion in response to a trigger input from a clock generator such as a timing generator (not shown) included in the CPU 17. In addition, a diaphragm (not shown) is provided between the lens 10 and the image sensor 11, and an appropriate exposure (auto exposure) calculated by the CPU 17 is instructed and adjusted.

撮像素子11から出力される電気信号は、アナログ信号のままCDS部12に入力されCDS(Correlated Double Sampling)処理によりノイズの低減処理がされる。また、A/D変換部13では、アナログ信号からディジタル信号へと変換処理される。ディジタル変換処理された画像デ−タは、画像処理部14に入力される。CDS部12とA/D変換部13は、撮像素子11に組み込まれる場合もある。   The electrical signal output from the image sensor 11 is input to the CDS unit 12 as an analog signal and subjected to noise reduction processing by CDS (Correlated Double Sampling) processing. The A / D converter 13 performs conversion processing from an analog signal to a digital signal. The digitally converted image data is input to the image processing unit 14. The CDS unit 12 and the A / D conversion unit 13 may be incorporated in the image sensor 11.

画像処理部14は、中央演算装置であるCPU17からの指示に従い、A/D変換部13から得られたディジタル画像デ−タに、ホワイトバランス処理、ハイパスフィルタ処理やノイズ低減処理、エッジ処理、階調処理(ガンマ補正)等の様々な画像処理の演算を行う。また、画像処理部14が備えるAWB(Auto White Balance)演算部14aでは、最適なホワイトバランス処理となるパラメ−タ値の演算と処理が行われる。   The image processing unit 14 performs white balance processing, high-pass filter processing, noise reduction processing, edge processing, step processing, and the like on the digital image data obtained from the A / D conversion unit 13 in accordance with an instruction from the CPU 17 that is a central processing unit. Various image processing operations such as tone processing (gamma correction) are performed. An AWB (Auto White Balance) calculation unit 14a included in the image processing unit 14 performs parameter value calculation and processing for optimal white balance processing.

画像処理部14で行われる種種の画像処理に必要なアルゴリズムやパラメ−タは、フラッシュメモリ19等に予め記録されており、CPU17からの指示により必要に応じてそれぞれ最適なものが読み出され、適用される。   Algorithms and parameters necessary for various types of image processing performed by the image processing unit 14 are recorded in advance in the flash memory 19 and the like, and optimum ones are read out as necessary according to instructions from the CPU 17. Applied.

画像処理部14で演算処理された画像デ−タは、RAM16等に記録することができる。RAM16は外付けのメモリとして構成してもよい。RAM16に記録しておくことで、画像デ−タを読み出して別途加工することも可能となる。また、画像処理部14は、RAM16をバッファメモリとして用い、撮像された複数フレ−ム分の画像デ−タを一時記憶するフレ−ムメモリとして用いてもよい。画像処理部14は、フレ−ムメモリから画像デ−タを適宜読み出し、画像処理後に適宜書き込みすることにより、所定の画像処理を行う。   The image data calculated by the image processing unit 14 can be recorded in the RAM 16 or the like. The RAM 16 may be configured as an external memory. By recording in the RAM 16, the image data can be read out and processed separately. Further, the image processing unit 14 may use the RAM 16 as a buffer memory, and may be used as a frame memory that temporarily stores image data for a plurality of captured frames. The image processing unit 14 performs predetermined image processing by appropriately reading image data from the frame memory and writing it appropriately after image processing.

また、撮像装置1全体の撮像動作シ−ケンスについての制御はCPU17からの指示にかかり、図示しないレリ−ズスイッチや各種設定処理等の操作を行う操作部18からの操作信号も、CPU17に入力され処理される。操作部18は、撮像装置1の電源をオンオフする電源スイッチの他、レリ−ズ釦の全押しや半押し、さらには再生画像等を更新するためのアップダウン釦等を備える。アップダウン釦は、複数抽出されて表示部15に表示された人物から所望の人物を選択したり、撮像時に手動でズ−ムレンズをテレ又はワイド側に駆動するためにも用いられる。   Further, the control of the imaging operation sequence of the entire imaging apparatus 1 is in response to an instruction from the CPU 17, and an operation signal from an operation unit 18 that performs operations such as a release switch and various setting processes (not shown) is also input to the CPU 17. And processed. The operation unit 18 includes a power switch for turning on / off the power of the imaging apparatus 1, a full-press or half-press of a release button, and an up / down button for updating a reproduced image or the like. The up / down button is also used to select a desired person from the persons extracted and displayed on the display unit 15, or to manually drive the zoom lens to the tele or wide side during imaging.

さらに、カ−ドインタ−フェ−ス1aを介してメモリカ−ド1b等に画像デ−タや画像処理にかかる様々な電子情報等を保存することも可能である。また、外部インタ−フェ−ス1cを介して、撮像装置1内の画像デ−タやプログラム等を外部媒体へ読み出し、又は書き込み、又は演算処理等を行うことができる。   Furthermore, it is also possible to store various electronic information relating to image data and image processing in the memory card 1b or the like via the card interface 1a. In addition, image data, programs, and the like in the imaging apparatus 1 can be read out or written to an external medium, or arithmetic processing can be performed via the external interface 1c.

また、表示部15には、処理した画像を表示して撮像装置1のオペレ−タが画像の確認を行い、また必要な処理情報やメニュ−等の各種案内を表示できるように構成されている。また、表示部15をタッチパネル等を用いることで入力操作が可能な構成とすることもできる。タッチパネル方式とする場合には、表示部15は操作部18の一部としても機能する。   The display unit 15 is configured to display the processed image so that the operator of the imaging apparatus 1 can confirm the image and display various processing information and various guidance such as a menu. . Further, the display unit 15 can be configured to allow an input operation by using a touch panel or the like. In the case of the touch panel system, the display unit 15 also functions as a part of the operation unit 18.

表示部15は、LCDや有機EL、無機EL等の各種表示デバイスで構成できる。表示部15は、RAM16やメモリカ−ド1bに記録されている画像デ−タや、外部インタ−フェ−ス1cを通じて外部の撮像装置等から転送されてきた画像デ−タ等を再生表示する際にも用いられる。   The display unit 15 can be composed of various display devices such as an LCD, an organic EL, and an inorganic EL. The display unit 15 reproduces and displays image data recorded in the RAM 16 and the memory card 1b, image data transferred from an external imaging device or the like through the external interface 1c, and the like. Also used for.

撮像装置1のCPU17は、AF演算部17dを備え、撮像素子11で撮像した画像デ−タを用いて最適な自動焦点調整を行うように演算し、レンズ10を制御する。また、CPU17は、撮像した画像の中に人物の顔があるかないかを検出する検出部17aを備える。   The CPU 17 of the imaging apparatus 1 includes an AF calculation unit 17d, performs calculation so as to perform optimum automatic focus adjustment using image data captured by the image sensor 11, and controls the lens 10. In addition, the CPU 17 includes a detection unit 17a that detects whether a human face is present in the captured image.

検出部17aは、撮像画像の中に人物の顔の目や鼻などに相当する部分があるのかどうかを検出することができる。検出方法として、例えば顔を2次元パタ−ンとして捉えて文字認識で確立された複合類似度などのパタ−ン認識理論、あるいは予め学習させたニュ−ラルネットワ−クを用いた抽出方法等を用いてもよい。   The detection unit 17a can detect whether or not there is a portion corresponding to the eyes or nose of a person's face in the captured image. As a detection method, for example, a pattern recognition theory such as composite similarity established by character recognition by capturing a face as a two-dimensional pattern, or an extraction method using a previously learned neural network is used. May be.

また、CPU17は、検出部17aで検出する人物の顔の特徴を抽出する特徴抽出部17bを備える。人物の顔の特徴とは、例えば目や鼻や口や耳、顔の輪郭やこれら相互の相対配置や相対的大きさ等である。特徴抽出には、例えばエッジ情報やカラ−情報、モデルマッチング等を用いることができる。   In addition, the CPU 17 includes a feature extraction unit 17b that extracts the facial features of the person detected by the detection unit 17a. The features of a person's face include, for example, eyes, nose, mouth, ears, face contours, their relative arrangement and relative size. For feature extraction, for example, edge information, color information, model matching, or the like can be used.

また、CPU17は、特徴抽出部17bで抽出された人物の顔の特徴を、予めメモリカ−ド1b等に記憶された人物の顔の特徴と比較することで、当該人物かどうかを判別する判別部17cを備える。判別部17cは、抽出された各特徴点の位置、形状、サイズをパラメ−タ化して特徴ベクトルを生成し、予めフラッシュメモリ19等に記憶されている対象人物の特徴ベクトルとの類似度を計算する。最も類似度が高い辞書ベクトルを表す人物を当人と判別する構造的解析手法を用いることができる。   Further, the CPU 17 compares the facial features of the person extracted by the feature extracting unit 17b with the facial features of the person stored in advance in the memory card 1b or the like, thereby determining whether or not the person is the person. 17c. The discriminating unit 17c generates a feature vector by parameterizing the position, shape, and size of each extracted feature point, and calculates the similarity with the feature vector of the target person stored in advance in the flash memory 19 or the like. To do. It is possible to use a structural analysis technique for discriminating a person representing a dictionary vector having the highest similarity from the person.

また、判別部17cは、目、鼻などの特徴点を基準とした2次元affine変換などの幾何学変換により位置、サイズが正規化された画像と予めフラッシュメモリ19等に記憶されている辞書正規化画像とのパタ−ンの類似度に基づいたパタ−ン的判別方法を用いる。ここでも、最も類似度が高い辞書ベクトルを表す人物を当人と判別する。   Further, the discriminating unit 17c performs normalization of an image whose position and size are normalized by geometric transformation such as two-dimensional affine transformation based on feature points such as eyes and nose, and a dictionary normal stored in the flash memory 19 or the like in advance. A pattern-like discrimination method based on the similarity of the pattern with the digitized image is used. Again, the person representing the dictionary vector with the highest similarity is identified as the person.

判別部17cは、特徴抽出部17bで抽出された人物の顔の特徴に対応する記録された該当人物がいない場合、その特徴をRAM16等に一時記録する。RAM16等への一時記録動作は、例えば表示部15に表示する該当人物のモニタ−表示へのタッチパネル入力により、CPU17が行わせる。   If there is no corresponding person recorded corresponding to the facial feature of the person extracted by the feature extraction unit 17b, the determination unit 17c temporarily records the feature in the RAM 16 or the like. The temporary recording operation to the RAM 16 or the like is performed by the CPU 17 by, for example, touch panel input to the monitor display of the corresponding person displayed on the display unit 15.

判別部17cは、RAM16等に一時記録された人物の特徴を読み出して、その後の撮像動作により取得された画像から特徴抽出部17bにより抽出された特徴とを比較することで、特定の撮像対象であるタ−ゲットに該当するかどうかを判別する。   The discriminating unit 17c reads out the characteristics of the person temporarily recorded in the RAM 16 or the like, and compares the characteristics extracted by the subsequent imaging operation with the characteristics extracted by the feature extracting unit 17b. It is determined whether or not a target is applicable.

また、AF演算部17dが行う自動焦点の演算は、撮像画像の中の所定の5個所又は9個所について行う。そして、検出部17aにより撮像画像中に人物の顔が検出された場合には、当該人物の顔について自動焦点動作を行う。人物の顔が複数検出された場合には、最も近接の顔又は撮像画像に占める面積が最も大きな顔について自動焦点合せを行う。   The autofocus calculation performed by the AF calculation unit 17d is performed at predetermined five or nine positions in the captured image. When the human face is detected in the captured image by the detection unit 17a, an autofocus operation is performed on the human face. When a plurality of human faces are detected, automatic focusing is performed on the closest face or the face having the largest area in the captured image.

撮像装置1は、検出部17aで人物の顔が検出されたにも拘わらず、判別部17cで当該人物の顔の判別を正確に行える程度に特徴抽出部17bでの特徴抽出が行えなかった場合には、別途顔判別用の画像の取り込みを行うように、CPU17が撮像素子11に画像デ−タの出力を指示する。   In the imaging apparatus 1, the feature extraction unit 17 b cannot perform feature extraction to such an extent that the person's face can be accurately identified by the determination unit 17 c even though the person's face is detected by the detection unit 17 a. In this case, the CPU 17 instructs the image sensor 11 to output image data so as to separately capture an image for face discrimination.

顔判別用の画像は、検出部17aが検出する顔に対応する部分について、CPU17がその顔部分をより高画素密度で高精細に撮像素子11に出力させることにより取得する。これについて、図2に示すズ−ムアウトの撮像例を用いて説明する。   The image for face discrimination is acquired by causing the image sensor 11 to output the face portion with higher pixel density and higher definition for the portion corresponding to the face detected by the detection unit 17a. This will be described using a zoom-out imaging example shown in FIG.

図2(a)は、運動会においてズ−ム撮影した撮像画像20を示すものである。この撮像画像20は、表示部15にモニタ−表示されている。撮像画像20では、被写体目標とするタ−ゲット21が比較的大きい。すなわち、撮像画像20に占めるタ−ゲット21の面積が比較的大きい。従って、タ−ゲット21の撮像に用いられる撮像素子11の画素数(pixel)も比較的大きく、解像度もよい。このため、特徴抽出部17bがタ−ゲット21の顔の抽出を正確に、高精度に行うことができる。   FIG. 2A shows a captured image 20 taken by zooming at an athletic meet. The captured image 20 is displayed on the display unit 15 by a monitor. In the captured image 20, the target 21 that is the subject target is relatively large. That is, the area of the target 21 in the captured image 20 is relatively large. Therefore, the number of pixels (pixels) of the image sensor 11 used for imaging the target 21 is relatively large and the resolution is good. For this reason, the feature extraction unit 17b can accurately and accurately extract the face of the target 21.

図2(b)は、図2(a)から少しズ−ムアウトした撮像画像22を示すものである。ズ−ムアウトに伴い、撮像画像22は、より広角になり撮像領域が増大する。一方、タ−ゲット23は見かけ上相対的に小さく表示され、撮像素子11でタ−ゲット23の撮像に用いられる撮像素子11の画素数は、より少なくなる。   FIG. 2B shows a captured image 22 slightly zoomed out from FIG. With zoom out, the captured image 22 becomes wider and the imaging area increases. On the other hand, the target 23 is displayed relatively small in appearance, and the number of pixels of the image sensor 11 used for imaging the target 23 by the image sensor 11 becomes smaller.

図2(c)は、図2(b)からさらにズ−ムアウトした撮像画像24を示すものである。ズ−ムアウトに伴い、撮像画像24は、さらに広角になり撮像領域が増大する。一方、タ−ゲット25は見かけ上相対的にさらに小さく表示され、撮像素子11でタ−ゲット25の撮像に用いられる撮像素子11の画素数は、さらに少なくなる。   FIG. 2C shows the captured image 24 further zoomed out from FIG. As the zoom out occurs, the captured image 24 becomes wider and the imaging area increases. On the other hand, the target 25 is displayed relatively smaller in appearance, and the number of pixels of the image sensor 11 used for imaging the target 25 by the image sensor 11 is further reduced.

このため、タ−ゲット25について、特徴抽出部17bで特徴を抽出しようとしても、図2(c)に示すタ−ゲット25の画素数では解像度が十分でなく、抽出ができないか又は信頼できる特徴の抽出が行えない。従って、判定部17cは、正確な人物の判別を行うことができず、判別不能としたり過った判別をする可能性が増大する。   For this reason, even if an attempt is made to extract features of the target 25 by the feature extraction unit 17b, the number of pixels of the target 25 shown in FIG. 2C does not have sufficient resolution, and extraction is impossible or reliable. Cannot be extracted. Accordingly, the determination unit 17c cannot accurately determine the person, and the possibility of making the determination impossible or excessive determination increases.

撮像装置1は、特徴抽出部17bが人物の特徴を信頼性高く抽出できない場合には、その人物の特徴を信頼性高く抽出できるよう高精細で高解像度の画像を取得する。具体的には、CPU17が、撮像素子11に当該人物に対応する画素部分について、より高画素密度でデ−タ出力するよう指示する。   When the feature extraction unit 17b cannot extract the feature of a person with high reliability, the imaging apparatus 1 acquires a high-definition and high-resolution image so that the feature of the person can be extracted with high reliability. Specifically, the CPU 17 instructs the image sensor 11 to output data at a higher pixel density for the pixel portion corresponding to the person.

次に図3を用いて、表示部15への表示等に用いるいわゆるスル−画像の取り込みと、特徴抽出部17bでの特徴抽出用の高画素密度取り込みについて説明する。図3(a)と図3(c)と図3(e)は、順に例えば30fpsで約30ミリ秒ごとに撮像素子11から出力され、表示部15に表示等される撮像画像31、撮像画像33、撮像画像35を示すものである。撮像画像31、33、35は、表示部15への表示等に用いられ、フレ−ムレ−トを向上させる等の目的から間引きして出力された画像デ−タを用いる。   Next, with reference to FIG. 3, a so-called through image capture used for display on the display unit 15 and a high pixel density capture for feature extraction by the feature extraction unit 17b will be described. 3A, FIG. 3C, and FIG. 3E sequentially show, for example, a captured image 31 and a captured image that are output from the image sensor 11 every 30 milliseconds at 30 fps and displayed on the display unit 15. 33 shows a captured image 35. The captured images 31, 33, and 35 are used for display on the display unit 15, and use image data that is thinned and output for the purpose of improving the frame rate.

このため、人物の顔36が検出されても、特徴抽出部17bで正確な特徴の抽出が行えない。そこで、CPU17が、撮像素子11に図3(b)や図3(d)のような高画素密度のタ−ゲット画像である人物の顔の撮像画像32、34を出力するように指示する。撮像素子11は、新たに撮像して光電変換した上で、人物の顔36に対応する撮像画像32や撮像画像34の画像デ−タを、上述のスル−画像を出力する間に30fpsで約30ミリ秒ごとに出力することとなる。従って、撮像素子11は、この場合60fpsで約15ミリ秒ごとの撮像デ−タの出力を行う。撮像画像31と撮像画像32との間では、特に設定変更等がない限り、撮像素子11全体として見ればほぼ同じ被写体を同様に撮像する。   For this reason, even if the human face 36 is detected, the feature extraction unit 17b cannot accurately extract the features. Therefore, the CPU 17 instructs the image sensor 11 to output the captured images 32 and 34 of the person's face, which are high pixel density target images as shown in FIG. 3B and FIG. The image sensor 11 newly captures and photoelectrically converts the image data of the captured image 32 and the captured image 34 corresponding to the human face 36 at about 30 fps while outputting the above-described through image. It will be output every 30 milliseconds. Accordingly, in this case, the image sensor 11 outputs image data at approximately 15 milliseconds at 60 fps. Between the captured image 31 and the captured image 32, substantially the same subject is imaged in the same manner when viewed as the entire image sensor 11 unless there is a particular change in settings.

高画素密度の画像取り込みについて、概念的に説明するのが図5の画素密度説明図である。図5(a)は広角又はズ−ムアウト状態の撮像画像53である。画素52は、撮像画像53の撮像に実効的に用いられる撮像素子11の画素を示す。画素51は、撮像画像53の撮像に実効的に用いられない撮像素子11の画素を示す。ここで、実効的に用いられる画素とは、撮像素子11の撮像面での光電変換だけでなく、その電荷が読み出され、撮像画像53として表示部15での表示又はメモリカ−ド1b等への記録に用いられるものをいう。   The pixel density explanatory diagram of FIG. 5 conceptually explains the high pixel density image capturing. FIG. 5A shows a captured image 53 in a wide-angle or zoom-out state. The pixel 52 indicates a pixel of the image sensor 11 that is effectively used for capturing the captured image 53. The pixel 51 indicates a pixel of the image sensor 11 that is not effectively used for capturing the captured image 53. Here, the pixels that are effectively used include not only photoelectric conversion on the imaging surface of the image sensor 11 but also their charges, and display them as a captured image 53 on the display unit 15 or to the memory card 1b or the like. This is used for recording.

撮像装置1は、撮像素子11が1000万ピクセル等の大きな画素からなる場合、撮像素子11の撮像面に結像する撮像画像53に対応する像について、全ての画素を読み出すことはない。   The imaging device 1 does not read out all the pixels of the image corresponding to the captured image 53 formed on the imaging surface of the imaging element 11 when the imaging element 11 is composed of large pixels such as 10 million pixels.

1000万ピクセル全てを撮像素子11から読み出し、画像処理し、表示し、記録することは、その取り扱い処理にかかるデ−タ量が多大であるので、CPU17の負荷増大とともに処理時間等の遅延を生じる。このため、動画撮像時のいわゆるフレ−ムレ−トが低下したり、静止画撮像時のレリ−ズタイムラグが増大したりする。   Reading all 10 million pixels from the image sensor 11, image processing, displaying, and recording requires a large amount of data for the handling process, and therefore causes a delay in processing time and the like as the load on the CPU 17 increases. . For this reason, the so-called frame rate at the time of moving image capturing decreases, or the release time lag at the time of still image capturing increases.

これを防ぐため、一般に動画撮像時やいわゆるスル−画像撮像時やモニタ−表示用画像撮像時には、間引きしてデ−タ量を低減した画像デ−タを用いる。画像デ−タの間引きは、撮像素子11の画素のうち所定の画素のみを読み出し画像処理等を行う。また、所定の画素以外の画素については、撮像素子11から読み出ししない又は読み出しても画像処理や記録や表示に用いない等とする。   In order to prevent this, in general, image data with a reduced amount of data is used at the time of moving image capturing, so-called through image capturing, or monitor display image capturing. In thinning out image data, only predetermined pixels of the pixels of the image sensor 11 are read and image processing is performed. In addition, pixels other than the predetermined pixels are not read from the image sensor 11 or are not used for image processing, recording, or display even if they are read.

一方、CPU17が備える特徴抽出部17bにおいては、より正確で信頼性の高い特徴抽出をするため、検出部17aで検出される顔部分について、より高精細で高解像度の画像、すなわち顔部分についてより高画素密度の画像であることが望ましい。   On the other hand, in the feature extraction unit 17b included in the CPU 17, in order to perform more accurate and reliable feature extraction, the face portion detected by the detection unit 17a is more highly detailed and high-resolution, that is, the face portion. A high pixel density image is desirable.

図5(a)においては、検出部17aで検出された人物の顔54に用いられる撮像素子11の画素が、少ないことが理解できる。撮像画像53が、約1000万ピクセルの撮像素子11を用いて約300万ピクセル相当の画素読み出し(すなわち約1/3間引き読み出し)で表示されている場合は、人物の顔54は、例えば約100万ピクセル相当となる。   In FIG. 5A, it can be understood that the number of pixels of the image sensor 11 used for the human face 54 detected by the detection unit 17a is small. When the captured image 53 is displayed by pixel readout corresponding to about 3 million pixels using the imaging device 11 of about 10 million pixels (that is, about 1/3 thinning readout), the human face 54 is, for example, about 100 It is equivalent to 10,000 pixels.

図5(b)は、人物の顔54を高画素密度読み出しする撮像画像56を示す概念図である。撮像画像56は、特徴抽出部17bでの人物の特徴抽出やAF演算部17dでの自動焦点制御の演算に用いられる。表示部15での表示や動画記録等には用いない。   FIG. 5B is a conceptual diagram showing a captured image 56 that reads out a human face 54 with high pixel density. The captured image 56 is used for human feature extraction by the feature extraction unit 17b and automatic focus control calculation by the AF calculation unit 17d. It is not used for display on the display unit 15 or moving image recording.

撮像画像56は、撮像画像53と同じ約300万ピクセルで読み出されるが、タ−ゲットとする人物の顔54部分について300万ピクセルでの読み出しとなる。このため、この画像デ−タ56を用いると、特徴抽出部17bは正確な特徴抽出が行え、判別部17cは正確で信頼性の高い人物の判別が可能となる。   The captured image 56 is read out at about 3 million pixels, which is the same as the captured image 53, but is read out at 3 million pixels for the face portion 54 of the target person. Therefore, when this image data 56 is used, the feature extraction unit 17b can perform accurate feature extraction, and the determination unit 17c can accurately determine a person with high reliability.

すなわち、撮像画像53において、人物の顔54に対応する撮像素子11の画素は、実際には約300万ピクセル相当ある。しかし、上述のような理由から、約1/3間引きして読み出ししているため、このままでは特徴抽出部17bは、人物の顔54については約100万ピクセル相当の画素デ−タしか用いることができない。   That is, in the captured image 53, the pixels of the image sensor 11 corresponding to the person's face 54 are actually about 3 million pixels. However, for the reasons described above, reading is performed with about 1/3 decimation, so that the feature extraction unit 17b can use only pixel data equivalent to about 1 million pixels for the human face 54 as it is. Can not.

そこで撮像装置1のCPU17は、撮像素子11に人物の顔54について全画素読み出しすることを指示する。そして、撮像素子11が、人物の顔54について約300万ピクセルの全画素出力することにより、撮像画像56が取得され、特徴抽出に用いることが可能となる。これにより、特徴抽出部17bは、前述の約3倍の画像デ−タを基にした特徴抽出を行えるので、信頼性高く正確な抽出となる。   Therefore, the CPU 17 of the imaging apparatus 1 instructs the imaging device 11 to read out all pixels of the human face 54. Then, when the image sensor 11 outputs all the pixels of about 3 million pixels for the human face 54, the captured image 56 is acquired and can be used for feature extraction. As a result, the feature extraction unit 17b can perform feature extraction based on about three times the above-described image data, so that the extraction can be performed with high reliability and accuracy.

また、AF演算部17dは、この画像デ−タ56を用いて自動焦点演算を行うので、より信頼性高く正確な自動焦点とすることが可能となる。換言すると、撮像素子11が高画素密度で出力するとは、被写体のあるタ−ゲットに対して、そのタ−ゲットの撮像にいくつの画素を用いて出力するのかについての高画素密度出力であるということである。   In addition, since the AF calculation unit 17d performs automatic focus calculation using the image data 56, it is possible to achieve more reliable and accurate automatic focus. In other words, that the image sensor 11 outputs at a high pixel density is a high pixel density output regarding how many pixels are used for imaging of a target with respect to a target. That is.

次に、図6に示す撮像装置1の動作フロ−の典型例について説明する。
(ステップ61)撮像装置1のオペレ−タは、撮像を開始する場合に、その準備として撮像装置1の電源をオンにする。
(ステップ62)撮像装置1のCPU17に通電され、CPU17からの指示により撮像素子11が、被写体からの入射光を光電変換してその光強度に応じた電気信号を順次出力する。この動作は、レリ−ズ動作の有無とはかかわり無く、電源オンにより実行される。これにより撮像装置1は、いわゆるスル−画像を取り込むことができる。この取り込み動作は、撮像素子11の画素の全てではなく、所定の間引きにより低減された画素について撮像装置1に取り込むものである。画素数の低減によりCPU17の負荷や、デバイス間の通信時間が低減され、いわゆるレリ−ズタイムラグの発生やフレ−ムレ−トの低下を抑制できる。
(ステップ63)ステップ62で取り込んだ画像を表示部15に表示する。表示に用いる画像デ−タは、撮像素子11から出力される間引かれた画像デ−タをA/D変換部13でディジタル変換した後、画像処理部14で所定の画像処理がされた画像デ−タをアナログ変換したものである。撮像素子11の全画素読み出しにかかる画素デ−タではないので、表示部15へ表示される画像はフレ−ムレ−トが高く維持されスム−ズであり、鑑賞に堪え得るものとなる。
(ステップ64)撮像素子11から間引かれて出力された画像デ−タ中に、人物像があるのかないのかを検出部17aが検出する。人物像とは、典型的には人の顔に相当する画像領域があるのかないのかということであるがこれに限られない。画像中に人物像が検出されればステップ65に進み、画像中に人物像が検出されなければステップ62に戻る。ステップ64の動作は、検出部17aでの検出結果に替えて又はそれと共に、表示部15へ表示する人物のタッチパネルによるオペレ−タの指示入力や操作部18からの撮像素子11のオペレ−タの入力によりタ−ゲットを指定するものであってもよい。オペレ−タからの指示入力があった場合には、検出部17aでの検出に優先させて、指定のあったタ−ゲットについてステップ65における特徴抽出を行う。
Next, a typical example of the operation flow of the imaging apparatus 1 shown in FIG. 6 will be described.
(Step 61) When starting the imaging, the operator of the imaging apparatus 1 turns on the power of the imaging apparatus 1 as a preparation.
(Step 62) The CPU 17 of the image pickup apparatus 1 is energized, and in response to an instruction from the CPU 17, the image pickup device 11 photoelectrically converts incident light from the subject and sequentially outputs electrical signals corresponding to the light intensity. This operation is executed when the power is turned on regardless of whether or not the release operation is performed. Thereby, the imaging device 1 can capture a so-called through image. In this capturing operation, not all of the pixels of the image sensor 11 but pixels reduced by predetermined thinning are captured in the image capturing apparatus 1. By reducing the number of pixels, the load on the CPU 17 and the communication time between devices are reduced, so that the occurrence of a so-called release time lag and a decrease in frame rate can be suppressed.
(Step 63) The image captured in step 62 is displayed on the display unit 15. The image data used for display is an image that has been subjected to predetermined image processing by the image processing unit 14 after digitally converting the thinned image data output from the image sensor 11 by the A / D conversion unit 13. The data is analog converted. Since the image data is not pixel data for reading out all the pixels of the image sensor 11, the image displayed on the display unit 15 is maintained at a high frame rate and is smooth and can be enjoyed for appreciation.
(Step 64) The detection unit 17a detects whether or not there is a person image in the image data output after being thinned out from the image sensor 11. A human figure typically means whether or not there is an image area corresponding to a human face, but is not limited thereto. If a person image is detected in the image, the process proceeds to step 65. If a person image is not detected in the image, the process returns to step 62. The operation of step 64 is performed in place of the detection result in the detection unit 17a or together with the instruction input of the operator using the touch panel of the person displayed on the display unit 15 and the operation of the operator of the image sensor 11 from the operation unit 18. A target may be designated by input. When there is an instruction input from the operator, the feature extraction in step 65 is performed for the designated target in preference to the detection by the detection unit 17a.

すなわち、人物の有無の判断は、表示部15に表示されるモニタ−画面からタッチパネル等で撮像装置1のオペレ−タが指定できるようにしてもよい。図4(a)に示すように、検出部17aは、撮像画像中の最も大きな至近にある顔41を検出し、自動焦点等のタ−ゲットと設定するようデフォルトのアルゴリズムが設定されている。表示部15には、自動焦点又は顔判別認証のタ−ゲットとなることを示すマ−ク41が表示される。   That is, the presence / absence of a person may be determined by the operator of the imaging apparatus 1 using a touch panel or the like from the monitor screen displayed on the display unit 15. As shown in FIG. 4A, the detection unit 17a is set to a default algorithm so as to detect the face 41 closest to the largest in the captured image and set it as a target such as autofocus. The display unit 15 displays a mark 41 indicating that it is a target for autofocus or face discrimination authentication.

しかし、撮像装置1のオペレ−タは、人物の顔42をタ−ゲットとしたい場合がある。このような場合には、表示部15に表示される画面において、手43等で希望するタ−ゲットをタッチパネル入力する。この入力により、検出部17aが検出してタ−ゲットに設定する至近の顔41に優先して、高画素密度で出力したりAF演算部17dが自動焦点の対象とするタ−ゲットが、図4(b)に示す人物の顔44となる。   However, there are cases where the operator of the imaging apparatus 1 wants to target the face 42 of the person. In such a case, on the screen displayed on the display unit 15, a desired target is input on the touch panel with the hand 43 or the like. By this input, a target that is output at a high pixel density or that is subject to autofocus by the AF calculation unit 17d is given priority over the closest face 41 that is detected by the detection unit 17a and set as a target. The face 44 of the person shown in FIG.

典型的には、運動会等において全体を撮像したりズ−ムイン撮像したりする場合でも、タ−ゲットの表示画面中での大小に関わり無く、特定のタ−ゲットを追い続けることも可能となる。自動焦点もこのタ−ゲットに合せることもできる。
(ステップ65)特徴抽出部17bは、検出部17aがステップ64で検出する人物について、その人物の特徴を抽出できるかどうかを判断する。人物の特徴とは、典型的には顔の目、鼻等の位置関係や配置などであるがこれに限られるものではない。人物の特徴が抽出できるのであればステップ66へと進み、人物の特徴が抽出できなければステップ6aへと進む。特徴抽出部17bは、抽出する人物の特徴について一定の信頼性に関わる閾値を設けることで、信頼性が所定の閾値より高い抽出ができるのであればステップ65へ進み、信頼性が所定の閾値より低い抽出しかできないのであればステップ6aに進むこととしてもよい。
(ステップ66)特徴抽出部17bは、人物の顔の特徴抽出を行う。特徴抽出部17bは、ソ−ベル等のエッジオペレ−タを用いて顔領域内のエッジを抽出し、モデル当てはめ等により目、鼻、口などを抽出してもよい。
(ステップ67)判別部17cは、特徴抽出部17bで抽出する特徴が、フラッシュメモリ19等に予め記憶されている人物の特徴と比較した結果、該当するものがあるのかないのかを判断する。記憶された特徴に該当するものがあればステップ68に進み、記憶された特徴に該当するものがなければステップ70に進む。
(ステップ68)判別部17cは、特徴抽出部17bで抽出された特徴と、フラッシュメモリ等に予め記憶されている人物の特徴とを比較して判別し、最も一致点が多く信頼性の高い人物を該当人物として認定する。
(ステップ69)撮像を終了する場合は電源をオフにし、撮影を終了しない場合はステップ62に戻る。
(ステップ70)ステップ67で、特徴抽出部17bが抽出した特徴に該当する特徴がフラッシュメモリ19等に記憶されていなければ、CPU17の指示により、抽出した特徴をRAM16等に記録する。これにより、次の取り込み画像に検出される人物についても、その抽出された特徴と記憶された特徴とを比較して判別することで、該当する同一人物(タ−ゲットに相当)であるかどうかを認定することができる。この記録動作は、CPU17自体の判断による以外に、例えば表示部15に表示される人物について撮像装置1のオペレ−タがタ−ゲットを特定しタッチパネル入力等により指定することで、指定された人物について行ってもよい。特徴の記録をすれば、ステップ62に戻り、次の画像フレ−ムの取り込みを開始する。
(ステップ6a)ステップ65で特徴抽出部17bが人物の顔の特徴を全く抽出できない場合、又は信頼性の高い特徴抽出ができない場合には、検出部17aが抽出したタ−ゲットについて撮像素子11が高画素密度で出力する。典型的には、人物の顔及びその周囲を高画素密度で出力する。例えば、ステップ62での画像取り込みにおいて、このタ−ゲットの撮像に使用する画素が100万ピクセル相当だとすれば、このステップ6aでの高画素密度取り込みでは、300万ピクセル相当とする。このステップの後工程であるステップ66では、ここで取り込んだ高画素密度の画像を用いて特徴の抽出を行う。
Typically, it is possible to continue to follow a specific target regardless of the size of the target display screen even when the entire image is taken or zoomed in at an athletic meet or the like. . Autofocus can also be adjusted to this target.
(Step 65) The feature extraction unit 17b determines whether or not the feature of the person detected by the detection unit 17a in Step 64 can be extracted. The characteristics of a person are typically the positional relationship and arrangement of face eyes, nose, etc., but are not limited thereto. If the feature of the person can be extracted, the process proceeds to step 66, and if the feature of the person cannot be extracted, the process proceeds to step 6a. The feature extraction unit 17b proceeds to step 65 if the reliability of a person's feature to be extracted can be extracted with a reliability higher than a predetermined threshold by providing a threshold related to a certain reliability, and the reliability exceeds the predetermined threshold. If only a low extraction can be performed, the process may proceed to step 6a.
(Step 66) The feature extraction unit 17b performs feature extraction of a person's face. The feature extraction unit 17b may extract an edge in the face region using an edge operator such as a sobel, and may extract eyes, nose, mouth, and the like by model fitting or the like.
(Step 67) As a result of comparing the feature extracted by the feature extraction unit 17b with the feature of the person stored in advance in the flash memory 19 or the like, the determination unit 17c determines whether there is a corresponding one. If there is a feature corresponding to the stored feature, the process proceeds to step 68, and if there is no feature corresponding to the stored feature, the process proceeds to step 70.
(Step 68) The discriminating unit 17c discriminates by comparing the features extracted by the feature extracting unit 17b with the characteristics of a person stored in advance in a flash memory or the like, and has the highest number of matching points and is highly reliable. Is recognized as an appropriate person.
(Step 69) The power is turned off when the imaging is finished, and the process returns to Step 62 when the imaging is not finished.
(Step 70) If the feature corresponding to the feature extracted by the feature extraction unit 17b is not stored in the flash memory 19 or the like in step 67, the extracted feature is recorded in the RAM 16 or the like according to an instruction from the CPU 17. As a result, whether or not the person detected in the next captured image is the same corresponding person (corresponding to the target) by comparing the extracted feature with the stored feature is determined. Can be certified. In addition to the determination of the CPU 17 itself, this recording operation is performed by, for example, the operator of the imaging apparatus 1 specifying the target for the person displayed on the display unit 15 and specifying it by touch panel input or the like. You may go about. If the feature has been recorded, the process returns to step 62 to start capturing the next image frame.
(Step 6a) If the feature extraction unit 17b cannot extract the feature of the person's face at all in Step 65, or if the feature extraction cannot be performed with high reliability, the image pickup device 11 uses the target extracted by the detection unit 17a. Output at high pixel density. Typically, a human face and its surroundings are output at a high pixel density. For example, in the image capture in step 62, if the pixels used for imaging the target are equivalent to 1 million pixels, the high pixel density capture in step 6a is equivalent to 3 million pixels. In step 66, which is a subsequent process of this step, features are extracted using the high pixel density image captured here.

ここで、ステップ64にてタ−ゲットを図4(a)の人物の顔42と指定した場合には、図4(c)に示すように人物の顔44を高画素密度で取り込む。高画素密度で取り込む人物の顔45は、その周囲部分も含めてやや余裕を持って取り込むことが好ましい。取り込み間隔は、約33ミリ秒等と非常に短いものであるが、被写体のタ−ゲットも多少動くことが考えられ、また撮像装置1自体のアングル等がこの間に変わった場合でも対応できることとなる。この場合、CPU17が、タ−ゲットの周囲に少し余裕を持たせた領域を演算し、撮像素子11に当該領域を高精細に出力させる。
(ステップ6b)CPU17が自動焦点制御の対象を変更し、AF演算部17dは、ステップ6aで取り込んだ高画素密度の画像を用いてAF制御をする。AF演算部17dは、デフォルト撮像においては図7(a)に示すように被写体中の定点71五箇所についての画像を基に、自動焦点演算を行う。
If the target is designated as the human face 42 in FIG. 4A in step 64, the human face 44 is captured at a high pixel density as shown in FIG. 4C. It is preferable that the person's face 45 captured at a high pixel density is captured with some margin including the surrounding area. Although the capture interval is very short, such as about 33 milliseconds, it is conceivable that the subject's target may move somewhat, and even if the angle of the imaging device 1 itself changes during this time, it will be possible to cope. . In this case, the CPU 17 calculates a region having a little margin around the target, and causes the image sensor 11 to output the region with high definition.
(Step 6b) The CPU 17 changes the target of automatic focus control, and the AF calculation unit 17d performs AF control using the high pixel density image captured in Step 6a. In default imaging, the AF calculation unit 17d performs automatic focus calculation based on images of five fixed points 71 in the subject as shown in FIG.

一方、自動焦点演算は、演算に用いる画像が高画素密度であればあるほど、より多くの画像デ−タから演算できるので、安定して高精度の自動焦点演算が可能となる。このため、CPU17は、自動焦点に用いるタ−ゲットを図7(b)に示す人物の顔72に変更し、AF演算部17dは、人物の顔72について高画素密度で取り込まれる画像デ−タにより自動焦点演算を行う。   On the other hand, in the autofocus calculation, the higher the pixel density of the image used for the calculation, the more the image data can be calculated. Therefore, the autofocus calculation can be stably performed with high accuracy. For this reason, the CPU 17 changes the target used for auto-focusing to the person's face 72 shown in FIG. 7B, and the AF operation unit 17d captures the image data captured at a high pixel density for the person's face 72. To perform autofocus calculation.

AF演算部17dは、例えばコントラスト法により自動焦点演算を行うことができる。コントラスト法とは、像のボケとコントラストと間の相関関係を利用して、コントラストが最大になる焦点位置を、最適な焦点であるとする自動焦点演算である。   The AF calculation unit 17d can perform autofocus calculation by, for example, a contrast method. The contrast method is an automatic focus calculation that uses a correlation between image blur and contrast to determine that the focus position at which the contrast is maximized is the optimum focus.

なお、この実施形態で述べる撮像素子11の全体画素数は、典型例として1ギガピクセルとして説明したが、これに限られることはなく所望の画素数の撮像素子を用いることができる。また、撮像素子11は、CMOSやCCD等の固体撮像素子の他、任意のイメ−ジセンサを用いてもよい。   The total number of pixels of the image sensor 11 described in this embodiment has been described as one gigapixel as a typical example, but is not limited thereto, and an image sensor having a desired number of pixels can be used. Further, the image sensor 11 may be an arbitrary image sensor in addition to a solid-state image sensor such as a CMOS or a CCD.

また、フレ−ムレ−トは、30fpsや60fpsでなくても、90fpsとしてもよく、その他任意のフレ−ムレ−トとすることができる。また、スル−画像用の画像デ−タと高精細の画像デ−タとを撮像素子11から出力するに際し、必ずしも交互に出力する必要はない。例えば、高精細で出力したいタ−ゲットが二つある場合には、スル−画像用の画像デ−タの出力の間に、高精細な画像をそれぞれ出力してもよい。この場合には、撮像素子11全体としては、90fpsでの出力となる。また、高精細で出力したいタ−ゲットが三以上ある場合には、至近から上位三人を取り込むこととしてもよい。フレ−ムレ−トとの関係を適宜調整することにより、スル−画像間に高精細で取り込む画像数とその対象を適宜設計してもよい。また、タッチパネル等により指定された三人をタ−ゲットとして取り込むこととしてもよい。   The frame rate is not limited to 30 fps or 60 fps, but may be 90 fps, or any other frame rate. Further, when the image data for the through image and the high-definition image data are output from the image sensor 11, it is not always necessary to output them alternately. For example, when there are two targets to be output with high definition, high-definition images may be output during the output of the image data for the through image. In this case, the entire image sensor 11 outputs at 90 fps. In addition, when there are three or more targets to be output in high definition, the top three persons may be fetched from the nearest. By appropriately adjusting the relationship with the frame rate, the number of images to be captured with high definition between the through images and the object may be appropriately designed. It is also possible to fetch three persons designated by a touch panel or the like as a target.

また、この実施形態で説明するように、スル−画像用の画像デ−タの出力と高精細の画像デ−タの出力とを、別個独立の時間に出力しなくてもよい。スル−画像用の画像デ−タの出力の一部を高精細な画像デ−タの一部として共有することで、撮像素子11から効率的な読み出しができる構成としてもよい。   Further, as described in this embodiment, the output of the image data for the through image and the output of the high-definition image data need not be output at separate times. By sharing a part of the output of the image data for the through image as a part of the high-definition image data, the image sensor 11 may be configured to perform efficient reading.

撮像装置1は、光学ズ−ムを用いることなくタ−ゲット及びその周囲の被写体を高画素密度で取得することができる。これにより、安定して高精度な自動焦点とし、また高精度で正確なタ−ゲットの特徴抽出が安定して行える。従って、抽出するその特徴に基づき、正確な人物の判別、認証が安定して行える。   The imaging apparatus 1 can acquire the target and the surrounding object with high pixel density without using an optical zoom. As a result, a stable and highly accurate autofocus can be obtained, and target features can be extracted with high accuracy and accuracy. Therefore, accurate person identification and authentication can be stably performed based on the extracted features.

また、高画素密度で取り込むタ−ゲットの像は、仮に表示部に表示したと仮定する場合に、表示部15に表示するスル−画像と比較して常に一定の拡大倍率となるように、予め所定の倍率を設定しておいてもよい。この場合には、撮像素子11は、CPU17の指示により、タ−ゲットとその周囲について設定された一定の倍率となるように高画素密度で出力する。また、上記一定の拡大倍率は、標準の画像に対して任意に設定された拡大倍率となるようにしてもよい。   In addition, if it is assumed that the target image captured at a high pixel density is displayed on the display unit, the target image is always set at a constant magnification compared to the through image displayed on the display unit 15 in advance. A predetermined magnification may be set. In this case, the image sensor 11 outputs at a high pixel density so as to obtain a constant magnification set for the target and its surroundings according to an instruction from the CPU 17. Further, the fixed enlargement magnification may be an enlargement magnification arbitrarily set for a standard image.

また、タ−ゲットとなる人物の顔等が、所定の画素数を用いた高画素密度出力となるように、表示部15や操作部18から設定する構成としてもよい。例えば、特徴抽出部17bでの人物の顔の特徴抽出に、人物の顔を200万ピクセル相当の画素数で撮像する画像デ−タが適するのであれば、高画素密度出力は、タ−ゲットを200万ピクセルで出力することとできる。また、200万ピクセルでなくても、特徴抽出部17や判別部17cでの処理に最適な画素密度でタ−ゲットの出力をするように設定してもよい。   In addition, the configuration may be such that the face of the person serving as the target is set from the display unit 15 or the operation unit 18 so as to obtain a high pixel density output using a predetermined number of pixels. For example, if image data that captures a person's face with a pixel count equivalent to 2 million pixels is suitable for the feature extraction of the person's face in the feature extraction unit 17b, the high pixel density output is the target. The output can be 2 million pixels. Further, even if it is not 2 million pixels, it may be set so that the target is output at a pixel density optimum for processing in the feature extraction unit 17 and the discrimination unit 17c.

また、撮像装置1は、スル−画像等について撮像素子11からの出力時点でいわゆる画素間引きを行うが、これに限られず、間引く工程は任意に構成してもよい。ただし、撮像素子11に近い前工程の段階で画像デ−タを間引いて処理する方が、その後の後工程すべてについて処理デ−タ量の低減につながるので好ましい。また、間引く方法は垂直間引き、水平間引き等任意の手法を用いることができる。撮像装置1は、自明な範囲で適宜設計変更し、設定調整し、構成を変更して用いてもよい。   The imaging apparatus 1 performs so-called pixel thinning at the time of output from the imaging element 11 for a through image or the like, but is not limited thereto, and the thinning process may be arbitrarily configured. However, it is preferable to thin out and process the image data at the stage of the previous process close to the image pickup device 11 because the processing data amount is reduced for all subsequent processes. As a thinning method, any method such as vertical thinning and horizontal thinning can be used. The imaging apparatus 1 may be used by changing the design as appropriate within the obvious range, adjusting the settings, and changing the configuration.

本発明は、被写体からの入射光を撮像素子で光電変換して取り込む撮像装置に広く適用できる。   The present invention can be widely applied to image pickup apparatuses that take in incident light from a subject by photoelectric conversion with an image pickup device.

撮像装置の構成ブロック図Configuration block diagram of imaging device ズ−ムアウトの撮像例Zoom out imaging example スル−画像と高画素密度画像の説明概念図Conceptual diagram of through image and high pixel density image オペレ−タにより人物指定の説明図Illustration of person designation by operator 画素密度説明概念図Pixel density explanatory conceptual diagram 撮像装置の動作フロ−Operation flow of imaging device 自動焦点の説明概念図Conceptual diagram explaining autofocus

符号の説明Explanation of symbols

1・・撮像装置、10・・レンズ、11・・撮像素子、12・・CDS部、13・・A/D変換部、14・・画像処理部、15・・表示部、16・・RAM、17・・CPU、18・・操作部、19・・フラッシュメモリ、1a・・カ−ドインタ−フェ−ス、1b・・メモリ−カ−ド、1c・・外部インタ−フェ−ス、17a・・検出部、17b・・特徴抽出部、17c・・判別部、17d・・AF演算部 DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Lens, 11 ... Imaging element, 12 ... CDS part, 13 ... A / D conversion part, 14 ... Image processing part, 15 ... Display part, 16 ... RAM, 17 ..CPU, 18 ..Operating section, 19 ..flash memory, 1a .. card interface, 1b ..memory card, 1c ..external interface, 17a .. Detection unit, 17b... Feature extraction unit, 17c... Discrimination unit, 17d.

Claims (10)

撮像素子で受光する入射光を光電変換して画像を取り込む撮像装置において、
該撮像装置は、
該撮像素子から取り込んだ画像中に人物がいるかどうかを検出する検出部を備え、
該撮像素子は、
記録又はモニタ−表示に用いる被写体を所定の画素密度で出力する低画素密度出力モ−ドと、
該検出部が検出する該人物を該所定の画素密度より高い画素密度で出力する高画素密度出力モ−ドとを備え、
さらに該撮像装置は、該撮像素子が高画素密度出力モ−ドで出力する画像から、該検出部が検出する人物の特徴を抽出する特徴抽出部を備える
ことを特徴とする撮像装置。
In an imaging device that captures an image by photoelectrically converting incident light received by an imaging device,
The imaging device
A detection unit for detecting whether a person is present in the image captured from the image sensor;
The image sensor
A low pixel density output mode for outputting a subject used for recording or monitor display at a predetermined pixel density;
A high pixel density output mode for outputting the person detected by the detection unit at a pixel density higher than the predetermined pixel density;
The imaging apparatus further includes a feature extraction unit that extracts a feature of a person detected by the detection unit from an image output by the imaging element in a high pixel density output mode.
請求項1に記載の撮像装置において、
前記撮像装置は、
前記撮像素子が高画素密度出力モ−ドで出力する画像により自動焦点合わせをするAF部
を備えることを特徴とする撮像装置。
The imaging device according to claim 1,
The imaging device
An image pickup apparatus comprising: an AF unit that performs automatic focusing on an image output by the image pickup element in a high pixel density output mode.
被写体からの入射光を撮像素子で光電変換して画像を取り込む撮像装置において、
該撮像素子は、
該撮像素子から、記録又はモニタ−表示に用いる複数の被写体画像を順次出力する間に、
被写体の特徴抽出に用いる該被写体画像の一部を該順次出力するよりも高画素密度で出力する
ことを特徴とする撮像装置。
In an imaging device that captures an image by photoelectrically converting incident light from a subject with an imaging device,
The image sensor
While sequentially outputting a plurality of subject images used for recording or monitor display from the imaging device,
An imaging apparatus that outputs a part of the subject image used for subject feature extraction at a higher pixel density than the sequential output.
請求項3に記載する撮像装置において、
被写体の特徴抽出に用いる前記被写体画像の一部は、人物の顔である
ことを特徴とする撮像装置。
The imaging device according to claim 3,
An image pickup apparatus, wherein a part of the subject image used for subject feature extraction is a human face.
請求項3又は請求項4に記載する撮像装置において、
被写体の特徴抽出に用いる高画素密度で出力される前記被写体画像の一部により自動焦点制御を行うAF部を備える
ことを特徴とする撮像装置。
In the imaging device according to claim 3 or 4,
An imaging apparatus comprising: an AF unit that performs automatic focus control based on a part of the subject image output at a high pixel density used for subject feature extraction.
請求項5に記載する撮像装置において、
前記撮像装置は、
前記被写体画像中の人物の顔の有無を検出する検出部と、
該検出部が検出した人物の顔の特徴を抽出する特徴抽出部と、
該特徴抽出部が抽出する該人物の顔の特徴に基づいて該被写体画像の人物の顔を判別する判別部と、
該特徴抽出部が該人物の顔の特徴を抽出できないときに、該人物に対応する画像を該被写体画像より高画素密度で撮像素子に出力させるCPUと
を備え、
前記AF部は、
該高画素密度で出力される画像を用いて自動焦点制御を行う
ことを特徴とする撮像装置。
In the imaging device according to claim 5,
The imaging device
A detection unit for detecting the presence or absence of a human face in the subject image;
A feature extraction unit for extracting features of the face of the person detected by the detection unit;
A discriminator for discriminating a person's face in the subject image based on features of the person's face extracted by the feature extractor;
A CPU for causing the image sensor to output an image corresponding to the person at a higher pixel density than the subject image when the feature extraction unit cannot extract the facial feature of the person;
The AF unit is
An image pickup apparatus that performs automatic focus control using an image output at the high pixel density.
被写体からの入射光を撮像素子で光電変換して画像を順次取り込む撮像装置において、
記録又はモニタ−表示に用いる被写体画像を該撮像素子から取り込む第一の取り込み工程と、
該被写体画像の一部に対して該第一の取り込み工程で取り込んだ画素密度より大きな画素密度で、該被写体画像の一部に対応する画像を取り込む第二の取り込み工程と
を有する
ことを特徴とする撮像装置の画像取り込み方法。
In an imaging device that sequentially captures images by photoelectrically converting incident light from a subject with an imaging device,
A first capturing step for capturing a subject image used for recording or monitor display from the image sensor;
A second capturing step of capturing an image corresponding to the part of the subject image at a pixel density greater than the pixel density captured in the first capturing step for a part of the subject image. Image capturing method of an imaging apparatus.
請求項7に記載する撮像装置の画像取り込み方法において、
前記第一の取り込み工程で取り込んだ被写体画像中の人物の顔の有無を検出する工程と、
人物の顔が検出されると該人物の顔の特徴を抽出する工程と、
該人物の顔の特徴を抽出できないと、該人物の顔に対応する被写体を取り込む第二の取り込み工程とを有する
ことを特徴とする撮像装置の画像取り込み方法。
The image capturing method of the imaging device according to claim 7,
Detecting the presence or absence of a human face in the subject image captured in the first capturing step;
Extracting a feature of the person's face when the person's face is detected;
An image capturing method for an imaging apparatus, comprising: a second capturing step for capturing a subject corresponding to the face of the person when the facial feature of the person cannot be extracted.
請求項7又は請求項8に記載する撮像装置の画像取り込み方法において、
複数の被写体画像を前記第一の取り込み工程により順次取り込む間に、前記第二の取り込み工程を行う
ことを特徴とする撮像装置の画像取り込み方法。
In the image capturing method of the imaging device according to claim 7 or 8,
An image capturing method for an imaging apparatus, wherein the second capturing step is performed while a plurality of subject images are sequentially captured by the first capturing step.
撮像素子で受光する入射光を光電変換して被写体画像を順次取り込む撮像装置であって、
該撮像装置は、取り込んだ被写体画像から人物の顔を検出する検出部と、
該検出部が検出する人物の顔の特徴を抽出する特徴抽出部とを備え、
該特徴抽出部が人物の顔の特徴を抽出できない場合に、CPUが、該人物の顔をより高画素密度で該撮像素子から出力させる工程と、
該特徴抽出部が、より高画素密度の該人物の顔を取り込み、取り込んだ該人物の顔の画像から該人物の特徴を抽出する工程と
を有することを特徴とする人物の顔の特徴抽出方法。
An imaging device that sequentially captures subject images by photoelectrically converting incident light received by an imaging device,
The imaging device includes a detection unit that detects a human face from a captured subject image;
A feature extraction unit that extracts the facial features of the person detected by the detection unit;
When the feature extraction unit cannot extract the features of a person's face, the CPU outputs the person's face from the image sensor at a higher pixel density;
The feature extraction unit includes a step of capturing the face of the person having a higher pixel density and extracting the feature of the person from the captured image of the person's face. .
JP2007242885A 2007-09-19 2007-09-19 Method of capturing image of imaging device, and imaging device using the method Withdrawn JP2009077066A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007242885A JP2009077066A (en) 2007-09-19 2007-09-19 Method of capturing image of imaging device, and imaging device using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007242885A JP2009077066A (en) 2007-09-19 2007-09-19 Method of capturing image of imaging device, and imaging device using the method

Publications (1)

Publication Number Publication Date
JP2009077066A true JP2009077066A (en) 2009-04-09

Family

ID=40611638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007242885A Withdrawn JP2009077066A (en) 2007-09-19 2007-09-19 Method of capturing image of imaging device, and imaging device using the method

Country Status (1)

Country Link
JP (1) JP2009077066A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003298A (en) * 2011-06-15 2013-01-07 Canon Inc Imaging apparatus, control method therefor, and program
JPWO2017135276A1 (en) * 2016-02-01 2018-11-22 ソニー株式会社 Control device, control method, and control program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003298A (en) * 2011-06-15 2013-01-07 Canon Inc Imaging apparatus, control method therefor, and program
JPWO2017135276A1 (en) * 2016-02-01 2018-11-22 ソニー株式会社 Control device, control method, and control program

Similar Documents

Publication Publication Date Title
JP5251215B2 (en) Digital camera
KR100738492B1 (en) Image capture apparatus and control method therefor
KR100906522B1 (en) Imaging apparatus, data extraction method, and data extraction program recording medium
JP5736796B2 (en) Electronic camera, program and recording medium
JP2006208558A (en) Imaging device
JP2006319596A (en) Imaging apparatus and imaging method
US20070237513A1 (en) Photographing method and photographing apparatus
JP2007215091A (en) Imaging apparatus and program therefor
WO2017037978A1 (en) Detection device, detection method, detection program, and imaging device
JP2011182252A (en) Imaging device, and image imaging method
JP2010165012A (en) Imaging apparatus, image retrieval method, and program
JP2010171797A (en) Imaging apparatus and program
JP2009010616A (en) Imaging device and image output control method
JP2008299784A (en) Object determination device and program therefor
JP2011217103A (en) Compound eye photographing method and apparatus
KR101325002B1 (en) Image processing device, image processing metho and recording medium
JP2010160297A (en) Imaging apparatus, automatic focusing method, and computer program
JP2008301162A (en) Photography device, and photographing method
KR20120080376A (en) Digital image photographing apparatus and method for controlling the same
JP4998122B2 (en) Imaging apparatus and program thereof
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP2011107550A (en) Imaging apparatus
JP2009077066A (en) Method of capturing image of imaging device, and imaging device using the method
JP2010192956A (en) Imaging apparatus, and speaking person recognition method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101207