JP2014030095A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2014030095A
JP2014030095A JP2012169427A JP2012169427A JP2014030095A JP 2014030095 A JP2014030095 A JP 2014030095A JP 2012169427 A JP2012169427 A JP 2012169427A JP 2012169427 A JP2012169427 A JP 2012169427A JP 2014030095 A JP2014030095 A JP 2014030095A
Authority
JP
Japan
Prior art keywords
image
electronic
recording
imaging
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012169427A
Other languages
Japanese (ja)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2012169427A priority Critical patent/JP2014030095A/en
Publication of JP2014030095A publication Critical patent/JP2014030095A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To diversify recorded moving images.SOLUTION: An image sensor 16 outputs raw image data corresponding to an optical image captured on an imaging surface at every 1/240 second. YUV image data based on the outputted raw image data is acquired at every 1/60 second. Also, a part of the YUV image data belonging to a main subject area MN among the YUV image data based on the outputted raw image data is acquired at every 1/240 second. In a moving image file FM1 formed in a recording medium 42, the YUV image data acquired at every 1/60 second is stored. Also, in a moving image file FM2 formed in the recording medium 42, the YUV image data acquired at every 1/240 second is stored.

Description

この発明は、電子カメラに関し、特に複数の動画像を記録する、電子カメラに関する。   The present invention relates to an electronic camera, and more particularly to an electronic camera that records a plurality of moving images.

この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、レンズによる広い画角による第1撮像範囲の画素信号が第1AFEによって読み出される。同じレンズによる狭い画角による第2撮像範囲の画素信号が第2AFEによって読み出される。撮像素子が1回露光された後に、第1撮像範囲の画素信号および第2撮像範囲の画素信号の読み出しが連続して行われる。2つの画素信号には、同一露光の画素信号が共通して利用される。それぞれ読み出された画素信号は、信号処理部で圧縮等所定の画像処理が施される。処理された第1画像がメモリに記録される。第2画像が補助メモリに記録される。これにより2つの動画像が同時に記録される。   An example of this type of camera is disclosed in Patent Document 1. According to this background art, the pixel signal in the first imaging range with a wide angle of view by the lens is read out by the first AFE. A pixel signal in the second imaging range with a narrow angle of view by the same lens is read out by the second AFE. After the image sensor is exposed once, readout of the pixel signals in the first imaging range and the pixel signals in the second imaging range is continuously performed. The two pixel signals share the same exposure pixel signal. Each read pixel signal is subjected to predetermined image processing such as compression by a signal processing unit. The processed first image is recorded in the memory. The second image is recorded in the auxiliary memory. As a result, two moving images are recorded simultaneously.

特開2007−259155号公報JP 2007-259155 A

しかし、背景技術では、2つの動画像の画質について記述されておらず、2つの動画像の画質が共通する場合等に画像処理の負荷が増大し、動画像の記録性能が低下する恐れがある。   However, in the background art, the image quality of the two moving images is not described, and when the image quality of the two moving images is common, the load of image processing increases, and there is a possibility that the recording performance of the moving image is deteriorated. .

それゆえに、この発明の主たる目的は、動画像の記録性能を高めることができる、電子カメラを提供することである。   Therefore, a main object of the present invention is to provide an electronic camera that can improve the recording performance of moving images.

この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段(16)、撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得手段(S169)、撮像手段から出力された電子画像の一部を電子画像の出力に関連して繰り返し切り出す切り出し手段(S125, S127, S129, S161)、切り出し手段によって切り出された部分画像を取得する処理を第1周期よりも短い第2周期で実行する第2取得手段(S163)、第1取得手段によって取得された複数の電子画像を用いて動画像を記録する第1記録手段(S147, S153, S175)、および第2取得手段によって取得された複数の部分画像を用いて動画像を記録する第2記録手段(S149, S155, S177)を備える。   An electronic camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) is an image pickup means (16) for repeatedly outputting an electronic image corresponding to an optical image captured on the image pickup surface, and is output from the image pickup means. First acquisition means (S169) for executing processing for acquiring an electronic image in a first period, and clipping means for repeatedly cutting out a part of the electronic image output from the imaging means in association with the output of the electronic image (S125, S127, S129, S161), a second acquisition unit (S163) that executes a process for acquiring the partial image cut out by the cutout unit in a second cycle shorter than the first cycle, and a plurality of electronic images acquired by the first acquisition unit The first recording means (S147, S153, S175) for recording a moving image using the second recording means (S149, S155, S175, for recording a moving image using a plurality of partial images acquired by the second acquisition means) S177).

好ましくは、撮像手段から出力された電子画像から特定物体像を繰り返し探索する探索手段(S47, S63)がさらに備えられ、切り出し手段は、探索手段の探索結果に基づいて切り出し領域を設定する領域設定手段(S125, S127, S129)、および撮像手段から出力された電子画像のうち領域設定手段によって設定された領域を抽出する抽出手段(S161)を含む。   Preferably, search means (S47, S63) for repeatedly searching for a specific object image from the electronic image output from the imaging means is further provided, and the cutout means sets the cutout area based on the search result of the search means Means (S125, S127, S129) and extraction means (S161) for extracting an area set by the area setting means from the electronic image output from the imaging means.

或る局面では、設定手段は、特定物体像の発見に関連して特定物体像を含む領域を切り出し領域に設定する第1設定手段(S125, S127)、および特定物体像の非発見に関連して既定領域を切り出し領域に設定する第2設定手段(S129)を含む。   In one aspect, the setting means relates to first setting means (S125, S127) for setting a region including the specific object image as a cutout region in relation to discovery of the specific object image, and non-discovery of the specific object image. Second setting means (S129) for setting the default area as the cutout area.

他の局面では、特定物体像は人物の顔画像に相当する。   In another aspect, the specific object image corresponds to a human face image.

その他の局面では、特定物体像は人物の人体画像に相当する。   In other aspects, the specific object image corresponds to a human body image.

この発明に従う撮像制御プログラムは、撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段(16)を備える電子カメラ(10)のプロセッサ(26)に、撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得ステップ(S169)、撮像手段から出力された電子画像の一部を電子画像の出力に関連して繰り返し切り出す切り出しステップ(S125, S127, S129, S161)、切り出しステップによって切り出された部分画像を取得する処理を第1周期よりも短い第2周期で実行する第2取得ステップ(S163)、第1取得ステップによって取得された複数の電子画像を用いて動画像を記録する第1記録ステップ(S147, S153, S175)、および第2取得ステップによって取得された複数の部分画像を用いて動画像を記録する第2記録ステップ(S149, S155, S177)を実行させるための、撮像制御プログラムである。   The imaging control program according to the present invention is output from the imaging means to the processor (26) of the electronic camera (10) including the imaging means (16) that repeatedly outputs an electronic image corresponding to the optical image captured on the imaging surface. A first acquisition step (S169) for executing processing for acquiring an electronic image in a first period, and a cutout step (S125, S127, S129, S161), a second acquisition step (S163) in which processing for acquiring the partial image cut out by the cut-out step is executed in a second period shorter than the first period, and a plurality of electronic images acquired by the first acquisition step The first recording step (S147, S153, S175) for recording a moving image using the second recording step (S149, S155, S175, for recording the moving image using the plurality of partial images acquired by the second acquisition step)This is an imaging control program for executing S177).

この発明に従う撮像制御方法は、撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段(16)を備える電子カメラ(10)によって実行される撮像制御方法であって、撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得ステップ(S169)、撮像手段から出力された電子画像の一部を電子画像の出力に関連して繰り返し切り出す切り出しステップ(S125, S127, S129, S161)、切り出しステップによって切り出された部分画像を取得する処理を第1周期よりも短い第2周期で実行する第2取得ステップ(S163)、第1取得ステップによって取得された複数の電子画像を用いて動画像を記録する第1記録ステップ(S147, S153, S175)、および第2取得ステップによって取得された複数の部分画像を用いて動画像を記録する第2記録ステップ(S149, S155, S177)を備える。   An imaging control method according to the present invention is an imaging control method executed by an electronic camera (10) including an imaging means (16) that repeatedly outputs an electronic image corresponding to an optical image captured on an imaging surface, the imaging means A first acquisition step (S169) for executing processing for acquiring an electronic image output from the first period, and a clipping step for repeatedly cutting out a part of the electronic image output from the imaging means in association with the output of the electronic image ( S125, S127, S129, S161), a second acquisition step (S163) in which the process of acquiring the partial image extracted by the extraction step is executed in a second period shorter than the first period, acquired by the first acquisition step First recording step (S147, S153, S175) for recording a moving image using a plurality of electronic images, and second recording for recording a moving image using a plurality of partial images acquired by the second acquisition step Comprising a step (S149, S155, S177).

この発明に従う外部制御プログラムは、撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段(16)、およびメモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)に供給される外部制御プログラムであって、撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得ステップ(S169)、撮像手段から出力された電子画像の一部を電子画像の出力に関連して繰り返し切り出す切り出しステップ(S125, S127, S129, S161)、切り出しステップによって切り出された部分画像を取得する処理を第1周期よりも短い第2周期で実行する第2取得ステップ(S163)、第1取得ステップによって取得された複数の電子画像を用いて動画像を記録する第1記録ステップ(S147, S153, S175)、および第2取得ステップによって取得された複数の部分画像を用いて動画像を記録する第2記録ステップ(S149, S155, S177)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   An external control program according to the present invention includes an imaging unit (16) that repeatedly outputs an electronic image corresponding to an optical image captured on an imaging surface, and a processor that executes processing according to an internal control program stored in a memory (44) ( 26) an external control program supplied to an electronic camera (10) comprising a first acquisition step (S169) for executing a process for acquiring an electronic image output from the imaging means in a first period; A cutout step (S125, S127, S129, S161) for repeatedly cutting out a part of the output electronic image in association with the output of the electronic image, and a process for obtaining the partial image cut out by the cutout step is shorter than the first period. A second acquisition step (S163) executed in the second period, a first recording step (S147, S153, S175) for recording a moving image using a plurality of electronic images acquired in the first acquisition step; And an external control for causing the processor to execute a second recording step (S149, S155, S177) for recording a moving image using the plurality of partial images acquired in the second acquisition step in cooperation with the internal control program. It is a program.

この発明に従う電子カメラ(10)は、撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段(16)、外部制御プログラムを取り込む取り込み手段(60)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備える電子カメラであって、外部制御プログラムは、撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得ステップ(S169)、撮像手段から出力された電子画像の一部を電子画像の出力に関連して繰り返し切り出す切り出しステップ(S125, S127, S129, S161)、切り出しステップによって切り出された部分画像を取得する処理を第1周期よりも短い第2周期で実行する第2取得ステップ(S163)、第1取得ステップによって取得された複数の電子画像を用いて動画像を記録する第1記録ステップ(S147, S153, S175)、および第2取得ステップによって取得された複数の部分画像を用いて動画像を記録する第2記録ステップ(S149, S155, S177)を内部制御プログラムと協働して実行するプログラムに相当する。   An electronic camera (10) according to the present invention is captured by an imaging means (16) that repeatedly outputs an electronic image corresponding to an optical image captured on an imaging surface, a capturing means (60) that captures an external control program, and a capturing means. The electronic camera includes a processor (26) that executes processing according to the external control program and the internal control program stored in the memory (44), and the external control program acquires an electronic image output from the imaging unit. A first acquisition step (S169) for executing the processing in a first cycle, a cutout step (S125, S127, S129, S161) for repeatedly cutting out a part of the electronic image output from the imaging means in association with the output of the electronic image; According to a second acquisition step (S163) and a first acquisition step in which the process of acquiring the partial image cut out by the cutout step is executed in a second period shorter than the first period. A first recording step (S147, S153, S175) for recording a moving image using a plurality of electronic images acquired in step S1 and a first recording step for recording a moving image using a plurality of partial images acquired in the second acquisition step. This corresponds to a program that executes the two recording steps (S149, S155, S177) in cooperation with the internal control program.

この発明によれば、2つの動画像のうち、一方の動画像には、撮像手段から出力された電子画像が用いられる。また、他方の動画像には、撮像手段から出力された電子画像から切り出された部分画像が用いられる。切り出された部分画像は、撮像手段から出力された電子画像よりも画素数が少なく処理の負荷が小さいので、短い周期で取得して動画像の記録に用いることができる。したがって、動画像の記録性能を向上させることができる。   According to the present invention, an electronic image output from the imaging unit is used for one of the two moving images. Moreover, the partial image cut out from the electronic image output from the imaging means is used for the other moving image. Since the cut out partial image has a smaller number of pixels and a smaller processing load than the electronic image output from the imaging unit, it can be acquired in a short cycle and used for recording a moving image. Therefore, the moving image recording performance can be improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 顔検出処理において用いられる顔検出枠の一例を示す図解図である。It is an illustration figure which shows an example of the face detection frame used in a face detection process. 顔検出処理において参照される顔辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the face dictionary referred in a face detection process. 人体検出処理において参照される人体辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the human body dictionary referred in a human body detection process. 図2実施例において参照されるレジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a register referred to in the embodiment in FIG. 2; 図2実施例において参照される他のレジスタの構成の一例を示す図解図である。FIG. 10 is an illustrative view showing one example of a configuration of another register referred to in the embodiment in FIG. 2; 顔検出処理の一部を示す図解図である。It is an illustration figure which shows a part of face detection process. 主要被写体更新処理の一部を示す図解図である。It is an illustration figure which shows a part of main subject update process. 図2実施例の処理の一部を示すタイミング図である。FIG. 3 is a timing chart showing a part of the process in the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; この発明の他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手段1は、撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する。第1取得手段2は、撮像手段1から出力された電子画像を取得する処理を第1周期で実行する。切り出し手段3は、撮像手段1から出力された電子画像の一部を電子画像の出力に関連して繰り返し切り出す。第2取得手段4は、切り出し手段3によって切り出された部分画像を取得する処理を第1周期よりも短い第2周期で実行する。第1記録手段5は、第1取得手段2によって取得された複数の電子画像を用いて動画像を記録する。第2記録手段6は、第2取得手段4によって取得された複数の部分画像を用いて動画像を記録する。   Referring to FIG. 1, the electronic camera of this embodiment is basically configured as follows. The imaging unit 1 repeatedly outputs an electronic image corresponding to the optical image captured on the imaging surface. The 1st acquisition means 2 performs the process which acquires the electronic image output from the imaging means 1 with a 1st period. The clipping unit 3 repeatedly clips a part of the electronic image output from the imaging unit 1 in association with the output of the electronic image. The 2nd acquisition means 4 performs the process which acquires the partial image cut out by the cut-out means 3 by the 2nd period shorter than a 1st period. The first recording unit 5 records a moving image using a plurality of electronic images acquired by the first acquisition unit 2. The second recording unit 6 records a moving image using the plurality of partial images acquired by the second acquisition unit 4.

2つの動画像のうち、一方の動画像には、撮像手段1から出力された電子画像が用いられる。また、他方の動画像には、撮像手段1から出力された電子画像から切り出された部分画像が用いられる。切り出された部分画像は、撮像手段1から出力された電子画像よりも画素数が少なく処理の負荷が小さいので、短い周期で取得して動画像の記録に用いることができる。したがって、動画像の記録性能を向上させることができる。
[実施例]
An electronic image output from the imaging unit 1 is used for one of the two moving images. Moreover, the partial image cut out from the electronic image output from the imaging means 1 is used for the other moving image. The cut-out partial image has a smaller number of pixels and a smaller processing load than the electronic image output from the imaging unit 1, so that it can be acquired in a short cycle and used for recording a moving image. Therefore, the moving image recording performance can be improved.
[Example]

図2を参照して、この実施例のディジタルビデオカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経たシーンの光学像は、イメージセンサ16の撮像面に照射され、光電変換を施される。これによって、シーンを表す電荷が生成される。   Referring to FIG. 2, the digital video camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image of the scene that has passed through these members is irradiated onto the imaging surface of the image sensor 16 and subjected to photoelectric conversion. As a result, a charge representing the scene is generated.

電源が投入されると、CPU26は、顔・人体検出タスクを撮像タスクの下で起動する。CPU26は次に、動画取り込み処理を実行するべく、露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、読み出された電荷に基づく生画像データが周期的に出力される。CPU26はまた、撮像タスクの下で、初期設定位置であるパンフォーカス位置にフォーカスレンズ12を配置する。   When the power is turned on, the CPU 26 activates the face / human body detection task under the imaging task. Next, the CPU 26 instructs the driver 18c to repeat the exposure operation and the charge readout operation in order to execute the moving image capturing process. In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the image sensor 16, raw image data based on the read charges is periodically output. The CPU 26 also arranges the focus lens 12 at the pan focus position, which is the initial setting position, under the imaging task.

前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32a(図3参照)に書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the image sensor 16. The raw image data subjected to these processes is written into the raw image area 32a (see FIG. 3) of the SDRAM 32 through the memory control circuit 30.

後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。この結果、YUV画像データが作成され、作成されたYUV画像データは、メモリ制御回路30を通してSDRAM32のYUV画像エリア32b(図3参照)に書き込まれる。   The post-processing circuit 34 reads the raw image data stored in the raw image area 32a through the memory control circuit 30, and performs color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. As a result, YUV image data is created, and the created YUV image data is written into the YUV image area 32b (see FIG. 3) of the SDRAM 32 through the memory control circuit 30.

後処理回路34はさらに、YUV形式に従う画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データおよび探索画像データが個別に作成される。表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32c(図3参照)に書き込まれる。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32d(図3参照)に書き込まれる。   The post-processing circuit 34 further performs display zoom processing and search zoom processing in parallel on the image data in the YUV format. As a result, display image data and search image data conforming to the YUV format are individually created. The display image data is written into the display image area 32c (see FIG. 3) of the SDRAM 32 by the memory control circuit 30. The search image data is written into the search image area 32d (see FIG. 3) of the SDRAM 32 by the memory control circuit 30.

LCDドライバ36は、表示画像エリア32cに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、シーンを表すリアルタイム動画像(スルー画像)がLCDモニタ38に表示される。   The LCD driver 36 repeatedly reads the display image data stored in the display image area 32c through the memory control circuit 30, and drives the LCD monitor 38 based on the read image data. As a result, a real-time moving image (through image) representing the scene is displayed on the LCD monitor 38.

図4を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。   Referring to FIG. 4, an evaluation area EVA is assigned to the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the above-described processing, the preprocessing circuit 20 shown in FIG. 2 executes simple RGB conversion processing that simply converts raw image data into RGB data.

AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。   The AE evaluation circuit 22 integrates RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AE evaluation values, are output from the AE evaluation circuit 22 in response to the vertical synchronization signal Vsync.

AF評価回路24は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。   The AF evaluation circuit 24 integrates the high-frequency components of the RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AF evaluation values, are output from the AF evaluation circuit 24 in response to the vertical synchronization signal Vsync.

CPU26は、探索画像エリア32dに格納された探索画像データから人物の顔画像を探索するべく、垂直同期信号Vsyncの発生毎に顔・人体検出タスクの下で顔検出処理を繰り返し実行する。このような顔検出タスクのために、図5に示す複数の顔検出枠FD,FD,FD,…、図6に示す顔辞書DCf、図7に示す人体辞書DCb、図8に示す顔検出ワークレジスタRGSTwk、図9に示す顔レジスタRGSTfcおよび図9に示す人体レジスタRGSTbdが準備される。顔辞書DCfには5つの辞書画像(=向きが互いに異なる顔画像)が収められる。人体辞書DCbには単一の辞書画像(=上半身の輪郭画像)が収められる。なお、顔辞書DCfおよび人体辞書DCbはフラッシュメモリ44に保存される。   The CPU 26 repeatedly executes the face detection process under the face / human body detection task every time the vertical synchronization signal Vsync is generated in order to search for a human face image from the search image data stored in the search image area 32d. For such a face detection task, a plurality of face detection frames FD, FD, FD,... Shown in FIG. 5, a face dictionary DCf shown in FIG. 6, a human body dictionary DCb shown in FIG. 7, and a face detection work shown in FIG. A register RGSTwk, a face register RGSTfc shown in FIG. 9, and a human body register RGSTbd shown in FIG. 9 are prepared. The face dictionary DCf contains five dictionary images (= face images with different directions). A single dictionary image (= contour image of the upper body) is stored in the human body dictionary DCb. The face dictionary DCf and the human body dictionary DCb are stored in the flash memory 44.

顔検出処理ではまず、評価エリアEVAの全域が探索エリアとして設定される。また、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxが“200”に設定され、最小サイズSZminが“20”に設定される。   In the face detection process, first, the entire evaluation area EVA is set as a search area. In order to define a variable range of the size of the face detection frame FD, the maximum size SZmax is set to “200”, and the minimum size SZmin is set to “20”.

顔検出枠FDは、探索エリアの開始位置(左上位置)から終了位置(右下位置)に向かって、ラスタ走査態様で既定量ずつ移動される(図10参照)。また、顔検出枠FDのサイズは、顔検出枠FDが終了位置に到達する毎に“SZmax”から“SZmin”まで“5”ずつ縮小される。   The face detection frame FD is moved by a predetermined amount in a raster scanning manner from the start position (upper left position) to the end position (lower right position) of the search area (see FIG. 10). The size of the face detection frame FD is reduced by “5” from “SZmax” to “SZmin” every time the face detection frame FD reaches the end position.

CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32dから読み出し、読み出された画像データの特徴量を算出する。算出された特徴量は、標準顔辞書DCfの各々の特徴量と照合される。照合度が基準値THを上回ると、顔画像が検出されたものとみなされ、現時点の顔検出枠FDの位置およびサイズが、顔情報として顔検出ワークレジスタRGSTwkに格納される。   The CPU 26 reads the image data belonging to the face detection frame FD from the search image area 32d through the memory control circuit 30, and calculates the feature amount of the read image data. The calculated feature amount is collated with each feature amount of the standard face dictionary DCf. When the matching level exceeds the reference value TH, it is considered that a face image has been detected, and the current position and size of the face detection frame FD are stored in the face detection work register RGSTwk as face information.

顔検出処理の完了後に顔検出ワークレジスタRGSTwkに顔情報が格納されていたとき、CPU26は、顔検出ワークレジスタRGSTwkに格納された顔情報の中からAF処理の対象とすべき顔情報を、顔検出タスクの下で決定する。顔検出ワークレジスタRGSTwkに1つの顔情報が格納されている場合、CPU26は、格納された顔情報を主要被写体候補顔情報とする。顔検出ワークレジスタRGSTwkに複数の顔情報が格納されている場合、CPU26は、位置が撮像面中央に最も近い顔情報を主要被写体候補顔情報とする。主要被写体候補顔情報とされた顔情報の位置およびサイズは、顔レジスタRGSTfcに格納される。   When face information is stored in the face detection work register RGSTwk after completion of the face detection process, the CPU 26 converts the face information to be subjected to AF processing from the face information stored in the face detection work register RGSTwk. Decide under the discovery task. When one face information is stored in the face detection work register RGSTwk, the CPU 26 sets the stored face information as main subject candidate face information. When a plurality of pieces of face information are stored in the face detection work register RGSTwk, the CPU 26 sets face information whose position is closest to the center of the imaging surface as main subject candidate face information. The position and size of the face information set as the main subject candidate face information are stored in the face register RGSTfc.

また、CPU26は、人物の顔を発見したことを表明するべくフラグFLG_fを“1”に設定する。   Further, the CPU 26 sets a flag FLG_f to “1” in order to announce that a person's face has been found.

CPU26は、顔画像が検出された場合、主要被写体候補顔情報が示す領域を含む人体の画像を、人体辞書DCbを用いて探索画像データから検出する。人体画像が検出された場合、検出された位置およびサイズが主要被写体候補人体情報として人体レジスタRGSTbdに格納される。また、CPU26は、人物の人体を発見したことを表明するべくフラグFLG_bを“1”に設定する。   When the face image is detected, the CPU 26 detects the human body image including the region indicated by the main subject candidate face information from the search image data using the human body dictionary DCb. When a human body image is detected, the detected position and size are stored in the human body register RGSTbd as main subject candidate human body information. Further, the CPU 26 sets a flag FLG_b to “1” in order to announce that a human body has been found.

なお、顔検出処理の完了後に顔検出ワークレジスタRGSTwkに顔情報の登録がなかった場合、すなわち人物の顔が発見されなかった場合は、CPU26は、人物が未発見であることを表明するべくフラグFLG_fおよびFLG_bの各々を“0”に設定する。つまり、人物の顔および人体が検出された場合はフラグFLG_fおよびFLG_bの各々が“1”に設定され、人物の顔は検出されたが人体は検出されなかった場合はフラグFLG_fが“1”に設定され、FLG_bが“0”に設定される。   When face information is not registered in the face detection work register RGSTwk after the face detection process is completed, that is, when a person's face is not found, the CPU 26 sets a flag to indicate that a person has not been found. Each of FLG_f and FLG_b is set to “0”. That is, when a person's face and human body are detected, each of the flags FLG_f and FLG_b is set to “1”. When a person's face is detected but no human body is detected, the flag FLG_f is set to “1”. And FLG_b is set to “0”.

フラグFLG_fが“1”を示すとき、撮像タスクの下でCPU26は、主要被写体候補顔情報が示す領域に注目したコンティニュアス厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、主要被写体候補顔レジスタRGSTfcに格納された位置およびサイズに対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくAF処理を実行する。この結果、主要被写体候補顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像および記録画像における顔の鮮鋭度が継続的に向上する。   When the flag FLG_f indicates “1”, under the imaging task, the CPU 26 executes a continuous strict AF process focusing on the area indicated by the main subject candidate face information. The CPU 26 extracts an AF evaluation value corresponding to the position and size stored in the main subject candidate face register RGSTfc from the 256 AF evaluation values output from the AF evaluation circuit 24. The CPU 26 executes AF processing based on a part of the extracted AF evaluation values. As a result, the focus lens 12 is arranged at a focal point focusing on the area indicated by the main subject candidate face information, and the sharpness of the face in the through image and the recorded image is continuously improved.

フラグFLG_fが“0”を示すとき、撮像タスクの下でCPU26は、画像中央に注目したコンティニュアス厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、画面中央に対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくコンティニュアス厳格AF処理を実行する。この結果、スルー画像または記録画像における画像中央の鮮鋭度が向上する。   When the flag FLG_f indicates “0”, under the imaging task, the CPU 26 executes a continuous strict AF process focusing on the center of the image. The CPU 26 extracts an AF evaluation value corresponding to the center of the screen from the 256 AF evaluation values output from the AF evaluation circuit 24. The CPU 26 executes a continuous strict AF process based on a part of the extracted AF evaluation values. As a result, the sharpness of the center of the image in the through image or the recorded image is improved.

CPU26はまた、撮像タスクの下で、AE評価回路22から出力された256個のAE評価値に基づいてコンティニュアス厳格AE処理を実行する。コンティニュアス厳格AE処理によって算出された最適EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像および記録画像の明るさの厳格な調整が継続的に実行される。   The CPU 26 also executes a continuous strict AE process based on the 256 AE evaluation values output from the AE evaluation circuit 22 under the imaging task. The aperture amount and the exposure time that define the optimum EV value calculated by the continuous strict AE process are set in the drivers 18b and 18c, respectively. As a result, strict adjustment of the brightness of the through image and the recorded image is continuously performed.

CPU26はまた、撮像タスクの下で、高フレームレートで記録される領域に相当する主要被写体領域MNを定めるべく、主要被写体更新処理を繰り返し実行する。このような主要被写体更新処理のために、図9に示す主要被写体領域レジスタRGSTmnが準備される。   The CPU 26 also repeatedly executes main subject update processing to determine a main subject region MN corresponding to a region recorded at a high frame rate under the imaging task. For such main subject update processing, a main subject region register RGSTmn shown in FIG. 9 is prepared.

主要被写体更新処理において、フラグFLG_bが“0”を示すとき、CPU26は、主要被写体候補人体情報に基づいて、主要被写体領域MNを設定する。図11を参照して、人物HM1が撮像面に捉えられたとき、顔検出枠FD1によって人物HM1の顔が検出され、人体検出枠BD1によって人物HM1の人体が検出される。この場合、例えば人体検出枠BD1を中心に元の画像のアスペクト比を縦と横とで入れ替えた既定の大きさの領域を、主要被写体領域MNとして設定する。主要被写体領域MNとして設定された領域の位置およびサイズは、主要被写体領域レジスタRGSTmnに登録される。   In the main subject update process, when the flag FLG_b indicates “0”, the CPU 26 sets the main subject region MN based on the main subject candidate human body information. Referring to FIG. 11, when person HM1 is captured on the imaging surface, the face of person HM1 is detected by face detection frame FD1, and the human body of person HM1 is detected by human body detection frame BD1. In this case, for example, an area having a predetermined size in which the aspect ratio of the original image is switched between vertical and horizontal with the human body detection frame BD1 as the center is set as the main subject area MN. The position and size of the area set as the main subject area MN are registered in the main subject area register RGSTmn.

主要被写体領域MNのサイズは、例えば、主要被写体領域MNの水平方向の長さを元の画像の垂直方向の長さの2分の1とし、主要被写体領域MNの垂直方向の長さを元の画像の水平方向の長さの2分の1とすればよい。   The size of the main subject area MN is, for example, that the horizontal length of the main subject area MN is half the vertical length of the original image, and the vertical length of the main subject area MN is the original length. What is necessary is just to make it the half of the horizontal length of an image.

フラグFLG_bが“0”を示しフラグFLG_fが“1”を示すとき、CPU26は、主要被写体候補顔情報に基づいて、主要被写体領域MNを設定する。   When the flag FLG_b indicates “0” and the flag FLG_f indicates “1”, the CPU 26 sets the main subject region MN based on the main subject candidate face information.

フラグFLG_bおよびFLG_fが“0”を示すとき、CPU26は、画像中央の既定の領域を、主要被写体領域MNとして設定する。   When the flags FLG_b and FLG_f indicate “0”, the CPU 26 sets a predetermined area at the center of the image as the main subject area MN.

記録ボタン28recに向けて記録開始操作が行われると、動画記録タスクが起動される。キー入力装置28に設けられたモード変更ボタン28mdの状態が同時記録モードを示さない場合、つまり通常の記録モードを示す場合は、CPU26は単一の動画ファイルの設定を行う。例えば、動画ファイルの画素数が“2560×1920”に設定され、フレームレートが“60fps”に設定され、垂直同期信号Vsyncの発生周期が“1/60秒”に設定される。このように設定されたオープン状態の単一の動画ファイルが、記録媒体42に新規に作成される。   When a recording start operation is performed toward the recording button 28rec, the moving image recording task is activated. If the state of the mode change button 28 md provided on the key input device 28 does not indicate the simultaneous recording mode, that is, indicates the normal recording mode, the CPU 26 sets a single moving image file. For example, the number of pixels of the moving image file is set to “2560 × 1920”, the frame rate is set to “60 fps”, and the generation cycle of the vertical synchronization signal Vsync is set to “1/60 seconds”. A single open moving image file set in this way is newly created on the recording medium 42.

CPU26は、垂直同期信号Vsyncが発生する毎に、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルに繰り返し記録する。記録ボタン28recに向けて記録終了操作が行われると、オープン状態の動画ファイルはクローズされ、記録処理が終了する。このようにして、動画像が作成される。   Each time the vertical synchronization signal Vsync is generated, the CPU 26 repeatedly records the YUV image data written in the YUV image area 32b as a frame image in the open moving image file. When a recording end operation is performed toward the recording button 28rec, the open moving image file is closed, and the recording process ends. In this way, a moving image is created.

キー入力装置28に設けられたモード変更ボタン28mdの状態が同時記録モードを示す場合、CPU26は2つの動画ファイルの設定を行う。例えば、動画ファイルFM1の画素数が“2560×1920”に設定され、フレームレートが“60fps”に設定される。また、動画ファイルFM2の画素数が“960×1280”に設定され、フレームレートが“240fps”に設定される。さらに、垂直同期信号Vsyncの発生周期が“1/240秒”に設定される。   When the mode change button 28 md provided on the key input device 28 indicates the simultaneous recording mode, the CPU 26 sets two moving image files. For example, the number of pixels of the moving image file FM1 is set to “2560 × 1920”, and the frame rate is set to “60 fps”. In addition, the number of pixels of the moving image file FM2 is set to “960 × 1280”, and the frame rate is set to “240 fps”. Further, the generation cycle of the vertical synchronization signal Vsync is set to “1/240 seconds”.

このように、同時記録モードにおいては、サイズの異なる2つの動画ファイルの記録の準備が行われる。また、サイズの小さい動画ファイルFM2のフレームレートは、動画ファイルFM1のフレームレートよりも高く設定される。こうして設定されたオープン状態の動画ファイルFM1およびFM2は、記録媒体42に新規に作成される。   Thus, in the simultaneous recording mode, preparations for recording two moving image files having different sizes are made. Further, the frame rate of the small moving image file FM2 is set to be higher than the frame rate of the moving image file FM1. The open movie files FM1 and FM2 set in this way are newly created in the recording medium 42.

垂直同期信号Vsyncが発生する毎に、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データから主要被写体レジスタRGSTmnに登録された主要被写体領域MNに属する一部の画像データを切り出して、SDRAM32の切り出し画像エリア32eに書き込む。切り出し画像エリア32eに書き込まれた切り出し画像データは、フレーム画像としてオープン状態の動画像ファイルFM2に記録される。   Each time the vertical synchronization signal Vsync is generated, the CPU 26 cuts out a part of the image data belonging to the main subject area MN registered in the main subject register RGSTmn from the YUV image data written in the YUV image area 32b. Write in the cut-out image area 32e. The clipped image data written in the clipped image area 32e is recorded as a frame image in the open moving image file FM2.

また、垂直同期信号Vsyncが4回発生する毎に、CPU26は、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルFM1に繰り返し記録する。   Further, every time the vertical synchronization signal Vsync is generated four times, the CPU 26 repeatedly records the YUV image data written in the YUV image area 32b as a frame image in the open moving image file FM1.

記録ボタン28recに向けて記録終了操作が行われると、オープン状態の動画ファイルFM1およびFM2はクローズされ、記録処理が終了する。このようにして、図12に示すように、画角およびフレームレートの異なる2つの動画ファイルFM1およびFM2が作成される。   When a recording end operation is performed toward the recording button 28rec, the opened moving image files FM1 and FM2 are closed, and the recording process ends. In this way, as shown in FIG. 12, two moving image files FM1 and FM2 having different angles of view and frame rates are created.

CPU26は、図13〜14に示す撮像タスク,図15〜16に示す顔検出タスク,および図20〜22に示す動画記録タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。   The CPU 26 executes in parallel a plurality of tasks including an imaging task shown in FIGS. 13 to 14, a face detection task shown in FIGS. 15 to 16, and a moving image recording task shown in FIGS. Note that control programs corresponding to these tasks are stored in the flash memory 44.

図13を参照して、ステップS1では初期設定位置であるパンフォーカス位置にフォーカスレンズ12を配置する。ステップS3では顔・人体検出タスクを起動する。ステップS5では動画取り込み処理を開始する。この結果、シーンを表すスルー画像がLCDモニタ38に表示される。   Referring to FIG. 13, in step S <b> 1, focus lens 12 is arranged at the pan focus position that is the initial setting position. In step S3, a face / human body detection task is activated. In step S5, the moving image capturing process is started. As a result, a through image representing a scene is displayed on the LCD monitor 38.

ステップS7では簡易AE処理を実行する。この結果、スルー画像の明るさが適度に調整される。ステップS9では、主要被写体を画像中央の既定領域と決定し、主要被写体レジスタRGSTmnを更新する。   In step S7, a simple AE process is executed. As a result, the brightness of the through image is appropriately adjusted. In step S9, the main subject is determined as a predetermined area in the center of the image, and the main subject register RGSTmn is updated.

ステップS11では記録ボタン28recに向けて記録開始操作が行われたか否かを判別し、判別結果がYESであればステップS15に進む一方、判別結果がNOであれば記録ボタン28recに向けて記録終了操作が行われたか否かをステップS13で判別する。ステップS13の判別結果がYESであればステップS19に進む一方、ステップS13の判別結果がNOであればステップS21に進む。   In step S11, it is determined whether or not a recording start operation has been performed toward the recording button 28rec. If the determination result is YES, the process proceeds to step S15. If the determination result is NO, recording ends to the recording button 28rec. In step S13, it is determined whether or not an operation has been performed. If the determination result of step S13 is YES, it will progress to step S19, while if the determination result of step S13 is NO, it will progress to step S21.

ステップS15ではフラグFLG_stpに“0”を設定し、ステップS17では動画記録タスクを起動する一方、ステップS19ではフラグFLG_stpに“1”を設定する。ステップS17またはS19の処理が完了すると、ステップS11に戻る。   In step S15, the flag FLG_stp is set to “0”. In step S17, the moving image recording task is activated, and in step S19, the flag FLG_stp is set to “1”. When the process of step S17 or S19 is completed, the process returns to step S11.

ステップS21ではフラグFLG_fが“1”を示すか否かを判別し、判別結果がNOであればステップS25の処理を経てステップS27に進む一方、判別結果がYESであればステップS23の処理を経てステップS27に進む。   In step S21, it is determined whether or not the flag FLG_f indicates “1”. If the determination result is NO, the process proceeds to step S27 via step S25. If the determination result is YES, the process proceeds to step S23. Proceed to step S27.

ステップS23では、主要被写体候補顔情報が示す領域に注目したコンティニュアス厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、主要被写体候補顔情報に対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくコンティニュアスAF処理を実行する。この結果、主要被写体候補顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像および記録画像における主要被写体候補の顔の鮮鋭度が継続的に向上する。   In step S23, a continuous strict AF process focusing on the area indicated by the main subject candidate face information is executed. The CPU 26 extracts AF evaluation values corresponding to main subject candidate face information from among the 256 AF evaluation values output from the AF evaluation circuit 24. The CPU 26 executes a continuous AF process based on a part of the extracted AF evaluation values. As a result, the focus lens 12 is arranged at a focal point focusing on the area indicated by the main subject candidate face information, and the sharpness of the main subject candidate face in the through image and the recorded image is continuously improved.

ステップS25では、画像中央に注目したコンティニュアス厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、画面中央に対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくコンティニュアスAF処理を実行する。この結果、スルー画像または記録画像における画像中央の鮮鋭度が継続的に向上する。   In step S25, continuous strict AF processing focusing on the center of the image is executed. The CPU 26 extracts an AF evaluation value corresponding to the center of the screen from the 256 AF evaluation values output from the AF evaluation circuit 24. The CPU 26 executes a continuous AF process based on a part of the extracted AF evaluation values. As a result, the sharpness of the center of the image in the through image or the recorded image is continuously improved.

ステップS27ではコンティニュアス厳格AE処理を実行する。この結果、スルー画像および記録画像の明るさの厳格な調整が継続的に実行される。ステップS29では主要被写体更新処理を実行し、その後ステップS11に戻る。   In step S27, a continuous strict AE process is executed. As a result, strict adjustment of the brightness of the through image and the recorded image is continuously performed. In step S29, a main subject update process is executed, and then the process returns to step S11.

図15を参照して、ステップS41ではフラグFLG_fに“0”を設定し、ステップS43では顔レジスタRGSTfcの登録内容を初期化するべくクリアする。ステップS45では人体レジスタRGSTbdの登録内容を初期化するべくクリアする。ステップS47では、垂直同期信号Vsyncが発生したか否かを繰り返し判別し、判別結果がNOからYESに更新されると、ステップS49に進む。   Referring to FIG. 15, in step S41, flag FLG_f is set to “0”, and in step S43, the registered contents of face register RGSTfc are cleared to be initialized. In step S45, the registered contents of the human body register RGSTbd are cleared to be initialized. In step S47, it is repeatedly determined whether or not the vertical synchronization signal Vsync has been generated. If the determination result is updated from NO to YES, the process proceeds to step S49.

ステップS49では、探索画像データから人物の顔画像を探索するべく、顔検出処理を実行する。ステップS51では、ステップS49の処理によって顔検出ワークレジスタRGSTwkに顔情報が格納されたか否かを判別し、判別結果がYESであればステップS57に進む一方、判別結果がNOであればステップS53に進む。ステップS53ではフラグFLG_fに“0”を設定し、ステップS55ではフラグFLG_bに“0”を設定する。ステップS55の処理が完了すると、ステップS47に戻る。   In step S49, face detection processing is executed to search for a human face image from the search image data. In step S51, it is determined whether or not face information is stored in the face detection work register RGSTwk by the process in step S49. If the determination result is YES, the process proceeds to step S57. If the determination result is NO, the process proceeds to step S53. move on. In step S53, the flag FLG_f is set to “0”, and in step S55, the flag FLG_b is set to “0”. When the process of step S55 is completed, the process returns to step S47.

ステップS57では、顔検出ワークレジスタRGSTwkに複数の顔情報が格納されたか否かを判別し、判別結果がNOであればステップS61に進む一方、判別結果がYESであればステップS59の処理を経てステップS61に進む。   In step S57, it is determined whether or not a plurality of pieces of face information are stored in the face detection work register RGSTwk. If the determination result is NO, the process proceeds to step S61. If the determination result is YES, the process of step S59 is performed. Proceed to step S61.

ステップS59では、顔検出ワークレジスタRGSTwkに格納された位置が画像中央に最も近い顔情報を主要被写体候補顔情報と決定し、ステップS61では、主要被写体候補顔情報とされた顔情報の位置およびサイズを、顔レジスタRGSTfcに登録する。ステップS63ではフラグFLG_fに“1”を設定する。   In step S59, face information whose position stored in the face detection work register RGSTwk is closest to the center of the image is determined as main subject candidate face information, and in step S61, the position and size of the face information set as main subject candidate face information. Is registered in the face register RGSTfc. In step S63, “1” is set in the flag FLG_f.

ステップS65ではAF顔情報が示す領域を含む人体の画像を、標準人体辞書DCsbを用いて探索画像データから検出する。人体画像が検出されたか否かをステップS67で判別し、判別結果がNOであればステップS73に進む一方、判別結果がYESであればステップS69に進む。   In step S65, the human body image including the area indicated by the AF face information is detected from the search image data using the standard human body dictionary DCsb. In step S67, it is determined whether or not a human body image has been detected. If the determination result is NO, the process proceeds to step S73. If the determination result is YES, the process proceeds to step S69.

ステップS69では検出された人体画像の位置およびサイズを主要被写体候補人体情報として人体レジスタRGSTbdに登録する。ステップS71ではフラグFLG_bに“1”を設定する一方、ステップS73ではフラグFLG_fに“0”を設定する。ステップS71またはS73の処理が完了すると、ステップS47に戻る。   In step S69, the position and size of the detected human body image are registered in the human body register RGSTbd as main subject candidate human body information. In step S71, the flag FLG_b is set to “1”, while in step S73, the flag FLG_f is set to “0”. When the process of step S71 or S73 is completed, the process returns to step S47.

ステップS49の顔検出処理は、図17〜18に示すサブルーチンに従って実行される。   The face detection process in step S49 is executed according to a subroutine shown in FIGS.

図17を参照して、ステップS81では、顔検出ワークレジスタRGSTwkを初期化すべく格納内容をクリアする。   Referring to FIG. 17, in step S81, the stored contents are cleared to initialize face detection work register RGSTwk.

ステップS83では変数Nmaxを顔辞書DCfの登録数に設定し、ステップS85では評価エリアEVAの全域を探索エリアとして設定する。ステップS87では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“200”に設定し、最小サイズSZminを“20”に設定する。   In step S83, the variable Nmax is set to the registration number of the face dictionary DCf, and in step S85, the entire evaluation area EVA is set as a search area. In step S87, the maximum size SZmax is set to “200” and the minimum size SZmin is set to “20” in order to define a variable range of the size of the face detection frame FD.

ステップS89では顔検出枠FDのサイズを“SZmax”に設定し、ステップS91では顔検出枠FDを探索エリアの左上位置に配置する。ステップS93では、顔検出枠FDに属する一部の探索画像データを探索画像エリア32dから読み出し、読み出された探索画像データの特徴量を算出する。   In step S89, the size of the face detection frame FD is set to “SZmax”, and in step S91, the face detection frame FD is arranged at the upper left position of the search area. In step S93, a part of the search image data belonging to the face detection frame FD is read from the search image area 32d, and the feature amount of the read search image data is calculated.

ステップS95では変数Nを“1”に設定し、ステップS97では、ステップS93で算出された特徴量と顔辞書DCfのN番目に収められた辞書画像の特徴量とを照合する。照合の結果、閾値THを超える照合度が得られたか否かをステップS99で判別し、判別結果がNOであればステップS101に進む一方、判別結果がYESであればステップS105に進む。   In step S95, the variable N is set to “1”, and in step S97, the feature amount calculated in step S93 is collated with the feature amount of the Nth dictionary image stored in the face dictionary DCf. As a result of the collation, whether or not a collation degree exceeding the threshold value TH is determined in step S99. If the determination result is NO, the process proceeds to step S101, and if the determination result is YES, the process proceeds to step S105.

ステップS101では変数Nをインクリメントし、ステップS103では変数NがNmaxを超えたか否かを判別する。判別結果がNOであればステップS97に戻る一方、判別結果がYESであればステップS107に進む。   In step S101, the variable N is incremented. In step S103, it is determined whether or not the variable N exceeds Nmax. If the determination result is NO, the process returns to step S97, while if the determination result is YES, the process proceeds to step S107.

ステップS105では、現時点の顔検出枠FDの位置およびサイズを顔情報として顔検出ワークレジスタRGSTwkに登録する。ステップS107では顔検出枠FDが探索エリアの右下位置に到達したか否かを判別し、判別結果がYESであればステップS111に進む一方、判別結果がNOであれば、ステップS109で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS93に戻る。   In step S105, the current position and size of the face detection frame FD are registered in the face detection work register RGSTwk as face information. In step S107, it is determined whether or not the face detection frame FD has reached the lower right position of the search area. If the determination result is YES, the process proceeds to step S111. If the determination result is NO, face detection is performed in step S109. The frame FD is moved in the raster direction by a predetermined amount, and then the process returns to step S93.

ステップS111では顔検出枠FDのサイズが“SZmin”以下であるか否かを判別し、判別結果がYESであれば上階層のルーチンに復帰する一方、判別結果がNOであればステップS113に進む。   In step S111, it is determined whether or not the size of the face detection frame FD is equal to or smaller than “SZmin”. If the determination result is YES, the process returns to the upper layer routine. If the determination result is NO, the process proceeds to step S113. .

ステップS113では顔検出枠FDのサイズを“5”だけ縮小させ、ステップS115では顔検出枠FDを探索エリアの左上位置に配置する。ステップS115の処理が完了すると、ステップS93に戻る。   In step S113, the size of the face detection frame FD is reduced by “5”, and in step S115, the face detection frame FD is arranged at the upper left position of the search area. When the process of step S115 is completed, the process returns to step S93.

ステップS29の主要被写体更新処理は、図19に示すサブルーチンに従って実行される。   The main subject update process in step S29 is executed according to a subroutine shown in FIG.

図19を参照して、ステップS121ではフラグFLG_bが“1”を示すか否かを判別し、判別結果がNOであればフラグFLG_fが“1”を示すか否かをステップS123で判別する。   Referring to FIG. 19, in step S121, it is determined whether or not flag FLG_b indicates “1”. If the determination result is NO, it is determined in step S123 whether or not flag FLG_f indicates “1”.

ステップS121の判別結果がYESであればステップS125の処理を実行し、ステップS123の判別結果がYESであればステップS127の処理を実行する。ステップS123の判別結果がNOであればステップS129の処理を実行する。   If the determination result of step S121 is YES, the process of step S125 will be performed, and if the determination result of step S123 is YES, the process of step S127 will be performed. If the determination result of step S123 is NO, the process of step S129 is executed.

ステップS125では主要被写体候補人体情報に基づいて主要被写体領域MNを設定し、ステップS127では主要被写体候補顔情報に基づいて主要被写体領域MNを設定する。ステップS129では画像中央を基準に主要被写体領域MNを設定する。ステップS125,S127,またはS129で設定された主要被写体の位置およびサイズは、主要被写体レジスタRGSTmnに登録される。ステップS125,S127,またはS129の処理が完了すると、上階層のルーチンに復帰する。   In step S125, the main subject region MN is set based on the main subject candidate human body information, and in step S127, the main subject region MN is set based on the main subject candidate face information. In step S129, the main subject area MN is set with reference to the center of the image. The position and size of the main subject set in step S125, S127, or S129 are registered in the main subject register RGSTmn. When the process of step S125, S127, or S129 is completed, the process returns to the upper layer routine.

図20を参照して、ステップS131では、キー入力装置28に設けられたモード変更ボタン28mdの状態が同時記録モードを示すか否かを判別する。判別結果がYESであればステップS147に進む一方、判別結果がNOであればステップS133に進む。   Referring to FIG. 20, in step S131, it is determined whether or not the state of the mode change button 28md provided on the key input device 28 indicates the simultaneous recording mode. If the determination result is YES, the process proceeds to step S147, while if the determination result is NO, the process proceeds to step S133.

ステップS133では、動画ファイルFM1の画素数を“2560×1920”に設定し、フレームレートを“60fps”に設定する。ステップS135では垂直同期信号Vsyncの発生周期を“1/60秒”に設定する。ステップS137ではオープン状態の動画ファイルFM1を記録媒体42に新規に作成する。   In step S133, the number of pixels of the moving image file FM1 is set to “2560 × 1920”, and the frame rate is set to “60 fps”. In step S135, the generation cycle of the vertical synchronizing signal Vsync is set to “1/60 seconds”. In step S137, an open moving image file FM1 is newly created on the recording medium.

ステップS139では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOであればステップS143に進む一方、判別結果がYESであればステップS141に進む。   In step S139, it is determined whether or not the vertical synchronization signal Vsync has been generated. If the determination result is NO, the process proceeds to step S143. If the determination result is YES, the process proceeds to step S141.

ステップS141では、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルFM1に記録する。ステップS141の処理の完了後、ステップS139に戻る。   In step S141, the YUV image data written in the YUV image area 32b is recorded as a frame image in the open moving image file FM1. After the process of step S141 is completed, the process returns to step S139.

ステップS143ではフラグFLG_stpが“1”を示すか否かを判別し、判別結果がNOであればステップS139に戻る一方、判別結果がYESであればステップS145で、オープン状態の動画ファイルFM1をクローズして記録処理を終了する。ステップS145の処理が完了すると、動画記録タスクは終了する。   In step S143, it is determined whether or not the flag FLG_stp indicates “1”. If the determination result is NO, the process returns to step S139. If the determination result is YES, the open movie file FM1 is closed in step S145. Then, the recording process is finished. When the process of step S145 is completed, the moving image recording task ends.

ステップS147では、動画ファイルFM1の画素数を“2560×1920”に設定し、フレームレートを“60fps”に設定する。ステップS149では、動画ファイルFM2の画素数を“960×1280”に設定し、フレームレートを“240fps”に設定する。   In step S147, the number of pixels of the moving image file FM1 is set to “2560 × 1920”, and the frame rate is set to “60 fps”. In step S149, the number of pixels of the moving image file FM2 is set to “960 × 1280”, and the frame rate is set to “240 fps”.

ステップS151では垂直同期信号Vsyncの発生周期を“1/240秒”に設定する。ステップS153ではオープン状態の動画ファイルFM1を記録媒体42に新規に作成し、ステップS155ではオープン状態の動画ファイルFM2を記録媒体42に新規に作成する。   In step S151, the generation cycle of the vertical synchronization signal Vsync is set to “1/240 seconds”. In step S153, a newly opened moving image file FM1 is created on the recording medium 42. In step S155, an opened moving image file FM2 is newly created on the recording medium 42.

ステップS157では変数Mを“0”に設定し、ステップS159では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOであればステップS173に進む一方、判別結果がYESであればステップS161に進む。   In step S157, the variable M is set to “0”, and in step S159, it is determined whether or not the vertical synchronization signal Vsync is generated. If the determination result is NO, the process proceeds to step S173, while if the determination result is YES, the process proceeds to step S161.

ステップS161では、YUV画像エリア32bに書き込まれたYUV画像データから主要被写体レジスタRGSTmnに登録された主要被写体領域MNに属する一部の画像データを切り出して、SDRAM32の切り出し画像エリア32eに書き込む。ステップS163では、切り出し画像エリア32eに書き込まれた切り出し画像データをフレーム画像として、オープン状態の動画像ファイルFM2に記録する。   In step S161, a part of the image data belonging to the main subject area MN registered in the main subject register RGSTmn is cut out from the YUV image data written in the YUV image area 32b and written into the cut out image area 32e of the SDRAM 32. In step S163, the clipped image data written in the clipped image area 32e is recorded in the open moving image file FM2 as a frame image.

ステップS165では変数Mをインクリメントし、変数Mが“4”以上となったか否かをステップS167で判別する。判別結果がNOであればステップS159に戻る一方、判別結果がYESであればステップS169に進む。   In step S165, the variable M is incremented, and it is determined in step S167 whether or not the variable M has become “4” or more. If the determination result is NO, the process returns to step S159, while if the determination result is YES, the process proceeds to step S169.

ステップS169では、YUV画像エリア32bに書き込まれたYUV画像データをフレーム画像として、オープン状態の動画像ファイルFM1に記録する。ステップS171では変数Mを“0”に設定し、その後にステップS159に戻る。   In step S169, the YUV image data written in the YUV image area 32b is recorded as a frame image in the open moving image file FM1. In step S171, the variable M is set to “0”, and then the process returns to step S159.

ステップS173ではフラグFLG_stpが“1”を示すか否かを判別し、判別結果がNOであればステップS159に戻る一方、判別結果がYESであればステップS175に進む。   In step S173, it is determined whether or not the flag FLG_stp indicates “1”. If the determination result is NO, the process returns to step S159, whereas if the determination result is YES, the process proceeds to step S175.

ステップS175ではオープン状態の動画ファイルFM1をクローズして記録処理を終了し、ステップS177ではオープン状態の動画ファイルFM2をクローズして記録処理を終了する。ステップS177の処理が完了すると、動画記録タスクは終了する。   In step S175, the open moving image file FM1 is closed and the recording process is terminated. In step S177, the open moving image file FM2 is closed and the recording process is terminated. When the process of step S177 is completed, the moving image recording task ends.

以上の説明から分かるように、イメージセンサ16は、撮像面で捉えられた光学像に対応する生画像データを1/240秒毎に出力する。出力された生画像データに基づくYUV画像データは、1/60秒毎に取得される(S169)。また、出力された生画像データに基づくYUV画像データのうち主要被写体領域MNに属する一部のYUV画像データは、1/240秒毎に取得される(S125~S129, S161~S163)。動画ファイルFM1には、1/60秒毎に取得されたYUV画像データが納められる(S147, S153, S175)。また、動画ファイルFM2には、1/240秒毎に取得されたYUV画像データが納められる(S149, S155, S177)。   As can be seen from the above description, the image sensor 16 outputs raw image data corresponding to the optical image captured on the imaging surface every 1/240 seconds. YUV image data based on the output raw image data is acquired every 1/60 seconds (S169). Also, some YUV image data belonging to the main subject area MN among the YUV image data based on the output raw image data is acquired every 1/240 seconds (S125 to S129, S161 to S163). YUV image data acquired every 1/60 seconds is stored in the moving image file FM1 (S147, S153, S175). The moving image file FM2 stores YUV image data acquired every 1/240 seconds (S149, S155, S177).

このように、動画ファイルFM1には、1/60秒毎に取得されたYUV画像データが納められ、動画ファイルFM2には、主要被写体領域MNから切り出されかつ1/240秒毎に取得されたYUV画像データが納められる。切り出されたYUV画像データの処理に掛かる負荷は小さいので、1/240秒のような短い周期で取得しても動画記録処理が破綻することはない。これによって、記録動画像の多様化が図られる。   Thus, the YUV image data acquired every 1/60 seconds is stored in the moving image file FM1, and the YUV image cut out from the main subject region MN and acquired every 1/240 seconds is stored in the moving image file FM2. Image data is stored. Since the load applied to the processing of the cut out YUV image data is small, the moving image recording process does not fail even if it is acquired at a short cycle such as 1/240 seconds. Thereby, diversification of recorded moving images is achieved.

なお、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、外部サーバに接続するための通信I/F60を図23に示す要領でディジタルビデオカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 44 in advance. However, a communication I / F 60 for connecting to an external server is provided in the digital video camera 10 in the manner shown in FIG. 23, and a part of the control program is prepared as an internal control program in the flash memory 44 from the beginning. You may make it acquire the control program of a part from an external server as an external control program. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

また、この実施例では、CPU26によって実行される処理を、図13〜14に示す撮像タスク,図15〜16に示す顔検出タスク,および図20〜22に示す動画記録タスクを含む複数のタスクに区分するようにしている。しかし、これらのタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、転送タスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   In this embodiment, the processing executed by the CPU 26 is divided into a plurality of tasks including an imaging task shown in FIGS. 13 to 14, a face detection task shown in FIGS. 15 to 16, and a moving image recording task shown in FIGS. They are divided. However, these tasks may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when the transfer task is divided into a plurality of small tasks, all or part of the transfer task may be acquired from an external server.

また、この実施例では、ディジタルビデオカメラを用いて説明したが、本発明は、ディジタルスチルカメラ、携帯電話端末またはスマートフォンなどにも適用することができる。   In this embodiment, the digital video camera has been described. However, the present invention can also be applied to a digital still camera, a mobile phone terminal, a smartphone, or the like.

10 …ディジタルカメラ
16 …イメージセンサ
26 …CPU
42 …記録媒体
DCf …顔辞書
DCb …人体辞書
10 ... Digital camera 16 ... Image sensor 26 ... CPU
42 ... Recording medium DCf ... Face dictionary DCb ... Human body dictionary

Claims (9)

撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段、
前記撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得手段、
前記撮像手段から出力された電子画像の一部を前記電子画像の出力に関連して繰り返し切り出す切り出し手段、
前記切り出し手段によって切り出された部分画像を取得する処理を前記第1周期よりも短い第2周期で実行する第2取得手段、
前記第1取得手段によって取得された複数の電子画像を用いて動画像を記録する第1記録手段、および
前記第2取得手段によって取得された複数の部分画像を用いて動画像を記録する第2記録手段を備える、電子カメラ。
Imaging means for repeatedly outputting an electronic image corresponding to the optical image captured on the imaging surface;
First acquisition means for executing processing for acquiring an electronic image output from the imaging means in a first period;
Clipping means for repeatedly cutting out a part of the electronic image output from the imaging means in association with the output of the electronic image;
Second acquisition means for executing processing for acquiring the partial image cut out by the cutout means in a second period shorter than the first period;
A first recording unit that records a moving image using a plurality of electronic images acquired by the first acquiring unit; and a second recording unit that records a moving image using a plurality of partial images acquired by the second acquiring unit. An electronic camera provided with a recording means.
前記撮像手段から出力された電子画像から特定物体像を繰り返し探索する探索手段をさらに備え、
前記切り出し手段は、前記探索手段の探索結果に基づいて切り出し領域を設定する領域設定手段、および前記撮像手段から出力された電子画像のうち前記領域設定手段によって設定された領域を抽出する抽出手段を含む、請求項1記載の電子カメラ。
Search means for repeatedly searching for a specific object image from the electronic image output from the imaging means,
The cutout means includes an area setting means for setting a cutout area based on a search result of the search means, and an extraction means for extracting an area set by the area setting means from the electronic image output from the imaging means. The electronic camera according to claim 1, comprising:
前記設定手段は、前記特定物体像の発見に関連して前記特定物体像を含む領域を切り出し領域に設定する第1設定手段、および前記特定物体像の非発見に関連して既定領域を切り出し領域に設定する第2設定手段を含む、請求項2記載の電子カメラ。   The setting means includes a first setting means for setting a region including the specific object image as a cutout region in relation to the discovery of the specific object image, and a predetermined region as a cutout region related to non-discovery of the specific object image. The electronic camera according to claim 2, further comprising second setting means for setting to 前記特定物体像は人物の顔画像に相当する、請求項2または3記載の電子カメラ。   The electronic camera according to claim 2, wherein the specific object image corresponds to a human face image. 前記特定物体像は人物の人体画像に相当する、請求項2または3記載の電子カメラ。   The electronic camera according to claim 2, wherein the specific object image corresponds to a human body image of a person. 撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段を備える電子カメラのプロセッサに、
前記撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得ステップ、
前記撮像手段から出力された電子画像の一部を前記電子画像の出力に関連して繰り返し切り出す切り出しステップ、
前記切り出しステップによって切り出された部分画像を取得する処理を前記第1周期よりも短い第2周期で実行する第2取得ステップ、
前記第1取得ステップによって取得された複数の電子画像を用いて動画像を記録する第1記録ステップ、および
前記第2取得ステップによって取得された複数の部分画像を用いて動画像を記録する第2記録ステップを実行させるための、撮像制御プログラム。
In a processor of an electronic camera provided with an imaging unit that repeatedly outputs an electronic image corresponding to an optical image captured on the imaging surface,
A first acquisition step of executing a process of acquiring an electronic image output from the imaging means in a first period;
A cutout step of repeatedly cutting out a part of the electronic image output from the imaging means in association with the output of the electronic image;
A second acquisition step of executing a process of acquiring the partial image cut out by the cutout step in a second period shorter than the first period;
A first recording step of recording a moving image using a plurality of electronic images acquired in the first acquisition step; and a second recording of a moving image using a plurality of partial images acquired in the second acquisition step. An imaging control program for executing a recording step.
撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段を備える電子カメラによって実行される撮像制御方法であって、
前記撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得ステップ、
前記撮像手段から出力された電子画像の一部を前記電子画像の出力に関連して繰り返し切り出す切り出しステップ、
前記切り出しステップによって切り出された部分画像を取得する処理を前記第1周期よりも短い第2周期で実行する第2取得ステップ、
前記第1取得ステップによって取得された複数の電子画像を用いて動画像を記録する第1記録ステップ、および
前記第2取得ステップによって取得された複数の部分画像を用いて動画像を記録する第2記録ステップを備える、撮像制御方法。
An imaging control method executed by an electronic camera including an imaging unit that repeatedly outputs an electronic image corresponding to an optical image captured on an imaging surface,
A first acquisition step of executing a process of acquiring an electronic image output from the imaging means in a first period;
A cutout step of repeatedly cutting out a part of the electronic image output from the imaging means in association with the output of the electronic image;
A second acquisition step of executing a process of acquiring the partial image cut out by the cutout step in a second period shorter than the first period;
A first recording step of recording a moving image using a plurality of electronic images acquired in the first acquisition step; and a second recording of a moving image using a plurality of partial images acquired in the second acquisition step. An imaging control method comprising a recording step.
撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラに供給される外部制御プログラムであって、
前記撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得ステップ、
前記撮像手段から出力された電子画像の一部を前記電子画像の出力に関連して繰り返し切り出す切り出しステップ、
前記切り出しステップによって切り出された部分画像を取得する処理を前記第1周期よりも短い第2周期で実行する第2取得ステップ、
前記第1取得ステップによって取得された複数の電子画像を用いて動画像を記録する第1記録ステップ、および
前記第2取得ステップによって取得された複数の部分画像を用いて動画像を記録する第2記録ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An external control program supplied to an electronic camera including an imaging unit that repeatedly outputs an electronic image corresponding to an optical image captured on an imaging surface, and a processor that executes processing according to an internal control program stored in a memory,
A first acquisition step of executing a process of acquiring an electronic image output from the imaging means in a first period;
A cutout step of repeatedly cutting out a part of the electronic image output from the imaging means in association with the output of the electronic image;
A second acquisition step of executing a process of acquiring the partial image cut out by the cutout step in a second period shorter than the first period;
A first recording step of recording a moving image using a plurality of electronic images acquired in the first acquisition step; and a second recording of a moving image using a plurality of partial images acquired in the second acquisition step. An external control program for causing the processor to execute a recording step in cooperation with the internal control program.
撮像面で捉えられた光学像に対応する電子画像を繰り返し出力する撮像手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、
前記外部制御プログラムは、
前記撮像手段から出力された電子画像を取得する処理を第1周期で実行する第1取得ステップ、
前記撮像手段から出力された電子画像の一部を前記電子画像の出力に関連して繰り返し切り出す切り出しステップ、
前記切り出しステップによって切り出された部分画像を取得する処理を前記第1周期よりも短い第2周期で実行する第2取得ステップ、
前記第1取得ステップによって取得された複数の電子画像を用いて動画像を記録する第1記録ステップ、および
前記第2取得ステップによって取得された複数の部分画像を用いて動画像を記録する第2記録ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、電子カメラ。
Imaging means for repeatedly outputting an electronic image corresponding to the optical image captured on the imaging surface;
An electronic camera comprising a capturing unit that captures an external control program, and a processor that executes processing according to the external control program captured by the capturing unit and the internal control program stored in a memory,
The external control program is
A first acquisition step of executing a process of acquiring an electronic image output from the imaging means in a first period;
A cutout step of repeatedly cutting out a part of the electronic image output from the imaging means in association with the output of the electronic image;
A second acquisition step of executing a process of acquiring the partial image cut out by the cutout step in a second period shorter than the first period;
A first recording step of recording a moving image using a plurality of electronic images acquired in the first acquisition step; and a second recording of a moving image using a plurality of partial images acquired in the second acquisition step. An electronic camera corresponding to a program that executes a recording step in cooperation with the internal control program.
JP2012169427A 2012-07-31 2012-07-31 Electronic camera Pending JP2014030095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012169427A JP2014030095A (en) 2012-07-31 2012-07-31 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012169427A JP2014030095A (en) 2012-07-31 2012-07-31 Electronic camera

Publications (1)

Publication Number Publication Date
JP2014030095A true JP2014030095A (en) 2014-02-13

Family

ID=50202411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012169427A Pending JP2014030095A (en) 2012-07-31 2012-07-31 Electronic camera

Country Status (1)

Country Link
JP (1) JP2014030095A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7495517B2 (en) 2020-03-27 2024-06-04 維沃移動通信有限公司 Image capturing method and electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7495517B2 (en) 2020-03-27 2024-06-04 維沃移動通信有限公司 Image capturing method and electronic device

Similar Documents

Publication Publication Date Title
US7995102B2 (en) Imaging apparatus for generating stroboscopic image
US9253406B2 (en) Image capture apparatus that can display review image, image capture method, and storage medium
JP2012003539A (en) Image processing device
JP2007259423A (en) Electronic camera
JP2012247533A (en) Electronic camera
JP5180349B2 (en) Imaging apparatus, method, and program
JP4818999B2 (en) Imaging apparatus, method, and program
JP2011071573A (en) Image processing apparatus
JP5865120B2 (en) Electronic camera
JP5485781B2 (en) Electronic camera
JP5485712B2 (en) Electronic camera
JP2012155044A (en) Electronic camera
US20120075495A1 (en) Electronic camera
JP2014107775A (en) Electronic camera
JP5785034B2 (en) Electronic camera
JP2014030095A (en) Electronic camera
US20130083963A1 (en) Electronic camera
JP2012217106A (en) Image processing apparatus
JP2014053706A (en) Electronic camera
JP2013225020A (en) Electronic camera
JP2013090112A (en) Electronic camera
JP2014045318A (en) Electronic camera
JP2011078041A (en) Image processing apparatus and electronic camera
JP5740934B2 (en) Subject detection apparatus, subject detection method, and program
US20130016242A1 (en) Electronic camera