JP2024065386A - Video recording device, video recording device control method, and program - Google Patents

Video recording device, video recording device control method, and program Download PDF

Info

Publication number
JP2024065386A
JP2024065386A JP2022174226A JP2022174226A JP2024065386A JP 2024065386 A JP2024065386 A JP 2024065386A JP 2022174226 A JP2022174226 A JP 2022174226A JP 2022174226 A JP2022174226 A JP 2022174226A JP 2024065386 A JP2024065386 A JP 2024065386A
Authority
JP
Japan
Prior art keywords
recording
video
moving image
generating means
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022174226A
Other languages
Japanese (ja)
Inventor
智章 小宮山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022174226A priority Critical patent/JP2024065386A/en
Publication of JP2024065386A publication Critical patent/JP2024065386A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

Figure 2024065386000001

【課題】動画記録処理への負荷を低減しつつ、動画記録中に特定されたシーンの画像に関する情報を含むメタデータを生成する。
【解決手段】ビデオカメラ100は、動画像の記録中に検出したイベントのタイミングをRAM102に記憶する。ビデオカメラ100は、記録中の動画像に関連付けられるメタデータを生成する第1生成手段と、記録中の動画像から、RAM102に記憶したタイミングのフレーム画像を生成する第2生成手段と、を有する。第2生成手段は、記録中の動画像の記録が終了するまではフレーム画像の生成を行わず、前記動画像の記録が終了した後に、RAM102に記憶したタイミングのフレーム画像を前記動画像から生成する。また、第1生成手段は、前記動画像の記録が終了した後に、第2生成手段で生成されるフレーム画像に関する情報を含めたメタデータを生成する。
【選択図】図7

Figure 2024065386000001

A method and apparatus for generating metadata including information regarding images of scenes identified during video recording, while reducing the load on video recording processing.
[Solution] Video camera 100 stores the timing of an event detected while recording a moving image in RAM 102. Video camera 100 has a first generating means for generating metadata associated with the moving image being recorded, and a second generating means for generating frame images of the timing stored in RAM 102 from the moving image being recorded. The second generating means does not generate frame images until recording of the moving image being recorded is completed, and generates frame images of the timing stored in RAM 102 from the moving image after recording of the moving image is completed. In addition, the first generating means generates metadata including information about the frame images generated by the second generating means after recording of the moving image is completed.
[Selected figure] Figure 7

Description

本発明は、動画像記録装置、動画像記録装置の制御方法、及びプログラムに関する。 The present invention relates to a video recording device, a control method for a video recording device, and a program.

放送局、通信社等における報道ワークフローにおいて、取材時にビデオ撮影したコンテンツに対して生成されるメタデータを活用し、撮影後のコンテンツ編集作業やコンテンツ管理の効率化が行われている。上記のメタデータには、撮影者、撮影場所、取材タイトル等のテキスト情報が記録されている。コンテンツを管理する管理装置では、コンテンツ編集者及び管理者が、メタデータ内のテキスト情報を頼りに、所望のコンテンツの検索・特定を行う。
特許文献1には、動画撮影中のカメラに対する操作を受け付けると、操作を受け付けたタイミング付近のフレーム画像にタグを付与する方法が開示されている。
In the news workflow of broadcasting stations, news agencies, etc., metadata generated for video content shot during reporting is utilized to improve the efficiency of post-shooting content editing and content management. The metadata records text information such as the photographer, shooting location, and report title. In the management device that manages the content, content editors and managers search and identify desired content by relying on the text information in the metadata.
Japanese Patent Laid-Open No. 2006-133693 discloses a method for, when an operation on a camera is received during video shooting, adding a tag to a frame image around the timing at which the operation was received.

特開2020-182164号公報JP 2020-182164 A

上記のメタデータに対して、テキスト情報に加えてコンテンツの概要を視覚的に表現するサムネイル画像に関する情報を含めることで、コンテンツの検索性を向上させることが期待できる。上記の特許文献1に記載の方法を転用することで、動画撮影中に操作を受け付けたタイミング付近のシーンのフレーム画像を生成して、生成したフレーム画像に関する情報をメタデータに含めることが想定できる。しかしながら、重要なシーンは複数回且つ連続的に発生することが想定されるため、重要なシーンが出現する度に当該シーンのフレーム画像の生成処理や、メタデータへの追記処理が実行される。これらの処理が動画コンテンツの記録処理と並行して行われた場合、処理負荷が増大して、動画コンテンツの記録処理の妨げとなり得る。 By including information about thumbnail images that visually represent an overview of the content in addition to text information in the metadata, it is expected that the searchability of the content will be improved. By adapting the method described in Patent Document 1 above, it is possible to generate frame images of scenes around the timing when an operation is accepted during video shooting, and include information about the generated frame images in the metadata. However, since it is expected that important scenes will occur multiple times and consecutively, a process of generating frame images of the scene and a process of adding to the metadata are executed each time an important scene appears. If these processes are performed in parallel with the process of recording the video content, the processing load increases, which may hinder the process of recording the video content.

そこで本発明は、動画記録処理への負荷を低減しつつ、動画記録中に特定されたシーンの画像に関する情報を含むメタデータを生成することを目的とする。 The present invention aims to generate metadata that includes information about images of scenes identified during video recording while reducing the load on the video recording process.

本発明は、動画像記録装置であって、動画像の記録中に検出したイベントのタイミングを記憶する手段と、前記動画像に関連付けられるメタデータを生成する第1生成手段と、前記動画像から、前記記憶したタイミングのフレーム画像を生成する第2生成手段と、を有し、前記第2生成手段は、前記動画像の記録が終了するまではフレーム画像の生成を行わず、前記動画像の記録が終了した後に、前記記憶したタイミングのフレーム画像を前記動画像から生成し、前記第1生成手段は、前記動画像の記録が終了した後に、前記第2生成手段で生成されるフレーム画像に関する情報を含めたメタデータを生成することを特徴とする。 The present invention is a video recording device having a means for storing the timing of an event detected during recording of a video, a first generating means for generating metadata associated with the video, and a second generating means for generating a frame image of the stored timing from the video, the second generating means not generating a frame image until recording of the video is completed, and generating a frame image of the stored timing from the video after recording of the video is completed, and the first generating means generating metadata including information about the frame image generated by the second generating means after recording of the video is completed.

本発明によれば、動画記録処理への負荷を低減しつつ、動画記録中に特定されたシーンの画像に関する情報を含むメタデータを生成することができる。 According to the present invention, it is possible to generate metadata including information about images of scenes identified during video recording while reducing the load on the video recording process.

ビデオカメラの外観を示す図である。FIG. 1 is a diagram showing the appearance of a video camera. ビデオカメラのハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the video camera. メタデータファイルの一例を示す図である。FIG. 13 is a diagram illustrating an example of a metadata file. メタデータファイルの設定画面を示す図である。FIG. 13 is a diagram showing a setting screen for a metadata file. 動画記録開始/終了処理を示すフローチャートである。10 is a flowchart showing a moving image recording start/end process. タイミング情報の記憶処理を示すフローチャートである。13 is a flowchart showing a process of storing timing information. 動画像記録終了処理を示すフローチャートである。13 is a flowchart showing a video recording end process. 重要フレーム情報の例を示す図である。FIG. 13 is a diagram showing an example of important frame information. PTZカメラの外観を示す図である。FIG. 1 is a diagram showing the appearance of a PTZ camera. タイミング情報の記憶処理を示すフローチャートである。13 is a flowchart showing a process of storing timing information.

以下、本発明を実施するための形態について図面を用いて説明する。 Below, the form for implementing the present invention will be explained with reference to the drawings.

<実施形態1>
本実施形態では、動画像記録装置として、ビデオカメラを例に説明する。図1は、ビデオカメラの外観を示す図である。本実施形態において、ビデオカメラ100が、動画像を記録する動画像記録処理の実行主体となる。
<Embodiment 1>
In this embodiment, a video camera will be described as an example of a video recording device. Fig. 1 is a diagram showing the external appearance of a video camera. In this embodiment, the video camera 100 is an entity that executes a video recording process for recording video images.

図2は、ビデオカメラのハードウェア構成を示すブロック図である。本実施形態において、ビデオカメラ100は、制御部101、RAM102、ROM103、撮像部104、画像処理部105、画像圧縮/伸長部106、表示部107、操作部108、無線通信部109、記録媒体I/F110、及び記録媒体111を備える。 Figure 2 is a block diagram showing the hardware configuration of the video camera. In this embodiment, the video camera 100 includes a control unit 101, a RAM 102, a ROM 103, an image capture unit 104, an image processing unit 105, an image compression/expansion unit 106, a display unit 107, an operation unit 108, a wireless communication unit 109, a recording medium I/F 110, and a recording medium 111.

制御部101は、CPU(Central Precessing Unit)であり、ビデオカメラ100の全体の制御を司る。制御部101は、RAM102等の記録媒体に対するデータの読み出しや書き出しの制御を行う。RAM(Random Access Memory)102は、制御部101の演算結果を一時的に格納するメモリや、制御部101に実行させるためのプログラムの展開先として用いられる。またRAM102は、撮像部104、画像処理部105、及び画像圧縮/伸長部106の書き出し先であるフレームバッファとしても用いられる。RAM102は、1ブロックで構成してもよく、物理的に複数ブロックで構成してもよい。ROM(Read Only Memory)103は、制御部101に制御を実行させるためのプログラムや、ビデオカメラ100の各種の設定値を記憶する。制御部101がROM103に記憶されるプログラムを実行することで、後述するフローチャートに示す各種の処理が実現する。 The control unit 101 is a CPU (Central Processing Unit) and is responsible for the overall control of the video camera 100. The control unit 101 controls the reading and writing of data from and to a recording medium such as the RAM 102. The RAM (Random Access Memory) 102 is used as a memory for temporarily storing the calculation results of the control unit 101 and as a destination for expanding programs to be executed by the control unit 101. The RAM 102 is also used as a frame buffer which is the writing destination of the imaging unit 104, image processing unit 105, and image compression/expansion unit 106. The RAM 102 may be configured as one block, or may be physically configured as multiple blocks. The ROM (Read Only Memory) 103 stores programs for the control unit 101 to execute control, and various setting values of the video camera 100. The control unit 101 executes the programs stored in the ROM 103 to realize various processes shown in the flowcharts described below.

撮像部104は、レンズ、シャッター、絞り、撮像素子、及びA/D(Analog/Degital)変換回路を備える。撮像部104は、レンズを介して取り込んだ光を撮像素子とA/D変換回路により電気信号へ変換し、画像データとしてRAM102に書き出す。画像処理部105は、各種の画像処理を行う論理回路であり、制御部101の制御により、RAM102に書き出された画像データに対して、現像処理、ホワイトバランス調整、トーンマップの適用等の画質調整を行う。画像処理部105は、画質調整を行った画像データをRAM102に書き出す。画像圧縮/伸長部106は、制御部101の制御により、動画像や静止画像の記録時または再生時に動画像や静止画像の圧縮・伸長を行う。画像圧縮/伸長部106は、RAM102に書き出された画像データに対して圧縮・伸長を行って再びRAM102に書き出す。 The imaging unit 104 includes a lens, a shutter, an aperture, an imaging element, and an A/D (Analog/Digital) conversion circuit. The imaging unit 104 converts light captured through the lens into an electrical signal using the imaging element and the A/D conversion circuit, and writes the signal to the RAM 102 as image data. The image processing unit 105 is a logic circuit that performs various types of image processing, and performs image quality adjustments such as development processing, white balance adjustment, and application of a tone map to the image data written to the RAM 102 under the control of the control unit 101. The image processing unit 105 writes the image data that has undergone image quality adjustment to the RAM 102. The image compression/expansion unit 106 compresses and expands moving images and still images when recording or playing back moving images and still images under the control of the control unit 101. The image compression/expansion unit 106 compresses and expands the image data written to the RAM 102, and writes the image data back to the RAM 102.

表示部107は、ディスプレイ等の表示デバイスであり、制御部101の制御により、撮像部104によって撮像された画像データや、ビデオカメラ100の設定を行うためのUI画面を表示する。操作部108は、ユーザの操作を受け付けるボタンやダイヤルなどの部材で構成されている。操作部108は、ビデオカメラ100への記録開始/停止の指示、ズーム/フォーカスの調整、表示部107に表示されるUI部品の選択等の、各種の操作を受け付けて、受け付けた操作情報を制御部101へ出力する。表示部107と操作部108は、これらの機能が一体化したタッチパネルディスプレイで構成されていてもよい。無線通信部109は、イントラネット、インターネットなどの外部ネットワークに接続し、制御部101の制御により、外部装置との間で、映像データ、画像データの他、各種のデータの送受信を行う。記録媒体I/F110は、制御部101と記録媒体111を接続する。記録媒体111は、ビデオカメラ100に着脱可能なSDカードやCFexpressカード等の読み書き可能な記録メディアである。制御部101は、撮像部104によって撮像された画像データを動画像として記録媒体111に記録する。 The display unit 107 is a display device such as a display, and displays image data captured by the imaging unit 104 and a UI screen for setting the video camera 100 under the control of the control unit 101. The operation unit 108 is composed of members such as buttons and dials that accept user operations. The operation unit 108 accepts various operations such as instructions to start/stop recording to the video camera 100, adjustment of zoom/focus, and selection of UI parts displayed on the display unit 107, and outputs the accepted operation information to the control unit 101. The display unit 107 and the operation unit 108 may be composed of a touch panel display in which these functions are integrated. The wireless communication unit 109 is connected to an external network such as an intranet or the Internet, and transmits and receives various data, including video data and image data, between external devices under the control of the control unit 101. The recording medium I/F 110 connects the control unit 101 and the recording medium 111. The recording medium 111 is a readable/writable recording medium such as an SD card or a CFexpress card that is detachable from the video camera 100. The control unit 101 records the image data captured by the imaging unit 104 as a moving image on the recording medium 111.

<ビデオカメラ100の動作>
ビデオカメラ100の動作は、制御部101がROM103に記憶されたプログラムに基づいてビデオカメラ100の各部を制御することにより実現される。まず、ビデオカメラ100の初期動作について説明する。ビデオカメラ100は不図示のバッテリを内蔵しており、ユーザが操作部108を介してビデオカメラ100の電源ONを指示すると、制御部101の指示により、バッテリから各部へ電力の供給がなされ、各部が駆動される。各部が動作可能な状態へ遷移すると、撮像部104はレンズを介して取り込んだ光を撮像素子とA/D変換回路により電気信号へ変換し、画像データとしてRAM102に順次書き出す。RAM102に書き出された画像データは、画像処理部105により画質調整に関わる各種の処理が施されて、再びRAM102に書き出される。制御部101は、撮像部104によって撮像され、RAM102に書き出された画像データを、表示部107に順次表示するよう制御する。表示部107に画像データが表示されると、ビデオカメラ100は定常状態へ遷移する。
<Operation of Video Camera 100>
The operation of the video camera 100 is realized by the control unit 101 controlling each part of the video camera 100 based on a program stored in the ROM 103. First, the initial operation of the video camera 100 will be described. The video camera 100 has a built-in battery (not shown). When the user instructs the video camera 100 to be turned on via the operation unit 108, power is supplied from the battery to each part by the instruction of the control unit 101, and each part is driven. When each part transitions to an operable state, the imaging unit 104 converts light taken in through the lens into an electric signal by the imaging element and the A/D conversion circuit, and sequentially writes the image data to the RAM 102. The image data written to the RAM 102 is subjected to various processes related to image quality adjustment by the image processing unit 105, and is written to the RAM 102 again. The control unit 101 controls the image data captured by the imaging unit 104 and written to the RAM 102 to be sequentially displayed on the display unit 107. When the image data is displayed on the display unit 107, the video camera 100 transitions to a steady state.

<メタデータファイルの設定>
続いて、図3及び図4を参照して、報道等の取材において、ビデオカメラ100で記録した動画像に関連付けられるメタデータファイルについて説明する。
図3は、メタデータファイルの一例を示す図である。本実施形態において、メタデータファイル300は、XML(Extensible Markup Language)形式に則って記述されるデータであり、計画情報301と記録情報302を含む。
<Metadata file settings>
Next, a metadata file associated with a video image recorded by the video camera 100 during news gathering or the like will be described with reference to FIGS.
3 is a diagram showing an example of a metadata file. In this embodiment, the metadata file 300 is data written in the XML (Extensible Markup Language) format, and includes plan information 301 and record information 302.

計画情報301は、これから撮影される動画像に関する情報で構成され、撮影された動画コンテンツの権利の帰属する権利者情報、撮影概要、撮影詳細、撮影者、及び撮影機材IDなどを含む。計画情報301を構成する要素は、ユーザにより撮影前に記述される。記録情報302は、記録された動画像に関する情報で構成され、記録日時、記録ファイル、記録時間、関連記録ファイル名、重要フレームに関する情報などを含む。報道等における取材のように計画に則り撮影を行う場合は、ユーザが予め計画情報301の内容が記述されたメタデータファイルを準備する。そしてビデオカメラ100は、事前に計画情報301を設定した上で撮影を開始する。 Plan information 301 is made up of information about the moving images to be shot, and includes information about the rights holder to which the rights of the shot video content belong, a shooting overview, shooting details, the photographer, and shooting equipment ID. The elements that make up plan information 301 are described by the user before shooting. Recording information 302 is made up of information about the recorded moving images, and includes the recording date and time, recording file, recording time, related recording file names, information about important frames, and the like. When shooting according to a plan, such as in reporting for news reports, the user prepares a metadata file in which the contents of plan information 301 are described in advance. Then, video camera 100 starts shooting after setting plan information 301 in advance.

図4は、メタデータファイルの設定画面の例を示す図である。図4の設定画面400は、ユーザが予め準備した計画情報301を含むメタデータファイルの設定を行う際に用いられる。設定画面400は、制御部101の制御により、表示部107に表示される。設定画面400は、ファイル名表示領域401、選択操作領域402、及びファイル内容表示領域403を有する。ファイル名表示領域401には、選択されたメタデータファイルのファイル名が表示される。ユーザが記録媒体111内のファイルシステム内の所定の階層に予め準備したメタデータファイルを保存させておき、当該記録媒体111をビデオカメラ100に挿入することで、当該メタデータファイルが選択肢としてファイル名表示領域401に表示される。選択操作領域402は、メタデータファイルの選択の操作を受け付ける。ファイル内容表示領域403には、選択されたメタデータファイルに含まれる計画情報301が表示される。ユーザは操作部108を用いて選択操作領域402を操作して所望のメタデータファイルを選択し、決定ボタン(不図示)を押下する。制御部101は、以上の操作を受け付けると、選択されたメタデータファイルに含まれる計画情報301の内容をRAM102に展開する。これにより計画情報301の事前設定が完了する。その後、動画像の記録が開始されると、制御部101は、計画情報301と記録情報302の一部を含むメタデータファイルを生成し、生成されたメタデータファイルを動画像に関連付けて記録媒体111に保存する。 Figure 4 is a diagram showing an example of a setting screen for a metadata file. The setting screen 400 in Figure 4 is used when a user sets a metadata file including plan information 301 prepared in advance. The setting screen 400 is displayed on the display unit 107 under the control of the control unit 101. The setting screen 400 has a file name display area 401, a selection operation area 402, and a file content display area 403. The file name display area 401 displays the file name of the selected metadata file. The user stores the prepared metadata file in a predetermined hierarchy in the file system of the recording medium 111 and inserts the recording medium 111 into the video camera 100, whereby the metadata file is displayed in the file name display area 401 as an option. The selection operation area 402 accepts the operation of selecting a metadata file. The file content display area 403 displays the plan information 301 included in the selected metadata file. The user operates the selection operation area 402 using the operation unit 108 to select the desired metadata file and presses the decision button (not shown). When the control unit 101 accepts the above operation, it expands the contents of the plan information 301 contained in the selected metadata file into the RAM 102. This completes the presetting of the plan information 301. Thereafter, when recording of the video starts, the control unit 101 generates a metadata file that includes part of the plan information 301 and the recording information 302, associates the generated metadata file with the video, and stores it on the recording medium 111.

<ビデオカメラ100の動画記録開始/終了処理のフロー>
続いて、メタデータファイルの設定が行われた後で、ビデオカメラ100が動画像の記録開始/記録終了を行う時に実行する処理について説明する。図5(a)は、ビデオカメラ100が動画像の記録開始を行う時に実行する処理を示すフローチャートである。本フローチャートの処理は、操作部108を介したユーザの操作により、動画像の記録開始が指示された場合に開始される。動画像の記録の開始前に、制御部101は、設定画面400を用いたユーザの操作に基づき、計画情報301の設定を行う。以下、フローチャートの各工程は、それら符号の先頭にS(ステップ)を付与して説明する。
<Flow of video camera 100 video recording start/end process>
Next, a process executed when the video camera 100 starts/stops recording a moving image after the metadata file has been set will be described. Fig. 5A is a flowchart showing the process executed when the video camera 100 starts recording a moving image. The process of this flowchart is started when a user operation via the operation unit 108 instructs the start of recording a moving image. Before starting recording a moving image, the control unit 101 sets the plan information 301 based on the user operation using the setting screen 400. Each step of the flowchart will be described below with an S (step) added to the beginning of the reference numeral.

動画像の記録開始が指示されると、S101にて、制御部101は、撮像部104で撮像された画像データをRAM102に書き出す。次に制御部101は、不図示のDMA(Direct Memory Access)コントローラを介して、RAM102に書き出された画像データを、画像圧縮/伸長部106へ転送して、圧縮された画像データを得る。なお、画像データの圧縮の方式は限定されない。MPEG4-AVC(Moving Picture Experts Group4-Advanced Video Coding)、HEVC(High Efficiency Video Coding)等の規格の符号化方式が適用可能である。その後制御部101は、所定数の圧縮された画像データを、不図示のフォーマットで符号化されたデータ列から構成されるエレメンタリーストリームとして成形して、RAM102に書き出す。続いて制御部101は、成形されたエレメンタリーストリームを、オーディオストリーム等と不図示のマルチプレクサにより統合してストリームデータに成形して、RAM102に書き出す。そして制御部101は、上記のストリームデータが所定サイズ書き出された場合に、動画像データとして記録媒体111に書き出す。本ステップの処理は、動画像の記録停止が指示されるまで、撮像部104で順次撮像される画像データに対して順次実行される。これにより、撮像部104で撮像された画像データが動画像コンテンツとして記録媒体111に記録される。このようにして、制御部101は、動画像の記録処理を行う。 When the start of recording of moving images is instructed, in S101, the control unit 101 writes image data captured by the imaging unit 104 to the RAM 102. Next, the control unit 101 transfers the image data written to the RAM 102 to the image compression/expansion unit 106 via a DMA (Direct Memory Access) controller (not shown) to obtain compressed image data. The method of compressing the image data is not limited. Encoding methods of standards such as MPEG4-AVC (Moving Picture Experts Group4-Advanced Video Coding) and HEVC (High Efficiency Video Coding) are applicable. After that, the control unit 101 forms a predetermined number of compressed image data into an elementary stream composed of a data string encoded in a format (not shown) and writes it to the RAM 102. Next, the control unit 101 integrates the formed elementary stream with the audio stream and the like using a multiplexer (not shown) to form stream data, and writes it to the RAM 102. Then, when the above stream data has been written out to a predetermined size, the control unit 101 writes it out to the recording medium 111 as moving image data. The process of this step is executed sequentially for image data captured sequentially by the imaging unit 104 until an instruction to stop recording of the moving image is given. As a result, the image data captured by the imaging unit 104 is recorded on the recording medium 111 as moving image content. In this way, the control unit 101 performs the recording process of the moving image.

続いて、動画像の記録開始の後に実行されるメタデータファイルの生成処理について説明する。まずS102にて、制御部101は、記録開始した動画像データに関する情報を、RAM102に書き出す。ここで書き出される情報は、図3の記録情報302に示す情報のうち、記録開始時に決定されている情報である。具体的には、記録開始時の記録日時、ファイルタイプやファイル名などがある。なお、記録情報302の一部を記録開始時に書き出すことで、記録媒体111の強制的なアンマウントや、記録媒体111自体の損壊等、正常に記録終了処理がなされなかった場合に備えて、可能な限りの情報をメタデータファイルに残すことができる。 Next, the metadata file generation process executed after the start of video recording will be described. First, in S102, the control unit 101 writes information about the video data for which recording has started to the RAM 102. The information written out here is information determined at the start of recording among the information shown in the recording information 302 in FIG. 3. Specifically, this information includes the recording date and time at the start of recording, the file type, and the file name. Note that by writing out part of the recording information 302 at the start of recording, it is possible to leave as much information as possible in the metadata file in case the recording end process is not performed normally, such as when the recording medium 111 is forcibly unmounted or the recording medium 111 itself is damaged.

次にS103にて、制御部101は、記録中の動画像データに関連付けられるメタデータファイル(XMLファイル)を生成して、生成されたメタデータファイルを記録媒体111に保存する。具体的には、制御部101は、図4の設定画面400にて設定されて予めRAM102に展開されている計画情報301と、S102にてRAM102に書き出されている記録情報302とを読み出して、XML形式に則ってRAM102に書き出す。そして制御部101は、RAM102に書き出された情報をメタデータファイル(XMLファイル)として記録媒体111に保存する。その後本フローチャートの処理が終了する。 Next, in S103, the control unit 101 generates a metadata file (XML file) associated with the video data being recorded, and saves the generated metadata file on the recording medium 111. Specifically, the control unit 101 reads out the plan information 301 that has been set on the setting screen 400 in FIG. 4 and expanded in advance in the RAM 102, and the recording information 302 that has been written out to the RAM 102 in S102, and writes them out to the RAM 102 in accordance with the XML format. The control unit 101 then saves the information written out to the RAM 102 as a metadata file (XML file) on the recording medium 111. After that, the processing of this flowchart ends.

以上のように、図5(a)に示すフローチャートの処理では、動画像の記録開始時に、動画像データの記録媒体111への書き出し処理の開始、及びメタデータファイル(XMLファイル)の記録媒体111への保存を行う。これにより、動画像の記録開始処理が完了する。 As described above, in the process of the flowchart shown in FIG. 5(a), when video recording starts, the process of writing video data to the recording medium 111 starts, and the metadata file (XML file) is saved to the recording medium 111. This completes the process of starting recording of the video.

図5(b)は、ビデオカメラ100が動画像の記録終了を行う時に実行する処理を示すフローチャートである。本フローチャートの処理は、操作部108を介したユーザの操作により、動画像の記録停止が指示された場合に開始される。
動画像の記録処理の実行中に、動画像の記録停止の指示がなされると、S104にて、制御部101は、DMAコントローラを制御して、画像圧縮/伸長部106への画像データの転送を停止する。転送が停止されると、それに連動して圧縮された画像データのRAM102への書き出しが停止される。続けて制御部101は、記録媒体111に書き出された動画像データに対してヘッダ情報等を追記して、動画像ファイルに変換する。以上のようにして、制御部101は、動画像の記録を終了する。
次にS105にて、制御部101は、動画像の記録開始時に記録媒体111に保存したメタデータファイル(XMLファイル)をRAM102に読み出す。読み出した情報には、計画情報301及び記録情報302の一部が含まれる。
5B is a flowchart showing the process executed when the video camera 100 ends recording of a moving image. The process of this flowchart starts when a user operates the operation unit 108 to instruct the video camera 100 to stop recording of a moving image.
When an instruction to stop recording of a moving image is given during the execution of the moving image recording process, in S104, the control unit 101 controls the DMA controller to stop the transfer of image data to the image compression/expansion unit 106. When the transfer is stopped, writing of the compressed image data to the RAM 102 is stopped in conjunction with the stop of the transfer. Next, the control unit 101 adds header information and the like to the moving image data written to the recording medium 111, and converts it into a moving image file. In this manner, the control unit 101 ends the recording of the moving image.
Next, in S105, the control unit 101 reads out the metadata file (XML file) stored in the recording medium 111 at the start of recording of the moving image, into the RAM 102. The read information includes the plan information 301 and a part of the recording information 302.

続いてS106にて、制御部101は、S105でRAM102に読み出されているメタデータファイル(XMLファイル)の記録情報302に対して追加処理を行うため、記録された動画像データに関する情報を、RAM102に書き出す。ここで書き出される情報は、図3の記録情報302に示す情報のうち、動画像の記録終了時に確定する情報である。具体的には、記録日時、記録時間、関連記録ファイル名などである。なお記録時間の項目は、単位と期間の情報がそれぞれ設定される。単位は、分、秒、ミリ秒、またはタイムコード形式等が選択される。期間はそれら単位に併せて算出される。また関連記録ファイル名は、ビデオカメラ100が異なるビットレートやフォーマットで同時に2ファイルの動画像データを記録可能な場合に利用される項目である。関連記録ファイル名の項目には、ビデオカメラ100が同時に異なる動画像データを記録していた場合に、関連ファイルとしてもう一方のファイル名が設定される。これにより、2ファイルの管理容易化が図られる。
次に、S107にて、制御部101は、S105で読み出されているメタデータファイルに対してS106で書き出された情報を追加することで、計画情報301と記録情報302を含むメタデータファイル(XMLファイル)を生成する。そして、制御部101は、生成されたメタデータファイルを記録媒体111に保存する。その後本フローチャートの処理が終了する。
Next, in S106, the control unit 101 writes information about the recorded video data to the RAM 102 in order to perform additional processing on the recording information 302 of the metadata file (XML file) read to the RAM 102 in S105. The information written here is information that is determined when the recording of the video is completed, among the information shown in the recording information 302 in FIG. 3. Specifically, it is the recording date and time, the recording time, the related recording file name, etc. In addition, in the item of the recording time, information on the unit and the period are respectively set. The unit is selected from minutes, seconds, milliseconds, time code format, etc. The period is calculated according to these units. In addition, the related recording file name is an item used when the video camera 100 can record two files of video data at the same time with different bit rates or formats. In the item of the related recording file name, when the video camera 100 has recorded different video data at the same time, the file name of the other file is set as the related file. This facilitates management of the two files.
Next, in S107, the control unit 101 generates a metadata file (XML file) including the plan information 301 and the recording information 302 by adding the information written out in S106 to the metadata file read out in S105. Then, the control unit 101 stores the generated metadata file in the recording medium 111. After that, the processing of this flowchart ends.

以上のように、図5(b)に示すフローチャートの処理では、動画像の記録終了時に、動画像データのファイル形成処理、及びメタデータファイル(XMLファイル)の記録媒体111への保存を行う。これにより、動画像の記録終了処理が完了する。 As described above, in the process of the flowchart shown in FIG. 5(b), when the recording of the video is completed, a file of the video data is formed, and the metadata file (XML file) is saved to the recording medium 111. This completes the process of ending the recording of the video.

<重要フレーム情報を含むメタデータファイルの生成>
続いて、重要フレームに関する情報(重要フレーム情報ともいう)を含むメタデータファイルを生成する場合の処理について説明する。重要フレームとは、記録された動画像データの中で決定的または印象的なシーンのフレーム画像を表す。本実施形態では、動画像の記録中にユーザが所望のタイミングで操作部108を操作(例えば、操作ボタンの押下)することで、重要フレームの指定指示を行う。制御部101は、重要フレームの指定指示を検出したタイミング情報をRAM102に記憶するよう制御する。操作部108による重要フレームの指定指示は、動画像の記録中に検出したイベントの一例である。
<Generating metadata files containing important frame information>
Next, a process for generating a metadata file including information on important frames (also referred to as important frame information) will be described. An important frame refers to a frame image of a decisive or impressive scene in recorded video data. In this embodiment, a user operates the operation unit 108 (e.g., pressing an operation button) at a desired timing during recording of a video to specify an important frame. The control unit 101 controls to store timing information at which an instruction to specify an important frame is detected in the RAM 102. An instruction to specify an important frame by the operation unit 108 is an example of an event detected during recording of a video.

図6は、本実施形態に係るビデオカメラ100が、動画像の記録中に、重要フレームのタイミング情報を記憶する処理を示すフローチャートである。なお、本フローチャートの処理が実行される前提として、RAM102には、動画像の記録開始時から撮像部104で撮像される画像データ(フレーム画像)のカウント値がフレーム番号として記憶されている。フレーム番号は、制御部101が動画像の記録開始以降、撮像部104にてレンズを介して取り込んだ光を撮像素子とA/D変換回路により電気信号へ変換され、画像データとしてRAM102へ書き出す度にカウントされる値である。 Figure 6 is a flowchart showing the process in which the video camera 100 according to this embodiment stores timing information of important frames while recording a moving image. Note that, as a prerequisite for executing the process of this flowchart, the RAM 102 stores, as frame numbers, the count values of the image data (frame images) captured by the imaging unit 104 from the start of recording the moving image. The frame number is a value that is counted each time the control unit 101 starts recording the moving image, the light captured through the lens by the imaging unit 104 is converted into an electrical signal by the imaging element and A/D conversion circuit, and written to the RAM 102 as image data.

動画像の記録処理の実行中に、ユーザにより操作部108を介して重要フレームの指定指示がなされると、S201にて、制御部101は、該指示を検出して、検出したタイミングのフレーム番号を、RAM102から読み出す。制御部101は、読み出されたフレーム番号を、重要フレームのフレーム番号に決定する。なお、ここでは重要フレームの特定にフレーム番号を用いたが、動画像データ内のフレーム画像を特定可能な情報であれば、フレーム番号を用いる方法に限られない。例えば、ビデオカメラ100が動画データの記録開始時から歩進させているタイムコード情報や、不図示のRTC(Real Time Clock)から取得できる時刻情報を用いてもよい。重要フレームのフレーム番号は、重要フレームのタイミング情報の一例である。 When a user issues an instruction to specify an important frame via the operation unit 108 during the execution of the video recording process, in S201 the control unit 101 detects the instruction and reads out the frame number of the detected timing from the RAM 102. The control unit 101 determines the read frame number as the frame number of the important frame. Note that although the frame number is used to identify the important frame here, the method is not limited to using the frame number as long as the information is capable of identifying a frame image within the video image data. For example, time code information that the video camera 100 advances from the start of recording the video data or time information that can be obtained from an RTC (Real Time Clock) (not shown) may be used. The frame number of the important frame is an example of timing information of the important frame.

S202にて、制御部101は、S201にて決定された重要フレームのフレーム番号をRAM102に記憶する。制御部101は、動画像の記録処理の実行中に、操作部108による重要フレームの指定指示を検出する度に、S201乃至S202の処理を逐次実行する。
以上のような図6のフローチャートの処理では、動画像の記録中に、動画像データ内の重要フレームを特定可能なタイミング情報を記憶する。
In S202, the control unit 101 stores the frame number of the important frame determined in S201 in the RAM 102. The control unit 101 sequentially executes the processes of S201 and S202 every time it detects an instruction to designate an important frame by the operation unit 108 during the execution of the moving image recording process.
In the process of the flowchart in FIG. 6 as described above, timing information capable of identifying important frames in the moving image data is stored while the moving image is being recorded.

図7は、重要フレームのフレーム番号が記憶されていた場合の、動画像の記録終了処理を示すフローチャートである。本実施形態に係るビデオカメラ100は、重要フレームのフレーム番号が記憶されていた場合、動画像の記録終了処理を行う際に、重要フレーム情報を含めたメタデータファイル(XMLファイル)を生成する。図7を用いて説明する動画像の記録終了処理は、図5(b)を用いて説明した動画像データの記録終了時の処理に加えて、重要フレーム情報を書き出す処理が追加されている。以下、図5(b)からの差分を中心に説明する。 Figure 7 is a flow chart showing the video recording end process when the frame number of an important frame has been stored. When the frame number of an important frame has been stored, the video camera 100 according to this embodiment generates a metadata file (XML file) including important frame information when performing the video recording end process. The video recording end process described using Figure 7 includes a process for writing out important frame information in addition to the process at the end of video data recording described using Figure 5(b). The following explanation focuses on the differences from Figure 5(b).

S301乃至S303の処理は、図5(b)のS104乃至S106の処理と同様である。
S106の処理と同様の、S303にて、制御部101が、図3の記録情報302に示す情報のうち、動画像の記録終了時に確定する情報をRAM102に書き出す。
次にS304にて、制御部101は、S202にてRAM102に記憶されている重要フレームのフレーム番号を参照する。
続いてS305にて、制御部101は、S304で参照した重要フレームのフレーム番号に基づいて、S303でRAM102に書き出された記録情報302に重要フレーム情報を追加する。
The processes in S301 to S303 are similar to the processes in S104 to S106 in FIG.
In S303, which is similar to the process in S106, the control unit 101 writes out to the RAM 102 information that is determined when the recording of the moving image ends, among the information shown in the recording information 302 in FIG.
Next, in S304, the control unit 101 refers to the frame number of the important frame stored in the RAM 102 in S202.
Next, in S305, the control unit 101 adds important frame information to the record information 302 written to the RAM 102 in S303, based on the frame number of the important frame referenced in S304.

図8は、重要フレーム情報の例を示す図である。図8では、図3に示すメタデータファイルにおけるその他の項目に重要フレーム情報が設定された場合の例を示す。種別の項目には、重要フレームであることを示す情報が設定される。時間の項目には、動画像の記録開始時を起点とした時の時間的位置情報がタイムコード表記で設定される。制御部101は、ビデオカメラ100の撮像フレームレートと重要フレームのフレーム番号から、時間的位置情報を算出してもよい。また、画像ファイルの項目には、後段の処理(S306)で重要フレームの画像ファイルが生成された際の当該画像ファイルの保存先情報として、画像ファイルパス情報が設定される。また、画像ファイルの項目には、重要フレームの画像ファイルのファイル名称が設定される。ファイルタイプの項目には、重要フレームの画像ファイルのファイルタイプが設定される。なお、図8に示す例では、1枚の重要フレームに関わる情報のみが設定されているが、ユーザが重要フレームの指定指示を動画像の記録中に複数回行った場合には、複数のフレーム番号に対応させて、重要フレームに関わる情報が複数設定される。 Figure 8 is a diagram showing an example of important frame information. Figure 8 shows an example in which important frame information is set in other items in the metadata file shown in Figure 3. In the type item, information indicating that it is an important frame is set. In the time item, time position information from the start of recording of the video image as a starting point is set in time code notation. The control unit 101 may calculate the time position information from the imaging frame rate of the video camera 100 and the frame number of the important frame. In addition, in the image file item, image file path information is set as storage destination information for the image file when the image file of the important frame is generated in the subsequent process (S306). In addition, in the image file item, the file name of the image file of the important frame is set. In the file type item, the file type of the image file of the important frame is set. Note that in the example shown in Figure 8, only information related to one important frame is set, but if the user issues an instruction to specify an important frame multiple times during recording of the video image, multiple pieces of information related to the important frame are set corresponding to multiple frame numbers.

制御部101は、S302で読み出されているメタデータファイルに対して、S303で書き出された情報、及びを上記の重要フレーム情報を追加することで、計画情報301と記録情報302を含むメタデータファイル(XMLファイル)を生成する。そして、制御部101は、生成されたメタデータファイルを、記録媒体111に保存する。以上の処理により、メタデータファイルの生成が完了する。 The control unit 101 generates a metadata file (XML file) including the plan information 301 and the recording information 302 by adding the information written out in S303 and the above-mentioned important frame information to the metadata file read out in S302. The control unit 101 then stores the generated metadata file in the recording medium 111. With the above processing, the generation of the metadata file is completed.

次にS306にて、制御部101が、S304で参照した重要フレームのフレーム番号と、記録された動画像から、重要フレームの画像ファイルを生成する。まず、制御部101は、記録媒体111に書き出されている動画像データから、重要フレームのフレーム番号に対応する画像データを、RAM102に読み出す。続いて制御部101は、DMAコントローラを制御して、読み出した情報を画像圧縮/伸長部106へ転送し、伸長及び画像データへの圧縮を行う。制御部101は、画像圧縮/伸長部106で圧縮された画像データをRAM102へ書き出し、画像ファイルとして必要な情報を追加することで、重要フレームの画像ファイルを生成する。このとき制御部101は、生成された画像ファイルのファイル名称を、S305にて生成されたメタデータファイルに含まれる重要フレーム情報のファイル名称と一致させる。 Next, in S306, the control unit 101 generates an image file of the important frame from the frame number of the important frame referenced in S304 and the recorded video. First, the control unit 101 reads image data corresponding to the frame number of the important frame from the video data written to the recording medium 111 into the RAM 102. Next, the control unit 101 controls the DMA controller to transfer the read information to the image compression/expansion unit 106, which performs expansion and compression into image data. The control unit 101 writes the image data compressed by the image compression/expansion unit 106 into the RAM 102 and adds information required for the image file, thereby generating an image file of the important frame. At this time, the control unit 101 matches the file name of the generated image file with the file name of the important frame information included in the metadata file generated in S305.

そして制御部101は、生成された重要フレームの画像ファイルを、記録媒体111に保存する。このとき制御部101は、重要フレームの画像ファイルを、S305にて生成されたメタデータファイルに含まれる画像ファイルパス情報の位置に保存する。なお、制御部101は、重要フレームの画像ファイルを記録媒体111に保存した時に、S305にて生成されたメタデータファイルに対して、重要フレームの画像ファイルパス情報を追加しても構わない。具体的には、制御部101は、S305で重要フレームの画像ファイルパス情報を含まず時間的位置情報を含むメタデータファイルを生成しておき、S306で重要フレームの画像ファイルを生成・保存した時に、画像ファイルパス情報を追加する。また、ユーザが重要フレームの指定指示を撮影中に複数回行った場合、本ステップでは、制御部101が、複数のフレーム番号に対応させて、重要フレームの画像ファイルを複数生成する。その後本フローチャートの処理が終了する。 Then, the control unit 101 saves the generated image file of the important frame in the recording medium 111. At this time, the control unit 101 saves the image file of the important frame in the position of the image file path information included in the metadata file generated in S305. Note that when the control unit 101 saves the image file of the important frame in the recording medium 111, the control unit 101 may add the image file path information of the important frame to the metadata file generated in S305. Specifically, the control unit 101 generates a metadata file that does not include the image file path information of the important frame but includes the time position information in S305, and adds the image file path information when the image file of the important frame is generated and saved in S306. Also, if the user issues an instruction to specify an important frame multiple times during shooting, in this step, the control unit 101 generates multiple image files of the important frame corresponding to multiple frame numbers. After that, the processing of this flowchart ends.

以上のような図7のフローチャートの処理では、動画像の記録中にユーザから重要フレームの指定指示のあった時のフレーム番号をRAM102に記憶し、動画像の記録終了した後に、重要フレームに関する情報を含むメタデータファイルを生成する。制御部101は、動画像の記録が終了するまでは、重要フレームの画像ファイルの生成を行わず、重要フレームのフレーム画像の時間的位置情報を含むメタデータファイルを生成した後で、重要フレームのフレーム画像を生成する。 In the process of the flowchart in FIG. 7 as described above, the frame number at the time when the user instructs to designate an important frame during video recording is stored in RAM 102, and after video recording is completed, a metadata file containing information about the important frame is generated. The control unit 101 does not generate an image file of the important frame until video recording is completed, and generates a metadata file containing temporal position information of the frame image of the important frame, and then generates the frame image of the important frame.

以上の本実施形態によれば、動画像の記録中にユーザから重要フレームの指定指示のあった時、データ量の比較的少ないフレーム番号のみをRAM102に記憶する。そして、動画像の記録終了後に、重要フレームの画像ファイルの生成処理を行う。これにより、動画像記録中における処理負荷を低減しつつ、重要フレームの情報を含むメタデータファイルを生成することができる。 According to the present embodiment described above, when a user instructs the system to specify an important frame while a video is being recorded, only the frame number with a relatively small amount of data is stored in RAM 102. Then, after the video recording is completed, a process for generating an image file of the important frame is performed. This makes it possible to generate a metadata file containing information about the important frame while reducing the processing load during video recording.

本実施形態の第1の変形例として、重要フレームの画像ファイルの生成が行われている間は、処理負荷が高い状況であるのに鑑みて、制御部101は、図7のフローチャートの処理が終了するまでは、次の動画像の記録開始指示の受け付けを破棄してもよい。また制御部101は、動画像の記録開始できない旨を表示部107に表示するなどして、ユーザへの通知を行ってもよい。 As a first modified example of this embodiment, in consideration of the high processing load while an image file of an important frame is being generated, the control unit 101 may discard the acceptance of an instruction to start recording the next video until the processing of the flowchart in FIG. 7 is completed. The control unit 101 may also notify the user that video recording cannot be started, for example by displaying on the display unit 107.

また本実施形態の第2の変形例として、ユーザによる重要フレームの指定指示の操作回数に上限値を設けてもよい。具体的には、制御部101は、1回の動画像の記録中に受け付けた重要フレームの指定指示の操作回数が所定の上限値に達した場合に、以降の重要フレームの指定指示の受け付けを破棄してもよい。また制御部101は、上限に達した旨を表示部107に表示するなどして、ユーザへの通知を行ってもよい。 As a second modification of this embodiment, an upper limit may be set for the number of times a user may specify an instruction to designate an important frame. Specifically, when the number of times an instruction to designate an important frame received during one recording of a moving image reaches a predetermined upper limit, the control unit 101 may discard the reception of subsequent instructions to designate an important frame. The control unit 101 may also notify the user by, for example, displaying on the display unit 107 that the upper limit has been reached.

また本実施形態の第3の変形例として、図7のS302で制御部101は、動画像の記録の終了した直後に、メタデータファイルの生成を開始する構成に代えて、動画像の記録の終了以降所定時間間隔を空けた後に、メタデータファイルの生成を開始してもよい。この場合制御部101は、動画像の記録の終了以降、ユーザの指示により設定されたタイミングで、メタデータファイルの生成を開始してもよい。図5(b)のS105についても同様である。 As a third variation of this embodiment, in S302 of FIG. 7, instead of the configuration in which the control unit 101 starts generating a metadata file immediately after the end of video recording, the control unit 101 may start generating a metadata file after a predetermined time interval has elapsed since the end of video recording. In this case, the control unit 101 may start generating a metadata file at a timing set by a user instruction after the end of video recording. The same applies to S105 of FIG. 5(b).

<実施形態2>
実施形態1では、動画像記録装置として、ビデオカメラ100を例に説明したが、本実施形態では、PTZ(Pan-Tilt-Zoom)カメラを例に説明する。以下、実施形態1と共通する箇所は説明を省略し、実施形態1との差分を中心に説明する。
<Embodiment 2>
In the first embodiment, the video camera 100 is used as an example of a video recording device, but in this embodiment, a PTZ (Pan-Tilt-Zoom) camera is used as an example. Below, the description of the parts common to the first embodiment will be omitted, and the differences from the first embodiment will be mainly described.

図9は、PTZカメラの外観を示す図である。PTZカメラ200は、水平または垂直方向への首振り制御や拡大制御が可能なカメラである。またPTZカメラ200は、監視・観測、スポーツ競技撮影、番組制作など用途で用いられ、撮影中の画像を解析することで所定のイベントを検出して、当該所定のイベントを検出した時間情報を記録する機能を有する。なお、上述する所定のイベントとしては、監視用途では、特定エリアへの人物の出入りなど防犯を目的としたものや、スポーツ競技用途では、特定プレイヤや特定プレイヤによる所定モーションなどハイライトシーンのタグ付けを目的したものが挙げられる。 Figure 9 shows the appearance of a PTZ camera. The PTZ camera 200 is a camera that can be controlled to swivel in the horizontal or vertical direction and to zoom in. The PTZ camera 200 is used for applications such as surveillance and observation, filming sports competitions, and program production, and has the function of detecting a specific event by analyzing images being filmed and recording the time information when the specific event was detected. Note that the above-mentioned specific event can be for the purpose of crime prevention, such as a person entering or leaving a specific area, in surveillance applications, or for the purpose of tagging highlight scenes, such as a specific player or a specific motion by a specific player, in sports competition applications.

本実施形態において、PTZカメラ200は、動画像記録処理の実行主体となる。以下、PTZカメラ200の機能について、図2を用いてビデオカメラ100との差異を中心に説明する。制御部101は、画像処理部105を用いて撮像部104で撮像された画像データを順次解析し、画像データ内の所定のイベントを検出する機能を有する。具体的には、AI(Artificial Intelligence)検出を利用した方法が用いられる。制御部101は、撮像部104で撮像された画像データを学習済みモデルに入力して得られる、所定のイベントの有無を表す出力データを用いて、所定のイベントを検出してもよい。この場合、所定のイベントを示す画像を用いて機械学習された学習済みモデルの情報をROM103に格納しておく。 In this embodiment, the PTZ camera 200 is the subject that executes the video image recording process. The following describes the functions of the PTZ camera 200, focusing on the differences from the video camera 100, with reference to FIG. 2. The control unit 101 has a function of sequentially analyzing image data captured by the imaging unit 104 using the image processing unit 105, and detecting a specific event in the image data. Specifically, a method using AI (Artificial Intelligence) detection is used. The control unit 101 may detect a specific event using output data indicating the presence or absence of a specific event, which is obtained by inputting image data captured by the imaging unit 104 into a trained model. In this case, information on the trained model that has been machine-learned using an image showing the specific event is stored in the ROM 103.

なお、制御部101は、学習済みモデルを用いた処理の他、LUT等のルールベースの処理を行うことで、所定のイベントを検出してもよい。この場合、入力データと出力データとの関係を予めLUTとして作成しておき、このLUTをROM103に格納しておく。制御部101は、ROM103に格納されたLUTに撮像部104で撮像された画像データを入力して得られる出力データを用いて、所定のイベントを検出してもよい。また制御部101は、不図示のGPUと協働して、所定のイベントを検出する処理を行ってもよい。 The control unit 101 may detect a predetermined event by performing rule-based processing such as an LUT, in addition to processing using a trained model. In this case, the relationship between input data and output data is created in advance as an LUT, and this LUT is stored in ROM 103. The control unit 101 may detect a predetermined event using output data obtained by inputting image data captured by the imaging unit 104 into the LUT stored in ROM 103. The control unit 101 may also perform processing to detect a predetermined event in cooperation with a GPU (not shown).

PTZカメラ200の記録開始/終了時の処理フローは実施形態1と同様であるが、動画像の記録中の重要フレームのタイミング情報を記憶する処理に差異があるため、当該差異について図10を用いて説明する。 The processing flow when starting/ending recording with the PTZ camera 200 is the same as in embodiment 1, but there is a difference in the process of storing timing information of important frames during recording of moving images, and this difference will be explained using Figure 10.

図6は、本実施形態に係るPTZカメラ200が、動画像の記録中に、重要フレームのタイミング情報を記憶する処理を示すフローチャートである。なお、動画像の記録開始処理は、図5(a)と同様であり、動画像の記録中は、撮像部104で撮像された画像データが、画像圧縮/伸長部106により圧縮されて、記録媒体111へ順次書き出される。 Figure 6 is a flow chart showing the process in which the PTZ camera 200 according to this embodiment stores timing information of important frames while recording a moving image. The process for starting recording of a moving image is the same as that shown in Figure 5(a), and while recording a moving image, image data captured by the imaging unit 104 is compressed by the image compression/expansion unit 106 and written sequentially to the recording medium 111.

S401にて、制御部101は、画像処理部105を用いて、撮像部104で撮像された画像データを学習済みのモデルに順次入力し、得られた出力データに基づいて、所定のイベントを検出したか否かを判定する。ここでの判定処理については、学習済モデルからの出力データを定期的に監視することで判定してもよい。また、画像処理部105が検出処理の主体として動作する場合には、画像処理部105が所定のイベントを検出したことを契機に制御部101に対して出力する割り込み信号に基づいて判定してもよい。なお、所定のイベントは、上述した通り、所定人物や所定オブジェクトの特定、人物の所定動作の発生等がある。制御部101は、所定のイベントを検出していない場合は、処理をS403へ遷移させ、所定のイベントを検出した場合は、処理をS402へ遷移させる。 In S401, the control unit 101 uses the image processing unit 105 to sequentially input image data captured by the imaging unit 104 to the trained model, and determines whether or not a specific event has been detected based on the obtained output data. The determination process here may be performed by periodically monitoring the output data from the trained model. In addition, when the image processing unit 105 operates as the subject of the detection process, the determination may be performed based on an interrupt signal output to the control unit 101 when the image processing unit 105 detects a specific event. Note that, as described above, the specific event may be the identification of a specific person or object, the occurrence of a specific action by a person, etc. If the control unit 101 has not detected the specific event, it transitions the process to S403, and if it has detected the specific event, it transitions the process to S402.

S402にて、制御部101は、S401で所定のイベントを検出したタイミングにおけるフレーム番号を、RAM102から読み出す。制御部101は、読み出されたフレーム番号を、重要フレームのフレーム番号に決定する。フレーム番号については、実施形態1と同様である。
S403にて、制御部101は、動画像の記録停止の指示がなされか否かを判定する。制御部101が記録停止の指示を検出されるまで、処理はS401へ戻り、制御部101が記録停止の指示を検出した場合、本フローチャートの処理を終了する。その後、図7に示す記録終了処理を示すフローチャートの処理が実行される。
以上のような図10のフローチャートの処理では、動画像の記録中に所定のイベントを検出した場合に、検出したタイミング情報を、重要フレームを特定可能な情報として記憶する。
In S402, the control unit 101 reads out the frame number at the timing when the predetermined event was detected in S401 from the RAM 102. The control unit 101 determines the read frame number as the frame number of the important frame. The frame number is the same as in the first embodiment.
In S403, the control unit 101 determines whether or not an instruction to stop recording of a moving image has been issued. The process returns to S401 until the control unit 101 detects an instruction to stop recording. If the control unit 101 detects an instruction to stop recording, the process of this flowchart ends. Then, the process of the flowchart showing the recording end process shown in FIG. 7 is executed.
In the process of the flowchart in FIG. 10 as described above, when a predetermined event is detected during recording of a moving image, the detected timing information is stored as information capable of identifying an important frame.

以上の本実施形態によれば、記録中の動画像のフレーム画像を順次解析し、フレーム画像内で所定のイベントを検出した時、データ量の比較的少ないフレーム番号のみをRAM102に記憶する。そして、動画像の記録終了後に、重要フレームの画像ファイルの生成処理を行う。これにより、動画像記録中における処理負荷を低減しつつ、重要フレームの情報を含むメタデータファイルを生成することができる。 According to the present embodiment described above, frame images of the video being recorded are analyzed in sequence, and when a specific event is detected within a frame image, only the frame number with a relatively small amount of data is stored in RAM 102. Then, after the video recording is completed, a process for generating an image file of the important frame is performed. This makes it possible to generate a metadata file containing information about the important frame while reducing the processing load during video recording.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。 Although the present invention has been described in detail above based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the gist of the present invention are also included in the present invention. Parts of the above-mentioned embodiments may be appropriately combined. In addition, the present invention also includes a case where a software program that realizes the functions of the above-mentioned embodiments is supplied to a system or device having a computer that can execute the program directly from a recording medium or using wired/wireless communication, and the program is executed. Therefore, the program code itself that is supplied and installed to the computer in order to realize the functional processing of the present invention by the computer also realizes the present invention. In other words, the computer program itself for realizing the functional processing of the present invention is also included in the present invention. In that case, as long as it has the function of the program, the form of the program does not matter, such as object code, a program executed by an interpreter, script data supplied to an OS, etc. Examples of recording media for supplying the program include magnetic recording media such as hard disks and magnetic tapes, optical/magneto-optical storage media, and non-volatile semiconductor memories. In addition, as a method of supplying the program, a method in which the computer program forming the present invention is stored in a server on a computer network, and a connected client computer downloads the computer program and programs it is also considered.

本実施形態の開示は、以下の構成、方法及びプログラムを含む。
(構成1)
動画像記録装置であって、
動画像の記録中に検出したイベントのタイミングを記憶する手段と、
前記動画像に関連付けられるメタデータを生成する第1生成手段と、
前記動画像から、前記記憶したタイミングのフレーム画像を生成する第2生成手段と、を有し、
前記第2生成手段は、前記動画像の記録が終了するまではフレーム画像の生成を行わず、前記動画像の記録が終了した後に、前記記憶したタイミングのフレーム画像を前記動画像から生成し、
前記第1生成手段は、前記動画像の記録が終了した後に、前記第2生成手段で生成されるフレーム画像に関する情報を含めたメタデータを生成することを特徴とする動画像記録装置。
(構成2)
前記第2生成手段は、前記第1生成手段でフレーム画像に関する情報を含めたメタデータが生成された後に、フレーム画像の生成を行うことを特徴とする構成1に記載の動画像記録装置。
(構成3)
前記第1生成手段は、前記第2生成手段で生成されるフレーム画像の保存先情報を含めたメタデータを生成し、
前記第2生成手段は、生成したフレーム画像を前記保存先情報の示す位置に保存することを特徴とする構成2に記載の動画像記録装置。
(構成4)
前記第1生成手段は、前記第2生成手段でフレーム画像が生成された後に、前記第2生成手段で生成されたフレーム画像の保存先情報を、メタデータに対して追加することを特徴とする構成1に記載の動画像記録装置。
(構成5)
前記第1生成手段は、前記第2生成手段で生成されるフレーム画像の、前記動画像の記録開始時を起点とした時間的位置情報を含めたメタデータを生成することを特徴とする構成1乃至4の何れか1に記載の動画像記録装置。
(構成6)
前記タイミングとして、前記動画像の記録開始時からカウントされるフレームのカウント値、前記動画像の記録開始時を起点としたタイムコード、及び時刻情報のうちの何れかを記憶することを特徴とする構成1乃至5の何れか1に記載の動画像記録装置。
(構成7)
前記イベントは、ユーザからの操作部を介した指示であることを特徴とする構成1乃至6の何れか1に記載の動画像記録装置。
(構成8)
記録中の前記動画像のフレーム画像を順次解析してフレーム画像内の前記イベントを検出する検出手段を更に有することを特徴とする構成1乃至6の何れか1に記載の動画像記録装置。
(構成9)
前記動画像の記録開始前に、前記動画像の撮影の計画情報の設定を行う設定手段を更に有し、
前記第1生成手段は、前記動画像の記録が終了した後に、前記計画情報が設定されたメタデータに対して、前記第2生成手段で生成されるフレーム画像に関する情報を追加することを特徴とする構成1乃至8の何れか1に記載の動画像記録装置。
(構成10)
前記メタデータが、XML形式で記述されることを特徴とする構成1乃至9の何れか1に記載の動画像記録装置。
(構成11)
前記第2生成手段でフレーム画像が生成されるまでは、次の動画像の記録開始の指示を受け付けないことを特徴とする構成1乃至10の何れか1に記載の動画像記録装置。
(構成12)
前記イベントを検出した回数が所定の上限値に達した以降、前記タイミングの記憶を行わないことを特徴とする構成1乃至11の何れか1に記載の動画像記録装置。
(方法)
動画像記録装置の制御方法であって、
動画像の記録中に検出したイベントのタイミングを記憶するステップと、
前記動画像に関連付けられるメタデータを生成する第1生成ステップと、
前記動画像から、前記記憶したタイミングのフレーム画像を生成する第2生成ステップと、を含み、
前記第2生成ステップでは、前記動画像の記録が終了するまではフレーム画像の生成を行わず、前記動画像の記録が終了した後に、前記記憶したタイミングのフレーム画像を前記動画像から生成し、
前記第1生成ステップでは、前記動画像の記録が終了した後に、前記第2生成ステップで生成されるフレーム画像に関する情報を含めたメタデータを生成することを特徴とする動画像記録装置の制御方法。
(プログラム)
動画像記録装置のコンピュータを、
動画像の記録中に検出したイベントのタイミングを記憶する手段と、
前記動画像に関連付けられるメタデータを生成する第1生成手段と、
前記動画像から、前記記憶したタイミングのフレーム画像を生成する第2生成手段、
として機能させ、
前記第2生成手段は、前記動画像の記録が終了するまではフレーム画像の生成を行わず、前記動画像の記録が終了した後に、前記記憶したタイミングのフレーム画像を前記動画像から生成し、
前記第1生成手段は、前記動画像の記録が終了した後に、前記第2生成手段で生成されるフレーム画像に関する情報を含めたメタデータを生成することを特徴とするプログラム。
The disclosure of this embodiment includes the following configuration, method, and program.
(Configuration 1)
A moving image recording device,
means for storing the timing of events detected during recording of the video;
a first generating means for generating metadata associated with the video;
and a second generating means for generating frame images at the stored timing from the moving image,
the second generating means does not generate frame images until recording of the moving image is completed, and generates frame images at the stored timing from the moving image after recording of the moving image is completed;
The video recording device according to claim 1, wherein the first generating means generates metadata including information about the frame images generated by the second generating means after recording of the video has been completed.
(Configuration 2)
2. The video recording device according to configuration 1, wherein the second generating means generates frame images after the first generating means generates metadata including information about the frame images.
(Configuration 3)
the first generating means generates metadata including storage destination information of the frame images generated by the second generating means;
3. The video recording device according to configuration 2, wherein the second generating means stores the generated frame images in a location indicated by the storage destination information.
(Configuration 4)
The video recording device according to configuration 1, wherein the first generation means adds storage destination information of the frame image generated by the second generation means to metadata after the frame image is generated by the second generation means.
(Configuration 5)
The video recording device according to any one of configurations 1 to 4, wherein the first generation means generates metadata including temporal position information of the frame images generated by the second generation means, the temporal position information being based on the start time of recording of the video.
(Configuration 6)
The video recording device according to any one of configurations 1 to 5, characterized in that the timing is stored as one of a frame count value counted from the start of recording of the video, a time code starting from the start of recording of the video, and time information.
(Configuration 7)
7. The video recording device according to any one of configurations 1 to 6, wherein the event is an instruction from a user via an operation unit.
(Configuration 8)
7. The moving image recording apparatus according to any one of configurations 1 to 6, further comprising detection means for sequentially analyzing frame images of the moving image being recorded and detecting the event within the frame images.
(Configuration 9)
The method further includes a setting unit for setting plan information for shooting the moving image before starting to record the moving image,
The video recording device according to any one of configurations 1 to 8, wherein the first generation means adds information about the frame images generated by the second generation means to the metadata in which the plan information is set after recording of the video is completed.
(Configuration 10)
10. The video recording device according to any one of configurations 1 to 9, wherein the metadata is written in XML format.
(Configuration 11)
11. The moving image recording device according to any one of configurations 1 to 10, wherein an instruction to start recording the next moving image is not accepted until a frame image is generated by said second generating means.
(Configuration 12)
12. The video recording device according to any one of configurations 1 to 11, wherein after the number of times the event is detected reaches a predetermined upper limit, the timing is not stored.
(Method)
A method for controlling a moving image recording device, comprising:
storing timings of events detected during recording of the video;
a first generation step of generating metadata associated with the video;
a second generation step of generating frame images at the stored timing from the moving image,
In the second generating step, the generation of the frame image is not performed until the recording of the moving image is completed, and after the recording of the moving image is completed, the frame image of the stored timing is generated from the moving image;
A method for controlling a moving image recording device, characterized in that in the first generation step, after recording of the moving image is completed, metadata including information about the frame images generated in the second generation step is generated.
(program)
A computer of the video recording device,
means for storing the timing of events detected during recording of the video;
a first generating means for generating metadata associated with the video;
a second generating means for generating frame images at the stored timing from the moving image;
Function as a
the second generating means does not generate frame images until recording of the moving image is completed, and generates frame images at the stored timing from the moving image after recording of the moving image is completed;
The program, wherein the first generating means generates metadata including information about the frame images generated by the second generating means after recording of the moving image is completed.

100:ビデオカメラ、200:PTZカメラ 100: Video camera, 200: PTZ camera

Claims (14)

動画像記録装置であって、
動画像の記録中に検出したイベントのタイミングを記憶する手段と、
前記動画像に関連付けられるメタデータを生成する第1生成手段と、
前記動画像から、前記記憶したタイミングのフレーム画像を生成する第2生成手段と、を有し、
前記第2生成手段は、前記動画像の記録が終了するまではフレーム画像の生成を行わず、前記動画像の記録が終了した後に、前記記憶したタイミングのフレーム画像を前記動画像から生成し、
前記第1生成手段は、前記動画像の記録が終了した後に、前記第2生成手段で生成されるフレーム画像に関する情報を含めたメタデータを生成することを特徴とする動画像記録装置。
A moving image recording device,
means for storing the timing of events detected during recording of the video;
a first generating means for generating metadata associated with the video;
and a second generating means for generating frame images at the stored timing from the moving image,
the second generating means does not generate frame images until recording of the moving image is completed, and generates frame images at the stored timing from the moving image after recording of the moving image is completed;
The video recording device according to claim 1, wherein the first generating means generates metadata including information about the frame images generated by the second generating means after recording of the video has been completed.
前記第2生成手段は、前記第1生成手段でフレーム画像に関する情報を含めたメタデータが生成された後に、フレーム画像の生成を行うことを特徴とする請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that the second generating means generates frame images after the first generating means generates metadata including information about the frame images. 前記第1生成手段は、前記第2生成手段で生成されるフレーム画像の保存先情報を含めたメタデータを生成し、
前記第2生成手段は、生成したフレーム画像を前記保存先情報の示す位置に保存することを特徴とする請求項2に記載の動画像記録装置。
the first generating means generates metadata including storage destination information of the frame images generated by the second generating means;
3. The video recording device according to claim 2, wherein the second generating means stores the generated frame images in a location indicated by the storage destination information.
前記第1生成手段は、前記第2生成手段でフレーム画像が生成された後に、前記第2生成手段で生成されたフレーム画像の保存先情報を、メタデータに対して追加することを特徴とする請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that the first generating means adds storage destination information for the frame image generated by the second generating means to metadata after the frame image is generated by the second generating means. 前記第1生成手段は、前記第2生成手段で生成されるフレーム画像の、前記動画像の記録開始時を起点とした時間的位置情報を含めたメタデータを生成することを特徴とする請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that the first generating means generates metadata including temporal position information of the frame images generated by the second generating means, the temporal position information being based on the start of recording of the video. 前記タイミングとして、前記動画像の記録開始時からカウントされるフレームのカウント値、前記動画像の記録開始時を起点としたタイムコード、及び時刻情報のうちの何れかを記憶することを特徴とする請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that the timing is stored as one of a frame count value counted from the start of recording the video, a time code starting from the start of recording the video, and time information. 前記イベントは、ユーザからの操作部を介した指示であることを特徴とする請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that the event is an instruction from a user via an operation unit. 記録中の前記動画像のフレーム画像を順次解析してフレーム画像内の前記イベントを検出する検出手段を更に有することを特徴とする請求項1に記載の動画像記録装置。 The video recording device according to claim 1, further comprising a detection means for sequentially analyzing the frame images of the video being recorded and detecting the event within the frame images. 前記動画像の記録開始前に、前記動画像の撮影の計画情報の設定を行う設定手段を更に有し、
前記第1生成手段は、前記動画像の記録が終了した後に、前記計画情報が設定されたメタデータに対して、前記第2生成手段で生成されるフレーム画像に関する情報を追加することを特徴とする請求項1に記載の動画像記録装置。
The method further includes a setting unit for setting plan information for shooting the moving image before starting to record the moving image,
2. The video recording device according to claim 1, wherein the first generation means adds information about the frame images generated by the second generation means to the metadata in which the plan information is set after recording of the video is completed.
前記メタデータが、XML形式で記述されることを特徴とする請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that the metadata is written in XML format. 前記第2生成手段でフレーム画像が生成されるまでは、次の動画像の記録開始の指示を受け付けないことを特徴とする請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that an instruction to start recording the next video image is not accepted until a frame image is generated by the second generation means. 前記イベントを検出した回数が所定の上限値に達した以降、前記タイミングの記憶を行わないことを特徴とする請求項1に記載の動画像記録装置。 The video recording device according to claim 1, characterized in that the timing is not stored after the number of times the event is detected reaches a predetermined upper limit. 動画像記録装置の制御方法であって、
動画像の記録中に検出したイベントのタイミングを記憶するステップと、
前記動画像に関連付けられるメタデータを生成する第1生成ステップと、
前記動画像から、前記記憶したタイミングのフレーム画像を生成する第2生成ステップと、を含み、
前記第2生成ステップでは、前記動画像の記録が終了するまではフレーム画像の生成を行わず、前記動画像の記録が終了した後に、前記記憶したタイミングのフレーム画像を前記動画像から生成し、
前記第1生成ステップでは、前記動画像の記録が終了した後に、前記第2生成ステップで生成されるフレーム画像に関する情報を含めたメタデータを生成することを特徴とする動画像記録装置の制御方法。
A method for controlling a moving image recording device, comprising:
storing timings of events detected during recording of the video;
a first generation step of generating metadata associated with the video;
a second generation step of generating frame images at the stored timing from the moving image,
In the second generating step, the generation of the frame image is not performed until the recording of the moving image is completed, and after the recording of the moving image is completed, the frame image of the stored timing is generated from the moving image;
A method for controlling a moving image recording device, characterized in that in the first generation step, after recording of the moving image is completed, metadata including information about the frame images generated in the second generation step is generated.
動画像記録装置のコンピュータを、
動画像の記録中に検出したイベントのタイミングを記憶する手段と、
前記動画像に関連付けられるメタデータを生成する第1生成手段と、
前記動画像から、前記記憶したタイミングのフレーム画像を生成する第2生成手段、
として機能させ、
前記第2生成手段は、前記動画像の記録が終了するまではフレーム画像の生成を行わず、前記動画像の記録が終了した後に、前記記憶したタイミングのフレーム画像を前記動画像から生成し、
前記第1生成手段は、前記動画像の記録が終了した後に、前記第2生成手段で生成されるフレーム画像に関する情報を含めたメタデータを生成することを特徴とするプログラム。
A computer of the video recording device,
means for storing the timing of events detected during recording of the video;
a first generating means for generating metadata associated with the video;
a second generating means for generating frame images at the stored timing from the moving image;
Function as a
the second generating means does not generate frame images until recording of the moving image is completed, and generates frame images at the stored timing from the moving image after recording of the moving image is completed;
The program, wherein the first generating means generates metadata including information about the frame images generated by the second generating means after recording of the moving image is completed.
JP2022174226A 2022-10-31 2022-10-31 Video recording device, video recording device control method, and program Pending JP2024065386A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022174226A JP2024065386A (en) 2022-10-31 2022-10-31 Video recording device, video recording device control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022174226A JP2024065386A (en) 2022-10-31 2022-10-31 Video recording device, video recording device control method, and program

Publications (1)

Publication Number Publication Date
JP2024065386A true JP2024065386A (en) 2024-05-15

Family

ID=91064484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022174226A Pending JP2024065386A (en) 2022-10-31 2022-10-31 Video recording device, video recording device control method, and program

Country Status (1)

Country Link
JP (1) JP2024065386A (en)

Similar Documents

Publication Publication Date Title
US7417667B2 (en) Imaging device with function to image still picture during moving picture imaging
US10079041B2 (en) Digital image processing apparatus and method of controlling the same
US7705904B2 (en) Moving-image recording device for recording moving image
US11004474B2 (en) Recording apparatus, reproducing apparatus, recording/reproducing apparatus, image pickup apparatus, recording method, and program
JP4881210B2 (en) Imaging apparatus, image processing apparatus, and control method thereof
US8810687B2 (en) Image capturing apparatus and control method thereof
US9357194B2 (en) Imaging apparatus for minimizing repetitive recording of moving image data of a similar scene on a recording medium
US20160343403A1 (en) Moving image generating apparatus, moving image generating method and storage medium
JP2006157893A (en) Imaging device
JP2008125059A (en) Device for recording/playing back moving image
JP2008010979A (en) Camera apparatus
JP2012161012A (en) Moving picture recorder
JP5600405B2 (en) Image processing apparatus, image processing method, and program
JP5818599B2 (en) Movie recording device
JP5683301B2 (en) Image recording device
JP4946935B2 (en) Imaging device
JP2024065386A (en) Video recording device, video recording device control method, and program
CN102611868B (en) Motion image data recording equipment and control method thereof
JP2003189228A (en) Picture recorder
JP2010237911A (en) Electronic apparatus
JP3683462B2 (en) Movie display device
JP2018186439A (en) Information processing system, information processing apparatus, and information processing method
JP2013110562A (en) Imaging apparatus
JP2005184095A (en) Imaging apparatus, moving picture photographing method, and photography control program
JP2012165050A (en) Video recording device and information processing device