JP2012222780A - Record distribution device, record distribution method, and monitoring system - Google Patents

Record distribution device, record distribution method, and monitoring system Download PDF

Info

Publication number
JP2012222780A
JP2012222780A JP2011089998A JP2011089998A JP2012222780A JP 2012222780 A JP2012222780 A JP 2012222780A JP 2011089998 A JP2011089998 A JP 2011089998A JP 2011089998 A JP2011089998 A JP 2011089998A JP 2012222780 A JP2012222780 A JP 2012222780A
Authority
JP
Japan
Prior art keywords
unit
data
image data
image
importance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011089998A
Other languages
Japanese (ja)
Inventor
Masao Noguchi
正雄 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011089998A priority Critical patent/JP2012222780A/en
Publication of JP2012222780A publication Critical patent/JP2012222780A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently transmit a plurality of images and to effectively perform monitoring even in a narrow-band network environment.SOLUTION: A record distribution device 100 includes: an image pickup part 101 for picking up an image; an image encoding part 109 for generating image data; a data reception part 114 for receiving individual transmission data; an image data extraction part 117 for extracting image data from the individual transmission data; a data composition part 120 for generating one piece of image data from the image data selected from the image data generated in the image encoding part 109 and the image data extracted in the image data extraction part 117, and generating composite transmission data including the one piece of image data; and a data transmission part 121 for transmitting the composite transmission data.

Description

本発明は、画像データの記録配信装置、画像データの記録配信方法、及び、画像データを用いた監視システムに関する。   The present invention relates to an image data recording / delivery device, an image data recording / delivery method, and a monitoring system using image data.

近年のネットワーク技術の向上と、画像符号化技術の向上とにより、ネットワークに接続された監視カメラを用いて遠隔地からセキュリティーの監視を行うことが行われている。このような遠隔監視においては、複数の監視カメラから送信された画像データを、ネットワークを介して、遠隔地のサーバーが受信して記録するとともに、監視者がこの記録画像を用いて異常発生時の画像を確認することが広く行われている。   With recent improvements in network technology and image coding technology, security is monitored from a remote location using a monitoring camera connected to the network. In such remote monitoring, image data transmitted from a plurality of monitoring cameras is received and recorded by a remote server via a network, and the monitor uses this recorded image when an abnormality occurs. Checking images is widely performed.

また、監視カメラから送信された画像データの画像をリアルタイムで表示させ、遠隔地の監視者が異常を監視することも広く行われている。このような監視においては、監視カメラでの撮像画像の変化に応じて、異常を検出することも一般的に行われている。   In addition, it is widely performed that an image of image data transmitted from a monitoring camera is displayed in real time, and a remote monitor monitors the abnormality. In such monitoring, an abnormality is generally detected in accordance with a change in a captured image by the monitoring camera.

このような複数の監視カメラを用いた遠隔地での監視においては、モニタに表示される画面を分割して、複数の監視カメラから送信されてくる画像データの画像を、同時にモニタに表示させることで、監視者が同時に複数の画像を視聴することが広く行われている。例えば、16台の監視カメラから送信されてきた画像データの画像を表示する場合には、モニタに表示される画面を16分割して、このモニタに、各々の監視カメラからの画像を同時に表示させることが行われている。また、この分割表示においては、モニタに、特定の監視カメラの画像のみを大きく表示させるように設定できる場合が多い。   In such remote monitoring using a plurality of surveillance cameras, the screen displayed on the monitor is divided and images of image data transmitted from the plurality of surveillance cameras are simultaneously displayed on the monitor. Therefore, it is widely performed that a supervisor views a plurality of images at the same time. For example, when displaying images of image data transmitted from 16 surveillance cameras, the screen displayed on the monitor is divided into 16 and the images from each surveillance camera are simultaneously displayed on this monitor. Things have been done. Further, in this divided display, it is often possible to set so that only the image of a specific surveillance camera is displayed on the monitor.

しかしながら、監視員が、複数の監視カメラから送信されてくる画像を監視している際に、重要な画像を見つけだして、それらを関連付けて監視することは困難であった。例えば、複数の監視カメラから送られてくる画像にまたがって人物が移動していくような場合に、監視員が、それらを関連付けて監視することは困難であった。   However, when the surveillance staff is monitoring images transmitted from a plurality of surveillance cameras, it has been difficult to find important images and relate them to each other. For example, when a person moves across images sent from a plurality of monitoring cameras, it is difficult for the monitoring person to associate and monitor them.

このため、特許文献1では、複数のモーションディテクト付きIP(Internet Protocol)カメラを用いて、動きを検知したカメラの画像のみを遠隔地に送信し、遠隔地では、送信されてきた画像を1つのモニタに順次表示させるシステムが提案されている。   For this reason, in Patent Document 1, a plurality of IP (Internet Protocol) cameras with motion detection are used to transmit only the image of the camera that has detected the motion to a remote location. A system for sequentially displaying on a monitor has been proposed.

特開2010−98592号公報(第7頁、図1)JP 2010-98592 A (page 7, FIG. 1)

しかしながら、特許文献1に記載されたシステムでは、複数のIPカメラが同時に動きを検知した場合には複数のIPカメラが同時に画像送信を行うため、データ量が急激に増加し、ネットワークの帯域が狭帯域の環境では画像の送信に時間がかかり重要なシーンの確認が遅れる等の問題があった。   However, in the system described in Patent Document 1, when a plurality of IP cameras detect movement at the same time, the plurality of IP cameras perform image transmission at the same time, so that the data amount increases rapidly and the network bandwidth is narrowed. In the bandwidth environment, there is a problem that it takes a long time to transmit an image and confirmation of an important scene is delayed.

そこで、本発明は上記のような課題を解決するためになされたものであり、狭帯域のネットワーク環境でも、複数の画像を効率的に送信して、効果的に監視することができるようにすることを目的とする。   Therefore, the present invention has been made to solve the above-described problems, and enables a plurality of images to be efficiently transmitted and effectively monitored even in a narrow-band network environment. For the purpose.

本発明の一態様に係る記録配信装置は、
画像を撮像する画像撮像部と、
前記画像撮像部で撮像された画像の画像データを生成する画像符号化部と、
第1ネットワークから、画像データを含む個別送信データを受信するデータ受信部と、
前記個別送信データから画像データを抽出する画像データ抽出部と、
前記生成された画像データ及び前記抽出された画像データから選択された画像データより1つの画像データを生成し、当該1つの画像データを含む合成送信データを生成するデータ合成部と、
前記合成送信データを、第2ネットワークに送信するデータ送信部と、を備えること
を特徴とする。
A record delivery apparatus according to an aspect of the present invention includes:
An image capturing unit for capturing an image;
An image encoding unit that generates image data of an image captured by the image capturing unit;
A data receiving unit for receiving individual transmission data including image data from the first network;
An image data extraction unit for extracting image data from the individual transmission data;
A data composition unit for generating one image data from the generated image data and image data selected from the extracted image data, and generating composite transmission data including the one image data;
A data transmission unit configured to transmit the combined transmission data to a second network.

本発明の一態様によれば、狭帯域のネットワーク環境でも、複数の画像を効率的に送信して、効果的に監視することができる。   According to one embodiment of the present invention, a plurality of images can be efficiently transmitted and effectively monitored even in a narrow-band network environment.

実施の形態1に係る記録配信装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of a record distribution device according to Embodiment 1. FIG. 実施の形態1に係る記録配信装置を用いた監視システムの構成を概略的に示す構成図である。1 is a configuration diagram schematically showing a configuration of a monitoring system using a record distribution device according to Embodiment 1. FIG. 実施の形態1において、カメラの配置例を示す概略図である。In Embodiment 1, it is the schematic which shows the example of arrangement | positioning of a camera. 実施の形態1において、カメラで撮像された画像を示す概略図である。In Embodiment 1, it is the schematic which shows the image imaged with the camera. 実施の形態1において、カメラで撮像された画像を合成した合成画像の概略図である。In Embodiment 1, it is the schematic of the synthesized image which synthesize | combined the image imaged with the camera. 実施の形態1に係る記録配信装置がスレーブ装置である場合の処理を示すフローチャートである。4 is a flowchart showing processing when the record distribution device according to Embodiment 1 is a slave device. 実施の形態1における重要度算出部が、重要度を算出する際に参照する重要度算出情報を示す概略図である。6 is a schematic diagram showing importance calculation information referred to by the importance calculation unit according to Embodiment 1 when calculating importance. FIG. (A)及び(B)は、実施の形態1において、ある撮影条件下で撮像された画像に対して、重要度算出部が割り当てたスコアの値と、重要度算出部が算出した重要度の値の一例を示す概略図である。(A) and (B) are the values of the score assigned by the importance calculation unit and the importance calculated by the importance calculation unit for an image captured under certain shooting conditions in the first embodiment. It is the schematic which shows an example of a value. 実施の形態1における個別送信データのデータ構造を示す概略図である。3 is a schematic diagram showing a data structure of individual transmission data in Embodiment 1. FIG. 実施の形態1に係る記録配信装置がマスタ装置である場合の処理を示すフローチャートである。4 is a flowchart showing processing when the record distribution device according to Embodiment 1 is a master device. (A)〜(T)は、実施の形態1において、選択することのできる配置パターンの一例を示す概略図である。(A)-(T) is the schematic which shows an example of the arrangement | positioning pattern which can be selected in Embodiment 1. FIG. 実施の形態1における合成送信データのデータ構造を示す概略図である。3 is a schematic diagram showing a data structure of combined transmission data in Embodiment 1. FIG. 実施の形態2に係る記録配信装置の構成を概略的に示すブロック図である。FIG. 5 is a block diagram schematically showing a configuration of a record delivery apparatus according to a second embodiment. 実施の形態2に係る記録配信装置がスレーブ装置である場合の処理を示すフローチャートである。10 is a flowchart illustrating processing when the record distribution device according to Embodiment 2 is a slave device. 実施の形態2に係る記録配信装置がマスタ装置である場合の処理を示すフローチャートである。10 is a flowchart showing processing when the record distribution device according to the second embodiment is a master device. 実施の形態3に係る記録配信装置の構成を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a configuration of a record delivery apparatus according to a third embodiment. 実施の形態3に係る記録配信装置が行うグループ化抽出処理を説明するための概略図である。FIG. 10 is a schematic diagram for explaining grouping extraction processing performed by the record distribution device according to the third embodiment. 実施の形態4に係る記録配信装置の構成を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a configuration of a record delivery apparatus according to a fourth embodiment. 実施の形態4における個別送信データのデータ構造を示す概略図である。10 is a schematic diagram showing a data structure of individual transmission data in Embodiment 4. FIG. 実施の形態4における合成送信データのデータ構造を示す概略図である。10 is a schematic diagram showing a data structure of composite transmission data in Embodiment 4. FIG.

実施の形態1.
図1は、実施の形態1に係る記録配信装置100の構成を概略的に示すブロック図である。記録配信装置100は、画像撮像部101と、画像解析部102と、外部情報入力部103と、外部情報解析部104と、音声入力部105と、音声解析部106と、メタデータ生成部107と、重要度算出部108と、画像符号化部109と、画像切出部110と、送信データ切替部111と、管理情報生成部112と、データ記録部113と、データ受信部114と、メタデータ抽出部115と、重要度抽出部116と、画像データ抽出部117と、重要度比較部118と、スケーリング部119と、データ合成部120と、データ送信部121とを備える。ここで、記録配信装置100は、利用者の設定に基づいて、マスタ装置又はスレーブ装置のいずれかとして機能する。
Embodiment 1 FIG.
FIG. 1 is a block diagram schematically showing a configuration of a record delivery apparatus 100 according to the first embodiment. The recording / distributing apparatus 100 includes an image capturing unit 101, an image analysis unit 102, an external information input unit 103, an external information analysis unit 104, a voice input unit 105, a voice analysis unit 106, and a metadata generation unit 107. , Importance calculation unit 108, image encoding unit 109, image cutout unit 110, transmission data switching unit 111, management information generation unit 112, data recording unit 113, data reception unit 114, metadata An extraction unit 115, an importance level extraction unit 116, an image data extraction unit 117, an importance level comparison unit 118, a scaling unit 119, a data synthesis unit 120, and a data transmission unit 121 are provided. Here, the record distribution device 100 functions as either a master device or a slave device based on the setting of the user.

なお、図1においては、記録配信装置100に設けられる、あるいは、記録配信装置100に接続される部分のうち、一部の部分、例えば、本装置の利用者が、記録の開始又は停止、マスタ装置又はスレーブ装置の設定等を指定するためのコマンド入力部、マスタ装置又はスレーブ装置等の設定を記憶する設定記憶部、機器の状態を表示する状態表示部、画像の符号化及び復号処理のために一時的にデータを格納するデータ一時格納部、一時的に格納されたデータを制御する制御部、並びに、出力された画像信号を表示する表示部等は、省略されている。   In FIG. 1, a part of the portions provided in the recording / distributing device 100 or connected to the recording / distributing device 100, for example, the user of this device, starts or stops recording, A command input unit for specifying settings of a device or a slave device, a setting storage unit for storing settings of a master device or a slave device, a state display unit for displaying the state of a device, for image encoding and decoding processing The temporary data storage unit for temporarily storing data, the control unit for controlling the temporarily stored data, the display unit for displaying the output image signal, and the like are omitted.

画像撮像部101は、画像を撮像し、当該画像に対応する電気信号である画像信号を生成する。そして、画像撮像部101は、生成された画像信号を画像解析部102及び画像符号化部109に与える。   The image capturing unit 101 captures an image and generates an image signal that is an electrical signal corresponding to the image. Then, the image capturing unit 101 supplies the generated image signal to the image analysis unit 102 and the image encoding unit 109.

画像解析部102は、画像撮像部101より与えられた画像信号に基づいて、画像撮像部101で撮像された画像を解析し、解析結果を示す解析結果データとして、画像解析データを生成する。例えば、画像解析部102は、画像撮像部101で撮像された画像に重要な部分が含まれているか否かを解析する。一例として、画像解析部102は、画像撮像部101で撮像された画像に基づいて、動き検知と、顔検出とを行う。そして、画像解析部102は、解析結果として、動きが検知された領域の割合と、動きが検知された場合(例えば、動きが検知された領域の割合が「0」ではない場合)には、動きが検知された領域の座標と、顔検出の有無と、顔が検出された場合には、顔が検出された領域の座標とを示すデータを含む画像解析データを生成し、この画像解析データをメタデータ生成部107に与える。   The image analysis unit 102 analyzes the image captured by the image capturing unit 101 based on the image signal given from the image capturing unit 101, and generates image analysis data as analysis result data indicating the analysis result. For example, the image analysis unit 102 analyzes whether the image captured by the image capturing unit 101 includes an important part. As an example, the image analysis unit 102 performs motion detection and face detection based on the image captured by the image capturing unit 101. Then, as an analysis result, the image analysis unit 102, when the ratio of the area in which the motion is detected and the movement is detected (for example, when the ratio of the area in which the motion is detected is not “0”), Image analysis data including data indicating the coordinates of the area where the motion is detected, the presence / absence of face detection, and the coordinates of the area where the face is detected is detected, and this image analysis data is generated. Is provided to the metadata generation unit 107.

外部情報入力部103は、外部機器で生成された外部信号の入力を受け付ける。例えば、本実施の形態においては、外部信号は、センサ機器(図示せず)で生成された検出信号であるが、他の信号、例えば、エレベータで生成された運行信号等であってもよい。ここで、本実施の形態においては、センサ機器は、センシング対象が動いた場合、例えば、ドアが開いた場合に、その検出信号を出力するものとする。なお、本実施の形態では、外部情報入力部103は、1つ設けられているが、複数でもよい。   The external information input unit 103 receives an input of an external signal generated by an external device. For example, in the present embodiment, the external signal is a detection signal generated by a sensor device (not shown), but may be another signal, for example, an operation signal generated by an elevator. Here, in the present embodiment, it is assumed that the sensor device outputs a detection signal when the sensing object moves, for example, when the door is opened. In the present embodiment, one external information input unit 103 is provided, but a plurality of external information input units 103 may be provided.

外部情報解析部104は、外部情報入力部103に入力された外部信号を解析し、その解析結果を示す解析結果データとして、外部入力データを生成する。例えば、本実施の形態においては、外部情報解析部104は、外部情報入力部103にセンサ機器からの外部信号が入力された際に、外部機器からの外部信号の入力があったことを示す外部入力データを生成し、外部情報入力部103にセンサ機器からの外部信号の入力がない場合には、外部機器からの外部信号の入力がないことを示す外部入力データを生成する。そして、外部情報解析部104は、生成された外部入力データをメタデータ生成部107に与える。   The external information analysis unit 104 analyzes the external signal input to the external information input unit 103, and generates external input data as analysis result data indicating the analysis result. For example, in the present embodiment, the external information analysis unit 104 externally indicates that an external signal is input from the external device when an external signal from the sensor device is input to the external information input unit 103. When input data is generated and no external signal is input from the sensor device to the external information input unit 103, external input data indicating that no external signal is input from the external device is generated. Then, the external information analysis unit 104 gives the generated external input data to the metadata generation unit 107.

音声入力部105は、マイク(図示せず)等からの音声信号の入力を受け付ける。なお、本実施の形態では、音声入力部105は、1つ設けられているが、複数でもよい。   The voice input unit 105 receives an input of a voice signal from a microphone (not shown) or the like. In the present embodiment, one voice input unit 105 is provided, but a plurality of voice input units 105 may be provided.

音声解析部106は、音声入力部105に入力された音声信号を解析し、その解析結果を示す解析結果データとして、音声入力データを生成する。例えば、音声解析部106は、音声入力部105に入力された音声信号から、音声の音量レベルを特定する。そして、音声解析部106は、予め定められた音量レベルの最大値に対する、特定された音量レベルの割合を算出し、この割合(音声入力割合)を示す音声入力データを生成する。そして、音声解析部106は、生成された音声入力データをメタデータ生成部107に与える。   The voice analysis unit 106 analyzes the voice signal input to the voice input unit 105, and generates voice input data as analysis result data indicating the analysis result. For example, the voice analysis unit 106 specifies the volume level of the voice from the voice signal input to the voice input unit 105. Then, the voice analysis unit 106 calculates a ratio of the specified volume level to a predetermined maximum value of the volume level, and generates voice input data indicating this ratio (voice input ratio). Then, the voice analysis unit 106 gives the generated voice input data to the metadata generation unit 107.

以上のように、画像解析部102、外部情報解析部104及び音声解析部106は、監視対象の状態を複数の項目で解析する状態解析部を構成し、その解析結果を示す解析結果データをメタデータ生成部107に与える。   As described above, the image analysis unit 102, the external information analysis unit 104, and the voice analysis unit 106 constitute a state analysis unit that analyzes the state of the monitoring target with a plurality of items, and the analysis result data indicating the analysis result is meta-data. The data generation unit 107 is provided.

メタデータ生成部107は、画像解析部102、外部情報解析部104及び音声解析部106から与えられた解析結果データに基づいて、これらで解析された解析結果を含む部分メタデータを生成し、この部分メタデータを重要度算出部108に与える。そして、メタデータ生成部107は、部分メタデータに基づいて重要度算出部108で算出された重要度の値が与えられると、この重要度の値とこの部分メタデータとをデータ合成部120に与える。ここで、部分メタデータには、動きが検知された領域の割合と、動きが検知された場合には、動きが検知された領域の座標と、顔検出の有無と、顔が検出された場合には、顔が検出された領域の座標と、外部信号の入力の有無と、音声入力割合とを示すデータが少なくとも含まれている。
また、メタデータ生成部107は、画像解析部102から受け取った画像解析データを画像切出部110に与える。
Based on the analysis result data given from the image analysis unit 102, the external information analysis unit 104, and the voice analysis unit 106, the metadata generation unit 107 generates partial metadata including the analysis result analyzed by these, The partial metadata is given to the importance calculation unit 108. Then, when the importance value calculated by the importance calculation unit 108 is given based on the partial metadata, the metadata generation unit 107 gives the importance value and the partial metadata to the data composition unit 120. give. Here, in the partial metadata, the ratio of the area where the motion was detected, the coordinates of the area where the motion was detected, the presence / absence of face detection, and the face detected when the motion was detected Includes at least data indicating the coordinates of the area where the face is detected, the presence / absence of external signal input, and the voice input ratio.
Also, the metadata generation unit 107 gives the image analysis data received from the image analysis unit 102 to the image cutout unit 110.

重要度算出部108は、個別画像データの重要度を算出する。ここで、重要度算出部108は、画像解析部102、外部情報解析部104及び音声解析部106により構成される状態解析部から、メタデータ生成部107を介して、監視対象の状態を複数の項目で解析した解析結果を示す解析結果データを取得し、この解析結果に基づいて、個別画像データの重要度を算出する。例えば、重要度算出部108は、自装置である記録配信装置100がスレーブ装置である場合には、メタデータ生成部107から与えられる部分メタデータから個別画像データの重要度を算出し、この重要度の値を、メタデータ生成部107に与える。また、重要度算出部108は、自装置である記録配信装置100がマスタ装置である場合には、メタデータ生成部107から与えられる部分メタデータから個別画像データの重要度を算出し、この重要度の値を、メタデータ生成部107及び重要度比較部118に与える。なお、重要度の具体的な算出方法については、図7及び図8を用いて後述する。   The importance calculation unit 108 calculates the importance of the individual image data. Here, the importance calculation unit 108 converts a plurality of states to be monitored from the state analysis unit including the image analysis unit 102, the external information analysis unit 104, and the voice analysis unit 106 via the metadata generation unit 107. Analysis result data indicating the analysis result analyzed in the item is acquired, and the importance of the individual image data is calculated based on the analysis result. For example, when the recording / distributing device 100 that is the own device is a slave device, the importance calculating unit 108 calculates the importance of the individual image data from the partial metadata given from the metadata generating unit 107, and this importance The degree value is given to the metadata generation unit 107. Further, when the recording / distributing device 100 that is the own device is the master device, the importance calculating unit 108 calculates the importance of the individual image data from the partial metadata provided from the metadata generating unit 107, and this importance The degree value is given to the metadata generation unit 107 and the importance comparison unit 118. A specific method of calculating the importance will be described later with reference to FIGS.

画像符号化部109は、画像撮像部101から与えられた画像信号を符号化して、画像データを生成する。そして、画像符号化部109は、生成された画像データを、画像切出部110及び管理情報生成部112に与える。   The image encoding unit 109 encodes the image signal given from the image capturing unit 101 to generate image data. Then, the image encoding unit 109 supplies the generated image data to the image cutout unit 110 and the management information generation unit 112.

画像切出部110は、メタデータ生成部107から与えられた画像解析データに基づいて、必要な場合には、画像撮像部101で撮像された画像の中の一部分を切り出す。ここで、画像切出部110は、画像解析部102が画像撮像部101で撮像された画像の中に重要な部分が含まれていると判断した場合には、この重要な部分を切り出す。例えば、画像切出部110は、画像解析部102で、動きが検知された領域、あるいは、顔が検出された領域が含まれるように、切り出し範囲を決定する。なお、1つの画像で、動きが検知され、かつ、顔も検出されている場合には、画像切出部110は、顔が検出された領域を優先して、顔が検出された領域が含まれるように切出し範囲を決定することが望ましい。また、画像切出部110は、画像符号化部109によって符号化された画像データを一度復号してから切り出し処理を行ってもよいし、また、符号化形式によっては、復号せずに切り出し処理を行ってもよい。
画像切出部110は、切出し処理が行われた後の画像データを、個別画像データとして、送信データ切替部111に与える。また、画像切出部110は、動きが検知されず、かつ、顔も検出されていない場合には、画像符号化部109から与えられた画像データをそのまま、個別画像データとして、送信データ切替部111に与える。
The image cutout unit 110 cuts out a part of the image picked up by the image pickup unit 101 based on the image analysis data given from the metadata generation unit 107 when necessary. Here, when the image analysis unit 102 determines that an important part is included in the image captured by the image capturing unit 101, the image cutting unit 110 extracts the important part. For example, the image cutout unit 110 determines the cutout range so that the image analysis unit 102 includes a region where motion is detected or a region where a face is detected. In addition, when a motion is detected in one image and a face is also detected, the image cutout unit 110 gives priority to the area where the face is detected and includes the area where the face is detected. It is desirable to determine the cutting range so that the Further, the image cutout unit 110 may perform the cutout process after decoding the image data encoded by the image encoding unit 109 once, or may perform the cutout process without decoding depending on the encoding format. May be performed.
The image cutout unit 110 gives the image data after the cutout processing to the transmission data switching unit 111 as individual image data. In addition, when no motion is detected and no face is detected, the image cutout unit 110 uses the image data given from the image encoding unit 109 as it is as individual image data as it is as a transmission data switching unit. 111.

送信データ切替部111は、画像切出部110から与えられた個別画像データを出力する出力先を切り替える。例えば、送信データ切替部111は、自装置である記録配信装置100がマスタ装置である場合には、個別画像データをスケーリング部119に与える。また、送信データ切替部111は、自装置である記録配信装置100がスレーブ装置である場合には、個別画像データをデータ合成部120に与える。   The transmission data switching unit 111 switches the output destination for outputting the individual image data given from the image cutting unit 110. For example, the transmission data switching unit 111 provides the individual image data to the scaling unit 119 when the recording / distributing device 100 that is the own device is the master device. Further, the transmission data switching unit 111 gives the individual image data to the data composition unit 120 when the recording / distributing device 100 which is the own device is a slave device.

管理情報生成部112は、画像符号化部109から与えられた画像データに対して一意となる固有識別子を生成する。また、管理情報生成部112は、画像符号化部109から与えられた画像データを、生成された固有識別子に対応付けて、データ記録部113に記録させる。さらに、管理情報生成部112は、生成された固有識別子をデータ合成部120に与える。
ここで、管理情報生成部112が生成する固有識別子について説明する。固有識別子は、画像データに対して一意となるものであればどのようなものであってもよいが、例えば、本実施の形態においては、固有識別子は、自装置である記録配信装置100を識別するための識別情報である装置情報と、各々の画像データを識別するためのシーケンス番号とにより構成される。シーケンス番号は、日時情報で構成するのが望ましい。ここで、シーケンス番号として日時情報を用いる場合には、1秒間に複数の画像データが生成される場合もあるため、日時情報は、1秒以下の分解能を有するものとすることが望ましい。例えば、90kHzの分解能を有する日時情報を用いることで、画像データに対して一意のシーケンス番号を付与することができる。
The management information generation unit 112 generates a unique identifier that is unique to the image data given from the image encoding unit 109. In addition, the management information generation unit 112 causes the data recording unit 113 to record the image data given from the image encoding unit 109 in association with the generated unique identifier. Furthermore, the management information generation unit 112 gives the generated unique identifier to the data synthesis unit 120.
Here, the unique identifier generated by the management information generation unit 112 will be described. The unique identifier may be anything as long as it is unique with respect to the image data. For example, in this embodiment, the unique identifier identifies the recording / distributing device 100 that is the own device. Device information, which is identification information for identifying the image data, and a sequence number for identifying each image data. The sequence number is preferably composed of date information. Here, when date / time information is used as a sequence number, a plurality of pieces of image data may be generated per second. Therefore, it is desirable that the date / time information has a resolution of 1 second or less. For example, a unique sequence number can be assigned to image data by using date and time information having a resolution of 90 kHz.

データ記録部113は、データを記録する。例えば、データ記録部113は、管理情報生成部112から与えられた画像データ及び固有識別子を対応付けて記録する。また、データ記録部113は、メタデータ生成部107から部分メタデータが与えられると、当該部分メタデータを、当該部分メタデータに対応する画像データに対応付けて記録する。さらに、データ記録部113は、自装置である記録配信装置100がマスタ装置である場合には、データ合成部120から与えられた合成送信データを記録する。
ここで、データ記録部113は、内部にデータ蓄積用の媒体を備える。データ蓄積用の媒体は、ハードディスク、フラッシュメモリ、リムーバブルなSDメモリーカード等により構成することができる。
The data recording unit 113 records data. For example, the data recording unit 113 records the image data and the unique identifier given from the management information generation unit 112 in association with each other. In addition, when the partial metadata is given from the metadata generation unit 107, the data recording unit 113 records the partial metadata in association with the image data corresponding to the partial metadata. Further, the data recording unit 113 records the combined transmission data given from the data combining unit 120 when the recording / distributing device 100 that is the own device is the master device.
Here, the data recording unit 113 includes a medium for storing data therein. The data storage medium can be constituted by a hard disk, a flash memory, a removable SD memory card, or the like.

データ受信部114は、データを受信する。例えば、本実施の形態においては、データ受信部114は、他の記録配信装置100から送られてきた個別送信データを受信する。   The data receiving unit 114 receives data. For example, in the present embodiment, the data receiving unit 114 receives individual transmission data transmitted from another recording / distributing device 100.

メタデータ抽出部115は、データ受信部114で受信された個別送信データから個別メタデータを抽出し、この個別メタデータを重要度抽出部116及びデータ合成部120に与える。   The metadata extraction unit 115 extracts individual metadata from the individual transmission data received by the data reception unit 114, and provides this individual metadata to the importance degree extraction unit 116 and the data composition unit 120.

重要度抽出部116は、メタデータ抽出部115から与えられた個別メタデータより重要度の値を抽出し、この重要度の値を重要度比較部118に与える。   The importance level extraction unit 116 extracts the importance value from the individual metadata given from the metadata extraction unit 115, and gives the importance level value to the importance level comparison unit 118.

画像データ抽出部117は、データ受信部114で受信された個別送信データから個別画像データを抽出し、この個別画像データをスケーリング部119に与える。   The image data extraction unit 117 extracts individual image data from the individual transmission data received by the data reception unit 114 and supplies the individual image data to the scaling unit 119.

重要度比較部118は、重要度算出部108で算出された、個別画像データの重要度の値、及び、重要度抽出部116で抽出された、各個別画像データの重要度の値、を比較して、個別画像データの画像を1つの画像データに合成する際の、個別画像データ毎のサイズ及び配置位置を特定する。そして、重要度比較部118は、個別画像データ毎のサイズをスケーリング部119に与え、個別画像データ毎の配置位置をデータ合成部120に与える。重要度比較部118が特定する各個別画像データのサイズ及び配置位置については、図11を用いて後述する。   The importance comparison unit 118 compares the importance value of the individual image data calculated by the importance calculation unit 108 and the importance value of each individual image data extracted by the importance extraction unit 116. Then, the size and arrangement position for each individual image data when the image of the individual image data is combined into one image data are specified. Then, the importance level comparing unit 118 gives the size for each individual image data to the scaling unit 119 and gives the arrangement position for each individual image data to the data composition unit 120. The size and arrangement position of each individual image data specified by the importance degree comparison unit 118 will be described later with reference to FIG.

スケーリング部119は、重要度比較部118から受け取った個別画像データ毎のサイズに合わせて、送信データ切替部111及び画像データ抽出部117から与えられた個別画像データのサイズ(解像度)を変更する。そして、スケーリング部119は、サイズ変更後の個別画像データをデータ合成部120に与える。   The scaling unit 119 changes the size (resolution) of the individual image data provided from the transmission data switching unit 111 and the image data extraction unit 117 according to the size of each individual image data received from the importance level comparison unit 118. Then, the scaling unit 119 gives the individual image data after the size change to the data composition unit 120.

データ合成部120は、画像データにメタデータを添付することにより送信データを生成し、この送信データをデータ送信部121に与える。
例えば、データ合成部120は、自装置である記録配信装置100がスレーブ装置である場合には、メタデータ生成部107から与えられた部分メタデータ及び重要度の値と、管理情報生成部112から与えられた固有識別子とを含む個別メタデータを生成し、この個別メタデータを、送信データ切替部111から与えられた個別画像データに添付することで個別送信データを生成する。
また、データ合成部120は、自装置である記録配信装置100がマスタ装置である場合には、スケーリング部119から与えられたサイズ変更後の個別画像データを、重要度比較部118から受け取った個別画像データ毎の配置位置に配置することで合成画像データを生成する。そして、データ合成部120は、自装置である記録配信装置100がマスタ装置である場合には、メタデータ生成部107から与えられた部分メタデータ及び重要度の値と、管理情報生成部112から与えられた固有識別子と、メタデータ抽出部115から与えられた個別メタデータとを含む合成メタデータを生成する。そして、データ合成部120は、生成された合成画像データに合成メタデータを添付することで合成送信データを生成する。
そして、データ合成部120は、以上のようにして生成された個別送信データ又は合成送信データをデータ送信部121に与える。また、データ合成部120は、以上のようにして生成された合成送信データをデータ記録部113に記録させる。
The data composition unit 120 generates transmission data by attaching metadata to the image data, and gives this transmission data to the data transmission unit 121.
For example, when the recording / distributing device 100 that is the own device is a slave device, the data composition unit 120 receives the partial metadata and the importance value given from the metadata generation unit 107 and the management information generation unit 112. Individual metadata including the given unique identifier is generated, and the individual transmission data is generated by attaching the individual metadata to the individual image data given from the transmission data switching unit 111.
In addition, when the recording / distributing device 100 that is the own device is the master device, the data composition unit 120 receives the individual image data after the size change given from the scaling unit 119 from the importance comparison unit 118. Composite image data is generated by placing the image data at the placement position for each image data. Then, when the recording / distributing device 100 that is the own device is the master device, the data synthesizing unit 120 receives the partial metadata and the importance value given from the metadata generating unit 107 and the management information generating unit 112. The composite metadata including the given unique identifier and the individual metadata given from the metadata extraction unit 115 is generated. Then, the data composition unit 120 generates composite transmission data by attaching composite metadata to the generated composite image data.
Then, the data synthesis unit 120 provides the data transmission unit 121 with the individual transmission data or the synthesized transmission data generated as described above. In addition, the data synthesis unit 120 causes the data recording unit 113 to record the synthesized transmission data generated as described above.

データ送信部121は、ネットワークにデータを送信する。例えば、データ送信部121は、自装置である記録配信装置100がスレーブ装置である場合には、データ合成部120から与えられた個別送信データを、ネットワークを介して、マスタ装置である記録配信装置100に送信する。
また、データ送信部121は、自装置である記録配信装置100がマスタ装置である場合には、データ合成部120から与えられた合成送信データを、ネットワークを介して、予め定められた装置に送信する。ここで、合成送信データの送信先となる、予め定められた装置は、マスタ装置である記録配信装置100に個別送信データを送信する記録配信装置100以外の装置である。例えば、予め定められた装置は、合成画像を表示する表示部を備える視聴装置であることが望ましい。
なお、自装置である記録配信装置100がスレーブ装置である場合には、マスタ装置である記録配信装置100の通信アドレスが、図示しない通信アドレス記憶部に記憶されているものとし、自装置である記録配信装置100がマスタ装置である場合には、予め定められた装置の通信アドレスが、図示しない通信アドレス記憶部に記憶されているものとする。
The data transmission unit 121 transmits data to the network. For example, when the recording / distributing device 100 that is the own device is a slave device, the data transmitting unit 121 records the individual transmission data provided from the data synthesizing unit 120 via the network as the recording / distributing device that is the master device. To 100.
Further, when the recording / distributing device 100 as the master device is the master device, the data transmitting unit 121 transmits the composite transmission data given from the data synthesizing unit 120 to a predetermined device via the network. To do. Here, the predetermined device that is the transmission destination of the combined transmission data is a device other than the record distribution device 100 that transmits the individual transmission data to the record distribution device 100 that is the master device. For example, the predetermined device is preferably a viewing device including a display unit that displays a composite image.
When the recording / distributing device 100 that is the own device is a slave device, the communication address of the recording / distributing device 100 that is the master device is stored in a communication address storage unit (not shown), and is the own device. When the recording / distributing device 100 is a master device, it is assumed that a predetermined communication address of the device is stored in a communication address storage unit (not shown).

図2は、記録配信装置100を用いた監視システム150の構成を概略的に示す構成図である。監視システム150は、第1カメラ151と、第2カメラ152と、第3カメラ153と、第4カメラ154と、視聴装置155と、を備える。第1カメラ151、第2カメラ152、第3カメラ153及び第4カメラ154は、ネットワークハブ156を介して、LAN(Local Are Network)に接続されている。また、このLANには、第1ネットワークルータ157が接続されており、第1カメラ151、第2カメラ152、第3カメラ153及び第4カメラ154は、第1ネットワークルータ157を介してインターネット158に接続することができるように構成されている。また、視聴装置155は、第2ネットワークルータ159を介して、インターネット158に接続することができるように構成されている。   FIG. 2 is a configuration diagram schematically showing the configuration of the monitoring system 150 using the recording / distributing apparatus 100. The monitoring system 150 includes a first camera 151, a second camera 152, a third camera 153, a fourth camera 154, and a viewing device 155. The first camera 151, the second camera 152, the third camera 153, and the fourth camera 154 are connected to a LAN (Local Area Network) via a network hub 156. In addition, a first network router 157 is connected to this LAN, and the first camera 151, the second camera 152, the third camera 153, and the fourth camera 154 are connected to the Internet 158 via the first network router 157. It is configured so that it can be connected. The viewing device 155 is configured to be connected to the Internet 158 via the second network router 159.

第1カメラ151、第2カメラ152、第3カメラ153及び第4カメラ154は、記録配信装置100により構成されている。そして、第1カメラ151がマスタ装置に設定されており、第2カメラ152、第3カメラ153及び第4カメラ154がスレーブ装置に設定されている。
これらのカメラ151〜154は、監視対象とされたエリアに設置され、このエリアの画像を撮像する。そして、スレーブ装置である第2カメラ152、第3カメラ153及び第4カメラ154は、個別送信データを生成し、この個別送信データを、マスタ装置である第1カメラ151に送信する。そして、第1カメラ151は、自装置で撮像された画像から生成された個別画像データ、部分メタデータ、固有識別子、及び、第2カメラ152、第3カメラ153及び第4カメラ154から受信した個別送信データに基づいて、合成送信データを生成し、この合成送信データを視聴装置155に送信する。視聴装置155は、通常、遠隔地に設置されており、視聴装置155の利用者は、遠隔地から監視エリアを監視することができる。
The first camera 151, the second camera 152, the third camera 153, and the fourth camera 154 are configured by the record distribution device 100. The first camera 151 is set as a master device, and the second camera 152, the third camera 153, and the fourth camera 154 are set as slave devices.
These cameras 151 to 154 are installed in an area to be monitored and take an image of this area. Then, the second camera 152, the third camera 153, and the fourth camera 154 that are slave devices generate individual transmission data, and transmit the individual transmission data to the first camera 151 that is a master device. The first camera 151 then receives individual image data, partial metadata, a unique identifier, and individual received from the second camera 152, the third camera 153, and the fourth camera 154 from an image captured by the own device. Based on the transmission data, composite transmission data is generated, and the composite transmission data is transmitted to the viewing device 155. The viewing device 155 is usually installed at a remote location, and the user of the viewing device 155 can monitor the monitoring area from the remote location.

視聴装置155は、図示されていないが、受信部と、画像処理部と、表示部とを少なくとも備えており、受信部で合成送信データを受信し、画像処理部でこの合成送信データから合成画像データを抽出し、表示部でこの合成画像データに対応する画像を表示する。また、視聴装置155は、さらに、視聴装置155の利用者からの指示の入力を受け付ける入力部を備えるように構成することもできる。そして、この入力部が利用者からメタデータの表示指示の入力を受け付けた場合に、画像処理部が、合成送信データから合成メタデータを抽出して、この合成メタデータに含まれている全部又は一部のデータを所定の表示形式にしたメタデータ画像データを生成し、表示部がこのメタデータ画像データに対応する画像を表示してもよい。なお、視聴装置155は、合成送信データを記録する記録部をさらに備えていてもよい。   Although not shown, the viewing device 155 includes at least a receiving unit, an image processing unit, and a display unit. The receiving unit receives the combined transmission data, and the image processing unit receives the combined transmission data from the combined transmission data. Data is extracted, and an image corresponding to the composite image data is displayed on the display unit. In addition, the viewing device 155 can be configured to further include an input unit that receives an instruction input from a user of the viewing device 155. When the input unit receives an input of metadata display instruction from the user, the image processing unit extracts the composite metadata from the composite transmission data, and all or Metadata image data in which a part of data is converted into a predetermined display format may be generated, and the display unit may display an image corresponding to the metadata image data. Note that the viewing device 155 may further include a recording unit that records the combined transmission data.

以上のような構成により、監視システム150では、複数のカメラ152〜154で生成された複数の画像データが、LANに接続されたマスタ装置としての第1カメラ151に送られ、この第1カメラ151は、これらの画像データと、自装置で撮像した画像に対応する画像データとを合成することで1つの合成画像データを生成し、この合成画像データを広域ネットワークに送信する。   With the configuration as described above, in the monitoring system 150, a plurality of image data generated by the plurality of cameras 152 to 154 is sent to the first camera 151 as a master device connected to the LAN, and the first camera 151 Generates one composite image data by combining the image data and image data corresponding to the image captured by the own apparatus, and transmits the composite image data to the wide area network.

なお、ここでは、カメラ4台で監視システム150を構成したが、カメラの台数は、この4台に限るものではなく、3台以下でも5台以上でもよい。   Although the monitoring system 150 is configured with four cameras here, the number of cameras is not limited to four, and may be three or less or five or more.

図3は、図2に示されているカメラ151〜154の配置例を示す概略図である。図示するようにカメラ151〜154は、監視対象としての部屋160内に、それぞれ異なる位置に配置されている。部屋160には、人が出入りするための扉161が設けられており、部屋160内には、被写体162が存在する。そして、カメラ151〜154は、被写体162をそれぞれ異なる位置から撮影する。また、扉161には、図示されてはいないが、センサ機器としての開閉センサが設けられており、この開閉センサは第4カメラ154の外部情報入力部103に接続されている。そして、開閉センサは、扉161が開かれたことを検出すると、その検出信号を第4カメラ154に出力する。   FIG. 3 is a schematic diagram showing an arrangement example of the cameras 151 to 154 shown in FIG. As shown in the figure, the cameras 151 to 154 are arranged at different positions in a room 160 as a monitoring target. The room 160 is provided with a door 161 for a person to enter and exit, and a subject 162 exists in the room 160. And the cameras 151-154 image | photograph the to-be-photographed object 162 from a respectively different position. Although not shown, the door 161 is provided with an open / close sensor as a sensor device, and the open / close sensor is connected to the external information input unit 103 of the fourth camera 154. When the open / close sensor detects that the door 161 is opened, the open / close sensor outputs a detection signal to the fourth camera 154.

図4(A)〜(D)は、図3に示されているカメラ151〜154で撮像された画像を示す概略図である。図4(A)は、第1カメラ151で撮像された画像IM1を示す概略図である。図4(B)は、第2カメラ152で撮像された画像IM2を示す概略図である。図4(C)は、第3カメラ153で撮像された画像IM3を示す概略図である。図4(D)は、第1カメラ154で撮像された画像IM4を示す概略図である。   4A to 4D are schematic diagrams illustrating images captured by the cameras 151 to 154 illustrated in FIG. FIG. 4A is a schematic diagram showing an image IM1 captured by the first camera 151. FIG. FIG. 4B is a schematic diagram showing an image IM <b> 2 captured by the second camera 152. FIG. 4C is a schematic diagram illustrating an image IM3 captured by the third camera 153. FIG. 4D is a schematic diagram illustrating an image IM <b> 4 captured by the first camera 154.

これらの画像IM1〜IM4は、同一の被写体162を、それぞれ異なる角度から撮影したものであるため、関連のある画像となる。しかしながら、これらの画像IM1〜IM4は、カメラの位置によって、重要な画像と、重要ではない画像とに区別できる。画像IM2では、被写体162が、他の画像よりも大きく写されている。画像IM1及び画像IM3では、被写体162が、画像IM2の次に大きく写されている。画像IM4では、被写体162が、他の画像IM1〜IM3よりも小さく写されているが、被写体162の顔が、正面に写っている。そして、記録配信装置100の重要度算出部108は、これらの画像IM1〜IM4の状態に応じて、重要度を算出する。   Since these images IM1 to IM4 are obtained by photographing the same subject 162 from different angles, they are related images. However, these images IM1 to IM4 can be distinguished into important images and unimportant images depending on the position of the camera. In the image IM2, the subject 162 is shown larger than the other images. In the image IM1 and the image IM3, the subject 162 is photographed next to the image IM2. In the image IM4, the subject 162 is shown smaller than the other images IM1 to IM3, but the face of the subject 162 is shown in front. Then, the importance calculation unit 108 of the recording / distributing device 100 calculates the importance according to the states of the images IM1 to IM4.

図5は、カメラ151〜154で撮像された画像を合成した合成画像SIMの概略図である。合成画像SIMの領域#1には、第1カメラ151で撮像された画像IM1(図4(A)参照)をスケーリングした画像が合成される。領域#2には、第2カメラ152で撮像された画像IM2(図4(B)参照)をスケーリングした画像が合成される。領域#3には、第3カメラ153で撮像された画像IM3(図4(C)参照)をスケーリングした画像が合成される。領域#4には、第4カメラ154で撮像された画像IM4からリッピングされた画像RIM4(図4(D)参照)をスケーリングした画像が合成される。   FIG. 5 is a schematic diagram of a composite image SIM obtained by combining images captured by the cameras 151 to 154. An image obtained by scaling the image IM1 (see FIG. 4A) captured by the first camera 151 is combined with the region # 1 of the combined image SIM. An image obtained by scaling the image IM2 (see FIG. 4B) captured by the second camera 152 is combined with the region # 2. An image obtained by scaling the image IM3 (see FIG. 4C) captured by the third camera 153 is combined with the region # 3. In the region # 4, an image obtained by scaling the image RIM4 (see FIG. 4D) ripped from the image IM4 captured by the fourth camera 154 is synthesized.

次に、記録配信装置100での動作を説明する。
図6は、記録配信装置100がスレーブ装置である場合の処理を示すフローチャートである。
Next, the operation of the record distribution apparatus 100 will be described.
FIG. 6 is a flowchart showing processing when the record distribution device 100 is a slave device.

まず、画像撮像部101が画像を撮像する(S10)と、画像撮像部101は、撮像された画像の画像信号を画像解析部102及び画像符号化部109に与える。そして、画像解析部102はステップS11の処理を行い、画像符号化部109はステップS14の処理を行う。   First, when the image capturing unit 101 captures an image (S10), the image capturing unit 101 supplies an image signal of the captured image to the image analyzing unit 102 and the image encoding unit 109. The image analysis unit 102 performs the process of step S11, and the image encoding unit 109 performs the process of step S14.

ステップS11では、画像解析部102は、与えられた画像信号に基づいて、動き検知と、顔検出とを行い、これらの解析結果を含む画像解析データを生成し、この画像解析データをメタデータ生成部107に与える。この画像解析データには、例えば、動きが検知された領域の割合と、動きが検知された場合には、動きが検知された領域の座標と、顔検出の有無と、顔が検出された場合には、顔が検出された領域の座標とを示すデータが含まれる。   In step S11, the image analysis unit 102 performs motion detection and face detection based on the given image signal, generates image analysis data including these analysis results, and generates the image analysis data as metadata. Part 107. The image analysis data includes, for example, the ratio of the area in which the movement is detected, the coordinates of the area in which the movement is detected, the presence / absence of face detection, and the case in which the face is detected. Includes data indicating the coordinates of the area where the face is detected.

次に、メタデータ生成部107は、画像解析部102から与えられる画像解析データ、外部情報解析部104から与えられる外部入力データ、及び、音声解析部106から与えられる音声入力データに基づいて、部分メタデータを生成し、この部分メタデータを重要度算出部108に与える(S12)。この部分メタデータには、動きが検知された場合には、動きが検知された領域の座標と、顔検出の有無と、顔が検出された場合には、顔が検出された領域の座標と、外部信号の入力の有無と、音声入力割合とを示すデータが少なくとも含まれている。   Next, the metadata generation unit 107 performs partial processing based on the image analysis data given from the image analysis unit 102, the external input data given from the external information analysis unit 104, and the voice input data given from the voice analysis unit 106. Metadata is generated and this partial metadata is given to the importance calculation unit 108 (S12). In the partial metadata, when motion is detected, the coordinates of the area where the motion is detected, the presence or absence of face detection, and when the face is detected, the coordinates of the area where the face is detected At least data indicating the presence / absence of an external signal input and the voice input ratio are included.

次に、重要度算出部108は、メタデータ生成部107から与えられた部分メタデータに基づいて、重要度を算出する(S13)。そして、重要度算出部108は、算出された重要度の値をメタデータ生成部107に与える。メタデータ生成部107は、生成された部分メタデータと、重要度算出部108より与えられた重要度の値とをデータ合成部120に与える。   Next, the importance level calculation unit 108 calculates the importance level based on the partial metadata given from the metadata generation unit 107 (S13). Then, the importance calculation unit 108 gives the calculated importance value to the metadata generation unit 107. The metadata generation unit 107 gives the generated partial metadata and the importance value given from the importance calculation unit 108 to the data synthesis unit 120.

図7は、重要度を算出する際に、重要度算出部108が参照する重要度算出情報IPTを示す概略図である。重要度算出情報IPTは、項目番号欄IPT1と、項目欄IPT2と、条件欄IPT3と、スコア欄IPT4とを有するテーブル形式の情報である。   FIG. 7 is a schematic diagram showing importance calculation information IPT that is referred to by the importance calculation unit 108 when calculating the importance. The importance calculation information IPT is information in a table format having an item number column IPT1, an item column IPT2, a condition column IPT3, and a score column IPT4.

項目番号欄IPT1は、重要度を算出する際に用いられる各々の項目を識別するための識別番号である項目番号を格納する。
項目欄IPT2は、項目番号欄IPT1で識別される項目の項目名を格納する。ここで、本実施の形態においては、「動き検知」、「顔検出」、「外部入力」及び「音声入力」の4つの項目を用いて重要度が算出される。
条件欄IPT3は、項目番号欄IPT1で識別される項目毎に、解析結果をスコア欄IPT4に格納されているスコアに割り当てるための条件を格納する。
スコア欄IPT4は、項目番号欄IPT1で識別される項目の解析結果が、条件欄IPT3に格納されている条件を満たしている場合に、重要度を計算するために割り当てられるスコアの値を格納する。図7の例では、項目番号iが「0」の動き検知では、撮像画像の全体が例えば81(=9×9)個のエリアに分割され、それぞれのエリアで、撮像画像に動きがあったかどうかが判定される。そして、動きのあったエリア数が全体の70%以上であれば、Score[0]の値は「1」となり、31%〜69%の場合には、Score[0]の値は「0.5」となり、30%以下の場合には、Score[0]の値は「0」となる。また、項目番号iが「1」の顔検知では、撮像画像に人物の顔が含まれている場合には、Score[1]の値は「1」となり、人物の顔が含まれていない場合には、Score[1]の値は「0」となる。また、項目番号iが「2」の外部入力では、センサ入力がある場合には、Score[2]の値は「1」となり、センサ入力がない場合には、Score[2]の値は「0」となる。また、項目番号iが「3」の音声入力では、音声入力割合が70%を超えていた場合には、Score[3]の値は「1」となり、音声入力割合が31%〜69%の場合には、Score[3]の値は「0.5」となり、音声入力割合が30%以下の場合には、Score[3]の値は「0」となる。
The item number column IPT1 stores an item number that is an identification number for identifying each item used when calculating the importance.
The item column IPT2 stores the item name of the item identified in the item number column IPT1. Here, in the present embodiment, the importance is calculated using four items of “motion detection”, “face detection”, “external input”, and “voice input”.
The condition column IPT3 stores a condition for assigning the analysis result to the score stored in the score column IPT4 for each item identified in the item number column IPT1.
The score column IPT4 stores a score value assigned to calculate the importance when the analysis result of the item identified in the item number column IPT1 satisfies the condition stored in the condition column IPT3. . In the example of FIG. 7, in the motion detection in which the item number i is “0”, the entire captured image is divided into, for example, 81 (= 9 × 9) areas, and whether or not the captured image has moved in each area. Is determined. If the number of areas that have moved is 70% or more of the whole, the value of Score [0] is “1”, and if it is 31% to 69%, the value of Score [0] is “0. In the case of 30% or less, the value of Score [0] is “0”. In the face detection with the item number i being “1”, if the captured image includes a person's face, the value of Score [1] is “1” and the person's face is not included. The value of Score [1] is “0”. In the case of external input with the item number i being “2”, the value of Score [2] is “1” when there is a sensor input, and the value of Score [2] is “1” when there is no sensor input. 0 ". Also, in the voice input with the item number i being “3”, if the voice input ratio exceeds 70%, the value of Score [3] is “1”, and the voice input ratio is 31% to 69%. In this case, the value of Score [3] is “0.5”, and when the voice input ratio is 30% or less, the value of Score [3] is “0”.

なお、この図7に示されている条件は、図7に示されているものに限定されるものではなく、例えば、項目番号iが「0」の動き検知で、Score[0]の値が「1」となる条件を、動き検知エリア数が80%以上としてもよい。また、項目番号iが「3」の音声入力では、条件として音声入力割合を用いているが、特定周波数の音声における音量レベルの割合、又は、より高度な音声認識を用いて、特定の音声条件を満たした場合により高いスコアの値が付与されるように構成されていてもよい。   The conditions shown in FIG. 7 are not limited to those shown in FIG. 7. For example, the motion number of item number i is “0” and the value of Score [0] is The condition of “1” may be that the number of motion detection areas is 80% or more. In addition, in the voice input with the item number i being “3”, the voice input ratio is used as a condition. However, the specific voice condition is determined by using the ratio of the volume level in the voice of the specific frequency or higher voice recognition. It may be configured such that a higher score value is given when the above is satisfied.

そして、重要度算出部108は、例えば、図7に示されている重要度算出情報IPTを用いて、下記の(1)式により重要度(IP)を算出する。

Figure 2012222780
(1)式において、Score[i]は、項目番号i毎のスコアの値であり、Weight[i]は、項目番号i毎の重み係数である。例えば、本実施の形態では、項目番号iが「0」の重み係数Weight[0]の値は「2」、項目番号iが「1」の重み係数Weight[1]の値は「4」、項目番号iが「2」の重み係数Weight[2]の値は「3」、項目番号iが「3」の重み係数Weight[3]の値は「1」とされているが、これらの値に限定されるものではない。 And the importance calculation part 108 calculates importance (IP) by following (1) Formula, for example using the importance calculation information IPT shown by FIG.
Figure 2012222780
In equation (1), Score [i] is a score value for each item number i, and Weight [i] is a weighting factor for each item number i. For example, in the present embodiment, the value of the weighting factor Weight [0] with the item number i being “0” is “2”, the value of the weighting factor Weight [1] with the item number i being “1” is “4”, The value of the weighting factor Weight [2] for the item number i is “2” is “3”, and the value of the weighting factor Weight [3] for the item number i is “3” is “1”. It is not limited to.

図8(A)及び(B)は、図3に示されているカメラ151〜154において、ある撮影条件下で撮像された画像に対して、重要度算出部108が割り当てたスコアの値と、重要度算出部108が算出した重要度の値の一例を示す概略図である。   8A and 8B show the score values assigned by the importance calculation unit 108 to images captured under certain shooting conditions in the cameras 151 to 154 shown in FIG. It is the schematic which shows an example of the value of importance calculated by the importance calculation part.

図8(A)は、重要度算出部108が割り当てたスコアの値の一例を示している。例えば、第1カメラ151で撮像された画像では、中程度の動きが検知されているため、動き検知のスコアScore[0]の値は「0.5」、また、顔は検出されていないため、顔検出のScore[1]の値は「0」、センサ入力もなく、センサ入力のScore[2]の値も「0」、音声信号の入力もなく、音声入力のScore[3]の値も「0」となっている。第2カメラ152で撮像された画像では、被写体に近く、動きが検知された領域が広いため、動き検知のスコアScore[0]の値は「1」、顔は検出されていないため、顔検知のScore[1]の値は「0」、センサ入力もなく、センサ入力のScore[2]の値も「0」、中程度の音声信号が入力されているため、音声入力のScore[3]の値は「0.5」となっている。第3カメラ153で撮像された画像では、中程度の動きが検知されているため、動き検知のスコアScore[0]の値は「0.5」、顔は検出されていないため、顔検出のScore[1]の値は「0」、センサ入力もないため、センサ入力のScore[2]の値も「0」、中程度の音声信号が入力されているため、音声入力のScore[3]の値は「0.5」となっている。第4カメラ154で撮像された画像では、被写体からの距離が遠く、動きが検出されたエリアが狭いため、動き検知のScore[0]の値は「0」、被写体の顔を正面から捉えていて、顔が検出されたため、顔検出のScore[1]の値は「1」、ドアの開閉によりセンサ入力もあるため、センサ入力のScore[2]の値は「1」、音声信号の入力はないため、音声入力のScore[3]の値は「0」となっている。   FIG. 8A shows an example of score values assigned by the importance calculation unit 108. For example, in the image captured by the first camera 151, since a moderate motion is detected, the value of the motion detection score Score [0] is “0.5”, and no face is detected. The value of Score [1] for face detection is “0”, there is no sensor input, the value of Score [2] for sensor input is also “0”, the value of Score [3] for voice input is not input Is also “0”. The image captured by the second camera 152 is close to the subject and has a wide motion detection area, so the motion detection score Score [0] is “1”, and no face is detected. The value of Score [1] is “0”, there is no sensor input, the value of Score [2] of the sensor input is also “0”, and an intermediate audio signal is input. The value of “0.5” is “0.5”. In the image picked up by the third camera 153, since moderate movement is detected, the value of the motion detection score Score [0] is “0.5”, and no face is detected. Since the value of Score [1] is “0” and there is no sensor input, the value of Score [2] of the sensor input is also “0” and an intermediate audio signal is input. The value of “0.5” is “0.5”. In the image captured by the fourth camera 154, since the distance from the subject is far and the area where the motion is detected is small, the value of the motion detection Score [0] is “0”, and the face of the subject is captured from the front. Since the face is detected, the face detection Score [1] value is “1”, and there is also sensor input by opening and closing the door. Therefore, the sensor input Score [2] value is “1” and the audio signal is input. Therefore, the value of Score [3] for voice input is “0”.

図8(B)は、図8(A)に示されているスコアの値に基づいて、重要度算出部108が算出した重要度の値の一例を示す概略図である。
重要度算出部108は、図8(A)に示されているスコアの値を、(1)式に代入することにより、重要度を算出する。図8(B)に示されている例では、第1カメラ151で撮像された画像の重要度の値は「1.0」、第2カメラ152で撮像された画像の重要度の値は「2.5」、第3カメラ153で撮像された画像の重要度の値は「1.5」、第4カメラ154で撮像された画像の重要度の値は「7」となる。このように重要度を複数の項目を組み合わせて算出することで、例えば、動きは無いが顔を検知している場合や、動きは小さいが音声入力がある場合等、監視者にとってより重要な画像を総合的に判定することが可能となる。
FIG. 8B is a schematic diagram illustrating an example of importance values calculated by the importance calculation unit 108 based on the score values shown in FIG.
The importance calculation unit 108 calculates the importance by substituting the score value shown in FIG. 8A into the equation (1). In the example shown in FIG. 8B, the importance value of the image captured by the first camera 151 is “1.0”, and the importance value of the image captured by the second camera 152 is “1.0”. 2.5 ”, the importance value of the image captured by the third camera 153 is“ 1.5 ”, and the importance value of the image captured by the fourth camera 154 is“ 7 ”. By calculating the importance by combining a plurality of items in this way, for example, when there is no movement but a face is detected, or when the movement is small but there is voice input, an image that is more important for the supervisor Can be comprehensively determined.

図6の説明に戻り、ステップS14では、画像符号化部109は、画像撮像部101から与えられた画像信号を符号化して、画像データを生成する。そして、画像符号化部109は、生成された画像データを、管理情報生成部112及び画像切出部110に与える。   Returning to the description of FIG. 6, in step S <b> 14, the image encoding unit 109 encodes the image signal given from the image capturing unit 101 to generate image data. Then, the image encoding unit 109 gives the generated image data to the management information generation unit 112 and the image cutout unit 110.

次に、管理情報生成部112は、画像符号化部109から与えられた画像データに対して一意となる固有識別子を生成し、画像符号化部109から与えられた画像データと、この固有識別子とをデータ記録部113に与える(S15)。例えば、管理情報生成部112は、生成された固有識別子を、画像データのフッタ部に付与して、データ記録部113に与える。   Next, the management information generation unit 112 generates a unique identifier that is unique to the image data given from the image coding unit 109, the image data given from the image coding unit 109, the unique identifier, Is given to the data recording unit 113 (S15). For example, the management information generating unit 112 gives the generated unique identifier to the footer part of the image data and gives it to the data recording unit 113.

次に、データ記録部113は、管理情報生成部112から与えられた画像データと、固有識別子とを対応付けて記録する(S16)。なお、データ記録部113は、メタデータ生成部107より、当該画像データの部分メタデータが送られてきた場合には、当該部分メタデータも当該画像データに対応付けて記録する。   Next, the data recording unit 113 records the image data given from the management information generating unit 112 in association with the unique identifier (S16). When the partial metadata of the image data is sent from the metadata generation unit 107, the data recording unit 113 records the partial metadata in association with the image data.

ステップS17では、画像切出部110は、個別画像データを生成する。例えば、画像切出部110は、メタデータ生成部107から与えられた部分メタデータに、動きが検知された領域を示すデータ及び顔が検出された領域を示すデータの少なくとも何れか一方が含まれている場合には、当該領域を含む範囲を、画像符号化部109から与えられた画像データより切り出す。そして、画像切出部110は、切り出した画像データを個別画像データとする。一方、画像切出部110は、メタデータ生成部107から与えられた部分メタデータに、動きが検知されていないことを示すデータが含まれており、かつ、顔が検出されていないことを示すデータが含まれている場合には、画像符号化部109から与えられた画像データを個別画像データとする。画像切出部110は、個別画像データを送信データ切替部111に与え、送信データ切替部111は、この個別画像データをデータ合成部120に与える。   In step S17, the image cutout unit 110 generates individual image data. For example, the image cropping unit 110 includes at least one of data indicating a region where motion is detected and data indicating a region where a face is detected in the partial metadata given from the metadata generation unit 107. If it is, the range including the region is cut out from the image data given from the image encoding unit 109. Then, the image cutout unit 110 sets the cut out image data as individual image data. On the other hand, the image cutout unit 110 indicates that the partial metadata given from the metadata generation unit 107 includes data indicating that no motion is detected, and that no face is detected. When data is included, the image data given from the image encoding unit 109 is set as individual image data. The image cutout unit 110 provides the individual image data to the transmission data switching unit 111, and the transmission data switching unit 111 provides the individual image data to the data composition unit 120.

次に、データ合成部120は、ステップS13でメタデータ生成部107から与えられた部分メタデータ及び重要度の値と、ステップS15で管理情報生成部112から与えられた固有識別子とを含む個別メタデータを生成し、この個別メタデータを、ステップS17で送信データ切替部111から与えられた個別画像データに添付することで個別送信データを生成する(S18)。そして、データ合成部120は、生成された個別送信データをデータ送信部121に与える。   Next, the data synthesizing unit 120 includes the individual metadata including the partial metadata and the importance value given from the metadata generating unit 107 in step S13 and the unique identifier given from the management information generating unit 112 in step S15. Data is generated, and individual transmission data is generated by attaching the individual metadata to the individual image data given from the transmission data switching unit 111 in step S17 (S18). Then, the data composition unit 120 gives the generated individual transmission data to the data transmission unit 121.

ここで、図9は、個別送信データIID1のデータ構造を示す概略図である。
個別送信データIID1は、個別画像データIID11と、固有識別子IID12と、重要度IID13と、項目個数IID14と、項目番号IID15と、解析結果データサイズIID16と、解析結果IID17とを有する。
個別画像データIID11は、ステップS17で送信データ切替部111から与えられた個別画像データである。
固有識別子IID12は、ステップS15で管理情報生成部112から与えられた固有識別子である。この固有識別子IID12により、個別画像データIID11が一意に識別される。
重要度IID13は、ステップS13でメタデータ生成部107から与えられた重要度の値である。
項目個数IID14、項目番号IID15、解析結果データサイズIID16及び解析結果IID17は、ステップS13でメタデータ生成部107から与えられた部分メタデータに含まれているデータである。
項目個数IID14は、重要度を算出するために使用される項目の数を示すものであり、本実施の形態では、この個数は「4」になっている。そして、この項目個数IID14で示される数だけ、項目番号IID15と、解析結果データサイズIID16と、解析結果IID17との組み合わせが格納される。項目番号IID15は、重要度を算出するために用いられる各々の項目を識別するための識別番号であって、本実施の形態においては、「0」は動き検知、「1」は顔検出、「2」は外部入力、「3」は音声入力となっている。解析結果データサイズIID16は、解析結果IID17のデータサイズを示す。解析結果IID17は、項目番号IID15で識別される項目に対応する解析結果を含む。本実施の形態では、項目番号IID15が「0」の場合は、動きが検知された領域の割合、及び、動きが検知された場合には、動きが検知された領域の座標、項目番号IID15が「1」の場合は、顔検出の有無、及び、顔が検出された場合には、顔が検出された領域の座標、項目番号IID15が「2」の場合は、外部入力の有無、項目番号IID15が「3」の場合は、音声入力割合を示すデータが、解析結果IID17として格納される。
なお、固有識別子IID12、重要度IID13、項目個数IID14、項目番号IID15、解析結果データサイズIID16及び解析結果IID17が、個別メタデータを構成する。
Here, FIG. 9 is a schematic diagram showing a data structure of the individual transmission data IID1.
The individual transmission data IID1 includes individual image data IID11, a unique identifier IID12, an importance IID13, an item number IID14, an item number IID15, an analysis result data size IID16, and an analysis result IID17.
The individual image data IID11 is individual image data given from the transmission data switching unit 111 in step S17.
The unique identifier IID12 is a unique identifier given from the management information generating unit 112 in step S15. The individual image data IID11 is uniquely identified by the unique identifier IID12.
The importance IID13 is the importance value given from the metadata generation unit 107 in step S13.
The item number IID14, the item number IID15, the analysis result data size IID16, and the analysis result IID17 are data included in the partial metadata provided from the metadata generation unit 107 in step S13.
The item number IID14 indicates the number of items used to calculate the importance, and in the present embodiment, this number is “4”. Then, the combinations of the item number IID15, the analysis result data size IID16, and the analysis result IID17 are stored for the number indicated by the item number IID14. The item number IID15 is an identification number for identifying each item used for calculating the importance. In this embodiment, “0” is motion detection, “1” is face detection, “ “2” is an external input, and “3” is a voice input. The analysis result data size IID16 indicates the data size of the analysis result IID17. The analysis result IID17 includes an analysis result corresponding to the item identified by the item number IID15. In the present embodiment, when the item number IID15 is “0”, the ratio of the area where the motion is detected, and when the motion is detected, the coordinates of the area where the motion is detected, the item number IID15 is In the case of “1”, the presence / absence of face detection, and in the case where a face is detected, the coordinates of the area in which the face is detected, the item number IID15 being “2”, the presence / absence of external input, the item number When IID15 is “3”, data indicating the voice input ratio is stored as analysis result IID17.
The unique identifier IID12, the importance level IID13, the item number IID14, the item number IID15, the analysis result data size IID16, and the analysis result IID17 constitute individual metadata.

図6の説明に戻り、データ送信部121は、データ合成部120から与えられた個別送信データを、ネットワークを介して、マスタ装置である記録配信装置100に送信する(S19)。   Returning to the description of FIG. 6, the data transmission unit 121 transmits the individual transmission data given from the data synthesis unit 120 to the record distribution device 100 as the master device via the network (S19).

図10は、記録配信装置100がマスタ装置である場合の処理を示すフローチャートである。ここで、図10のステップS20〜ステップS27までの処理は、図6のステップS10〜S17までの処理と同様である。   FIG. 10 is a flowchart showing processing when the record distribution device 100 is a master device. Here, the processing from step S20 to step S27 in FIG. 10 is the same as the processing from step S10 to step S17 in FIG.

ステップS28では、データ受信部114が、スレーブ装置となっている他の記録配信装置100から個別送信データを受信したか否かを判断する。そして、データ受信部114は、受信した個別送信データに受信した時刻を示すタイムスタンプを付与する。また、メタデータ抽出部115は、受信された個別送信データから個別メタデータを抽出して、この個別メタデータを重要度抽出部116及びデータ合成部120に与える。さらに、画像データ抽出部117は、受信された個別送信データから個別画像データを抽出して、この個別画像データをスケーリング部119に与える。そして、データ受信部114は、個別送信データを受信している場合(ステップS28でYes)には、ステップS29の処理に進み、個別送信データを受信していない場合(ステップS28でNo)には、ステップS31の処理に進む。   In step S28, the data receiving unit 114 determines whether or not individual transmission data has been received from another recording / distributing device 100 serving as a slave device. Then, the data receiving unit 114 gives a time stamp indicating the received time to the received individual transmission data. Further, the metadata extraction unit 115 extracts individual metadata from the received individual transmission data, and provides this individual metadata to the importance level extraction unit 116 and the data composition unit 120. Further, the image data extraction unit 117 extracts individual image data from the received individual transmission data, and provides the individual image data to the scaling unit 119. Then, when receiving the individual transmission data (Yes in Step S28), the data receiving unit 114 proceeds to the process of Step S29, and when not receiving the individual transmission data (No in Step S28). The process proceeds to step S31.

ステップS29では、重要度抽出部116は、メタデータ抽出部115から与えられた個別メタデータに含まれている重要度の値を抽出する(S29)。そして、重要度抽出部116は、抽出された重要度の値を重要度比較部118に与える。   In step S29, the importance level extraction unit 116 extracts the importance value included in the individual metadata given from the metadata extraction unit 115 (S29). Then, the importance level extraction unit 116 gives the extracted importance level value to the importance level comparison unit 118.

次に、データ受信部114は、同一時刻のタイムスタンプが付与された全ての個別送信データから重要度の値が抽出されたか否かを判断する(S30)。そして、データ受信部114は、同一時刻のタイムスタンプが付与された全ての個別送信データから重要度の値が抽出された場合(ステップS30でYes)、言い換えると、同一時刻のタイムスタンプが付与された個別送信データのうち、重要度の値が抽出されていない個別送信データが存在しない場合には、ステップS31の処理に進む。一方、データ受信部114は、同一時刻のタイムスタンプが付与された全ての個別送信データからは重要度の値が抽出されていない場合(ステップS30でNo)、言い換えると、同一時刻のタイムスタンプが付与された個別送信データのうち、重要度の値が抽出されていない個別送信データが存在する場合には、ステップS29の処理に戻る。   Next, the data receiving unit 114 determines whether or not the importance value is extracted from all the individual transmission data to which the time stamp of the same time is given (S30). Then, when the importance value is extracted from all the individual transmission data to which the time stamp of the same time is given (Yes in step S30), the data receiving unit 114 is given the time stamp of the same time. If there is no individual transmission data from which the importance value is not extracted among the individual transmission data, the process proceeds to step S31. On the other hand, when the importance value is not extracted from all the individual transmission data to which the time stamp of the same time is given (No in step S30), the data receiving unit 114, in other words, the time stamp of the same time is If there is individual transmission data from which the importance value is not extracted among the assigned individual transmission data, the process returns to step S29.

ステップS31では、重要度比較部118は、重要度算出部108で算出された、個別画像データの重要度の値、及び、重要度抽出部116で抽出された、各個別画像データの重要度の値を比較して、各個別画像データの画像を1つの画像データに合成する際の、個別画像データ毎のサイズ及び配置位置を特定する。例えば、重要度比較部118は、合成画像データとして、個別画像データを配置するサイズ及び位置が予め定められた複数の配置パターンから、個別画像データ毎の重要度の値に応じて、1つの配置パターンを選択し、選択された配置パターンで、各個別画像データを配置するサイズ及び位置を特定する。そして、重要度比較部118は、特定されたサイズをスケーリング部119に与え、特定された配置位置をデータ合成部120に与える。   In step S31, the importance level comparison unit 118 calculates the importance value of the individual image data calculated by the importance level calculation unit 108 and the importance level of each individual image data extracted by the importance level extraction unit 116. By comparing the values, the size and arrangement position for each individual image data when the images of the individual image data are combined into one image data are specified. For example, the importance level comparing unit 118 selects one arrangement as a composite image data from a plurality of arrangement patterns in which individual image data is arranged in a predetermined size and position according to the importance value for each individual image data. A pattern is selected, and the size and position at which each individual image data is arranged are specified by the selected arrangement pattern. Then, the importance level comparison unit 118 gives the specified size to the scaling unit 119 and gives the specified arrangement position to the data synthesis unit 120.

図11(A)〜(T)は、重要度比較部118で選択することのできる配置パターンの一例を示す概略図である。なお、図11(A)〜(T)は、ネットワークに接続されている記録配信装置100が4つである場合の例であるが、この数については、4つに限定されるものではない。
図11(A)は、4つの個別画像データの重要度の値の全てが、予め定められた閾値よりも低い場合の配置パターンSIP1である。
図11(B)〜(E)は、4つの個別画像データのうち、1つの個別画像データの重要度の値だけが、予め定められた閾値以上である場合の配置パターンSIP2〜SIP5である。
図11(F)〜(I)も、4つの個別画像データのうち、1つの個別画像データの重要度の値だけが、予め定められた閾値以上である場合の配置パターンSIP6〜SIP9である。例えば、パターンSIP6〜SIP9が選択される場合の閾値は、パターンSIP2〜SIP5が選択される場合の閾値よりも大きな値となっていることが望ましい。
図11(J)〜(O)は、4つの個別画像データのうち、2つの個別画像データの重要度の値だけが、予め定められた閾値以上である場合の配置パターンSIP10〜SIP15である。
図11(P)〜(S)は、4つの個別画像データのうち、3つの個別画像データの重要度の値だけが、予め定められた閾値以上である場合の配置パターンSIP16〜SIP19である。
図11(T)は、4つの個別画像データの重要度の値の全てが、予め定められた閾値以上である場合の配置パターンSIP20である。
FIGS. 11A to 11T are schematic diagrams illustrating examples of arrangement patterns that can be selected by the importance degree comparison unit 118. 11A to 11T show an example in which there are four recording / distributing apparatuses 100 connected to the network, but this number is not limited to four.
FIG. 11A shows an arrangement pattern SIP1 when all the importance values of the four individual image data are lower than a predetermined threshold.
FIGS. 11B to 11E show the arrangement patterns SIP2 to SIP5 when only the importance value of one individual image data among the four individual image data is greater than or equal to a predetermined threshold value.
FIGS. 11F to 11I also show the arrangement patterns SIP6 to SIP9 when only the importance value of one individual image data among the four individual image data is greater than or equal to a predetermined threshold value. For example, it is desirable that the threshold when the patterns SIP6 to SIP9 are selected be larger than the threshold when the patterns SIP2 to SIP5 are selected.
FIGS. 11J to 11O show the arrangement patterns SIP10 to SIP15 when only the importance value of the two individual image data out of the four individual image data is greater than or equal to a predetermined threshold value.
11 (P) to 11 (S) show the arrangement patterns SIP16 to SIP19 when only the importance value of the three individual image data among the four individual image data is greater than or equal to a predetermined threshold value.
FIG. 11 (T) shows an arrangement pattern SIP20 in the case where all of the importance values of the four individual image data are greater than or equal to a predetermined threshold value.

なお、重要度比較部118は、4つの記録配信装置100の内、同一時刻に個別送信データを受信していないものがある場合には、個別送信データを受信していない記録配信装置100に対応する個別画像データの重要度を「0」として、そのサイズ及び配置位置を特定する。そして、重要度比較部118は、スケーリング部119に、個別送信データを受信していない記録配信装置100に対応する個別画像データを、例えば、黒画像データ等、予め定められた画像データで代用するように指示を出す。   The importance level comparing unit 118 corresponds to the record distribution device 100 that has not received the individual transmission data when there is one of the four record distribution devices 100 that has not received the individual transmission data at the same time. The importance and the position of the individual image data are specified as “0”. Then, the importance level comparing unit 118 substitutes the scaling unit 119 for the predetermined image data such as black image data, for example, the individual image data corresponding to the recording / distributing device 100 that has not received the individual transmission data. Give instructions to do so.

図10の説明に戻り、ステップS32では、スケーリング部119は、重要度比較部118から与えられたサイズとなるように、各個別画像データのスケーリングを実行する。そして、スケーリング部119は、サイズ変更後の個別画像データをデータ合成部120に与える。この際、スケーリング部119は、個別画像データ毎に、縮小率又は拡大率を示すスケーリングエリア情報を添付する。また、黒画像データ等、予め定められた画像データで代用した場合には、代用された画像データに元の画像がないことを示す情報を添付する。   Returning to the description of FIG. 10, in step S <b> 32, the scaling unit 119 performs scaling of each individual image data so as to have the size given from the importance comparison unit 118. Then, the scaling unit 119 gives the individual image data after the size change to the data composition unit 120. At this time, the scaling unit 119 attaches scaling area information indicating a reduction ratio or an enlargement ratio for each individual image data. In addition, when a predetermined image data such as black image data is substituted, information indicating that there is no original image is attached to the substituted image data.

次に、データ合成部120は、ステップS32でスケーリングされた個別画像データを、重要度比較部118から与えられた配置位置に配置することで合成画像データを生成する。また、データ合成部120は、ステップS23でメタデータ生成部107から与えられた部分メタデータ及び重要度の値と、ステップS25で管理情報生成部112から与えられた固有識別子と、ステップS28でメタデータ抽出部115から与えられた個別メタデータとを含む合成メタデータを生成する。そして、データ合成部120は、生成された合成画像データに、生成された合成メタデータを添付することで合成送信データを生成する(S33)。そして、データ合成部120は、生成された合成送信データをデータ送信部121に与える。   Next, the data synthesizing unit 120 generates synthesized image data by arranging the individual image data scaled in step S32 at the arrangement position given from the importance degree comparing unit 118. The data composition unit 120 also determines the partial metadata and the importance value given from the metadata generation unit 107 in step S23, the unique identifier given from the management information generation unit 112 in step S25, and the metadata in step S28. Composite metadata including the individual metadata provided from the data extraction unit 115 is generated. Then, the data composition unit 120 generates composite transmission data by attaching the generated composite metadata to the generated composite image data (S33). Then, the data synthesis unit 120 provides the generated synthesized transmission data to the data transmission unit 121.

ここで、図12は、合成送信データSID1のデータ構造を示す概略図である。
合成送信データSID1は、合成画像データSID11と、最大カメラ数SID12と、各画像有無情報SID13と、カメラ番号SID14と、スケーリングエリアSID15と、固有識別子SID16と、重要度SID17と、項目個数SID18と、項目番号SID19と、解析結果データサイズSID20と、解析結果SID21とを有する。
合成画像データSID11は、ステップS33で、各個別画像データが合成された合成画像データである。
最大カメラ数SID12は、合成画像データに合成される個別画像データを撮像するカメラ(記録配信装置100)の最大数を示す。例えば、図2及び3の例では、最大カメラ数SID12は、「4」である。
各画像有無情報SID13は、カメラ(記録配信装置100)毎に、撮像された個別画像データが合成画像データに合成されているか否かを示す情報である。例えば、各画像有無情報SID3は、ビットパターンの情報で明示される。例えば、図2及び3に示されている例では、4つのカメラ151〜154のうち、第1カメラ151、第2カメラ152及び第4カメラ154で撮像された画像の個別画像データが合成画像データに含まれており、第3カメラ153で撮像された画像の個別画像データの代わりに、黒画像データが代用された場合には、各画像有無情報SID13は、「1011」と示されるものとする。
カメラ番号SID14〜解析結果SID21は、個別画像データが合成画像データに含まれているカメラ(記録配信装置100)の数だけ設けられる。
カメラ番号SID14は、カメラ(記録配信装置100)を識別するための識別番号である。例えば、カメラ番号SID14としては、固有識別子に含まれている装置情報が利用できる。
スケーリングエリアSID15は、カメラ番号SID14で識別されるカメラ(記録配信装置100)で撮像された画像の個別画像データに対して、スケーリング部119がスケーリングした縮小率又は拡大率を示す。
固有識別子SID16は、カメラ番号SID14で識別されるカメラ(記録配信装置100)で撮像された画像の個別画像データの固有識別子である。これは、ステップS25で、管理情報生成部112より与えられる。
なお、このように、4つのカメラの画像を1枚に合成して送信する際に、4つの個別画像データのそれぞれに付与された固有識別子を、合成画像データに付与して送信するため、遠隔地で合成画像データを記録した場合に、その合成画像データから元の個別画像データを特定することが可能となり、合成画像データからより詳細な個別画像データの確認を効率的に行うことができる。また、各カメラにおける画像の記録の際に、この固有識別子のリストを作成し、固有識別子と、画像データのアドレス情報とをペアで管理してもよく、このようにすると固有識別子の検索を高速で実行可能となる。
重要度SID17は、カメラ番号SID14で識別されるカメラ(記録配信装置100)で撮像された画像の個別画像データの重要度の値である。これは、ステップS23でメタデータ生成部107から与えられた部分メタデータ、又は、ステップS29でメタデータ抽出部115から与えられた個別メタデータに含まれているものである。
項目個数SID18、項目番号SID19、解析結果データサイズSID20及び解析結果SID21は、これは、ステップS23でメタデータ生成部107から与えられた部分メタデータ、又は、ステップS29でメタデータ抽出部115から与えられた個別メタデータに含まれているものである。項目個数SID18、項目番号SID19、解析結果データサイズSID20及び解析結果SID21は、図9に示されている個別送信データIID1の項目個数IID14、項目番号IID15、解析結果データサイズIID16及び解析結果IID17と同様である。
Here, FIG. 12 is a schematic diagram showing a data structure of the combined transmission data SID1.
The composite transmission data SID1 includes composite image data SID11, maximum camera number SID12, each image presence / absence information SID13, camera number SID14, scaling area SID15, unique identifier SID16, importance SID17, item number SID18, It has item number SID19, analysis result data size SID20, and analysis result SID21.
The composite image data SID11 is composite image data obtained by combining the individual image data in step S33.
The maximum camera number SID12 indicates the maximum number of cameras (recording / distributing apparatus 100) that capture individual image data to be combined with the combined image data. For example, in the examples of FIGS. 2 and 3, the maximum camera number SID12 is “4”.
Each image presence / absence information SID13 is information indicating whether or not the captured individual image data is combined with the combined image data for each camera (recording / distributing apparatus 100). For example, each image presence / absence information SID3 is clearly indicated by bit pattern information. For example, in the example shown in FIGS. 2 and 3, the individual image data of the images captured by the first camera 151, the second camera 152, and the fourth camera 154 out of the four cameras 151 to 154 is combined image data. When the black image data is used instead of the individual image data of the image captured by the third camera 153, each image presence / absence information SID13 is indicated as “1011”. .
The camera numbers SID14 to analysis results SID21 are provided as many as the number of cameras (recording / distributing devices 100) in which the individual image data is included in the composite image data.
The camera number SID14 is an identification number for identifying the camera (recording / distributing apparatus 100). For example, as the camera number SID14, device information included in the unique identifier can be used.
The scaling area SID15 indicates a reduction rate or an enlargement rate scaled by the scaling unit 119 with respect to individual image data of an image captured by the camera (recording / distributing device 100) identified by the camera number SID14.
The unique identifier SID16 is a unique identifier of individual image data of an image captured by the camera (recording / distributing apparatus 100) identified by the camera number SID14. This is given from the management information generation unit 112 in step S25.
As described above, when the images from the four cameras are combined and transmitted, the unique identifier assigned to each of the four individual image data is added to the combined image data and transmitted. When the composite image data is recorded on the ground, the original individual image data can be specified from the composite image data, and more detailed individual image data can be efficiently confirmed from the composite image data. In addition, when recording an image in each camera, this list of unique identifiers may be created, and the unique identifiers and the address information of the image data may be managed as a pair. Can be executed.
The importance SID17 is a value of importance of individual image data of an image captured by the camera (recording / distributing apparatus 100) identified by the camera number SID14. This is included in the partial metadata given from the metadata generation unit 107 in step S23 or the individual metadata given from the metadata extraction unit 115 in step S29.
The item number SID18, the item number SID19, the analysis result data size SID20, and the analysis result SID21 are given from the partial metadata supplied from the metadata generation unit 107 in step S23 or from the metadata extraction unit 115 in step S29. Is included in the individual metadata. Item number SID18, item number SID19, analysis result data size SID20, and analysis result SID21 are the same as item number IID14, item number IID15, analysis result data size IID16, and analysis result IID17 of individual transmission data IID1 shown in FIG. It is.

図10の説明に戻り、データ送信部121は、データ合成部120から与えられた合成送信データを、ネットワークを介して、予め定められた装置、例えば、視聴装置に送信する(S34)。   Returning to the description of FIG. 10, the data transmission unit 121 transmits the composite transmission data given from the data synthesis unit 120 to a predetermined device, for example, a viewing device, via the network (S34).

なお、以上で説明した本実施の形態では、音声データそのものは外部に配信、あるいは、記録を行わない構成であるが、必要であれば、音声データの記録とネットワークへの送信を行ってもよい。ネットワークに音声データを送信する際には、複数装置の音声データを多重化して送信してもよいし、重要度の値に応じて、どれか1つの装置(例えば、重要度の最も高い装置)の音声データを送信してもよい。   In the embodiment described above, the audio data itself is configured not to be distributed or recorded to the outside. However, if necessary, the audio data may be recorded and transmitted to the network. . When audio data is transmitted to the network, audio data of a plurality of devices may be multiplexed and transmitted, or any one device (for example, a device having the highest importance) according to the importance value. Audio data may be transmitted.

以上のように、本実施の形態に係る記録配信装置100、および、記録配信装置100が行う記録配信方法によれば、複数の記録配信装置100にまたがる重要画像を少ないデータ量で公衆回線に同時にのせられるため、狭帯域の環境でも複数の映像を関連付けた効率的な遠隔監視を行うことができる。   As described above, according to the recording / distributing apparatus 100 and the recording / distributing method performed by the recording / distributing apparatus 100 according to the present embodiment, important images spanning a plurality of recording / distributing apparatuses 100 can be simultaneously transmitted to a public line with a small amount of data. Therefore, efficient remote monitoring in which a plurality of videos are associated can be performed even in a narrow band environment.

例えば、近年増加してきたフルハイビジョンと呼ばれる、解像度が1920×1080の監視映像の場合、高画質のモードでは、フレームレートが30fps(Frames Per Second)換算で、ビットレートが8Mbps(Bit Per Second)程度のデータサイズとなる。また、標準画質のモードでは、前記条件においてそのビットレートは4Mbps程度となる。本実施の形態において、例えば、図2及び3に示されている第1カメラ151と第2カメラ152とが高画質、第3カメラ153と第4カメラ154とが標準画質に設定され、各カメラ151〜154のフレームレートが、第1カメラ151では15fps、第2カメラ152では15fps、第3カメラ153では7.5fps、第4カメラ154では4fpsで設定されていたとする。この場合、各々のカメラ151〜154が、そのまま遠隔地に画像データを送信した場合には、図2に示されているインターネット158等の広域ネットワークには、4.77Mbpsのデータが毎秒送信されることとなる。一方、本実施の形態により4つのカメラ151〜154の画像を1枚の画像に合成して送信する場合、例えば4枚の画像の重要度の値がいずれも均等であった場合には、広域ネットワークには1.38Mbpsのデータが毎秒送信されることとなる。このケースでは、本実施の形態では、広域ネットワークへ送信するデータ量が、従来の方式の4.77Mbpsから1.38Mbpsまで約71%削減されることとなる。   For example, in the case of surveillance video with a resolution of 1920 × 1080 called full high-vision, which has been increasing in recent years, in a high image quality mode, the frame rate is about 8 Mbps (Bit Per Second) in terms of a frame rate of 30 fps (Frames Per Second). Data size. In the standard image quality mode, the bit rate is about 4 Mbps under the above conditions. In the present embodiment, for example, the first camera 151 and the second camera 152 shown in FIGS. 2 and 3 are set to high image quality, and the third camera 153 and the fourth camera 154 are set to standard image quality. Assume that the frame rates of 151 to 154 are set to 15 fps for the first camera 151, 15 fps for the second camera 152, 7.5 fps for the third camera 153, and 4 fps for the fourth camera 154. In this case, when each of the cameras 151 to 154 transmits image data to a remote place as it is, 4.77 Mbps data is transmitted every second to a wide area network such as the Internet 158 shown in FIG. It will be. On the other hand, when the images of the four cameras 151 to 154 are combined into one image and transmitted according to the present embodiment, for example, when the importance values of the four images are all equal, Data of 1.38 Mbps is transmitted to the network every second. In this case, in this embodiment, the amount of data transmitted to the wide area network is reduced by about 71% from 4.77 Mbps in the conventional method to 1.38 Mbps.

従来のように伝送するデータ量が4.77Mbpsでは、5Mbps以上の回線帯域が必要となり、本実施の形態のように伝送するデータ量が1.38Mbpsでは、2Mbps以上の回線帯域が必要となる。ADSL(Asymmetric Digital Subscriber Line)を提供しているある環境の例では、5Mbps以上の実行速度が出ている回線の比率は60%であるのに対し、2Mbps以上の実行速度が出ている回線の比率は98%に達している。このため、この環境においては、本発明の効果によりほとんどのすべての回線でデータをスムーズに送信することができる。   When the amount of data to be transmitted is 4.77 Mbps as in the conventional case, a line bandwidth of 5 Mbps or more is required, and when the amount of data to be transmitted is 1.38 Mbps as in the present embodiment, a line bandwidth of 2 Mbps or more is required. In an example of an environment that provides ADSL (Asymmetric Digital Subscriber Line), the ratio of the line that has an execution speed of 5 Mbps or higher is 60%, whereas the line that has an execution speed of 2 Mbps or higher is output. The ratio has reached 98%. For this reason, in this environment, data can be smoothly transmitted on almost all lines by the effect of the present invention.

また、以上のような記録配信装置100、および、記録配信装置100が行う記録配信方法によれば、記録配信装置100が画像の合成を行うため、監視者の視聴装置では、画像の拡大縮小及び入れ替え等の処理が不要であり、近年増加している携帯端末のような、画像処理能力がPC等に比べて低い装置においても、複数の画像を関連付けてスムーズに監視することができる。   In addition, according to the recording / distributing device 100 and the recording / distributing method performed by the recording / distributing device 100 as described above, the recording / distributing device 100 synthesizes images. Processing such as replacement is not required, and even a device having a low image processing capability compared to a PC or the like, such as a mobile terminal that has been increasing in recent years, can smoothly monitor a plurality of images in association with each other.

また、以上に記載された記録配信装置100、および、記録配信装置100が行う記録配信方法によれば、合成画像データにおいて、各個別画像データの重要度の値に応じて、各個別画像データの画像サイズが自動的に変更されるため、監視者は、特に画面を切り替える等の操作をすることなく、重要な画像に常に着目して監視することができ、また、重要な事象を見逃すことなく細部の確認を行うことができる。   In addition, according to the recording / distributing device 100 described above and the recording / distributing method performed by the recording / distributing device 100, in the composite image data, each of the individual image data is determined according to the importance value of each individual image data. Since the image size is automatically changed, the monitor can always focus on important images and monitor them without having to change the screen. Details can be confirmed.

また、以上に記載された記録配信装置100、および、記録配信装置100が行う記録配信方法によれば、重要度の判定に、動き検知だけではなく複数の項目を組み合わせているため、動きのあるものだけでなく静止物にも対応することができるとともに、複数の項目に対して重み付けを行うことで、監視者が必要とする、より重要な画像に着目することができる。   In addition, according to the recording / distributing device 100 described above and the recording / distributing method performed by the recording / distributing device 100, the importance level is determined by combining a plurality of items in addition to motion detection. It is possible to deal with not only objects but also stationary objects, and by weighting a plurality of items, it is possible to focus on more important images required by the supervisor.

さらに、以上に記載された記録配信装置100、および、記録配信装置100が行う記録配信方法によれば、画像の重要度に応じて、スレーブ装置となった各記録配信装置100が画像の重要な部分のみを切り出してデータを送信するため、LANにおけるトラフィックを低減することができるとともに、画像の切り出し処理を各記録配信装置100に分散することで、マスタ装置である記録配信装置100が画像合成を行う際の処理負荷を低減することができる。このため、記録配信装置100を安価に製造することができる。   Furthermore, according to the recording / distribution apparatus 100 described above and the recording / distribution method performed by the recording / distribution apparatus 100, each recording / distribution apparatus 100 that has become a slave apparatus in accordance with the importance of the image Since only part of the data is cut out and data is transmitted, traffic on the LAN can be reduced, and the image cut-out process is distributed to each of the record distribution devices 100, so that the record distribution device 100 as the master device performs image composition. The processing load at the time of performing can be reduced. For this reason, the record distribution apparatus 100 can be manufactured at low cost.

また、以上に記載された記録配信装置100、および、記録配信装置100が行う記録配信方法によれば、自装置で撮像された画像データが固有識別子とともに記録されるとともに、合成画像データにも合成された個別画像データの固有識別子が添付されているため、視聴者は、合成画像データに添付されている固有識別子に基づいて、元の個別画像データを容易に確認することができる。   Further, according to the recording / distribution apparatus 100 described above and the recording / distribution method performed by the recording / distribution apparatus 100, the image data picked up by the own apparatus is recorded together with the unique identifier and is also synthesized with the composite image data. Since the unique identifier of the individual image data is attached, the viewer can easily confirm the original individual image data based on the unique identifier attached to the composite image data.

さらに、以上に記載された記録配信装置100、および、記録配信装置100が行う記録配信方法によれば、記録配信装置100の設置位置は、なんら制約を受けることなく、自由に設置しても本発明の効果が得られる。   Furthermore, according to the recording / distributing apparatus 100 described above and the recording / distributing method performed by the recording / distributing apparatus 100, the installation position of the recording / distributing apparatus 100 is not limited and can be freely installed. The effects of the invention can be obtained.

実施の形態2.
次に、実施の形態2について説明する。
図13は、実施の形態2に係る記録配信装置200の構成を概略的に示すブロック図である。記録配信装置200は、画像撮像部101と、画像解析部102と、外部情報入力部103と、外部情報解析部104と、音声入力部105と、音声解析部106と、メタデータ生成部107と、重要度算出部208と、画像符号化部109と、画像切出部110と、送信データ切替部211と、管理情報生成部112と、データ記録部113と、データ受信部114と、メタデータ抽出部115と、重要度抽出部116と、画像データ抽出部117と、重要度比較部218と、スケーリング部119と、データ合成部120と、データ送信部121と、閾値比較部222とを備える。ここで、実施の形態2に係る記録配信装置200は、重要度算出部208、送信データ切替部211及び重要度比較部218での処理の点、並びに、閾値比較部222が備えられている点で、実施の形態1に係る記録配信装置100と異なっている。実施の形態2に係る記録配信装置200は、撮像された画像の個別画像データの重要度の値が予め定められている閾値を超えた場合に、合成画像データを含む合成送信データを作成し、ネットワークに送信する。
Embodiment 2. FIG.
Next, a second embodiment will be described.
FIG. 13 is a block diagram schematically showing the configuration of the record delivery apparatus 200 according to the second embodiment. The recording / distributing device 200 includes an image capturing unit 101, an image analysis unit 102, an external information input unit 103, an external information analysis unit 104, an audio input unit 105, an audio analysis unit 106, and a metadata generation unit 107. , Importance calculation unit 208, image encoding unit 109, image cutout unit 110, transmission data switching unit 211, management information generation unit 112, data recording unit 113, data reception unit 114, metadata An extraction unit 115, an importance level extraction unit 116, an image data extraction unit 117, an importance level comparison unit 218, a scaling unit 119, a data synthesis unit 120, a data transmission unit 121, and a threshold value comparison unit 222 are provided. . Here, the recording / distributing apparatus 200 according to the second embodiment includes processing points in the importance level calculation unit 208, the transmission data switching unit 211, the importance level comparison unit 218, and a threshold value comparison unit 222. Thus, it is different from the record delivery apparatus 100 according to the first embodiment. The record distribution device 200 according to Embodiment 2 creates composite transmission data including composite image data when the importance value of the individual image data of the captured image exceeds a predetermined threshold value, Send to the network.

重要度算出部208は、実施の形態1における重要度算出部108と同様に、個別画像データの重要度を算出する。例えば、重要度算出部208は、自装置である記録配信装置200がスレーブ装置である場合には、メタデータ生成部107から与えられる部分メタデータから個別画像データの重要度を算出し、この重要度の値を、メタデータ生成部107及び閾値比較部222に与える。また、重要度算出部208は、自装置である記録配信装置200がマスタ装置である場合には、メタデータ生成部107から与えられる部分メタデータから個別画像データの重要度を算出し、この重要度の値を、メタデータ生成部107、重要度比較部218及び閾値比較部222に与える。   The importance calculation unit 208 calculates the importance of the individual image data in the same manner as the importance calculation unit 108 in the first embodiment. For example, the importance calculation unit 208 calculates the importance of the individual image data from the partial metadata given from the metadata generation unit 107 when the recording / distribution device 200 which is the own device is a slave device. The degree value is given to the metadata generation unit 107 and the threshold comparison unit 222. Further, when the recording / distributing device 200 that is the own device is the master device, the importance calculating unit 208 calculates the importance of the individual image data from the partial metadata provided from the metadata generating unit 107, and this importance is calculated. The degree value is given to the metadata generation unit 107, the importance comparison unit 218, and the threshold comparison unit 222.

閾値比較部222は、重要度算出部208から与えられた重要度の値が、予め定められた閾値よりも大きいか否かを判断する。そして、閾値比較部222は、重要度算出部208から与えられた重要度の値が、予め定められた閾値よりも大きい場合には、送信データ切替部211に個別画像データを出力する指示を与え、重要度算出部208から与えられた重要度の値が、予め定められた閾値以下である場合には、送信データ切替部211に個別画像データを出力しない指示を与える。   The threshold comparison unit 222 determines whether or not the importance value given from the importance calculation unit 208 is larger than a predetermined threshold. Then, the threshold value comparison unit 222 gives an instruction to output the individual image data to the transmission data switching unit 211 when the importance value given from the importance level calculation unit 208 is larger than a predetermined threshold value. When the importance value given from the importance calculation unit 208 is equal to or less than a predetermined threshold, the transmission data switching unit 211 is instructed not to output individual image data.

送信データ切替部211は、実施の形態1における送信データ切替部111と同様に、画像切出部110から与えられた個別画像データを出力する出力先を切り替える。但し、本実施の形態においては、送信データ切替部211は、閾値比較部222より個別画像データを出力する指示が与えられた場合に、個別画像データを出力し、閾値比較部222より個別画像データを出力しない指示が与えられた場合には、個別画像データを出力しない。   Similar to the transmission data switching unit 111 in the first embodiment, the transmission data switching unit 211 switches the output destination to which the individual image data given from the image cutout unit 110 is output. However, in the present embodiment, the transmission data switching unit 211 outputs the individual image data when an instruction to output the individual image data is given from the threshold comparison unit 222, and the individual image data from the threshold comparison unit 222. When an instruction not to output is given, individual image data is not output.

重要度比較部218は、実施の形態1における重要度比較部118と同様の処理を行うが、自装置である記録配信装置200がマスタ装置である場合に、重要度算出部208で算出された重要度の値が予め定められた閾値以下であると閾値比較部222が判断したときには、スレーブ装置である記録配信装置200から個別送信データを受信しているか否かを判断する。例えば、重要度比較部218は、重要度抽出部116より重要度の値を受け取っている場合には、スレーブ装置である記録配信装置200から個別送信データを受信していると判断する。そして、重要度比較部218は、スレーブ装置である記録配信装置200から個別送信データを受信していると判断した場合には、実施の形態1における重要度比較部118と同様に重要度の値を比較する処理を行う。   The importance level comparing unit 218 performs the same processing as the importance level comparing unit 118 in the first embodiment, but is calculated by the importance level calculating unit 208 when the recording / distributing device 200 that is its own device is a master device. When the threshold value comparison unit 222 determines that the importance value is equal to or less than a predetermined threshold value, it is determined whether or not individual transmission data is received from the record distribution device 200 as a slave device. For example, when the importance level comparison unit 218 receives the importance value from the importance level extraction unit 116, the importance level comparison unit 218 determines that the individual transmission data is received from the record distribution device 200 that is a slave device. When the importance level comparing unit 218 determines that the individual transmission data is received from the recording / distributing device 200 as the slave device, the importance level value is the same as the importance level comparing unit 118 in the first embodiment. The process which compares is performed.

次に、記録配信装置200での動作を説明する。
図14は、実施の形態2に係る記録配信装置200がスレーブ装置である場合の処理を示すフローチャートである。ここで、図14のステップS40〜S46までの処理は、図6のステップS10〜S16までの処理と同様である。但し、重要度算出部208は、ステップS43で算出した重要度の値を閾値比較部222にも与える。
Next, the operation in the record distribution device 200 will be described.
FIG. 14 is a flowchart showing processing when the record distribution device 200 according to Embodiment 2 is a slave device. Here, the processing from step S40 to S46 in FIG. 14 is the same as the processing from step S10 to S16 in FIG. However, the importance calculation unit 208 also provides the threshold value comparison unit 222 with the importance value calculated in step S43.

ステップS47では、画像切出部110は、個別画像データを生成する。例えば、画像切出部110は、メタデータ生成部107から与えられた部分メタデータに、動きが検知された領域を示すデータ及び顔が検出された領域を示すデータの少なくとも何れか一方が含まれている場合には、当該領域を含む範囲を、画像符号化部109から与えられた画像データより切り出す。そして、画像切出部110は、切り出した画像データを個別画像データとする。一方、画像切出部110は、メタデータ生成部107から与えられた部分メタデータに、動きが検知されていないことを示すデータが含まれており、かつ、顔が検出されていないことを示すデータが含まれている場合には、画像符号化部109から与えられた画像データを個別画像データとする。そして、画像切出部110は、個別画像データを送信データ切替部211に与える。   In step S47, the image cutout unit 110 generates individual image data. For example, the image cropping unit 110 includes at least one of data indicating a region where motion is detected and data indicating a region where a face is detected in the partial metadata given from the metadata generation unit 107. If it is, the range including the region is cut out from the image data given from the image encoding unit 109. Then, the image cutout unit 110 sets the cut out image data as individual image data. On the other hand, the image cutout unit 110 indicates that the partial metadata given from the metadata generation unit 107 includes data indicating that no motion is detected, and that no face is detected. When data is included, the image data given from the image encoding unit 109 is set as individual image data. Then, the image cutout unit 110 gives the individual image data to the transmission data switching unit 211.

次に、閾値比較部222は、ステップS43で重要度算出部208より与えられた重要度の値が、予め定められている閾値を超えているか否かを判断する(S48)。閾値比較部222は、閾値を超えている場合(ステップS48でYes)には、送信データ切替部211に個別画像データを出力する指示を与えて、ステップS49の処理に進み、閾値を超えていない場合(ステップS48でNo)には、送信データ切替部211に個別画像データを出力しない指示を与えて、ステップS40の処理に戻る。
ここで、送信データ切替部211は、閾値比較部222より、個別画像データを出力する指示を受けた場合には、ステップS47で画像切出部110より与えられた個別画像データをデータ合成部120に与える。なお、送信データ切替部111は、閾値比較部222より、個別画像データを出力しない指示を受けた場合には、例えば、ステップS47で画像切出部110より与えられた個別画像データを廃棄する。
Next, the threshold value comparison unit 222 determines whether or not the importance value given from the importance level calculation unit 208 in step S43 exceeds a predetermined threshold value (S48). If the threshold value exceeds the threshold value (Yes in step S48), the threshold value comparison unit 222 gives an instruction to output the individual image data to the transmission data switching unit 211, proceeds to the process of step S49, and does not exceed the threshold value. In the case (No in step S48), the transmission data switching unit 211 is instructed not to output the individual image data, and the process returns to step S40.
When the transmission data switching unit 211 receives an instruction to output individual image data from the threshold comparison unit 222, the transmission data switching unit 211 uses the individual image data provided from the image cutout unit 110 in step S47 as the data composition unit 120. To give. When the transmission data switching unit 111 receives an instruction from the threshold comparison unit 222 not to output the individual image data, for example, the transmission data switching unit 111 discards the individual image data given from the image cutting unit 110 in step S47.

次に、データ合成部120は、ステップS43でメタデータ生成部107から与えられた部分メタデータ及び重要度の値と、ステップS45で管理情報生成部112から与えられた固有識別子とを含む個別メタデータを生成し、この個別メタデータを、ステップS48で送信データ切替部211から与えられた個別画像データに添付することで個別送信データを生成する(S49)。そして、データ合成部120は、生成された個別送信データをデータ送信部121に与える。   Next, the data synthesis unit 120 includes the individual metadata including the partial metadata and the importance value given from the metadata generation unit 107 in step S43 and the unique identifier given from the management information generation unit 112 in step S45. Data is generated, and the individual metadata is generated by attaching the individual metadata to the individual image data given from the transmission data switching unit 211 in step S48 (S49). Then, the data composition unit 120 gives the generated individual transmission data to the data transmission unit 121.

次に、データ送信部121は、データ合成部120から与えられた個別送信データを、ネットワークを介して、マスタ装置である記録配信装置200に送信する(S50)。   Next, the data transmitting unit 121 transmits the individual transmission data given from the data synthesizing unit 120 to the record distribution device 200 that is the master device via the network (S50).

図15は、実施の形態2に係る記録配信装置200がマスタ装置である場合の処理を示すフローチャートである。ここで、図15のステップS60〜ステップS70までの処理は、図10のステップS20〜S30までの処理と同様である。但し、重要度算出部208は、ステップS63において算出された重要度の値を閾値比較部222にも与える。   FIG. 15 is a flowchart showing processing when the record distribution device 200 according to Embodiment 2 is a master device. Here, the processing from step S60 to step S70 in FIG. 15 is the same as the processing from step S20 to S30 in FIG. However, the importance calculation unit 208 also provides the threshold value comparison unit 222 with the importance value calculated in step S63.

ステップS71では、閾値比較部222は、ステップS63で重要度算出部208から与えられた重要度の値が、予め定められた閾値を超えているか否かを判断する。そして、閾値比較部222は、この重要度の値が予め定められた閾値以下である場合(ステップS71でNo)には、ステップS72の処理に進み、この重要度の値が予め定められた閾値を超えている場合(ステップS71でYes)には、ステップS73の処理に進む。   In step S71, the threshold value comparison unit 222 determines whether or not the importance value given from the importance level calculation unit 208 in step S63 exceeds a predetermined threshold value. Then, when the importance value is equal to or less than the predetermined threshold value (No in step S71), the threshold value comparison unit 222 proceeds to the process of step S72, and the importance value is set to the predetermined threshold value. Is exceeded (Yes in step S71), the process proceeds to step S73.

ステップS72では、重要度比較部218は、スレーブ装置である記録配信装置200から個別送信データを受信しているか否かを判断する。そして、重要度比較部218は、このような個別送信データを受信している場合(ステップS72でYes)には、ステップS73の処理に進み、このような個別送信データを受信していない場合(ステップS72でNo)には、ステップS60の処理に戻る。   In step S <b> 72, the importance level comparing unit 218 determines whether or not individual transmission data is received from the record distribution device 200 that is a slave device. When the importance comparison unit 218 receives such individual transmission data (Yes in step S72), the importance comparison unit 218 proceeds to the process of step S73, and does not receive such individual transmission data ( In step S72, No), the process returns to step S60.

ステップS73では、重要度比較部218は、重要度算出部208で算出された、個別画像データの重要度の値、及び、重要度抽出部116で抽出された、各個別画像データの重要度の値を比較して、各個別画像データの画像を1つの画像データに合成する際の、各個別画像データのサイズ及び配置位置を特定する。そして、重要度比較部218は、特定されたサイズをスケーリング部119に与え、特定された配置位置をデータ合成部120に与える。   In step S73, the importance level comparison unit 218 calculates the importance value of the individual image data calculated by the importance level calculation unit 208 and the importance level of each individual image data extracted by the importance level extraction unit 116. By comparing the values, the size and arrangement position of each individual image data when the images of each individual image data are combined into one image data are specified. Then, the importance level comparison unit 218 gives the specified size to the scaling unit 119 and gives the specified arrangement position to the data synthesis unit 120.

次に、スケーリング部119は、重要度比較部218から与えられたサイズとなるように、各個別画像データのスケーリングを実行する(S74)。そして、スケーリング部119は、サイズ変更後の個別画像データをデータ合成部120に与える。この際、スケーリング部119は、個別画像データ毎に、縮小率又は拡大率を示すスケーリングエリア情報を添付する。また、スケーリング部119は、黒画像データ等、予め定められた画像データで代用した場合には、元の画像がないことを示す情報を添付する。   Next, the scaling unit 119 performs scaling of each individual image data so as to have the size given from the importance level comparing unit 218 (S74). Then, the scaling unit 119 gives the individual image data after the size change to the data composition unit 120. At this time, the scaling unit 119 attaches scaling area information indicating a reduction ratio or an enlargement ratio for each individual image data. The scaling unit 119 attaches information indicating that there is no original image when the image data is substituted with predetermined image data such as black image data.

次に、データ合成部120は、ステップS74でスケーリングされた個別画像データを、重要度比較部218から与えられた配置位置に配置することで合成画像データを生成する。また、データ合成部120は、ステップS63でメタデータ生成部107から与えられた部分メタデータ及び重要度の値と、ステップS65で管理情報生成部112から与えられた固有識別子と、ステップS68でメタデータ抽出部115から与えられた個別メタデータとを含む合成メタデータを生成する。そして、データ合成部120は、生成された合成画像データに、生成された合成メタデータを添付することで合成送信データを生成する(S75)。そして、データ合成部120は、生成された合成送信データをデータ送信部121に与える。
LANに接続されている全ての記録配信装置200、例えば、図3に示されている設置例においては、4台のカメラ151〜154の画像の全てが重要であるわけではなく、重要度によって、カメラ1台分の画像のみが重要であるケース、又は、カメラ2台分の画像が重要であるケース等が発生する。このため、実施の形態2におけるデータ合成部120は、例えば、広域ネットワークに送信する画像がカメラ1台分の場合には、その1台のカメラの画像を全画面に表示されるようなサイズ及び位置に合成する。
Next, the data composition unit 120 generates composite image data by placing the individual image data scaled in step S74 at the placement position given from the importance level comparison unit 218. The data composition unit 120 also determines the partial metadata and the importance value given from the metadata generation unit 107 in step S63, the unique identifier given from the management information generation unit 112 in step S65, and the metadata in step S68. Composite metadata including the individual metadata provided from the data extraction unit 115 is generated. Then, the data composition unit 120 generates composite transmission data by attaching the generated composite metadata to the generated composite image data (S75). Then, the data synthesis unit 120 provides the generated synthesized transmission data to the data transmission unit 121.
In all the record distribution apparatuses 200 connected to the LAN, for example, in the installation example shown in FIG. 3, not all the images of the four cameras 151 to 154 are important. There are cases where only the image for one camera is important, or the case where the image for two cameras is important. For this reason, for example, when the image to be transmitted to the wide area network is for one camera, the data composition unit 120 in the second embodiment has a size and a size so that the image of the one camera is displayed on the entire screen. Composite to position.

次に、データ送信部121は、データ合成部120から与えられた合成送信データを、ネットワークを介して、予め定められた装置、例えば、視聴装置に送信する(S76)。   Next, the data transmission unit 121 transmits the composite transmission data given from the data synthesis unit 120 to a predetermined device, for example, a viewing device, via the network (S76).

以上のように、実施の形態2に係る記録配信装置200によれば、複数の記録配信装置200で撮像された画像のうち、少なくとも1台以上においてその画像の重要度の値が閾値を越えている場合、言い換えると、その画像が重要と判断された場合にのみ、広域ネットワークに対して合成画像データの送信が行われる。また、実施の形態2に係る記録配信装置200によれば、LANにおいても、画像の重要度の値が所定の閾値を超えた場合にのみ、スレーブ装置からマスタ装置に対して個別画像データの送信が行われる。このため、実施の形態2に係る記録配信装置200によれば、広域ネットワーク及びLANの何れのネットワークにおいても、伝送するデータ量を削減することができる。従って、実施の形態1よりもネットワーク帯域が狭い環境でも、効率的な監視を行うことができる。   As described above, according to the recording / distributing apparatus 200 according to the second embodiment, among at least one of the images captured by the plurality of recording / distributing apparatuses 200, the importance value of the image exceeds the threshold value. In other words, the composite image data is transmitted to the wide area network only when the image is determined to be important. Further, according to the recording / distributing apparatus 200 according to the second embodiment, even in the LAN, the individual image data is transmitted from the slave apparatus to the master apparatus only when the importance value of the image exceeds a predetermined threshold value. Is done. For this reason, according to the record delivery apparatus 200 according to the second embodiment, it is possible to reduce the amount of data to be transmitted in both the wide area network and the LAN. Therefore, efficient monitoring can be performed even in an environment where the network bandwidth is narrower than in the first embodiment.

また、実施の形態2に係る記録配信装置200によれば、重要度の値が閾値を超えている画像、言い換えると、重要と判断された画像のみを合成画像として送信することで、重要な画像をより大きく表示可能となり、また、重要では無い画像を表示しないことで、監視者が重要な事象を見逃すといった問題がなくなる。   Further, according to the recording / distributing apparatus 200 according to the second embodiment, an important image is transmitted by transmitting only an image whose importance value exceeds a threshold value, in other words, an image determined to be important as a composite image. Can be displayed larger, and by not displaying an unimportant image, there is no problem that the supervisor misses an important event.

なお、閾値比較部222で重要度を判定する閾値は、LANに接続された全ての記録配信装置200で同一の値が設定されていてもよいし、記録配信装置200の設定位置や撮像対象等に応じて、記録配信装置200毎に個別の値が設定されてもよい。   Note that the threshold for determining the importance level by the threshold comparison unit 222 may be set to the same value for all the recording / distributing devices 200 connected to the LAN, or the setting position of the recording / distributing device 200, the imaging target, and the like. In response to this, an individual value may be set for each recording / distributing device 200.

実施の形態3.
次に、実施の形態3について説明する。
図16は、実施の形態3に係る記録配信装置300の構成を概略的に示すブロック図である。記録配信装置300は、画像撮像部101と、画像解析部102と、外部情報入力部103と、外部情報解析部104と、音声入力部105と、音声解析部106と、メタデータ生成部307と、重要度算出部308と、画像符号化部109と、画像切出部310と、送信データ切替部111と、管理情報生成部112と、データ記録部113と、データ受信部114と、メタデータ抽出部115と、重要度抽出部316と、画像データ抽出部117と、重要度比較部318と、スケーリング部319と、データ合成部320と、データ送信部121と、タイマー部323と、グループ化抽出部324とを備える。実施の形態3に係る記録配信装置300は、メタデータ生成部307、重要度算出部308、画像切出部310、重要度抽出部316、重要度比較部318、スケーリング部319及びデータ合成部320での処理の点、及び、タイマー部323及びグループ化抽出部324が備えられている点において、実施の形態1と異なっている。ここで、実施の形態3に係る記録配信装置300は、所定の時間内に撮像された画像のなかから選択された画像を合成する。なお、記録配信装置300が、スレーブ装置である場合の処理は、実施の形態1と同様である。
Embodiment 3 FIG.
Next, Embodiment 3 will be described.
FIG. 16 is a block diagram schematically showing the configuration of the record delivery apparatus 300 according to the third embodiment. The recording / distributing device 300 includes an image capturing unit 101, an image analysis unit 102, an external information input unit 103, an external information analysis unit 104, an audio input unit 105, an audio analysis unit 106, and a metadata generation unit 307. , Importance calculation section 308, image encoding section 109, image cropping section 310, transmission data switching section 111, management information generating section 112, data recording section 113, data receiving section 114, metadata Extraction unit 115, importance extraction unit 316, image data extraction unit 117, importance comparison unit 318, scaling unit 319, data synthesis unit 320, data transmission unit 121, timer unit 323, and grouping And an extraction unit 324. The record delivery apparatus 300 according to Embodiment 3 includes a metadata generation unit 307, an importance calculation unit 308, an image extraction unit 310, an importance extraction unit 316, an importance comparison unit 318, a scaling unit 319, and a data synthesis unit 320. And the point that the timer unit 323 and the grouping extraction unit 324 are provided are different from those of the first embodiment. Here, the recording / distributing apparatus 300 according to the third embodiment synthesizes images selected from images captured within a predetermined time. Note that the processing in the case where the record distribution device 300 is a slave device is the same as in the first embodiment.

メタデータ生成部307は、自装置である記録配信装置300がスレーブ装置である場合には、実施の形態1におけるメタデータ生成部107と同様の処理を行う。
メタデータ生成部307は、自装置である記録配信装置300がマスタ装置である場合には、画像解析部102、外部情報解析部104及び音声解析部106から与えられた解析結果データに基づいて、これらの解析部で解析された解析結果を含む部分メタデータを生成し、この部分メタデータに、画像解析部102で解析された画像を識別するための画像識別情報を添付して、重要度算出部308に与える。ここで、この画像識別情報としては、画像解析部102から画像解析データが入力される度に、所定の初期値からカウントアップしたカウント値が用いられればよい。
そして、メタデータ生成部307は、部分メタデータに基づいて重要度算出部308で算出された重要度の値と、この重要度の値を算出するために用いた部分メタデータに添付されていた画像識別情報とが与えられると、この重要度の値と、この重要度の値を算出するために用いられた部分メタデータとをデータ合成部320に与える。
また、メタデータ生成部307は、重要度算出部308から受け取った重要度の値を算出するために用いられた部分メタデータに含まれている画像解析データと、この画像解析データに対応する画像の画像識別情報とを画像切出部310に与える。
The metadata generation unit 307 performs the same processing as the metadata generation unit 107 in the first embodiment when the recording / delivery device 300 that is its own device is a slave device.
The metadata generation unit 307, when the recording / distribution device 300 as its own device is a master device, based on the analysis result data given from the image analysis unit 102, the external information analysis unit 104, and the voice analysis unit 106, Generate partial metadata including the analysis results analyzed by these analysis units, attach the image identification information for identifying the image analyzed by the image analysis unit 102 to the partial metadata, and calculate the importance Part 308. Here, as the image identification information, a count value counted up from a predetermined initial value every time image analysis data is input from the image analysis unit 102 may be used.
The metadata generation unit 307 was attached to the importance value calculated by the importance calculation unit 308 based on the partial metadata and the partial metadata used to calculate the importance value. When the image identification information is given, the importance value and the partial metadata used to calculate the importance value are given to the data composition unit 320.
The metadata generation unit 307 also includes image analysis data included in the partial metadata used to calculate the importance value received from the importance calculation unit 308, and an image corresponding to the image analysis data. Are provided to the image cutout unit 310.

重要度算出部308は、自装置である記録配信装置300がスレーブ装置である場合には、実施の形態1における重要度算出部108と同様の処理を行う。
重要度算出部308は、自装置である記録配信装置300がマスタ装置である場合には、メタデータ生成部307から与えられる部分メタデータから個別画像データの重要度を算出し、この重要度の値を、この重要度の値を算出するために用いた部分メタデータに添付されていた画像識別情報とともに、グループ化抽出部324に与える。そして、重要度算出部308は、グループ化抽出部324より、グループ化抽出部324で抽出された画像識別情報の通知を受けると、通知された画像識別情報と、この画像識別情報が添付されていた部分メタデータから算出された重要度の値と、をメタデータ生成部307及び重要度比較部318に与える。
The importance level calculation unit 308 performs the same processing as the importance level calculation unit 108 in the first embodiment when the recording / distributing device 300 that is its own device is a slave device.
The importance calculation unit 308 calculates the importance of the individual image data from the partial metadata given from the metadata generation unit 307 when the recording / distribution device 300 that is the own device is the master device. The value is given to the grouping extraction unit 324 together with the image identification information attached to the partial metadata used for calculating the importance value. When the importance level calculation unit 308 receives notification of the image identification information extracted by the grouping extraction unit 324 from the grouping extraction unit 324, the notified image identification information and the image identification information are attached. The importance value calculated from the partial metadata is supplied to the metadata generation unit 307 and the importance comparison unit 318.

画像切出部310は、自装置である記録配信装置300がスレーブ装置である場合には、実施の形態1における画像切出部110と同様の処理を行う。
画像切出部310は、自装置である記録配信装置300がマスタ装置である場合には、メタデータ生成部307から与えられた画像識別情報に対応する画像データにおいて、メタデータ生成部307から与えられた画像解析データに基づいて、必要な場合には、画像撮像部101で撮像された画像の中の一部分を切り出す。そして、画像切出部310は、個別画像データを送信データ切替部111に与える。なお、本実施の形態においては、画像切出部310は、自装置である記録配信装置300がマスタ装置である場合には、メタデータ生成部307から与えられた画像識別情報に対応しない画像データを破棄して、送信データ切替部111には出力しない。ここで、画像切出部310でも、画像符号化部109から画像データが与えられる度に、所定の初期値からカウントアップしたカウント値を算出しておき、このカウント値を画像識別情報として用いればよい。
The image cutout unit 310 performs the same processing as the image cutout unit 110 in the first embodiment when the recording / delivery device 300 that is its own device is a slave device.
When the recording / delivery device 300 that is the device itself is a master device, the image cutout unit 310 provides the image data corresponding to the image identification information provided from the metadata generation unit 307 from the metadata generation unit 307. Based on the obtained image analysis data, if necessary, a part of the image captured by the image capturing unit 101 is cut out. Then, the image cutout unit 310 gives the individual image data to the transmission data switching unit 111. In the present embodiment, the image cutout unit 310, when the recording / distribution device 300 as its own device is a master device, does not correspond to the image identification information given from the metadata generation unit 307. Are not output to the transmission data switching unit 111. Here, every time image data is given from the image encoding unit 109, the image cutout unit 310 calculates a count value counted up from a predetermined initial value, and uses this count value as image identification information. Good.

重要度抽出部316は、メタデータ抽出部115から与えられた個別メタデータより重要度の値及び固有識別子を抽出し、これらの重要度の値及び固有識別子をグループ化抽出部324に与える。
そして、重要度抽出部316は、グループ化抽出部324より、グループ化抽出部324により抽出された固有識別子の通知を受けると、通知された固有識別子と、この固有識別子に対応する個別画像データの重要度の値を重要度比較部318に与える。
The importance level extraction unit 316 extracts the importance level value and the unique identifier from the individual metadata provided from the metadata extraction unit 115, and provides the importance level value and the unique identifier to the grouping extraction unit 324.
Upon receiving notification of the unique identifier extracted by the grouping extraction unit 324 from the grouping extraction unit 324, the importance level extraction unit 316 receives the notified unique identifier and the individual image data corresponding to this unique identifier. The importance value is given to the importance comparison unit 318.

タイマー部323は、予め定められた時間をカウントする。そして、タイマー部323は、予め定められた時間がカウントされた場合には、予め定められた時間がカウントされたことをグループ化抽出部324に通知する。   The timer unit 323 counts a predetermined time. When the predetermined time is counted, the timer unit 323 notifies the grouping extraction unit 324 that the predetermined time has been counted.

グループ化抽出部324は、タイマー部323からの通知間隔毎に、重要度算出部308から与えられた重要度の値が複数ある場合には、これらの中で最も値の大きい重要度に対応する画像識別情報をメタデータ生成部307に通知する。なお、グループ化抽出部324は、タイマー部323からの通知間隔内において、重要度算出部308から与えられた重要度の値が1つである場合には、この重要度の値に対応する画像識別情報をメタデータ生成部307に通知する。
また、グループ化抽出部324は、タイマー部323からの通知間隔毎に、重要度抽出部316から、同じスレーブ装置で生成された個別画像データの重要度の値が複数与えられた場合には、これらの中で最も値の大きい重要度に対応する固有識別子を重要度抽出部316に通知する。なお、グループ化抽出部324は、タイマー部323からの通知間隔内において、重要度抽出部316から、同じスレーブ装置で生成された個別画像データの重要度の値が1つ与えられた場合には、この重要度の値に対応する固有識別子を重要度抽出部316に通知する。
When there are a plurality of importance values given from the importance calculation unit 308 for each notification interval from the timer unit 323, the grouping extraction unit 324 corresponds to the importance having the largest value among them. The image generation information is notified to the metadata generation unit 307. The grouping extraction unit 324, when there is only one importance value given from the importance calculation unit 308 within the notification interval from the timer unit 323, images corresponding to the importance value. The identification information is notified to the metadata generation unit 307.
In addition, the grouping extraction unit 324 receives a plurality of importance values of individual image data generated by the same slave device from the importance extraction unit 316 for each notification interval from the timer unit 323. The unique identifier corresponding to the importance having the largest value is notified to the importance extracting unit 316. It should be noted that the grouping extraction unit 324 receives one importance value of the individual image data generated by the same slave device from the importance extraction unit 316 within the notification interval from the timer unit 323. Then, the uniqueness identifier corresponding to the importance value is notified to the importance extraction unit 316.

重要度比較部318は、重要度算出部308及び重要度抽出部316から与えられた重要度の値を比較して、各個別画像データの画像を1つの画像データに合成する際の、各個別画像データのサイズ及び配置位置を特定する。そして、重要度比較部318は、画像識別情報又は固有識別子で識別される、各個別画像データのサイズをスケーリング部319に与え、画像識別情報又は固有識別子で識別される、各個別画像データの配置位置をデータ合成部320に与える。   The importance level comparison unit 318 compares the importance values given from the importance level calculation unit 308 and the importance level extraction unit 316, and combines each individual image data image into one image data. The size and arrangement position of the image data are specified. Then, the importance level comparing unit 318 gives the size of each individual image data identified by the image identification information or the unique identifier to the scaling unit 319, and the arrangement of each individual image data identified by the image identification information or the unique identifier. The position is given to the data composition unit 320.

スケーリング部319は、重要度比較部318から受け取った、画像識別情報又は固有識別子で識別される、各個別画像データのサイズに合わせて、送信データ切替部111及び画像データ抽出部117から与えられた個別画像データのサイズを変更する。そして、スケーリング部319は、サイズ変更後の個別画像データをデータ合成部320に与える。なお、スケーリング部319は、重要度比較部118から与えられた固有識別子に対応しない個別画像データについては、破棄し、データ合成部320には、出力しない。   The scaling unit 319 is supplied from the transmission data switching unit 111 and the image data extraction unit 117 according to the size of each individual image data identified by the image identification information or the unique identifier received from the importance comparison unit 318. Change the size of individual image data. Then, the scaling unit 319 gives the individual image data after the size change to the data composition unit 320. Note that the scaling unit 319 discards the individual image data that does not correspond to the unique identifier given from the importance comparison unit 118 and does not output it to the data composition unit 320.

データ合成部320は、自装置である記録配信装置300がスレーブ装置である場合には、実施の形態1におけるデータ合成部120と同様の処理を行う。
データ合成部320は、自装置である記録配信装置300がマスタ装置である場合には、重要度比較部318から受け取った、画像識別情報又は固有識別子で識別される各個別画像データの配置位置に合わせて、送信データ切替部111及びスケーリング部319から与えられた個別画像データを合成することで合成画像データを生成する。そして、データ合成部320は、メタデータ生成部307から与えられた部分メタデータ及び重要度の値と、管理情報生成部112から与えられた固有識別子のうち、重要度比較部318から受け取った画像識別子に対応するものと、メタデータ抽出部115から与えられた個別メタデータのうち、重要度比較部318から受け取った固有識別子に対応するものとを含む合成メタデータを生成する。そして、データ合成部320は、生成された合成画像データに合成メタデータを添付することで合成送信データを生成する。
そして、データ合成部320は、以上のようにして生成された合成送信データをデータ送信部121に与える。また、データ合成部120は、以上のようにして生成された合成送信データをデータ記録部113に記録させる。
Data synthesizing section 320 performs the same processing as data synthesizing section 120 in the first embodiment when recording / distributing apparatus 300 as its own apparatus is a slave apparatus.
When the recording / distributing device 300 as its own device is a master device, the data composition unit 320 receives the individual image data identified by the image identification information or the unique identifier received from the importance level comparison unit 318. In addition, the synthesized image data is generated by synthesizing the individual image data given from the transmission data switching unit 111 and the scaling unit 319. Then, the data composition unit 320 receives the image received from the importance comparison unit 318 among the partial metadata and the importance value given from the metadata generation unit 307 and the unique identifier given from the management information generation unit 112. Synthesizing metadata including the one corresponding to the identifier and the one corresponding to the unique identifier received from the importance comparison unit 318 among the individual metadata given from the metadata extraction unit 115 is generated. Then, the data composition unit 320 generates composite transmission data by attaching composite metadata to the generated composite image data.
Then, the data synthesis unit 320 provides the data transmission unit 121 with the synthesized transmission data generated as described above. In addition, the data synthesis unit 120 causes the data recording unit 113 to record the synthesized transmission data generated as described above.

次に、図17を用いて、実施の形態3に係る記録配信装置300でのグループ化抽出処理について説明する。図17は、実施の形態3に係る記録配信装置300が行うグループ化抽出処理を説明するための概略図である。図17において、第1カメラ、第2カメラ、第3カメラ及び第4カメラは、記録配信装置300により実現されている。また、図17において、横軸方向は時間軸であり、丸の記号は、各カメラの画像生成タイミングを示す。そして、縦の破線で区切られた区間が、タイマー部323で計時される一定の時間である。図17では、この一定の時間を1つのグループとし、説明のために、それぞれのグループは、グループAからグループFとして、区別されている。   Next, the grouping extraction process in the record delivery apparatus 300 according to Embodiment 3 will be described using FIG. FIG. 17 is a schematic diagram for explaining the grouping extraction process performed by the record delivery apparatus 300 according to the third embodiment. In FIG. 17, the first camera, the second camera, the third camera, and the fourth camera are realized by the recording / distributing device 300. In FIG. 17, the horizontal axis direction is the time axis, and the circle symbol indicates the image generation timing of each camera. A section divided by a vertical broken line is a fixed time measured by the timer unit 323. In FIG. 17, this certain time is defined as one group, and each group is distinguished from group A to group F for explanation.

図17に示されているように、一般的に監視用途では、カメラの設置場所によって、例えば、4秒に1枚の撮像であったり、1秒に1枚の撮像であったり、あるいは、1秒間に4枚の撮像である等、撮像の間隔が異なる設定で運用される場合がある。   As shown in FIG. 17, in general, in surveillance applications, for example, one image is captured every 4 seconds, one image is captured per second, or 1 There are cases where the operation is performed with different image capturing intervals, such as four images captured per second.

本実施の形態に係る記録配信装置300は、各グループ内で各カメラに対して最大1枚の画像を抽出する。1つグループの中に、あるカメラの画像が1枚だけである場合には、その画像が抽出され、1つグループの中に、あるカメラの画像が1枚もない場合には、画像は抽出されない。そして、1つグループの中に、あるカメラの画像が複数枚ある場合には、それら複数枚の画像の重要度の値を比較し、一番重要度の値の高いものが抽出される。   The record distribution apparatus 300 according to the present embodiment extracts a maximum of one image for each camera in each group. If there is only one camera image in a group, the image is extracted. If there is no camera image in a group, the image is extracted. Not. When there are a plurality of images from a certain camera in one group, the importance values of the plurality of images are compared, and the one with the highest importance value is extracted.

グループAの例では、第1カメラの画像は1枚だけであるため、この画像が第1カメラの画像として抽出される。第2カメラの画像も1枚だけであるため、この画像が第2カメラの画像として抽出される。第3カメラの画像は2枚あるため、これらの画像のうち、より重要度の値の高い方が第3カメラの画像として抽出される。第4カメラの画像は1枚だけであるため、この画像が第4カメラの画像として抽出される。このようにして抽出された画像が、グループAの時間における合成画像データとして合成される。   In the example of group A, since there is only one image of the first camera, this image is extracted as the image of the first camera. Since there is only one image of the second camera, this image is extracted as the image of the second camera. Since there are two images from the third camera, of these images, the one with the higher importance value is extracted as the image of the third camera. Since there is only one image from the fourth camera, this image is extracted as the image from the fourth camera. The images extracted in this way are combined as combined image data at the time of group A.

本実施の形態におけるグループ化のための一定の時間は、記録配信装置300の設置される環境や監視対象によって予め設定されればよい。例えば、河川の状態等を監視するような場合には、一般的に単位時間当たりの重要度の値の変化は小さいため、グループ化のための一定の時間は、比較的長い時間、例えば、5秒等が設定されればよい。一方、人の動き等を監視するような場合には、この一定の時間は、比較的短い時間、例えば、0.5秒等が設定されればよい。グループ化のための一定の時間を小さくするほど、合成画像データに含まれている複数の画像データの相関度は高くなるが、送出されるデータ量は増加する。   The fixed time for grouping in the present embodiment may be set in advance according to the environment where the recording / distributing apparatus 300 is installed and the monitoring target. For example, when monitoring the state of a river, etc., since the change in importance value per unit time is generally small, the fixed time for grouping is a relatively long time, for example, 5 Seconds etc. may be set. On the other hand, when monitoring the movement of a person or the like, the fixed time may be set to a relatively short time, for example, 0.5 seconds. As the fixed time for grouping is reduced, the degree of correlation between a plurality of image data included in the composite image data increases, but the amount of data to be transmitted increases.

以上のように、実施の形態3に係る記録配信装置300によれば、一定時間間隔において最も重要な画像が抽出されて合成され、この一定時間間隔における重要画像を1枚の画像で確認できるため、ネットワークに送信するデータ量を効率的に削減することができる。   As described above, according to the recording / distributing apparatus 300 according to the third embodiment, the most important images are extracted and combined at a certain time interval, and the important images at the certain time interval can be confirmed with one image. The amount of data transmitted to the network can be efficiently reduced.

以上に記載された実施の形態3での処理を、実施の形態2に追加することも可能である。   The processing in the third embodiment described above can be added to the second embodiment.

実施の形態4.
次に、実施の形態4について説明する。
図18は、実施の形態4に係る記録配信装置400の構成を概略的に示すブロック図である。記録配信装置400は、画像撮像部101と、画像解析部102と、外部情報入力部103と、外部情報解析部104と、音声入力部105と、音声解析部106と、メタデータ生成部407と、重要度算出部108と、画像符号化部109と、画像切出部110と、送信データ切替部111と、管理情報生成部112と、データ記録部413と、データ受信部114と、メタデータ抽出部415と、重要度抽出部116と、画像データ抽出部417と、重要度比較部118と、スケーリング部419と、データ合成部420と、データ送信部121と、記録状態監視部425と、記録状態検知部426と、記録データ切替部427とを備える。実施の形態4に係る記録配信装置400は、メタデータ生成部407、メタデータ抽出部415、画像データ抽出部417、スケーリング部419及びデータ合成部420での処理の点、データ記録部413に記録されているデータの点、並びに、記録状態監視部425、記録状態検知部426及び記録データ切替部427が備えられている点において、実施の形態1に係る記録配信装置100と異なっている。
Embodiment 4 FIG.
Next, a fourth embodiment will be described.
FIG. 18 is a block diagram schematically showing the configuration of the record delivery apparatus 400 according to the fourth embodiment. The recording / distributing device 400 includes an image capturing unit 101, an image analysis unit 102, an external information input unit 103, an external information analysis unit 104, an audio input unit 105, an audio analysis unit 106, and a metadata generation unit 407. The importance calculation unit 108, the image encoding unit 109, the image cropping unit 110, the transmission data switching unit 111, the management information generating unit 112, the data recording unit 413, the data receiving unit 114, and the metadata. An extraction unit 415, an importance level extraction unit 116, an image data extraction unit 417, an importance level comparison unit 118, a scaling unit 419, a data synthesis unit 420, a data transmission unit 121, a recording state monitoring unit 425, A recording state detection unit 426 and a recording data switching unit 427 are provided. The recording / distributing device 400 according to the fourth embodiment records the data generation unit 407, the metadata extraction unit 415, the image data extraction unit 417, the scaling unit 419, and the data synthesis unit 420 in terms of processing, and the data recording unit 413. And the point that the recording state monitoring unit 425, the recording state detecting unit 426, and the recording data switching unit 427 are provided, is different from the recording / distributing device 100 according to the first embodiment.

記録状態監視部425は、データ記録部413で正常に記録が行われているか否かを監視する。例えば、データ記録部413は、ハードディスク又はフラッシュメモリ等の記憶媒体により実現されているが、一般的に、これら記憶媒体は、書き込み回数に応じた寿命、又は、部分的な故障等により、書き込みができなくなる場合がある。そして、記録状態監視部425は、何らかの理由により、データ記録部413で正常に記録されていないことを検知した場合、例えば、記録エラーを検知した場合等には、正常に記録が行われていないことをメタデータ生成部407に通知する。   The recording state monitoring unit 425 monitors whether or not the data recording unit 413 is normally recording. For example, the data recording unit 413 is realized by a storage medium such as a hard disk or a flash memory. In general, the storage medium can be written due to a life corresponding to the number of times of writing or a partial failure. It may not be possible. When the recording state monitoring unit 425 detects that the data recording unit 413 is not normally recorded for some reason, for example, when a recording error is detected, the recording is not normally performed. This is notified to the metadata generation unit 407.

メタデータ生成部407は、画像解析部102、外部情報解析部104及び音声解析部106から与えられた解析結果データに基づいて、これらの解析部で解析された解析結果を含む部分メタデータを生成し、この部分メタデータを重要度算出部108に与える。また、メタデータ生成部407は、記録状態監視部425からの通知に基づいて、記録が正常に行われているか否かを示すフラグ情報を生成する。例えば、メタデータ生成部407は、記録状態監視部425から正常に記録が行われていないことが通知された場合には、記録が正常に行われていないことを示すフラグ情報を生成し、記録状態監視部425から正常に記録が行われていないことが通知されていない場合には、記録が正常に行われていることを示すフラグ情報を生成する。そして、メタデータ生成部407は、部分メタデータに基づいて重要度算出部108で算出された重要度の値が与えられると、この重要度の値と、この部分メタデータと、フラグ情報とをデータ合成部420に与える。
また、メタデータ生成部407は、画像解析部102から受け取った画像解析データを画像切出部110に与える。
The metadata generation unit 407 generates partial metadata including the analysis results analyzed by these analysis units based on the analysis result data given from the image analysis unit 102, the external information analysis unit 104, and the voice analysis unit 106. Then, this partial metadata is given to the importance calculation unit 108. Also, the metadata generation unit 407 generates flag information indicating whether or not recording is normally performed based on the notification from the recording state monitoring unit 425. For example, when the recording state monitoring unit 425 notifies that the recording is not performed normally, the metadata generation unit 407 generates flag information indicating that the recording is not performed normally, If the state monitoring unit 425 does not notify that the recording is not normally performed, flag information indicating that the recording is normally performed is generated. Then, when the importance value calculated by the importance calculation unit 108 is given based on the partial metadata, the metadata generation unit 407 obtains the importance value, the partial metadata, and the flag information. This is given to the data synthesis unit 420.
Also, the metadata generation unit 407 gives the image analysis data received from the image analysis unit 102 to the image cutout unit 110.

メタデータ抽出部415は、データ受信部114で受信された個別送信データから個別メタデータを抽出し、この個別メタデータを重要度抽出部116、データ合成部420及び記録状態検知部426に与える。   The metadata extraction unit 415 extracts individual metadata from the individual transmission data received by the data reception unit 114, and provides the individual metadata to the importance level extraction unit 116, the data synthesis unit 420, and the recording state detection unit 426.

画像データ抽出部417は、データ受信部114で受信された個別送信データから個別画像データを抽出し、この個別画像データを記録データ切替部427に与える。   The image data extraction unit 417 extracts individual image data from the individual transmission data received by the data reception unit 114, and provides the individual image data to the recording data switching unit 427.

記録状態検知部426は、メタデータ抽出部415から与えられた個別メタデータに含まれているフラグ情報を確認し、このフラグ情報が、記録が正常に行われていないことを示す場合には、この個別メタデータを記録データ切替部427に与え、データ記録部413に個別画像データとともに記録する指示を出す。   The recording state detection unit 426 confirms the flag information included in the individual metadata given from the metadata extraction unit 415, and when the flag information indicates that the recording is not normally performed, The individual metadata is given to the recording data switching unit 427, and an instruction to record with the individual image data is issued to the data recording unit 413.

記録データ切替部427は、画像データ抽出部417から受け取った個別画像データをスケーリング部419に与える。また、記録データ切替部427は、記録状態検知部426からの記録指示に応じて、記録状態検知部426から受け取った個別メタデータに対応する個別画像データを、この個別メタデータとともに、データ記録部413に送る。   The recording data switching unit 427 gives the individual image data received from the image data extraction unit 417 to the scaling unit 419. In addition, the recording data switching unit 427 displays individual image data corresponding to the individual metadata received from the recording state detection unit 426 together with the individual metadata in accordance with a recording instruction from the recording state detection unit 426. To 413.

データ記録部413は、データを記録する。例えば、データ記録部413は、管理情報生成部112から与えられた画像データ及び固有識別子を対応付けて記録する。また、データ記録部413は、メタデータ生成部407から部分メタデータが与えられると、当該部分メタデータを対応する画像データに対応付けて記録する。さらに、データ記録部413は、自装置である記録配信装置400がマスタ装置である場合には、データ合成部420から与えられた合成送信データを記録する。また、データ記録部413は、記録データ切替部427から受け取った個別画像データ及び個別メタデータを記録する。   The data recording unit 413 records data. For example, the data recording unit 413 records the image data and the unique identifier given from the management information generating unit 112 in association with each other. Further, when the partial metadata is given from the metadata generation unit 407, the data recording unit 413 records the partial metadata in association with the corresponding image data. Further, the data recording unit 413 records the combined transmission data given from the data combining unit 420 when the recording / distributing device 400 that is the own device is the master device. The data recording unit 413 records the individual image data and the individual metadata received from the recording data switching unit 427.

スケーリング部419は、重要度比較部118から受け取った、各個別画像データのサイズに合わせて、送信データ切替部111及び記録データ切替部427から与えられた個別画像データのサイズを変更する。そして、スケーリング部419は、サイズ変更後の個別画像データをデータ合成部420に与える。   The scaling unit 419 changes the size of the individual image data provided from the transmission data switching unit 111 and the recording data switching unit 427 in accordance with the size of each individual image data received from the importance comparison unit 118. Then, the scaling unit 419 gives the individual image data after the size change to the data composition unit 420.

データ合成部420は、画像データにメタデータを添付することにより送信データを生成し、この送信データをデータ送信部121に与える。
例えば、データ合成部420は、自装置である記録配信装置400がスレーブ装置である場合には、メタデータ生成部407から与えられた部分メタデータ、重要度の値及びフラグ情報と、管理情報生成部112から与えられた固有識別子とを含む個別メタデータを生成し、この個別メタデータを、送信データ切替部111から与えられた個別画像データに添付することで個別送信データを生成する。
一方、データ合成部420は、自装置である記録配信装置400がマスタ装置である場合には、スケーリング部419から与えられたサイズ変更後の個別画像データを、重要度比較部118から受け取った各個別画像データの配置位置に配置することで合成画像データを生成する。そして、データ合成部420は、自装置である記録配信装置400がマスタ装置である場合には、メタデータ生成部407から与えられた部分メタデータ、重要度の値及びフラグ情報と、管理情報生成部112から与えられた固有識別子と、メタデータ抽出部415から与えられた個別メタデータとを含む合成メタデータを生成する。そして、データ合成部120は、生成された合成画像データに合成メタデータを添付することで合成送信データを生成する。
そして、データ合成部420は、以上のようにして生成された個別送信データ又は合成送信データをデータ送信部121に与える。また、データ合成部420は、以上のようにして生成された合成送信データをデータ記録部413に記録させる。
The data composition unit 420 generates transmission data by attaching metadata to image data, and provides the transmission data to the data transmission unit 121.
For example, when the recording / distributing device 400 that is the own device is a slave device, the data composition unit 420 generates partial metadata, importance value and flag information, and management information generated from the metadata generation unit 407. The individual metadata including the unique identifier given from the unit 112 is generated, and the individual metadata is generated by attaching the individual metadata to the individual image data given from the transmission data switching unit 111.
On the other hand, the data composition unit 420 receives the individual image data after the size change given from the scaling unit 419 from the importance comparison unit 118 when the recording / distribution device 400 which is its own device is a master device. The composite image data is generated by arranging the individual image data at the arrangement position. Then, when the recording / distributing device 400 that is the own device is the master device, the data composition unit 420 generates partial metadata, importance value and flag information, and management information generated from the metadata generation unit 407. The composite metadata including the unique identifier given from the unit 112 and the individual metadata given from the metadata extraction unit 415 is generated. Then, the data composition unit 120 generates composite transmission data by attaching composite metadata to the generated composite image data.
Then, the data synthesis unit 420 provides the data transmission unit 121 with the individual transmission data or the synthesized transmission data generated as described above. In addition, the data synthesis unit 420 causes the data recording unit 413 to record the synthesized transmission data generated as described above.

図19は、実施の形態4におけるデータ合成部420が生成する個別送信データIID4のデータ構造を示す概略図である。
個別送信データIID4は、個別画像データIID41と、固有識別子IID42と、記録状態情報IID43と、重要度IID44と、項目個数IID45と、項目番号IID46と、解析結果データサイズIID47と、解析結果IID48とを有する。ここで、個別送信データIID4の個別画像データIID41、固有識別子IID42、重要度IID44、項目個数IID45、項目番号IID46、解析結果データサイズIID47及び解析結果IID48は、図9に示されている個別送信データIID1の個別画像データIID11、固有識別子IID12、重要度IID13、項目個数IID14、項目番号IID15、解析結果データサイズIID16及び解析結果IID17と、それぞれ同様である。
記録状態情報IID43は、メタデータ生成部407から送られてくるフラグ情報である。この記録状態情報IID43を参照することにより、マスタ装置は、スレーブ装置の記録状態を検知することができる。
FIG. 19 is a schematic diagram showing a data structure of individual transmission data IID4 generated by data synthesizer 420 in the fourth embodiment.
The individual transmission data IID4 includes individual image data IID41, unique identifier IID42, recording state information IID43, importance IID44, item number IID45, item number IID46, analysis result data size IID47, and analysis result IID48. Have. Here, the individual image data IID41, the unique identifier IID42, the importance IID44, the item number IID45, the item number IID46, the analysis result data size IID47, and the analysis result IID48 of the individual transmission data IID4 are the individual transmission data shown in FIG. The same applies to individual image data IID11, unique identifier IID12, importance IID13, item number IID14, item number IID15, analysis result data size IID16, and analysis result IID17.
The recording state information IID 43 is flag information sent from the metadata generation unit 407. By referring to the recording state information IID43, the master device can detect the recording state of the slave device.

図20は、実施の形態4におけるデータ合成部420が生成する合成送信データSID4のデータ構造を示す概略図である。
合成送信データSID4は、合成画像データSID41と、最大カメラ数SID42と、各画像有無情報SID43と、各記録状態情報SID44と、カメラ番号SID45と、スケーリングエリアSID46と、固有識別子SID47と、重要度SID48と、項目個数SID49と、項目番号SID50と、解析結果データサイズSID51と、解析結果SID52とを有する。ここで、合成送信データSID4の合成画像データSID41、最大カメラ数SID42、各画像有無情報SID43、カメラ番号SID45、スケーリングエリアSID46、固有識別子SID47、重要度SID48、項目個数SID49、項目番号SID50、解析結果データサイズSID51及び解析結果SID52は、図10に示されているSID1の合成画像データSID11、最大カメラ数SID12、各画像有無情報SID13、カメラ番号SID14、スケーリングエリアSID15、固有識別子SID16、重要度SID17、項目個数SID18、項目番号SID19、解析結果データサイズSID20及び解析結果SID21と、それぞれ同様である。
各記録状態情報SID44は、カメラ(記録配信装置400)毎に、記録が正常に行われているか否かを示す情報である。例えば、各記録状態情報SID44は、ビットパターンの情報で明示される。例えば、図2及び3に示されている例において、4つのカメラ151〜154のうち、第1カメラ151、第2カメラ152及び第4カメラ154では、記録が正常に行われており、第3カメラ153では、記録が正常に行われていない場合には、各記録状態情報SID44は、「0001」と示される。
FIG. 20 is a schematic diagram illustrating a data structure of the combined transmission data SID4 generated by the data combining unit 420 according to the fourth embodiment.
The composite transmission data SID4 includes composite image data SID41, maximum camera number SID42, each image presence / absence information SID43, each recording state information SID44, camera number SID45, scaling area SID46, unique identifier SID47, and importance SID48. , Item number SID49, item number SID50, analysis result data size SID51, and analysis result SID52. Here, composite image data SID41 of composite transmission data SID4, maximum camera number SID42, each image presence / absence information SID43, camera number SID45, scaling area SID46, unique identifier SID47, importance SID48, item number SID49, item number SID50, analysis result The data size SID51 and the analysis result SID52 are the composite image data SID11 of SID1 shown in FIG. 10, the maximum camera number SID12, each image presence / absence information SID13, the camera number SID14, the scaling area SID15, the unique identifier SID16, the importance SID17, This is the same as the item number SID18, item number SID19, analysis result data size SID20, and analysis result SID21.
Each recording state information SID44 is information indicating whether or not recording is normally performed for each camera (recording / distributing apparatus 400). For example, each recording state information SID44 is clearly indicated by bit pattern information. For example, in the example shown in FIGS. 2 and 3, the first camera 151, the second camera 152, and the fourth camera 154 out of the four cameras 151 to 154 are normally recording, and the third camera In the camera 153, when the recording is not normally performed, each recording state information SID44 is indicated as “0001”.

なお、個別送信データIID4及び合成送信データSID4のデータ構造は、図19及び図20にそれぞれ示されているデータ構造に限定されるものではない。図19及び図20に示されている情報が含まれていればよい。従って、本発明の効果に影響のないその他の情報、例えば、メーカー情報等が含まれていてもよい。   Note that the data structures of the individual transmission data IID4 and the combined transmission data SID4 are not limited to the data structures shown in FIGS. 19 and 20, respectively. The information shown in FIGS. 19 and 20 only needs to be included. Therefore, other information that does not affect the effect of the present invention, such as manufacturer information, may be included.

以上のように、実施の形態4に係る記録配信装置400によれば、LAN接続された複数の記録配信装置400の何れかにおいて、画像データを記録できなくなる不具合が発生した場合に、別の記録配信装置400で、不具合の生じた記録配信装置400で撮像された個別画像データを記録することができ、記録媒体の不具合により記録ができない問題を改善することができる。   As described above, according to the recording / distributing apparatus 400 according to the fourth embodiment, when a problem occurs in which image data cannot be recorded in any of the plurality of recording / distributing apparatuses 400 connected via LAN, The distribution device 400 can record the individual image data captured by the recording / distribution device 400 in which a problem has occurred, and can improve the problem that recording cannot be performed due to a problem in the recording medium.

なお、以上に記載された実施の形態4での処理を、実施の形態2又は3に追加することも可能である。   Note that the processing in the fourth embodiment described above can be added to the second or third embodiment.

以上に記載された実施の形態1〜4では、記録配信装置100〜400は、自装置がスレーブ装置である場合に、自装置で撮像された画像の個別画像データに対して、重要度を算出して、この重要度を個別送信データに含めて、マスタ装置に送信している。この点、例えば、記録配信装置100〜400は、自装置がスレーブ装置である場合には、重要度を算出せず、重要度を算出するために必要な部分メタデータを個別送信データに含めて、マスタ装置に送信するようにしてもよい。このような場合には、マスタ装置である記録配信装置100〜400では、メタデータ抽出部115、415が、抽出された個別メタデータを重要度算出部108、208、308に与えて、重要度算出部108、208、308が、個別メタデータに含まれている部分メタデータに基づいて、スレーブ装置の個別画像データの優先度を算出するようにすればよい。   In the first to fourth embodiments described above, the record distribution devices 100 to 400 calculate the importance for individual image data of an image captured by the own device when the own device is a slave device. Then, this importance is included in the individual transmission data and transmitted to the master device. In this regard, for example, if the recording / distributing device 100 to 400 is a slave device, the recording / distributing device 100-400 does not calculate the importance and includes partial metadata necessary for calculating the importance in the individual transmission data. Alternatively, it may be transmitted to the master device. In such a case, in the record distribution devices 100 to 400 that are the master devices, the metadata extraction units 115 and 415 give the extracted individual metadata to the importance level calculation units 108, 208, and 308, and the importance level The calculation units 108, 208, and 308 may calculate the priority of the individual image data of the slave device based on the partial metadata included in the individual metadata.

また、以上に記載された実施の形態1〜4では、記録配信装置100〜400は、自装置がマスタ装置である場合に、個別画像データのスケーリングを行っているが、自装置がスレーブ装置である場合にも、重要度に対応したサイズに、個別画像データのスケーリングを行ってもよい。このような場合には、マスタ装置で、スレーブ装置から送られてきた個別画像データをスケーリングしなくてもよい。そして、スレーブ装置が、個別画像データをダウンサイズして送信することで、LANにおける使用帯域も節約することができる。   In the first to fourth embodiments described above, the record distribution devices 100 to 400 scale the individual image data when the own device is the master device, but the own device is a slave device. In some cases, the individual image data may be scaled to a size corresponding to the importance. In such a case, the master device does not have to scale the individual image data sent from the slave device. Then, the slave device can reduce the size of the individual image data and transmit it, thereby saving the bandwidth used in the LAN.

また、例えば、特許文献1に記載された技術では、複数のIPカメラで同時に動きが検出された場合には、動きが検出された画像のうち、関連する画像のみを連続してモニタに表示することができなくなるが、実施の形態1〜4に係る記録配信装置100〜400によれば、動きが検出された画像が合成されて1つの画像として表示されるため、複数の記録配信装置100〜400で撮像された画像に、同時に動きが検出された場合であっても、効率的に監視を行うことができる。   Further, for example, in the technique described in Patent Document 1, when motion is detected simultaneously by a plurality of IP cameras, only related images among images in which motion is detected are continuously displayed on the monitor. However, according to the recording / distributing devices 100 to 400 according to the first to fourth embodiments, since the images in which the motion is detected are combined and displayed as one image, a plurality of recording / distributing devices 100 to 400 are used. Even if a motion is detected in the image captured at 400 at the same time, monitoring can be performed efficiently.

さらに、特許文献1に記載された技術では、動きが検出された画像が1枚ずつモニタに表示されるため、重要な画像が複数のIPカメラにまたがって撮像された場合に、それらの画像を関連付けて管理し、同時に視聴することができず、重要な映像を見逃すといった問題があった。しかしながら、実施の形態1〜4に係る記録配信装置100〜400では、重要な映像が合成されて同時に視聴することができるため、このような問題が生じない。   Furthermore, in the technique described in Patent Document 1, since the images in which the motion is detected are displayed on the monitor one by one, when important images are captured across a plurality of IP cameras, those images are displayed. There was a problem in that it was impossible to watch and view important images because they could not be related and managed at the same time. However, in the recording / distributing apparatuses 100 to 400 according to the first to fourth embodiments, since important videos can be synthesized and viewed simultaneously, such a problem does not occur.

さらにまた、特許文献1に記載された技術では、動きを検知するモーションディテクト機能を用いて画像の切り替えを行うため、動きがあった場合にしか画像が送信されない。このため、例えば、立ち止まった人や、置き去りにされた物等動きのない画像はデータとして送信されることがなく、視聴することも記録することもできないという問題があった。しかしながら、実施の形態1〜4に係る記録配信装置100〜400では、動きが検出された場合だけでなく、例えば、センサ入力があった場合、顔が検出された場合、音声入力があった場合等、複数の項目から重要度を判定しているため、このような問題が生じない。   Furthermore, in the technique described in Patent Document 1, since an image is switched using a motion detection function that detects motion, an image is transmitted only when there is motion. For this reason, for example, there is a problem that an image that does not move, such as a person who has stopped or an object left behind, is not transmitted as data, and cannot be viewed or recorded. However, in the record delivery apparatuses 100 to 400 according to the first to fourth embodiments, not only when motion is detected, but for example, when there is a sensor input, when a face is detected, or when there is a voice input Such a problem does not occur because the importance is determined from a plurality of items.

加えて、送信されてきた画像データを1枚の画像として表示する従来技術では、一度に多量の画像データが送られてきた場合には、画像を順次1枚の画像として表示するために、モニタ側の装置に高い処理能力が必要であった。これに対して、実施の形態1〜4に係る記録配信装置100〜400では、送信側で画像が合成されるため、受信側の装置は高い処理能力を必要としない。   In addition, in the conventional technique for displaying transmitted image data as a single image, when a large amount of image data is sent at a time, the monitor displays the images sequentially as a single image. The equipment on the side needed high throughput. On the other hand, in the record delivery apparatuses 100 to 400 according to the first to fourth embodiments, since images are synthesized on the transmission side, the reception side apparatus does not need high processing capability.

100,200,300,400:記録配信装置、 101:画像撮像部、 102:画像解析部、 103:外部情報入力部、 104:外部情報解析部、 105:音声入力部、 106:音声解析部、 107,307,407:メタデータ生成部、 108,208,308:重要度算出部、 109:画像符号化部、 110,310:画像切出部、 111,211:送信データ切替部、 112:管理情報生成部、 113,413:データ記録部、 114:データ受信部、 115,415:メタデータ抽出部、 116,316:重要度抽出部、 117,417:画像データ抽出部、 118,218,318:重要度比較部、 119,319,419:スケーリング部、 120,320,420:データ合成部、 121:データ送信部、 222:閾値比較部、 323:タイマー部、 324:グループ化抽出部、 425:記録状態監視部、 426:記録状態検知部、 427:記録データ切替部。   100: 200, 300, 400: Record distribution device 101: Image capturing unit 102: Image analysis unit 103: External information input unit 104: External information analysis unit 105: Audio input unit 106: Audio analysis unit 107, 307, 407: Metadata generation unit, 108, 208, 308: Importance calculation unit, 109: Image encoding unit, 110, 310: Image extraction unit, 111, 211: Transmission data switching unit, 112: Management Information generation unit 113, 413: Data recording unit 114: Data reception unit 115, 415: Metadata extraction unit 116, 316: Importance extraction unit 117, 417: Image data extraction unit 118, 218, 318 : Importance comparison unit, 119, 319, 419: scaling unit, 120, 320, 420: data synthesis unit, 121: data Data transmission unit, 222: threshold comparator, 323: timer unit, 324: grouping extractor, 425: recording state monitoring unit, 426: recording state detection unit, 427: recording data switching unit.

Claims (19)

画像を撮像する画像撮像部と、
前記画像撮像部で撮像された画像の画像データを生成する画像符号化部と、
第1ネットワークから、画像データを含む個別送信データを受信するデータ受信部と、
前記個別送信データから画像データを抽出する画像データ抽出部と、
前記生成された画像データ及び前記抽出された画像データから選択された画像データより1つの画像データを生成し、当該1つの画像データを含む合成送信データを生成するデータ合成部と、
前記合成送信データを、第2ネットワークに送信するデータ送信部と、を備えること
を特徴とする記録配信装置。
An image capturing unit for capturing an image;
An image encoding unit that generates image data of an image captured by the image capturing unit;
A data receiving unit for receiving individual transmission data including image data from the first network;
An image data extraction unit for extracting image data from the individual transmission data;
A data composition unit for generating one image data from the generated image data and image data selected from the extracted image data, and generating composite transmission data including the one image data;
And a data transmission unit that transmits the combined transmission data to the second network.
前記生成された画像データ及び前記抽出された画像データから選択された画像データのサイズを変更するスケーリング部をさらに備え、
前記データ合成部は、前記スケーリング部でサイズ変更済みの画像データから1つの画像データを生成すること
を特徴とする請求項1に記載の記録配信装置。
A scaling unit that changes a size of the generated image data and image data selected from the extracted image data;
The record distribution device according to claim 1, wherein the data composition unit generates one image data from the image data whose size has been changed by the scaling unit.
前記生成された画像データの部分メタデータを生成するメタデータ生成部と、
前記個別送信データから個別メタデータを抽出するメタデータ抽出部と、をさらに備え、
前記データ合成部は、前記1つの画像データに、前記選択された画像データに対応する部分メタデータ及び個別メタデータの少なくとも何れか1つを合成することで、合成送信データを生成すること
を特徴とする請求項2に記載の記録配信装置。
A metadata generation unit that generates partial metadata of the generated image data;
A metadata extraction unit that extracts individual metadata from the individual transmission data; and
The data synthesizing unit generates synthesized transmission data by synthesizing at least one of partial metadata corresponding to the selected image data and individual metadata with the one image data. The record distribution device according to claim 2.
前記部分メタデータに基づいて、前記生成された画像データの重要度を算出する重要度算出部と、
前記個別メタデータから重要度を抽出する重要度抽出部と、
前記算出された重要度及び前記抽出された重要度から、前記選択された画像データのサイズ及び配置位置を特定する重要度比較部と、をさらに備え、
前記スケーリング部は、前記選択された画像データを、前記特定されたサイズに変更し、
前記データ合成部は、前記サイズ変更済みの画像データを、前記特定された配置位置に配置することで、前記1つの画像データを生成すること
を特徴とする請求項3に記載の記録配信装置。
An importance calculator for calculating the importance of the generated image data based on the partial metadata;
An importance extraction unit for extracting the importance from the individual metadata;
An importance comparison unit that identifies the size and arrangement position of the selected image data from the calculated importance and the extracted importance; and
The scaling unit changes the selected image data to the specified size,
The record distribution device according to claim 3, wherein the data composition unit generates the one image data by arranging the resized image data at the specified arrangement position.
監視対象の状態を複数の項目で解析する状態解析部をさらに備え、
前記メタデータ生成部は、前記状態解析部での解析結果を前記部分メタデータに含め、
前記重要度算出部は、前記解析結果から、前記重要度を算出すること
を特徴とする請求項4に記載の記録配信装置。
It further includes a status analysis unit that analyzes the status of the monitoring target with multiple items,
The metadata generation unit includes the analysis result in the state analysis unit in the partial metadata,
The record distribution apparatus according to claim 4, wherein the importance calculation unit calculates the importance from the analysis result.
前記状態解析部は、前記撮像された画像に重要な部分が含まれているか否かを解析する画像解析部、外部の装置から外部信号が入力されたか否かを解析する外部情報解析部、及び、入力された音声の音量レベルを解析する音声解析部の少なくとも何れか1つを含むこと
を特徴とする請求項5に記載の記録配信装置。
The state analysis unit is an image analysis unit that analyzes whether the captured image includes an important part, an external information analysis unit that analyzes whether an external signal is input from an external device, and The recording / distributing apparatus according to claim 5, further comprising at least one of a voice analysis unit that analyzes a volume level of the input voice.
前記撮像された画像に重要な部分が含まれているか否かを解析する画像解析部と、
前記生成された画像データから、前記重要な部分を切り出す画像切出部と、をさらに備え、
前記スケーリング部は、前記切出し済みの画像データ及び前記抽出された画像データから選択された画像データのサイズを変更すること、
を特徴とする請求項2から4の何れか一項に記載の記録配信装置。
An image analysis unit that analyzes whether the captured image includes an important part; and
An image cutout unit that cuts out the important part from the generated image data,
The scaling unit is configured to change a size of image data selected from the extracted image data and the extracted image data;
The record distribution device according to any one of claims 2 to 4, wherein
前記スケーリング部は、前記生成された画像データ及び前記抽出された画像データの全てのサイズを変更すること
を特徴とする請求項2から7の何れか一項に記載の記録配信装置。
The record distribution device according to any one of claims 2 to 7, wherein the scaling unit changes all sizes of the generated image data and the extracted image data.
前記重要度が予め定められた閾値以上であるか否かを判断する閾値比較部をさらに備え、
前記スケーリング部は、前記閾値比較部で、前記重要度が予め定められた閾値以上であると判断された画像データのサイズを変更すること
を特徴とする請求項2から7の何れか一項に記載の記録配信装置。
A threshold comparison unit for determining whether the importance is equal to or higher than a predetermined threshold;
8. The scaling unit according to claim 2, wherein the scaling unit changes the size of the image data determined by the threshold value comparison unit to be equal to or more than a predetermined threshold value. 9. The record distribution apparatus according to the description.
予め定められた時間を計時するタイマー部と、
前記予め定められた時間において撮像された画像から生成された複数の画像データの中で最も重要度の高い画像データを特定するとともに、前記予め定められた時間において、同じ送信元から受信された複数の個別送信データから抽出された画像データの中で最も重要度の高い画像データを特定するグループ化抽出部と、をさらに備え、
前記スケーリング部は、前記グループ化抽出部で特定された画像データのサイズを変更すること
を特徴とする請求項2から7の何れか一項に記載の記録配信装置。
A timer section for measuring a predetermined time;
Among the plurality of image data generated from the image captured at the predetermined time, the image data having the highest importance is specified, and the plurality of data received from the same transmission source at the predetermined time A grouping extraction unit that identifies image data having the highest importance among the image data extracted from the individual transmission data of
The recording / distributing apparatus according to claim 2, wherein the scaling unit changes a size of the image data specified by the grouping extraction unit.
前記生成された画像データを一意に識別するための固有識別子を生成する管理情報生成部と、
前記生成された画像データを、前記固有識別子に対応付けて記録するデータ記録部と、をさらに備え、
前記データ合成部は、前記選択された画像データに前記生成された画像データが含まれる場合には、前記1つの画像データに、前記生成された画像データの固有識別子をさらに合成すること
を特徴とする請求項1から10の何れか一項に記載の記録配信装置。
A management information generator for generating a unique identifier for uniquely identifying the generated image data;
A data recording unit that records the generated image data in association with the unique identifier;
The data synthesis unit further synthesizes the unique identifier of the generated image data with the one image data when the generated image data is included in the selected image data. The record distribution device according to any one of claims 1 to 10.
前記個別送信データから、画像データが正しく記録されているか否かを示す記録状態情報を抽出し、当該記録状態情報に基づいて、前記個別送信データに含まれている画像データが正しく記録されているか否かを判断する記録状態検知部と、
前記記録状態検知部が、前記個別送信データに含まれている画像データが正しく記録されていないと判断した場合には、前記個別送信データに含まれている画像データを前記データ記憶部に記憶させる記録データ切替部と、をさらに備えること
を特徴とする請求項11に記載の記録配信装置。
Recording state information indicating whether or not image data is correctly recorded is extracted from the individual transmission data, and whether or not the image data included in the individual transmission data is correctly recorded based on the recording state information A recording state detection unit for determining whether or not,
When the recording state detection unit determines that the image data included in the individual transmission data is not correctly recorded, the image data included in the individual transmission data is stored in the data storage unit. The record distribution device according to claim 11, further comprising: a record data switching unit.
画像を撮像する撮像工程と、
前記撮像工程で撮像された画像の画像データを生成する画像符号化工程と、
第1ネットワークから、画像データを含む個別送信データを受信するデータ受信工程と、
前記個別送信データから画像データを抽出する画像データ抽出工程と、
前記生成された画像データ及び前記抽出された画像データから選択された画像データより1つの画像データを生成し、当該1つの画像データを含む合成送信データを生成するデータ合成工程と、
前記合成送信データを、第2ネットワークに送信するデータ送信工程と、を有すること
を特徴とする記録配信方法。
An imaging process for capturing an image;
An image encoding step for generating image data of the image captured in the imaging step;
A data receiving step of receiving individual transmission data including image data from the first network;
An image data extraction step of extracting image data from the individual transmission data;
A data synthesizing step for generating one image data from the generated image data and image data selected from the extracted image data, and generating combined transmission data including the one image data;
A data transmission step of transmitting the combined transmission data to the second network.
前記生成された画像データ及び前記抽出された画像データから選択された画像データのサイズを変更するスケーリング工程をさらに有し、
前記データ合成工程では、前記スケーリング工程でサイズ変更済みの画像データから1つの画像データを生成すること
を特徴とする請求項13に記載の記録配信方法。
A scaling step of changing a size of image data selected from the generated image data and the extracted image data;
The recording / distributing method according to claim 13, wherein in the data synthesizing step, one image data is generated from the image data whose size has been changed in the scaling step.
前記生成された画像データの部分メタデータを生成するメタデータ生成工程と、
前記個別送信データから個別メタデータを抽出するメタデータ抽出工程と、をさらに有し、
前記データ合成工程では、前記1つの画像データに、前記選択された画像データに対応する部分メタデータ及び個別メタデータの少なくとも何れか1つを合成することで、合成送信データを生成すること
を特徴とする請求項14に記載の記録配信方法。
A metadata generation step of generating partial metadata of the generated image data;
A metadata extraction step of extracting individual metadata from the individual transmission data, and
In the data combining step, combined transmission data is generated by combining at least one of partial metadata and individual metadata corresponding to the selected image data with the one image data. The record distribution method according to claim 14.
前記部分メタデータに基づいて、前記生成された画像データの重要度を算出する重要度算出工程と、
前記個別メタデータから重要度を抽出する重要度抽出工程と、
前記算出された重要度及び前記抽出された重要度から、前記選択された画像データのサイズ及び配置位置を特定する重要度比較工程と、をさらに有し、
前記スケーリング工程では、前記選択された画像データを、前記特定されたサイズに変更し、
前記データ合成工程では、前記サイズ変更済みの画像データを、前記特定された配置位置に配置することで、前記1つの画像データを生成すること
を特徴とする請求項15に記載の記録配信方法。
An importance calculation step of calculating the importance of the generated image data based on the partial metadata;
An importance extraction step of extracting the importance from the individual metadata;
An importance comparison step for identifying the size and arrangement position of the selected image data from the calculated importance and the extracted importance; and
In the scaling step, the selected image data is changed to the specified size,
The recording / distributing method according to claim 15, wherein, in the data composition step, the one image data is generated by arranging the resized image data at the specified arrangement position.
監視対象の状態を複数の項目で解析する状態解析工程をさらに有し、
前記メタデータ生成工程では、前記状態解析工程での解析結果を前記部分メタデータに含め、
前記重要度算出工程では、前記解析結果から、前記重要度を算出すること
を特徴とする請求項16に記載の記録配信方法。
It further has a state analysis process for analyzing the state of the monitoring target with a plurality of items,
In the metadata generation step, the analysis result in the state analysis step is included in the partial metadata,
The record distribution method according to claim 16, wherein in the importance calculation step, the importance is calculated from the analysis result.
前記状態解析工程は、前記撮像された画像に重要な部分が含まれているか否かを解析する画像解析工程、外部の装置から外部信号が入力されたか否かを解析する外部情報解析工程、及び、入力された音声の音量レベルを解析する音声解析工程の少なくとも何れか1つを含むこと
を特徴とする請求項17に記載の記録配信方法。
The state analysis step includes an image analysis step for analyzing whether or not an important part is included in the captured image, an external information analysis step for analyzing whether an external signal is input from an external device, and The recording / distributing method according to claim 17, further comprising at least one of voice analysis steps of analyzing a volume level of input voice.
第1ネットワークを介してデータを送受信するスレーブ装置と、前記第1ネットワーク及び第2ネットワークを介してデータを送受信するマスタ装置と、前記第2ネットワークを介してデータを送受信する視聴装置と、を備える監視システムであって、
前記スレーブ装置は、
画像を撮像する画像撮像部と、
前記画像撮像部で撮像された画像の画像データを生成する画像符号化部と、
前記画像データを含む個別送信データを生成するデータ合成部と、
前記第1のネットワークを介して、前記個別送信データを、前記マスタ装置に送信するデータ送信部と、を備え、
前記マスタ装置は、
画像を撮像する画像撮像部と、
前記画像撮像部で撮像された画像の画像データを生成する画像符号化部と、
前記第1ネットワークを介して、前記個別送信データを受信するデータ受信部と、
前記個別送信データから画像データを抽出する画像データ抽出部と、
前記生成された画像データ及び前記抽出された画像データから選択された画像データより1つの画像データを生成し、当該1つの画像データを含む合成送信データを生成するデータ合成部と、
前記合成送信データを、前記第2ネットワークを介して、前記視聴装置に送信するデータ送信部と、を備え、
前記視聴装置は、
前記第2ネットワークを介して、前記合成送信データを受信する受信部と、
前記合成送信データから、前記1つの画像データを抽出する画像処理部と、
前記1つの画像データに基づいて、画像を表示する表示部と、を備えること
を特徴とする監視システム。
A slave device that transmits and receives data via the first network; a master device that transmits and receives data via the first network and the second network; and a viewing device that transmits and receives data via the second network. A monitoring system,
The slave device is
An image capturing unit for capturing an image;
An image encoding unit that generates image data of an image captured by the image capturing unit;
A data synthesis unit for generating individual transmission data including the image data;
A data transmission unit that transmits the individual transmission data to the master device via the first network;
The master device is
An image capturing unit for capturing an image;
An image encoding unit that generates image data of an image captured by the image capturing unit;
A data receiving unit for receiving the individual transmission data via the first network;
An image data extraction unit for extracting image data from the individual transmission data;
A data composition unit for generating one image data from the generated image data and image data selected from the extracted image data, and generating composite transmission data including the one image data;
A data transmission unit that transmits the combined transmission data to the viewing device via the second network;
The viewing device includes:
A receiving unit that receives the combined transmission data via the second network;
An image processing unit for extracting the one image data from the combined transmission data;
And a display unit that displays an image based on the one image data.
JP2011089998A 2011-04-14 2011-04-14 Record distribution device, record distribution method, and monitoring system Withdrawn JP2012222780A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011089998A JP2012222780A (en) 2011-04-14 2011-04-14 Record distribution device, record distribution method, and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011089998A JP2012222780A (en) 2011-04-14 2011-04-14 Record distribution device, record distribution method, and monitoring system

Publications (1)

Publication Number Publication Date
JP2012222780A true JP2012222780A (en) 2012-11-12

Family

ID=47273785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011089998A Withdrawn JP2012222780A (en) 2011-04-14 2011-04-14 Record distribution device, record distribution method, and monitoring system

Country Status (1)

Country Link
JP (1) JP2012222780A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195883A (en) * 2017-05-12 2018-12-06 キヤノン株式会社 Image processing system, control device, control method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195883A (en) * 2017-05-12 2018-12-06 キヤノン株式会社 Image processing system, control device, control method, and program
US10979631B2 (en) 2017-05-12 2021-04-13 Canon Kabushiki Kaisha Image processing system, apparatus, and control method
JP7121470B2 (en) 2017-05-12 2022-08-18 キヤノン株式会社 Image processing system, control method, and program

Similar Documents

Publication Publication Date Title
US8891826B2 (en) Image processing system, image processing method, and computer program
TWI433057B (en) Improved pre-alarm video buffer
US8159538B2 (en) Monitoring apparatus, filter calibration method, and filter calibration program
JP2008035095A (en) Monitoring apparatus, monitoring system, monitoring method and program
JP2007243699A (en) Method and apparatus for video recording and playback
JP5192414B2 (en) Audio information display system
KR101794005B1 (en) Error detection system for network camera
US20110255590A1 (en) Data transmission apparatus and method, network data transmission system and method using the same
JP4959592B2 (en) Network video monitoring system and monitoring device
JP2016058994A (en) Monitoring camera device and monitoring camera system
JP5636205B2 (en) Image recording control apparatus and monitoring system
US20230093631A1 (en) Video search device and network surveillance camera system including same
KR101990789B1 (en) Method and Apparatus for Searching Object of Interest by Selection of Object
JP2006093955A (en) Video processing apparatus
JP2009111677A (en) Video imaging control system
JP2012222780A (en) Record distribution device, record distribution method, and monitoring system
JP2008112402A (en) Regional monitoring system
JP5461623B2 (en) Monitoring data processing in a monitoring system
JP4202228B2 (en) Management server and monitoring system
JP4382739B2 (en) Monitoring system
KR200434039Y1 (en) Centralized Surveillance System
US20220286642A1 (en) Event-oriented multi-channel video backup apparatus and method, and network surveillance camera system including the same
KR102433744B1 (en) A method and apparatus for integrated control through linkage of video collection device and analysis device
KR101961199B1 (en) Method and Apparatus for Recording Timeline
KR101942418B1 (en) Method and Apparatus for Recording Timeline

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701