JP2020141178A - Video server system - Google Patents

Video server system Download PDF

Info

Publication number
JP2020141178A
JP2020141178A JP2019033493A JP2019033493A JP2020141178A JP 2020141178 A JP2020141178 A JP 2020141178A JP 2019033493 A JP2019033493 A JP 2019033493A JP 2019033493 A JP2019033493 A JP 2019033493A JP 2020141178 A JP2020141178 A JP 2020141178A
Authority
JP
Japan
Prior art keywords
editing
material data
data
video
video server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019033493A
Other languages
Japanese (ja)
Inventor
裕通 小薗
Hiromichi Kozono
裕通 小薗
聡子 久間
Satoko Hisama
聡子 久間
柏木 秀之
Hideyuki Kashiwagi
秀之 柏木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2019033493A priority Critical patent/JP2020141178A/en
Publication of JP2020141178A publication Critical patent/JP2020141178A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a video server system that reduces the capacity compression of a storage unit due to the accumulation of material data.SOLUTION: Unnecessary detection means 110 detects and presents an unnecessary editing portion including any one of a color bar of material data 210 including a recorded video, the display of specific characters, and a black video, or any combination thereof. Duplication detecting means 120 detects and presents an overlapping portion by comparing the material data 210 with other material data 210. Editing history presenting means 130 presents the editing status of the portion used for editing on the basis of the usage history of the material data 210 for editing. Deletion designation means 140 displays thumbnails of each scene of the material data 210, and acquires a deletion target location designation of the material data 210 for each thumbnail. Video deleting means 150 deletes a scene corresponding to the thumbnail of a deletion target portion from the material data 210.SELECTED DRAWING: Figure 2

Description

本発明は、主に放送局等で使用される、映像データを蓄積するビデオサーバを備えたビデオサーバシステムに関する。 The present invention relates to a video server system including a video server that stores video data, which is mainly used in broadcasting stations and the like.

近年、放送局等において、編集用の素材となる映像データである素材データをビデオサーバ等に格納し、これをノンリニア編集し、放送用に送出するようなビデオサーバシステムが実用化されている。 In recent years, in broadcasting stations and the like, a video server system has been put into practical use in which material data, which is video data as a material for editing, is stored in a video server or the like, which is non-linearly edited and transmitted for broadcasting.

このような従来のビデオサーバシステムとして、特許文献1を参照すると、編集用元素材と編集済素材との関係を抜き出した情報である元素材情報データを作成し、再び編集する場合には、編集済素材とプロジェクトデータと元素材情報データとを使用して編集する技術が記載されている。 As such a conventional video server system, referring to Patent Document 1, the original material information data which is the information extracted from the relationship between the original material for editing and the edited material is created, and when the original material information data is edited again, it is edited. The technique of editing using the finished material, the project data, and the original material information data is described.

特開2012−34218号公報Japanese Unexamined Patent Publication No. 2012-34218

しかしながら、このような従来のビデオサーバシステムでは、ビデオサーバに編集元の素材データをそのまま、大量に蓄積するため、記憶容量が圧迫されていた。 However, in such a conventional video server system, a large amount of material data of the editing source is stored in the video server as it is, so that the storage capacity is squeezed.

本発明は、このような状況に鑑みてなされたものであり、上述の問題を解消することを課題とする。 The present invention has been made in view of such a situation, and an object of the present invention is to solve the above-mentioned problems.

本発明のビデオサーバシステムは、収録された映像を含む素材データのカラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせを含む編集不必要部分を検出して提示する不必要検出手段と、前記素材データと、他の素材データとの比較により重複部分を検出して提示する重複検出手段と、前記素材データの編集での利用履歴により、編集に利用された箇所についての編集状況を提示する編集履歴提示手段と、前記素材データの各シーンのサムネイルを表示し、当該サムネイル毎に、前記不必要検出手段により提示された前記編集不必要部分、前記重複検出手段により提示された前記重複部分、及び、前記編集履歴提示手段により提示された前記編集状況に対応して、前記素材データの削除対象箇所指定を取得する削除指定手段と、前記削除指定手段により取得された前記削除対象箇所に対応する前記シーンを、前記素材データから削除する映像削除手段とを備えることを特徴とする。
本発明のビデオサーバシステムは、前記特定文字は、前記素材データのタイトル又は伝送終了の文字を含むことを特徴とする。
本発明のビデオサーバシステムは、前記特定文字を検出することにより収録開始又は終了の制御を行うことを特徴とする。
本発明のビデオサーバシステムは、前記重複検出手段は、同じ内容がカメラアングル違いで複数存在したり、複数の担当者が同じ素材を収録したり、バックアップ収録によって同じ素材が二重に登録されていたりすることを比較して、前記重複部分を検出することを特徴とする。
The video server system of the present invention detects and presents unnecessary editing parts including any or any combination of a color bar of material data including recorded video, display of specific characters, and black video. The editing status of the part used for editing based on the means, the duplication detecting means for detecting and presenting the overlapping portion by comparing the material data with other material data, and the usage history for editing the material data. The editing history presenting means for presenting the above, and the thumbnails of each scene of the material data are displayed, and for each of the thumbnails, the editing unnecessary portion presented by the unnecessary detecting means and the duplicate detecting means presented by the duplication detecting means. The deletion designation means for acquiring the deletion target location designation of the material data and the deletion target location acquired by the deletion designation means in response to the overlapping portion and the editing status presented by the edit history presenting means. It is characterized by including a video deleting means for deleting the scene corresponding to the above from the material data.
The video server system of the present invention is characterized in that the specific character includes the title of the material data or the character of the end of transmission.
The video server system of the present invention is characterized in that recording start or end is controlled by detecting the specific character.
In the video server system of the present invention, in the duplicate detection means, the same content exists a plurality of times with different camera angles, a plurality of persons in charge record the same material, or the same material is registered twice by backup recording. It is characterized in that the overlapping portion is detected by comparing the cases.

本発明によれば、素材データから、カラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせ、他の素材データとの重複部分、及び編集状況をサムネイルに提示して、当該サムネイル毎に削除対象箇所を指定し、これを削除することで、記憶容量を削減可能なビデオサーバシステムを提供することができる。 According to the present invention, the thumbnail is presented with a color bar, display of specific characters, any or any combination of black images, overlapping parts with other material data, and editing status from the material data. A video server system capable of reducing the storage capacity can be provided by designating a deletion target location for each deletion and deleting the deletion target location.

本発明の実施の形態に係るビデオサーバシステムXの概略構成を示すシステム構成図である。It is a system block diagram which shows the schematic structure of the video server system X which concerns on embodiment of this invention. 図1に示すビデオサーバと情報管理DBの機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the video server and the information management DB shown in FIG. 本発明の実施の形態に係る(a)学習処理及び(b)素材削除処理の流れを示すフローチャートである。It is a flowchart which shows the flow of (a) learning process and (b) material deletion process which concerns on embodiment of this invention. 図3(a)に示す学習処理における学習用の素材データの例を示す概念図である。It is a conceptual diagram which shows the example of the material data for learning in the learning process shown in FIG. 3A. 図3(b)に示す素材削除処理の画面例である。It is a screen example of the material deletion processing shown in FIG. 3 (b). 図3(b)に示す素材削除処理の画面例である。It is a screen example of the material deletion processing shown in FIG. 3 (b).

<実施の形態>
〔ビデオサーバシステムXの制御構成〕
以下で、本発明の実施の形態について、図面を参照して説明する。
ビデオサーバシステムXは、放送局等で使用されるビデオサーバシステムである。
図1によると、ビデオサーバシステムXは、ビデオサーバ1、情報管理DB2、素材管理端末3、撮像部4、収録装置5、編集装置6、アーカイブ装置7、及び送出サーバ8を含む。各装置は、ネットワークNで接続される。
<Embodiment>
[Control configuration of video server system X]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The video server system X is a video server system used in broadcasting stations and the like.
According to FIG. 1, the video server system X includes a video server 1, an information management DB 2, a material management terminal 3, an imaging unit 4, a recording device 5, an editing device 6, an archiving device 7, and a sending server 8. Each device is connected by network N.

ビデオサーバ1は、素材データ210(図2)を蓄積するビデオストレージを備え、この素材データ210を他装置へ送信するサーバ等の装置である。本実施形態において、ビデオサーバ1は、収録装置5で収録された素材(素材映像、収録素材)の素材データ210等を格納する素材映像サーバとして機能する。加えて、本実施形態においては、ビデオサーバ1は、ビデオストレージに収録されている素材データ210を解析し、記憶容量を圧縮することが可能である。
ビデオサーバ1の詳細については後述する。
The video server 1 is a device such as a server that includes a video storage that stores material data 210 (FIG. 2) and transmits the material data 210 to another device. In the present embodiment, the video server 1 functions as a material video server that stores material data 210 and the like of materials (material video, recorded material) recorded by the recording device 5. In addition, in the present embodiment, the video server 1 can analyze the material data 210 recorded in the video storage and compress the storage capacity.
The details of the video server 1 will be described later.

情報管理DB2は、ビデオサーバ1の素材データ210の管理を行うデータベースを含むサーバである。情報管理DB2のデータベースの詳細については後述する。 The information management DB 2 is a server including a database that manages the material data 210 of the video server 1. The details of the database of the information management DB2 will be described later.

素材管理端末3は、ビデオサーバ1の素材データ210の管理(素材管理)をする端末である。素材管理端末3は、例えば、PC(Personal Computer)や専用端末を用いることが可能である。素材管理端末3が行う素材管理としては、専用プログラムのGUI(Graphical User Interface)上で、素材データ210を選択しての削除の指示、アーカイブ指示、取り戻し指示等を行うことが可能である。このうち、削除の指示は、素材データ210そのものの削除、及び、編集不必要部分の削除についての指示を含む。アーカイブ指示は、素材データ210のアーカイブ装置7への移動の指示である。取り戻し指示は、アーカイブ装置7からの素材データ210のビデオサーバ1への移動の指示である。
このため、本実施形態において、素材管理端末3は、図示しない表示部、キーボード、ポインティングデバイス、操作器等を備えている。
The material management terminal 3 is a terminal that manages (material management) the material data 210 of the video server 1. As the material management terminal 3, for example, a PC (Personal Computer) or a dedicated terminal can be used. As the material management performed by the material management terminal 3, it is possible to select the material data 210 and issue a deletion instruction, an archive instruction, a recovery instruction, or the like on the GUI (Graphical User Interface) of the dedicated program. Of these, the deletion instruction includes instructions for deleting the material data 210 itself and deleting unnecessary parts for editing. The archive instruction is an instruction to move the material data 210 to the archive device 7. The recovery instruction is an instruction to move the material data 210 from the archive device 7 to the video server 1.
Therefore, in the present embodiment, the material management terminal 3 includes a display unit (not shown), a keyboard, a pointing device, an operating device, and the like.

撮像部4は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)素子等を用いたカメラ等の撮像装置である。
撮像部4は、撮像された画像をデジタル変換し、例えば、HD−SDI規格の画像データとして、収録装置5へ送信する。この際、撮像部4に装着され、又は、外設されたマイクロフォン等からの音声データも、ほぼ同時に収録装置5へ送信してもよい。または、これらの画像データや音声データは、ミキサーや各種機材を介して、収録装置5へ送信することも可能である。加えて、撮像部4は、収録装置5と内蔵又は外付けで接続されていても、外部のカメラであってもよい。
The image pickup unit 4 is an image pickup device such as a camera using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor) element, or the like.
The image pickup unit 4 digitally converts the captured image and transmits it to the recording device 5 as, for example, HD-SDI standard image data. At this time, audio data from a microphone or the like attached to the imaging unit 4 or externally installed may be transmitted to the recording device 5 at almost the same time. Alternatively, these image data and audio data can also be transmitted to the recording device 5 via a mixer or various devices. In addition, the imaging unit 4 may be internally or externally connected to the recording device 5 or may be an external camera.

収録装置5は、画像データや音声データ等を収録して、これらを画像や音声のエンコーダーを用いて、撮像された各種コーデックに符号化(変換)する装置である。
本実施形態において、収録装置5は、例えば、後述する撮像部4で撮像された非圧縮の画像データを収録して符号化する。また、収録装置5は、専用回線やネットワークNを介して、他局等にあるサーバ、VTR、その他の機器から画像データを収録してもよいし、MXF(Media eXchange Format)等のファイルで取り込むことで収録してもよい。エンコーダーでの符号化に用いる映像符号化方式(コーデック)は、例えば、MPEG2、H.264、H.265等を用いることが可能であるが、これに限られない。符号化されたデータについて、収録装置5は、素材データ210として、ビデオサーバ1や送出サーバ8へ送信することが可能である。
The recording device 5 is a device that records image data, audio data, and the like, and encodes (converts) them into various imaged codecs using an image or audio encoder.
In the present embodiment, the recording device 5 records and encodes, for example, uncompressed image data captured by the imaging unit 4 described later. Further, the recording device 5 may record image data from a server, VTR, or other device in another station or the like via a dedicated line or network N, or captures the image data as a file such as MXF (Media eXchange Format). It may be recorded by. The video coding method (codec) used for coding in the encoder is, for example, MPEG2, H.M. 264, H. It is possible, but not limited to, 265 and the like. The recording device 5 can transmit the encoded data as the material data 210 to the video server 1 and the transmission server 8.

編集装置6は、いわゆる汎用のノンリニア編集機である。編集装置6は、レンダリング編集、カット編集等の編集処理を行う。このうち、レンダリング編集は、ビデオサーバ1に格納された素材データ210を、実際にレンダリングしつつ編集する処理である。カット編集は、レンダリングを行わないでクリップ化する処理である。 The editing device 6 is a so-called general-purpose non-linear editing machine. The editing device 6 performs editing processing such as rendering editing and cut editing. Of these, the rendering edit is a process of editing the material data 210 stored in the video server 1 while actually rendering it. Cut editing is a process of clipping without rendering.

本実施形態において、編集装置6は、図示しない表示部、キーボード、ポインティングデバイス、操作器等を備えている。さらに、編集装置6は、実際にこの編集作業を行うコンピュータである編集制御手段(編集手段)と、素材データ210や編集のタイムライン等を表示させる表示部(ディスプレイ)と、編集の指示を入力するための操作パネル(操作手段)等を備えている。 In the present embodiment, the editing device 6 includes a display unit (not shown), a keyboard, a pointing device, an operating device, and the like. Further, the editing device 6 inputs an editing control means (editing means) which is a computer that actually performs the editing work, a display unit (display) for displaying the material data 210, the editing timeline, and the like, and editing instructions. It is equipped with an operation panel (operation means) for this purpose.

編集装置6は、ビデオサーバ1に対して素材データ210を参照することで、この画像をレンダリングして表示部でユーザに確認させる。この上で、編集装置6は、ユーザに操作パネルを操作させ、編集処理の対象となる部分を指定させて、カット編集やレンダリング編集等を実行する。そして、編集装置6は、編集後の素材データ210やクリップ化のための編集情報230(図2)を、ビデオサーバ1に送信して格納させる。この編集情報230は、情報管理DB2にも格納されて、管理される。
上述の編集処理の種類は、処理対象が映像の場合には、各種画像効果、クリップ間の接続とその効果、輝度や色の調整処理、フェードイン、フェードアウト、音量調整等を含む。
By referring to the material data 210 to the video server 1, the editing device 6 renders this image and causes the user to confirm it on the display unit. On this basis, the editing device 6 causes the user to operate the operation panel, specifies a portion to be edited, and executes cut editing, rendering editing, and the like. Then, the editing device 6 transmits and stores the edited material data 210 and the editing information 230 (FIG. 2) for clipping to the video server 1. This editing information 230 is also stored and managed in the information management DB 2.
The above-mentioned types of editing processing include various image effects, connections between clips and their effects, brightness and color adjustment processing, fade-in, fade-out, volume adjustment, and the like when the processing target is an image.

アーカイブ装置7は、ビデオサーバ1と同様なビデオストレージを備え、完成した番組や編集素材のファイル、すなわち放送映像を記録(アーカイブ)する装置である。
アーカイブ装置7に記録されたファイルは、番組の放送スケジュールに沿って送出サーバに転送されたり、編集装置6による番組編集処理に用いられる。
The archive device 7 is a device that has a video storage similar to that of the video server 1 and records (archives) a file of a completed program or editing material, that is, a broadcast video.
The file recorded in the archive device 7 is transferred to the transmission server according to the broadcast schedule of the program, and is used for the program editing process by the editing device 6.

送出サーバ8は、いわゆる汎用の放送局用の送出サーバ等を含む送出設備の装置である。送出サーバ8は、ビデオサーバ1に記録されている素材データ210が編集された映像データやアーカイブ装置7に記録された放送映像等を放送出力(オンエア)する。加えて、送出サーバ8は、放送映像を、試写のために再生することも可能である。 The transmission server 8 is a device of transmission equipment including a transmission server for a so-called general-purpose broadcasting station and the like. The transmission server 8 broadcasts (on air) video data edited by the material data 210 recorded in the video server 1, broadcast video recorded in the archive device 7, and the like. In addition, the transmission server 8 can also reproduce the broadcast video for previewing.

ネットワークNは、各装置を結ぶLAN(Local Area Network)、光ファイバー網、c.link、無線LAN(WiFi)、携帯電話網等の各装置を相互に接続して通信を行う通信手段である。ネットワークNは、専用線、イントラネット、インターネット等を用いてもよく、これらが混在しても、VPN(Virtual Private Network)を構成していてもよい。さらに、ネットワークNは、TCP/IPやUDP等のIPネットワークを用いて、各種プロトコルで接続されてもよい。 The network N is a LAN (Local Area Network) connecting each device, an optical fiber network, and c. It is a communication means for communicating by connecting devices such as a link, a wireless LAN (WiFi), and a mobile phone network to each other. As the network N, a dedicated line, an intranet, the Internet, or the like may be used, these may be mixed, or a VPN (Virtual Private Network) may be configured. Further, the network N may be connected by various protocols using an IP network such as TCP / IP or UDP.

次に、図2により、ビデオサーバ1及び情報管理DB2の詳細について説明する。
ビデオサーバ1は、ハードウェア資源の一部として、制御部10及び記憶部11を備えている。
情報管理DB2は、データベースとして、記憶部21を備えている。
Next, the details of the video server 1 and the information management DB 2 will be described with reference to FIG.
The video server 1 includes a control unit 10 and a storage unit 11 as a part of hardware resources.
The information management DB 2 includes a storage unit 21 as a database.

制御部10は、後述する機能部を実現し、本実施形態の収録中映像提供処理の各処理を実行する情報処理手段である。制御部10は、例えば、CPU(Central Processing Unit、中央処理装置)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Processor、特定用途向けプロセッサー)等で構成される。 The control unit 10 is an information processing means that realizes a functional unit described later and executes each process of the recording video providing process of the present embodiment. The control unit 10 is, for example, a CPU (Central Processing Unit, Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), DSP (Digital Signal Processor), ASIC (Application Specific Processor, Processor for Specific Applications). Etc.

記憶部11は、一時的でない記録媒体である。記憶部11は、例えば、SSD(Solid State Disk)、HDD(Hard Disk Drive)、磁気カートリッジ、テープドライブ、光ディスクアレイ等のビデオストレージとして構成される。
このビデオストレージには、例えば、素材映像のファイルである素材データ210、完成した番組等の放送映像等が格納される。ビデオサーバ1に格納されたファイルは、編集装置6による番組編集処理に用いられたり、アーカイブ装置7へ転送されたり、番組の放送スケジュールに沿って送出サーバ8に転送されたりする。これらのデータの詳細については後述する。
加えて、記憶部11は、一般的なROM(Read Only Memory)、RAM(Random Access Memory)等も含んでいる。これらには、制御部10が実行する処理のプログラム、データベース、一時データ、その他の各種ファイル等が格納される。
The storage unit 11 is a recording medium that is not temporary. The storage unit 11 is configured as a video storage for, for example, an SSD (Solid State Disk), an HDD (Hard Disk Drive), a magnetic cartridge, a tape drive, an optical disk array, or the like.
In this video storage, for example, material data 210, which is a file of material video, broadcast video of a completed program, and the like are stored. The file stored in the video server 1 is used for program editing processing by the editing device 6, is transferred to the archiving device 7, and is transferred to the sending server 8 according to the broadcast schedule of the program. Details of these data will be described later.
In addition, the storage unit 11 also includes a general ROM (Read Only Memory), RAM (Random Access Memory), and the like. A processing program, a database, temporary data, various other files, and the like executed by the control unit 10 are stored in these.

記憶部21は、一時的でない記録媒体である。記憶部21は、情報管理DB2の図示しない制御部から制御され、素材データ210の編集情報230やメタデータ240等が、データベースとして格納される。これらのデータは、ビデオサーバ1や素材管理端末3等から読み出し、書き込み可能である。 The storage unit 21 is a recording medium that is not temporary. The storage unit 21 is controlled by a control unit (not shown) of the information management DB 2, and edit information 230, metadata 240, etc. of the material data 210 are stored as a database. These data can be read and written from the video server 1, the material management terminal 3, and the like.

次に、ビデオサーバ1の機能構成並びにデータ、及び情報管理DB2のデータの詳細について説明する。
制御部10は、学習手段100、不必要検出手段110、重複検出手段120、編集履歴提示手段130、削除指定手段140、及び映像削除手段150を備える。
記憶部11は、学習データ200、素材データ210、サムネイルデータ220、及び編集情報230を格納する。
記憶部21は、編集情報230、及びメタデータ240を格納する。
Next, the functional configuration and data of the video server 1 and the details of the data of the information management DB 2 will be described.
The control unit 10 includes a learning means 100, an unnecessary detecting means 110, a duplication detecting means 120, an editing history presenting means 130, a deletion designating means 140, and a video deleting means 150.
The storage unit 11 stores the learning data 200, the material data 210, the thumbnail data 220, and the editing information 230.
The storage unit 21 stores the editing information 230 and the metadata 240.

学習手段100は、素材データ210に含まれるカラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせを学習し、これらのモデルを学習データ200に格納する。この学習手法としては、パーセプトロンや各種ニューラルネットワークやディープラーニング等の機械学習による人工知能的手法、決定木やベイジアンネットワークやカーネルマシン等の各種統計手法、OCR(Optical Character Recognition)による文字や画素データの認識や画像特徴量の算出や画素値の閾値による判断等を用いたヒューリスティック手法等、任意の画像(映像)解析の手法を用いることができる。 The learning means 100 learns any or any combination of the color bar, the display of specific characters, and the black image included in the material data 210, and stores these models in the learning data 200. As this learning method, artificial intelligence methods by machine learning such as perceptron, various neural networks and deep learning, various statistical methods such as decision trees, Bayesian networks and kernel machines, and character and pixel data by OCR (Optical Character Recognition) Any image (video) analysis method such as a heuristic method using recognition, calculation of an image feature amount, judgment based on a pixel value threshold, or the like can be used.

さらに、学習手段100は、素材データ210を解析して、シーンを検出することが可能である。学習手段100は、解析結果をメタデータ240として、情報管理DB2へ送信し、記憶部21に格納させる。加えて、学習手段100は、各シーンのサムネイルを作成して、サムネイルデータ220として、記憶部11に格納する。または、学習手段100は、このメタデータ240を、素材データ210に含ませることも可能である。上述のMXF形式であれば、素材映像とメタデータ240とをラッピングして記録することが可能である。 Further, the learning means 100 can analyze the material data 210 and detect the scene. The learning means 100 transmits the analysis result as metadata 240 to the information management DB 2 and stores it in the storage unit 21. In addition, the learning means 100 creates thumbnails of each scene and stores them in the storage unit 11 as thumbnail data 220. Alternatively, the learning means 100 can include the metadata 240 in the material data 210. In the MXF format described above, it is possible to wrap and record the material image and the metadata 240.

不必要検出手段110は、収録された映像を含む素材データ210のカラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせを含む編集不必要部分を検出する。ここで、本実施形態においては、この特定文字は、素材データ210のタイトル又は伝送終了の文字を含む。具体的には、不必要検出手段110は、例えば、学習手段100で学習されたモデルから、これらの編集不必要部分を検出する。そして、不必要検出手段110は、削除指定手段140により表示された素材データ210の各シーンのサムネイルに、それぞれ、この編集不必要部分を提示する。 The unnecessary detection means 110 detects an unnecessary editing portion including any or any combination of the color bar of the material data 210 including the recorded video, the display of specific characters, and the black video. Here, in the present embodiment, this specific character includes the title of the material data 210 or the character of the end of transmission. Specifically, the unnecessary detection means 110 detects these editing unnecessary parts from the model learned by the learning means 100, for example. Then, the unnecessary detection means 110 presents the edit unnecessary portion on the thumbnail of each scene of the material data 210 displayed by the deletion designation means 140.

重複検出手段120は、素材データ210と、他の素材データ210との比較により重複部分を検出して提示する。本実施形態においては、重複検出手段120は、同じ内容がカメラアングル違いで複数存在したり、複数の担当者が同じ素材を収録したり、バックアップ収録によって同じ素材が二重に登録されていたりすることを比較して、重複部分を検出する。重複検出手段120は、検出された重複部分を、素材データ210の各シーンのサムネイルに提示する。 The duplication detecting means 120 detects and presents an overlapping portion by comparing the material data 210 with other material data 210. In the present embodiment, the duplicate detection means 120 may have the same content in a plurality of different camera angles, a plurality of persons in charge may record the same material, or the same material may be registered twice by backup recording. Compare that to detect overlapping parts. The duplication detecting means 120 presents the detected duplication portion in the thumbnail of each scene of the material data 210.

編集履歴提示手段130は、素材データ210の編集での利用履歴により、編集に利用された箇所についての編集状況を提示する。この際、編集履歴提示手段130は、編集情報230を情報管理DB2から取得して、この編集情報230に含まれる利用履歴を取得し、編集状況を算出する。 The editing history presenting means 130 presents the editing status of the portion used for editing based on the usage history of the material data 210 for editing. At this time, the editing history presenting means 130 acquires the editing information 230 from the information management DB 2, acquires the usage history included in the editing information 230, and calculates the editing status.

削除指定手段140は、素材データ210の各シーンのサムネイルを表示させる。本実施形態においては、削除指定手段140は、例えば、素材管理端末3にインストールされた専用ソフトウェアのGUIの画面にて、サムネイルを表示可能なように、素材データ210のサムネイルデータ220を送信することで、これを表示部に表示させる。削除指定手段140は、この上で、この表示されたサムネイルのシーンについての削除対象箇所指定を取得する。 The deletion designation means 140 displays thumbnails of each scene of the material data 210. In the present embodiment, the deletion designation means 140 transmits the thumbnail data 220 of the material data 210 so that the thumbnail can be displayed on the GUI screen of the dedicated software installed on the material management terminal 3, for example. Then, this is displayed on the display unit. On this, the deletion designation means 140 acquires the deletion target location designation for the scene of the displayed thumbnail.

映像削除手段150は、削除指定手段140により取得された削除対象箇所のサムネイルに対応するシーンを、素材データ210から削除する。 The video deleting means 150 deletes the scene corresponding to the thumbnail of the deletion target portion acquired by the deletion designating means 140 from the material data 210.

学習データ200は、学習済みのモデルのデータである。このモデルは、例えば、人工知能的手法、各種統計手法、ヒューリスティック手法等の学習済みのモデルであり、素材データ210からカラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせを検出可能である。 The training data 200 is data of a trained model. This model is a trained model of, for example, an artificial intelligence method, various statistical methods, a heuristic method, etc., and detects any or any combination of color bars, display of specific characters, and black images from material data 210. It is possible.

素材データ210は、ビデオサーバ1で用いられる、収録された素材の映像データである。素材データ210は、例えば、MXF形式のファイルである。MXFは、いわゆる業務用映像ファイルを格納するコンテナフォーマットのファイルの一種である。具体的には、MXFは、カムコーダ、録画再生機、ノンリニア編集機、送出設備等の放送用装置機材に利用されており、映像や音声等の様々なフォーマットのデータを、メタデータ240とともにラッピングすることができる。 The material data 210 is video data of the recorded material used in the video server 1. The material data 210 is, for example, an MXF format file. MXF is a type of container format file that stores so-called commercial video files. Specifically, MXF is used for broadcasting equipment such as camcorders, recording / playback machines, non-linear editing machines, and transmission equipment, and wraps data in various formats such as video and audio together with metadata 240. be able to.

サムネイルデータ220は、シーンのダイジェストを示す、いわゆる「カットサムネイル」のデータである。具体的には、サムネイルデータ220は、素材データ210のシーン検出とメタデータ240の作成時に作成された、素材データ210のシーンの冒頭等の箇所の画像データを含む。サムネイルデータ220は、例えば、素材データ210よりも画像の解像度や大きさが小さくてもよい。加えて、サムネイルデータ220は、例えば、可逆又は不可逆圧縮されていてもよい。 The thumbnail data 220 is so-called "cut thumbnail" data indicating a digest of the scene. Specifically, the thumbnail data 220 includes image data of a portion such as the beginning of a scene of the material data 210, which is created when the scene of the material data 210 is detected and the metadata 240 is created. The thumbnail data 220 may have a smaller image resolution and size than the material data 210, for example. In addition, the thumbnail data 220 may be lossless or lossy compressed, for example.

編集情報230は、編集処理において用いられるデータである。編集情報230は、例えば、編集用データリスト(編集EDL、Edit Decision List)等を含む。この編集用データリストは、ノンリニア編集の処理において、どのような処理を行うのかについての時、分、秒、フレームの情報を含む。このため、編集情報230は、例えば、MXFのマテリアルパッケージのような、ノンリニア編集時の対応する素材ファイルにおけるIN点、OUT点を示す出力タイムラインの情報を含んでいる。さらに具体的には、編集情報230は、例えば、処理対象となる部分の映像フレーム位置、映像上の座標、音声サンプルの位置の範囲、処理の内容等を含む。 The editing information 230 is data used in the editing process. The edit information 230 includes, for example, an edit data list (edit EDL, Edit Decision List) and the like. This editing data list includes hour, minute, second, and frame information about what kind of processing is to be performed in the non-linear editing process. Therefore, the editing information 230 includes information on the output timeline indicating the IN point and the OUT point in the corresponding material file at the time of non-linear editing, such as the material package of MXF. More specifically, the editing information 230 includes, for example, the video frame position of the portion to be processed, the coordinates on the video, the range of the audio sample position, the content of the processing, and the like.

これに加えて、本実施形態において、編集情報230は、素材データ210の編集での利用履歴を示すデータを含む。この利用履歴を示すデータは、例えば、タイムラインの情報が各シーンに対応づけられて、編集状況の情報として記録されてもよい。この際、編集状況の情報は、例えば、シーン毎に、編集時に利用されたか否かのフラグ又は使用回数(頻度)等を含む利用の状況を示す情報であってもよい。 In addition to this, in the present embodiment, the editing information 230 includes data indicating the usage history of the material data 210 in editing. As for the data indicating the usage history, for example, the information on the timeline may be associated with each scene and recorded as the information on the editing status. At this time, the editing status information may be, for example, information indicating the usage status including a flag of whether or not it was used at the time of editing, the number of times of use (frequency), and the like for each scene.

メタデータ240は、素材データ210の属性を示すデータである。本実施形態において、メタデータ240は、例えば、素材データ210にラッピングされたメタデータと同様のデータを用いることが可能である。具体的には、メタデータ240として、シーンの種類(ラベル)が含まれている。このラベルは、不必要検出手段110により提示された編集不必要部分、重複検出手段120により提示された重複部分、及び、編集履歴提示手段130により提示された編集状況等を示す情報を含む。さらに、メタデータ240は、例えば、フレームレート、フレームサイズ、作成日(収録日時)、部署名、撮像部4の撮影者、その他の素材映像の各種情報を含めることができる。この各種情報としては、例えば、タイトルや内容、再生時間、シーンの情報、映像中の人物等を含む物体の情報等を用いることが可能である。 The metadata 240 is data indicating the attributes of the material data 210. In the present embodiment, as the metadata 240, for example, it is possible to use the same data as the metadata wrapped in the material data 210. Specifically, the metadata 240 includes a scene type (label). This label includes information indicating an editing unnecessary portion presented by the unnecessary detecting means 110, an overlapping portion presented by the duplication detecting means 120, an editing status presented by the editing history presenting means 130, and the like. Further, the metadata 240 can include, for example, a frame rate, a frame size, a creation date (recording date and time), a department name, a photographer of the imaging unit 4, and various other information on material images. As the various information, for example, title, content, playback time, scene information, information on an object including a person in a video, and the like can be used.

上述のビデオサーバ1の各機能部は、記憶部11に記憶された制御プログラム等が制御部10で実行されることにより実現される。
なお、これらの各機能部は、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等により、回路的に構成されてもよい。
Each functional unit of the video server 1 described above is realized by executing a control program or the like stored in the storage unit 11 in the control unit 10.
In addition, each of these functional units may be configured in a circuit by FPGA (Field Programmable Gate Array), ASIC (Application Specific Integrated Circuit), or the like.

〔ビデオサーバシステムXの学習処理及び素材削除処理〕
次に、図3〜図6を参照して、本発明の実施の形態に係るビデオサーバシステムX(編集システム)を用いた学習処理及び素材削除処理についてより詳しく説明する。
まず、本実施形態においては、素材データ210が収録装置5から収録され、ビデオサーバ1に格納される。これについて、素材管理端末3を操作するユーザーにより、学習処理が行われる。そして、ユーザーにより容量削減対象に選択された素材データ210について、学習処理により学習された学習データ200を用いて、編集不必要部分が検出される。さらに、他の素材データ210との比較により、重複部分も検出される。この上で、編集状況も取得される。これらは、記憶容量を削減したい素材データ210のサムネイル上に表示され、素材管理端末3において確認された上で、ビデオサーバ1上で削除される。
以下で、本実施形態のビデオサーバシステムXによる学習処理及び素材削除処理について、図3のフローチャートを用いて、ステップ毎に更に詳しく説明する。
[Learning process and material deletion process of video server system X]
Next, the learning process and the material deletion process using the video server system X (editing system) according to the embodiment of the present invention will be described in more detail with reference to FIGS. 3 to 6.
First, in the present embodiment, the material data 210 is recorded from the recording device 5 and stored in the video server 1. About this, the learning process is performed by the user who operates the material management terminal 3. Then, with respect to the material data 210 selected as the capacity reduction target by the user, an edit unnecessary portion is detected by using the learning data 200 learned by the learning process. Further, by comparing with other material data 210, an overlapping portion is also detected. On top of this, the editing status is also acquired. These are displayed on the thumbnail of the material data 210 whose storage capacity is to be reduced, confirmed by the material management terminal 3, and then deleted on the video server 1.
Hereinafter, the learning process and the material deletion process by the video server system X of the present embodiment will be described in more detail step by step by using the flowchart of FIG.

まず、図3(a)により、本実施形態の学習処理について説明する。
ステップS100において、学習手段100は、削除映像指定学習処理を行う。
この処理においては、まず、ユーザーが素材管理端末3の専用プログラムを起動させる。これにより、素材管理端末3の制御部は、ビデオサーバ1と通信を開始する。
この上で、素材管理端末3は、GUIにて、学習用に設定された学習元の素材データ210(以下、単に「元データ」という。)をユーザーに指定させる。
ビデオサーバ1の学習手段100は、このような元データに基づいて、編集不必要部分を検索するための各種手法での学習を行い、モデルを作成し、これを学習データ200として記憶部11に格納する。
First, the learning process of the present embodiment will be described with reference to FIG. 3A.
In step S100, the learning means 100 performs the deleted video designation learning process.
In this process, the user first activates the dedicated program of the material management terminal 3. As a result, the control unit of the material management terminal 3 starts communication with the video server 1.
On this basis, the material management terminal 3 causes the user to specify the learning source material data 210 (hereinafter, simply referred to as “original data”) set for learning in the GUI.
Based on such original data, the learning means 100 of the video server 1 performs training by various methods for searching unnecessary parts for editing, creates a model, and stores this as learning data 200 in the storage unit 11. Store.

図4(a)に、素材データ210の編集不必要部分を検索するための元データとなる素材データ210−1、図4(b)に素材データ210−2の例を示す。
これらの例に示すように、収録された素材データ210は、冒頭にカラーバー(調整用信号)、本編素材、カラーバー又は黒映像の順というように、カラーバー又は黒映像と本編素材とが交互で作成されていることが多い。しかしながら、ビデオサーバ1へ格納後においては、本編素材以外の部分は、編集には不必要な編集不必要部分となる。
ここで、従来、カラーバーについては、放送局等によりカラーバーのパターンに違いがあるため、単純にパターンを登録しても、検出することは不可能であった。
さらに、黒映像の映像も、ロゴや電子透かし等がそのまま付加されていたり、画面の下部や上部等に、制御信号やタイムラインの信号等が目視可能な状態で収録されたりすることがあり得る。この場合は、黒映像を単純に検出するのに失敗する可能性がある。なお、本実施形態においては、青画像等の単一色の画像データを含む映像を、単に「黒映像」と称する。
FIG. 4A shows an example of the material data 210-1 which is the original data for searching the editing unnecessary portion of the material data 210, and FIG. 4B shows an example of the material data 210-2.
As shown in these examples, the recorded material data 210 has a color bar or black image and the main material in the order of color bar (adjustment signal), main material, color bar or black image at the beginning. Often created alternately. However, after being stored in the video server 1, the parts other than the main material become unnecessary editing parts that are unnecessary for editing.
Here, conventionally, since the color bar pattern differs depending on the broadcasting station or the like, it has been impossible to detect the color bar even if the pattern is simply registered.
Further, the black image may have a logo, a digital watermark, or the like added as it is, or a control signal, a timeline signal, or the like may be recorded in a visible state at the lower or upper part of the screen. .. In this case, simply detecting the black image may fail. In the present embodiment, an image including a single color image data such as a blue image is simply referred to as a "black image".

加えて、図4(b)に示すように、本編素材についても、フリップ等に映像のタイトルを記載し、それをカメラで撮影、被写体の撮影に移ることがある。この「タイトルを撮影」した映像も、ビデオストレージの記憶容量を圧迫する原因となる。さらに、本編素材として、伝送側が伝送開始のフリップを掲げれば、収録を開始し、伝送終了のフリップを掲げれば、収録を終了することがある。この場合、伝送終了のフリップとして「以上で伝送を終わります」「伝送終了」等と記載し、それが撮影され続けることもある。これも記憶容量を圧迫することがある。 In addition, as shown in FIG. 4B, the title of the video may be described on a flip or the like for the main material, and the title may be photographed by the camera and the subject may be photographed. This "title shot" video also causes pressure on the storage capacity of the video storage. Further, as the main material, if the transmission side raises a flip for starting transmission, recording may start, and if a flip for ending transmission is raised, recording may end. In this case, as a flip of the transmission end, "the transmission ends", "transmission end", etc. are described, and it may continue to be photographed. This can also put pressure on storage capacity.

このため、学習手段100は、元データから必要な部分だけを選別できるように、学習データ200を学習させる。具体的には、学習手段100は、元データに含まれるカラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせを学習する。すなわち、これらは、個々に学習されてもよいし、これらの任意の組み合わせのモデルとして構成されてもよい。
なお、学習処理の元データとして用いる素材データ210は、後述する素材削除処理で不要部分を削除する素材データ210、比較するための他の素材データ210とは別のデータであってもよい。この場合でも、同じ放送局、プロダクション、同じタイトルの番組等の学習データ200による検出に用いることが可能である。さらに、サブタイトル、部署名、収録日時等のメタデータ240に含まれる情報に対応して、元データを選択して、学習させてもよい。
以上により、本実施形態の学習処理を終了する。
Therefore, the learning means 100 trains the learning data 200 so that only a necessary part can be selected from the original data. Specifically, the learning means 100 learns any or any combination of the color bar, the display of specific characters, and the black image included in the original data. That is, they may be trained individually or constructed as a model of any combination of these.
The material data 210 used as the source data of the learning process may be different from the material data 210 for deleting unnecessary parts in the material deletion process described later and the other material data 210 for comparison. Even in this case, it can be used for detection by learning data 200 of the same broadcasting station, production, program of the same title, and the like. Further, the original data may be selected and trained according to the information included in the metadata 240 such as the subtitle, department name, recording date and time.
As described above, the learning process of the present embodiment is completed.

次に、図3(b)により、本実施形態の素材削除処理について説明する。
この処理では、ユーザーが素材管理端末3の専用プログラムのGUI上で、容量を削減したい素材データ210を、編集不必要部分の削除対象として選択する。すると、ビデオサーバ1の削除指定手段140は、選択された素材データ210のサムネイルデータ220を、素材管理端末3へ送信し、表示部に表示させる。
この上で、ビデオサーバ1は、以下の処理を行う。
Next, the material deletion process of the present embodiment will be described with reference to FIG. 3 (b).
In this process, the user selects the material data 210 whose capacity is to be reduced on the GUI of the dedicated program of the material management terminal 3 as the deletion target of the unedited portion. Then, the deletion designation means 140 of the video server 1 transmits the thumbnail data 220 of the selected material data 210 to the material management terminal 3 and displays it on the display unit.
On this, the video server 1 performs the following processing.

まず、ステップS101において、不必要検出手段110が、不必要検出処理を行う。
不必要検出手段110は、収録された映像を含む、削除対象として選択された素材データ210のカラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせを含む編集不必要部分を検出して、素材管理端末3へ送信する。すると、素材管理端末3は、これを専用プログラム上のGUIの表示画面において、サムネイル上に提示する。
First, in step S101, the unnecessary detection means 110 performs an unnecessary detection process.
The unnecessary detection means 110 detects an unnecessary editing part including the color bar of the material data 210 selected as the deletion target, the display of specific characters, and any combination of the recorded video and the black video. Then, it is transmitted to the material management terminal 3. Then, the material management terminal 3 presents this on the thumbnail on the GUI display screen on the dedicated program.

図5により、編集不必要部分の素材管理端末3への提示について、具体的に説明する。
図5は、素材管理端末3での素材管理に用いられる専用プログラムにおいて、削除の対象となる素材データ210の部分を削除するGUIを提供する部分削除画面の画面例500を示す。
With reference to FIG. 5, the presentation of the editing unnecessary portion to the material management terminal 3 will be specifically described.
FIG. 5 shows a screen example 500 of a partial deletion screen that provides a GUI for deleting a portion of material data 210 to be deleted in a dedicated program used for material management in the material management terminal 3.

この画面例500の表示欄600は、素材データ210のメタデータ240に対応する情報を示す情報表示欄である。この例では、素材ID、タイトル、サブタイトル、部署名、収録日時等が表示される。 The display field 600 of the screen example 500 is an information display field indicating information corresponding to the metadata 240 of the material data 210. In this example, the material ID, title, subtitle, department name, recording date and time, etc. are displayed.

表示欄610は、タイムライン関連の情報を表示するタイムライン関連欄である。この例では、素材データ210のIN点、OUT点を示す出力タイムライン、再生操作ボタン、タイムライン上の削除範囲及び編集状況を示すバー、削除後の尺長を示す欄、シーンの「サムネイル表示」のボタン、シーン削除のチェックの規定指定ボタン等を含んでいる。このうち、バーにおいて、削除範囲はグレー、編集状況はハッチングで示す。規定指定ボタンは、カラーバー(CB)と黒映像について、規定としてチェックを外すように設定するボタンである。 The display column 610 is a timeline-related column for displaying timeline-related information. In this example, the output timeline indicating the IN point and OUT point of the material data 210, the playback operation button, the bar indicating the deletion range and editing status on the timeline, the column indicating the length after deletion, and the "thumbnail display" of the scene. ”Button, a rule specification button for checking scene deletion, etc. are included. Of these, in the bar, the deletion range is shown in gray and the editing status is shown in hatching. The regulation designation button is a button for setting the color bar (CB) and the black image to be unchecked as a regulation.

表示欄620は、素材データ210の解析結果を含む各シーンのサムネイル画像を表示するサムネイル表示欄である。
この例において、文字が記載された各四角は、シーン検出されたサムネイルを示す。これらの文字は、「A」「B」「C」……が本編素材の各シーン、「開始」が伝送開始のフリップを含むシーン、「完」が伝送終了のフリップを含むシーン、「黒」が黒映像のシーンであることを示す。
さらに、各サムネイルの横には、チェック欄が設けられている。本実施形態において、不必要検出手段110は、各サムネイルのチェックにより、そのシーンを残すか否かを提示する。加えて、このチェックは、後述する削除対象指定を行うための指示の箇所となる。
上述のように、規定指定ボタンが設定されていると、カラーバー(CB)映像、黒映像のシーンに対するサムネイルは、まとめてチェックオフとなる。すなわち、カラーバー(CB)や黒映像等を、自動的に削除対象として表示し、操作を簡便にする。
加えて、各サムネイルをダブルクリックすることで、このシーンからの試写も可能である。
The display field 620 is a thumbnail display field for displaying thumbnail images of each scene including the analysis result of the material data 210.
In this example, each square with the letters indicates a scene-detected thumbnail. For these characters, "A", "B", "C" ... are the scenes of the main material, "start" is the scene including the flip of the transmission start, "finish" is the scene including the flip of the transmission end, "black". Indicates that is a black video scene.
Further, a check box is provided next to each thumbnail. In the present embodiment, the unnecessary detection means 110 presents whether or not to leave the scene by checking each thumbnail. In addition, this check serves as an instruction for specifying the deletion target, which will be described later.
As described above, when the regulation designation button is set, the thumbnails for the color bar (CB) video and the black video scenes are collectively checked off. That is, the color bar (CB), the black image, and the like are automatically displayed as deletion targets to simplify the operation.
In addition, you can preview from this scene by double-clicking each thumbnail.

次に、ステップS102において、重複検出手段120が、重複検出処理を行う。
上述したように、ビデオサーバ1に格納された素材データ210は、重複部分が存在することがある。
重複検出手段120は、情報管理DB2に対して、削除対象の素材データ210のメタデータ240を検索し、類似するメタデータ240の素材データ210を、上述の「他の素材データ210」として選択する。
そして、重複検出手段120は、削除対象の素材データ210と、他の素材データ210とについて、シーン単位で画像類似度やメタデータ240の類似度を比較して、重複部分を検出する。この際、重複検出手段120は、例えば、サムネイルデータ220間の類似度として、DP(Dynamic Programming)法やその他のローカルアラインメント等により比較してアラインメント(整列)し、スコアの合計を類似度として算出してもよい。さらに、重複検出手段120は、この重複部分の検出は、カメラアングル違いのシーンの検出、同じ素材が収録されていることの検出、同じシーンの二重登録等を検出する。
Next, in step S102, the duplication detection means 120 performs the duplication detection process.
As described above, the material data 210 stored in the video server 1 may have overlapping portions.
The duplication detection means 120 searches the information management DB 2 for the metadata 240 of the material data 210 to be deleted, and selects the material data 210 of the similar metadata 240 as the above-mentioned "other material data 210". ..
Then, the duplication detecting means 120 detects the overlapping portion by comparing the image similarity and the similarity of the metadata 240 with respect to the material data 210 to be deleted and the other material data 210 on a scene-by-scene basis. At this time, the duplication detection means 120, for example, aligns (aligns) the thumbnail data 220 with each other by a DP (Dynamic Programming) method or other local alignment, and calculates the total score as the similarity. You may. Further, the duplication detecting means 120 detects scenes having different camera angles, detection that the same material is recorded, double registration of the same scene, and the like.

図6により、重複部分の素材管理端末3への提示について、具体的に説明する。
図6は、素材管理端末3での素材管理に用いられる専用プログラムにおいて、重複部分を提示する素材比較画面の画面例501を示す。
The presentation of the overlapping portion to the material management terminal 3 will be specifically described with reference to FIG.
FIG. 6 shows a screen example 501 of a material comparison screen that presents overlapping portions in a dedicated program used for material management in the material management terminal 3.

表示欄630は、上述の部分削除画面の画面例500の表示欄600の情報表示欄、及び表示欄610のタイムライン関連欄と類似する表示欄である。この例では、削除対象の素材データ210が「素材1」、他の素材データ210が「素材2」としてタブ表示可能なように構成されている。 The display column 630 is a display column similar to the information display column of the display column 600 of the screen example 500 of the above-mentioned partial deletion screen and the timeline-related column of the display column 610. In this example, the material data 210 to be deleted is configured to be tab-displayable as "material 1" and the other material data 210 as "material 2".

表示欄640は、上述の画面例500の表示欄620と同様のサムネイル表示欄である。重複検出手段120は、削除対象の素材データ210と、他の素材データ210とを比較できるように、検出された重複部分を提示する。この例では、アラインメントされた「A」「B」「C」……と、類似の「A’」「B’」「C’」のシーンのサムネイルが並べて提示されることで、比較が可能となる。さらに、各サムネイルの横には、削除対象指定を行うためのチェック欄が設けられている。加えて、素材1、素材2等の単位で素材データ210そのものの削除を行うための「素材1削除」「素材2削除」のボタンが設けられている。 The display field 640 is a thumbnail display field similar to the display field 620 of the screen example 500 described above. The duplication detecting means 120 presents the detected duplication portion so that the material data 210 to be deleted can be compared with other material data 210. In this example, the aligned "A", "B", "C" ... and thumbnails of similar "A'", "B'", "C'" scenes are presented side by side for comparison. Become. Further, next to each thumbnail, a check column for designating the deletion target is provided. In addition, there are "Delete Material 1" and "Delete Material 2" buttons for deleting the material data 210 itself in units of the material 1, the material 2, and the like.

次に、ステップS103において、編集履歴提示手段130が、編集状況提示処理を行う。
編集履歴提示手段130は、削除対象の素材データ210の編集情報230を情報管理DB2から取得して、これに含まれる編集での利用履歴を取得する。編集履歴提示手段130は、利用履歴に含まれる編集状況の情報を、各シーンのサムネイルに提示する。この際、編集履歴提示手段130は、編集情報230の編集EDLに基づいて、利用履歴から編集状況を算出して、利用されているシーンのサムネイルにマークを提示してもよい。
Next, in step S103, the editing history presenting means 130 performs the editing status presenting process.
The editing history presenting means 130 acquires the editing information 230 of the material data 210 to be deleted from the information management DB 2 and acquires the usage history for editing included therein. The editing history presenting means 130 presents information on the editing status included in the usage history in thumbnails of each scene. At this time, the editing history presenting means 130 may calculate the editing status from the usage history based on the editing EDL of the editing information 230 and present the mark on the thumbnail of the scene being used.

再び図5に戻って説明すると、表示欄620において、編集履歴提示手段130は、編集に利用された各シーンのサムネイル画像の上部に、編集状況を提示する。この例では、編集に利用されている部分がハッチングで表示され、利用されているシーンであることが示されている。同様に、表示欄610においても、タイムラインのバー上で、編集状況に基づいて、利用されている箇所がハッチング表示にて提示されている。
なお、図6においても、同様に、削除対象の素材データ210、及び他の素材データ210のそれぞれについて、編集状況を提示することが可能である。
Returning to FIG. 5 again, in the display field 620, the editing history presenting means 130 presents the editing status at the upper part of the thumbnail image of each scene used for editing. In this example, the part used for editing is displayed by hatching, and it is shown that the scene is used. Similarly, in the display column 610, the used portion is presented in a hatched display on the bar of the timeline based on the editing status.
Similarly, in FIG. 6, it is possible to present the editing status of each of the material data 210 to be deleted and the other material data 210.

次に、ステップS104において、削除指定手段140が、削除指定処理を行う。
削除指定手段140は、素材管理端末3の専用プログラムのGUI上で、ユーザーにより指定された素材データ210の削除対象箇所についての情報を、削除対象箇所指定として取得する。
すなわち、本実施形態においては、素材管理端末3は、編集状況を確認させた上で、編集不必要部分及び重複部分について、どのシーンを削除するかについての削除対象箇所指定を取得し、ビデオサーバ1へ送信することが可能である。
Next, in step S104, the deletion designation means 140 performs the deletion designation process.
The deletion designation means 140 acquires information about the deletion target location of the material data 210 designated by the user as the deletion target location designation on the GUI of the dedicated program of the material management terminal 3.
That is, in the present embodiment, after confirming the editing status, the material management terminal 3 acquires the deletion target location designation regarding which scene to delete for the editing unnecessary portion and the overlapping portion, and the video server. It is possible to send to 1.

図5、図6の例で説明すると、ユーザーが表示欄620又は表示欄640のサムネイル表示欄においては、表示されたサムネイル上のチェックの有無を削除対象箇所指定として取得可能である。すなわち、ユーザーがチェックを外す操作をすると、削除対象箇所として指定される。これにより、素材データ210の不要な箇所を削除対象箇所として指定したり、同様の内容の箇所の重複する部分を削除対象箇所として指定したりすることが可能となる。 Explaining with the example of FIGS. 5 and 6, the user can acquire the presence or absence of the check on the displayed thumbnail as the deletion target location designation in the thumbnail display field of the display field 620 or the display field 640. That is, when the user unchecks it, it is designated as the deletion target location. As a result, it is possible to specify an unnecessary part of the material data 210 as a part to be deleted, or to specify a duplicated part having the same contents as a part to be deleted.

次に、ステップS105において、映像削除手段150が、映像削除処理を行う。
映像削除手段150は、削除対象箇所指定されたサムネイルに対応するシーンを、削除対象の素材データ210から削除する。
この際、映像削除手段150は、削除するシーンを確実に削除するため、当該シーンの境界の特定時間分は削除しないように構成してもよい。この特定時間は、例えば、数フレーム〜数十秒等の単位時間で、素材管理端末3の専用プログラムにて、ユーザーが指定可能であってもよい。また、MPEGのGOP(Group of Pictures)の構造に対応した境界になるように削除したり、削除時にIピクチャを作成したりしてもよい。
このような削除により、素材データ210の尺が短くなり、記憶容量が削減される。
以上により、本実施形態の素材削除処理を終了する。
Next, in step S105, the video deletion means 150 performs the video deletion process.
The video deleting means 150 deletes the scene corresponding to the thumbnail designated as the deletion target location from the material data 210 to be deleted.
At this time, in order to reliably delete the scene to be deleted, the video deleting means 150 may be configured not to delete the specific time of the boundary of the scene. This specific time is, for example, a unit time of several frames to several tens of seconds, and may be specified by the user in the dedicated program of the material management terminal 3. Further, it may be deleted so as to have a boundary corresponding to the structure of GOP (Group of Pictures) of MPEG, or an I picture may be created at the time of deletion.
By such deletion, the length of the material data 210 is shortened, and the storage capacity is reduced.
As described above, the material deletion process of the present embodiment is completed.

以上のように構成することで、以下のような効果を得ることができる。
従来のビデオサーバシステム、特に編集装置を含むようなシステムでは、編集元の素材データ210が大量に蓄積されることがある。たとえば、イベント等でビデオサーバシステムの通常運用想定以上に素材データ210が入力されるとビデオサーバ1の記憶容量が上限に達してしまうことがある。このため、ビデオサーバ1に格納される素材データ210の容量を削減したいという技術的なニーズが存在した。
With the above configuration, the following effects can be obtained.
In a conventional video server system, particularly a system including an editing device, a large amount of material data 210 as an editing source may be accumulated. For example, if the material data 210 is input more than the normal operation assumption of the video server system at an event or the like, the storage capacity of the video server 1 may reach the upper limit. Therefore, there is a technical need to reduce the capacity of the material data 210 stored in the video server 1.

これに対して、本発明の実施の形態に係るビデオサーバシステムは、収録された映像を含む素材データ210のカラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせを含む編集不必要部分を検出して提示する不必要検出手段110と、素材データ210と、他の素材データ210との比較により重複部分を検出して提示する重複検出手段120と、素材データ210の編集での利用履歴により、編集に利用された箇所についての編集状況を提示する編集履歴提示手段130と、素材データ210の各シーンの該当サムネイルを表示し、当該サムネイル毎に、不必要検出手段110により提示された編集不必要部分、重複検出手段120により提示された重複部分、及び、編集履歴提示手段130により提示された編集状況に対応して、素材データ210の削除対象箇所指定を取得する削除指定手段140と、削除指定手段140により取得された削除対象箇所に対応するシーンを、素材データ210から削除する映像削除手段150とを備えることを特徴とする。 On the other hand, the video server system according to the embodiment of the present invention is not editable including any or any combination of the color bar of the material data 210 including the recorded video, the display of specific characters, and the black video. Unnecessary detection means 110 that detects and presents a necessary part, duplicate detection means 120 that detects and presents a duplicate part by comparing the material data 210 with other material data 210, and editing of the material data 210. Based on the usage history, the editing history presenting means 130 that presents the editing status of the part used for editing and the corresponding thumbnail of each scene of the material data 210 are displayed, and each thumbnail is presented by the unnecessary detecting means 110. The deletion designation means 140 for acquiring the deletion target location designation of the material data 210 in response to the editing unnecessary portion, the duplicate portion presented by the duplicate detection means 120, and the editing status presented by the edit history presentation means 130. It is characterized in that the video deletion means 150 for deleting the scene corresponding to the deletion target portion acquired by the deletion designation means 140 from the material data 210 is provided.

このように構成し、シーン検出された素材のダイジェストを示すサムネイルを表示し、削除対象箇所に指定することで、削除する箇所を容易に閲覧して確認しつつ、素材データ210から不要な映像を適切に削除することができる。これにより、不必要な映像が保存されないため、ビデオサーバ1の記憶容量を削減可能となる。よって、ビデオサーバ1の記憶容量に余裕をもたせることができる。 By configuring in this way, displaying thumbnails showing the digest of the material whose scene was detected, and specifying it as the deletion target location, you can easily browse and check the deletion target location, and display unnecessary images from the material data 210. Can be deleted appropriately. As a result, unnecessary video is not saved, so that the storage capacity of the video server 1 can be reduced. Therefore, a margin can be provided in the storage capacity of the video server 1.

さらに、従来から、素材データ210は、冒頭にカラーバー(調整用信号)、本編素材、黒映像の順で作成されていることが多かった。すなわち、収録をする際、カラーバーや黒映像等の映像も素材データ210に収録されていた。一つの映像に含まれるカラーバーや黒映像の時間は少なくても、多くの素材データ210を格納するビデオサーバ1では、記憶容量を圧迫していた。
しかしながら、カラーバーについては、放送局等によりパターンに違いがあるため、単純にパターンを登録しても、検出することはできなかった。
これに対して、本実施形態のビデオサーバシステムは、収録された映像を含む素材データ210のカラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせを含む編集不必要部分を学習する学習手段100を備えることを特徴とする。
このように構成することで、カラーバーや黒映像を機械学習させ検出することが可能となる。よって、ビデオサーバ1に格納される素材データ210の記憶容量を削減可能となる。さらに、後述するように、検出条件にヒットした場合はカラーバーや黒映像は、検出後に自動的に除去することも可能となる。
Further, conventionally, the material data 210 has often been created in the order of the color bar (adjustment signal), the main material, and the black image at the beginning. That is, at the time of recording, images such as color bars and black images were also recorded in the material data 210. Even if the time for the color bar and the black image included in one image is short, the video server 1 that stores a large amount of material data 210 has put pressure on the storage capacity.
However, since the pattern of the color bar differs depending on the broadcasting station or the like, it could not be detected even if the pattern was simply registered.
On the other hand, the video server system of the present embodiment learns the color bar of the material data 210 including the recorded video, the display of specific characters, and the unnecessary editing part including any or any combination of the black video. It is characterized in that the learning means 100 is provided.
With this configuration, it is possible to perform machine learning and detect color bars and black images. Therefore, the storage capacity of the material data 210 stored in the video server 1 can be reduced. Further, as will be described later, when the detection condition is hit, the color bar and the black image can be automatically removed after the detection.

加えて、従来のビデオサーバシステムにおける素材管理では、ビデオサーバ1へ保管後に本編以外の部分は不要であるため、従来は、映像を再生し、削除範囲のIN点、OUT点を指定して削除していた。この際、画面上では、メタデータ240のみしか確認できず、素材の中身は確認できなかった。さらに、操作画面が、素材を再生しながらIN点、OUT点を指定するだけなので、操作が煩雑であった。
これに対して、本実施形態のビデオサーバシステムは、サムネイルに提示された箇所を選択するという従来より容易な操作で、素材データ210の削除可否判断を行い、必要部分だけを選別し、不要箇所を削除することが可能となる。この際、カラーバーや黒映像等についても、自動的に削除対象として提示し、操作を簡便にすることができる。
In addition, in the material management in the conventional video server system, since the part other than the main part is unnecessary after being stored in the video server 1, the video is conventionally played and deleted by designating the IN point and OUT point of the deletion range. Was. At this time, only the metadata 240 could be confirmed on the screen, and the contents of the material could not be confirmed. Further, since the operation screen only specifies the IN point and the OUT point while playing back the material, the operation is complicated.
On the other hand, in the video server system of the present embodiment, the material data 210 can be deleted or not, and only the necessary parts are selected by the simpler operation of selecting the part presented in the thumbnail, and the unnecessary part is selected. Can be deleted. At this time, the color bar, the black image, and the like can be automatically presented as deletion targets to simplify the operation.

さらに、本実施形態のビデオサーバシステムは、編集情報230は編集EDLの情報を含み、編集で利用されている部分にマークで提示することを特徴とする。
このように構成し、編集情報230で素材の利用履歴を管理しておき、編集状況を提示することで、ユーザーの削除可否判断を支援し、削除すべきでない箇所の削除を防ぐことが可能となる。
Further, the video server system of the present embodiment is characterized in that the editing information 230 includes the information of the editing EDL and is presented as a mark on the portion used for editing.
By configuring in this way, managing the usage history of the material with the editing information 230, and presenting the editing status, it is possible to support the user's decision on whether or not to delete and prevent the deletion of parts that should not be deleted. Become.

従来、収録する映像を送る側(伝送側)で、フリップ等に「以上で伝送を終わります」等と記載して、それを撮影し続けることがあった。これらが素材データ210に含まれ、ビデオサーバ1の記憶容量を圧迫することがあった。さらに、従来、フリップ等に伝送される映像のタイトルを記載して撮影し、その後、本編を撮影することがあった。この「タイトルを撮影」した映像も、記憶容量を圧迫していた。
これに対して、本発明の実施の形態に係るビデオサーバシステムは、特定文字は、素材データ210のタイトル又は伝送終了の文字を含むことを特徴とする。
このように構成することで、フリップ等に記載された素材データ210のタイトル又は伝送終了の特定文字を検出した場合、これを削除することができ、ビデオサーバ1に格納される素材データ210の記憶容量を少なくすることができる。
In the past, on the side that sends the video to be recorded (transmission side), there was a case where a flip or the like was described as "the transmission is finished" and the like, and the shooting was continued. These are included in the material data 210, which may put pressure on the storage capacity of the video server 1. Further, conventionally, the title of the video transmitted to the flip or the like is described and photographed, and then the main part is photographed. This "title shot" video also put pressure on the storage capacity.
On the other hand, the video server system according to the embodiment of the present invention is characterized in that the specific character includes the title of the material data 210 or the character of the end of transmission.
With this configuration, when the title of the material data 210 or the specific character of the end of transmission described in the flip or the like is detected, this can be deleted and the material data 210 stored in the video server 1 is stored. The capacity can be reduced.

従来、ビデオサーバに保管する素材には、同じ内容がカメラアングル違いで複数存在したり、複数の担当者が同じ素材を収録したり、バックアップ収録などによって同じ素材が二重に登録されていたりした。
これに対して、本発明の実施の形態に係るは、重複検出手段120は、同じ内容がカメラアングル違いで複数存在したり、複数の担当者が同じ素材を収録したり、バックアップ収録によって同じ素材が二重に登録されていたりすることを比較して、重複部分を検出することを特徴とする。
このように構成することで、類似素材の比較表示により、重複する部分を削除指定できる。これにより、ビデオサーバ1に格納される素材データ210の記憶容量を少なくすることができる。
Conventionally, the same content may exist multiple times with different camera angles in the material stored in the video server, the same material may be recorded by multiple persons in charge, or the same material may be registered twice by backup recording. ..
On the other hand, according to the embodiment of the present invention, the duplicate detection means 120 has the same content in a plurality of different camera angles, a plurality of persons in charge record the same material, or the same material is recorded by backup recording. It is characterized in that the overlapping part is detected by comparing the fact that is registered twice.
With this configuration, overlapping parts can be deleted and specified by comparing and displaying similar materials. As a result, the storage capacity of the material data 210 stored in the video server 1 can be reduced.

なお、上述の実施の形態では、一旦、ビデオサーバ1に格納された素材データ210の部分的な削除を行う例について記載した。
しかしながら、本発明のビデオサーバシステムは、素材データ210の素材管理時の削除のみならず、収録装置5からの素材データ210の収録時、アーカイブ装置7からの素材データ210の部分取り戻しの際等にも適用することが可能である。
In the above-described embodiment, an example of partially deleting the material data 210 stored in the video server 1 has been described.
However, the video server system of the present invention not only deletes the material data 210 at the time of material management, but also at the time of recording the material data 210 from the recording device 5, and partially recovering the material data 210 from the archiving device 7. Can also be applied.

たとえば、本発明の他の実施の形態に係るビデオサーバシステムとして、特定文字を検出することにより、収録開始又は終了の制御を行ってもよい。
このように構成し、本発明を収録時に適用する場合、フリップ等に記載された文字を検出することにより、収録を制御することが可能である。具体的には、収録装置5等で読み込んだ映像から特定文字を検出した場合、収録を開始又は終了(停止)することで、ビデオサーバ1のビデオストレージに格納される素材データ210の記憶容量を低減することが可能となる。
さらに、例えば、伝送側が伝送開始のフリップを掲げれば、収録を開始し、同様に、伝送終了のフリップを掲げれば、収録を終了することができる。すなわち、特定文字を検出した場合、収録を開始又は終了することが可能である。このため、収録操作をするユーザーが指示しなくても、自動的に収録をすることが可能となり、省力化することも可能となる。
For example, as a video server system according to another embodiment of the present invention, recording start or end may be controlled by detecting a specific character.
When the present invention is applied at the time of recording with such a configuration, it is possible to control the recording by detecting the characters written on the flip or the like. Specifically, when a specific character is detected from the video read by the recording device 5 or the like, the storage capacity of the material data 210 stored in the video storage of the video server 1 is increased by starting or ending (stopping) the recording. It is possible to reduce it.
Further, for example, if the transmission side raises the flip for starting transmission, recording can be started, and similarly, if the flip for ending transmission is raised, recording can be ended. That is, when a specific character is detected, recording can be started or ended. Therefore, it is possible to automatically record without instructing the user who performs the recording operation, and it is also possible to save labor.

上述の実施の形態では、サムネイルを表示し、削除対象箇所指定を取得してから、素材データのシーンを削除するように記載した。
しかしながら、映像削除手段150は、検索された編集不必要部分及び重複部分を素材データ210から自動的に削除するように構成してもよい。この際、編集状況によっては、素材データ210から、そのシーンを削除しないように構成してもよい。この場合、編集に一度でも使用されたか、又は、特定の閾値以上、使用されたシーンについては、削除しないように構成することが可能である。
In the above-described embodiment, it is described that the thumbnail is displayed, the deletion target location designation is acquired, and then the scene of the material data is deleted.
However, the video deleting means 150 may be configured to automatically delete the searched unnecessary editing unnecessary portion and the duplicated portion from the material data 210. At this time, depending on the editing situation, the scene may be configured not to be deleted from the material data 210. In this case, it is possible to configure the scenes that have been used even once for editing or that have been used for a certain threshold or more so as not to be deleted.

さらに、学習手段100を用いずに、既に学習された学習データ200を用いて、編集不必要部分を削除するような構成も可能である。 Further, it is possible to delete unnecessary editing parts by using the already learned learning data 200 without using the learning means 100.

さらに、本実施の形態における各手段は、それぞれ独立したハードウェアで実現されなくてもよく、さらに一つのハードウェアで複数の手段を実現してもよい。 Further, each means in the present embodiment does not have to be realized by independent hardware, and a plurality of means may be realized by one hardware.

具体的には、上述の実施の形態では、ビデオサーバ1により、各種処理を行うように記載した。
しかしながら、収録装置5が、収録時に、送出する映像データにメタデータ240を付加させたり、収録時にシーンを検出したり、カットサムネイルを作成して、メタデータ240やサムネイルデータ220を作成したりするように構成することも可能である。
このように構成することで、柔軟な構成に対応できる。
Specifically, in the above-described embodiment, it is described that various processes are performed by the video server 1.
However, the recording device 5 adds metadata 240 to the video data to be transmitted at the time of recording, detects a scene at the time of recording, creates a cut thumbnail, and creates metadata 240 and thumbnail data 220. It is also possible to configure it as follows.
By configuring in this way, a flexible configuration can be supported.

なお、上記実施の形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。 Needless to say, the configuration and operation of the above embodiment are examples, and can be appropriately modified and executed without departing from the spirit of the present invention.

1 ビデオサーバ
2 情報管理DB
3 素材管理端末
4 撮像部
5 収録装置
6 編集装置
7 アーカイブ装置
8 送出サーバ
10 制御部
11、21 記憶部
100 学習手段
110 不必要検出手段
120 重複検出手段
130 編集履歴提示手段
140 削除指定手段
150 映像削除手段
200 学習データ
210 素材データ
220 サムネイルデータ
230 編集情報
240 メタデータ
500、501 画面例
600、610、620、630、640 表示欄
N ネットワーク
X ビデオサーバシステム
1 Video server 2 Information management DB
3 Material management terminal 4 Imaging unit 5 Recording device 6 Editing device 7 Archive device 8 Transmission server 10 Control unit 11, 21 Storage unit 100 Learning means 110 Unnecessary detection means 120 Duplicate detection means 130 Editing history presentation means 140 Deletion designation means 150 Video Deletion means 200 Learning data 210 Material data 220 Thumb data 230 Editing information 240 Metadata 500, 501 Screen example 600, 610, 620, 630, 640 Display field N Network X Video server system

Claims (4)

収録された映像を含む素材データのカラーバー、特定文字の表示、及び黒映像のいずれか又は任意の組み合わせを含む編集不必要部分を検出して提示する不必要検出手段と、
前記素材データと、他の素材データとの比較により重複部分を検出して提示する重複検出手段と、
前記素材データの編集での利用履歴により、編集に利用された箇所についての編集状況を提示する編集履歴提示手段と、
前記素材データの各シーンのサムネイルを表示し、当該サムネイル毎に、前記不必要検出手段により提示された前記編集不必要部分、前記重複検出手段により提示された前記重複部分、及び、前記編集履歴提示手段により提示された前記編集状況に対応して、前記素材データの削除対象箇所指定を取得する削除指定手段と、
前記削除指定手段により取得された前記削除対象箇所に対応する前記シーンを、前記素材データから削除する映像削除手段とを備える
ことを特徴とするビデオサーバシステム。
Unnecessary detection means that detects and presents unnecessary editing parts including any or any combination of color bars of material data including recorded images, display of specific characters, and black images.
A duplication detecting means for detecting and presenting an overlapping portion by comparing the material data with other material data,
An editing history presenting means for presenting the editing status of a part used for editing based on the usage history for editing the material data.
Thumbnails of each scene of the material data are displayed, and for each thumbnail, the editing unnecessary portion presented by the unnecessary detecting means, the overlapping portion presented by the duplication detecting means, and the editing history presentation. In response to the editing status presented by the means, the deletion designation means for acquiring the deletion target location designation of the material data, and the deletion designation means.
A video server system including a video deleting means for deleting the scene corresponding to the deletion target portion acquired by the deletion designating means from the material data.
前記特定文字は、前記素材データのタイトル又は伝送終了の文字を含む
ことを特徴とする請求項1に記載のビデオサーバシステム。
The video server system according to claim 1, wherein the specific character includes the title of the material data or the character of the end of transmission.
前記特定文字を検出することにより収録開始又は終了の制御を行う
ことを特徴とする請求項1又は2に記載のビデオサーバシステム。
The video server system according to claim 1 or 2, wherein the recording start or end is controlled by detecting the specific character.
前記重複検出手段は、
同じ内容がカメラアングル違いで複数存在したり、複数の担当者が同じ素材を収録したり、バックアップ収録によって同じ素材が二重に登録されていたりすることを比較して、前記重複部分を検出する
ことを特徴とする請求項1ないし3のいずれか1項に記載のビデオサーバシステム。
The duplicate detection means
The overlapping part is detected by comparing that the same content exists multiple times with different camera angles, multiple persons in charge record the same material, or the same material is registered twice by backup recording. The video server system according to any one of claims 1 to 3, wherein the video server system is characterized in that.
JP2019033493A 2019-02-27 2019-02-27 Video server system Pending JP2020141178A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019033493A JP2020141178A (en) 2019-02-27 2019-02-27 Video server system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019033493A JP2020141178A (en) 2019-02-27 2019-02-27 Video server system

Publications (1)

Publication Number Publication Date
JP2020141178A true JP2020141178A (en) 2020-09-03

Family

ID=72280587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019033493A Pending JP2020141178A (en) 2019-02-27 2019-02-27 Video server system

Country Status (1)

Country Link
JP (1) JP2020141178A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022231234A1 (en) * 2021-04-29 2022-11-03 키네마스터 주식회사 Method and device for controlling video editing ui to provide edit history information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022231234A1 (en) * 2021-04-29 2022-11-03 키네마스터 주식회사 Method and device for controlling video editing ui to provide edit history information

Similar Documents

Publication Publication Date Title
US9124860B2 (en) Storing a video summary as metadata
US8432965B2 (en) Efficient method for assembling key video snippets to form a video summary
US7739599B2 (en) Automatic capturing and editing of a video
US8446490B2 (en) Video capture system producing a video summary
JP4656454B2 (en) Recording apparatus and method, reproducing apparatus and method, and program
EP3185539A1 (en) Information processing apparatus, imaging apparatus, image display control method and computer program
US7680393B2 (en) Content editing assistance system, video processing apparatus, playback apparatus, editing apparatus, computer program, and content processing method
JP4923517B2 (en) Imaging device, imaging method, and semiconductor device
US9451200B2 (en) Storage access technique for captured data
JP5783737B2 (en) Image pickup apparatus and moving image recording apparatus control method
US20040240005A1 (en) Editing apparatus and method using thumbnail image
JP3685730B2 (en) Image search device and surveillance camera system using the same
JP2020141178A (en) Video server system
JP5818599B2 (en) Movie recording device
JP2004180279A (en) Content editing support system, video processing apparatus, reproducing apparatus, editing apparatus, computer program, and content processing method
JP4946935B2 (en) Imaging device
US8437390B2 (en) Imaging apparatus
JP2012161047A (en) Image recorder
JP2003189228A (en) Picture recorder
US20050055711A1 (en) Moving picture system and moving picture extraction method
JP3747501B2 (en) Video data recording apparatus and method
JP2006092681A (en) Image management method, image management device and image management system
JP3840125B2 (en) Image processing device
JP2000261744A (en) Method and system for photographing video image for edit with object information acquisition function and storage medium recording program describing this method
JP6049369B2 (en) Image processing apparatus and image processing apparatus control method