JP4117617B2 - Editing system and control method thereof - Google Patents

Editing system and control method thereof Download PDF

Info

Publication number
JP4117617B2
JP4117617B2 JP2003282002A JP2003282002A JP4117617B2 JP 4117617 B2 JP4117617 B2 JP 4117617B2 JP 2003282002 A JP2003282002 A JP 2003282002A JP 2003282002 A JP2003282002 A JP 2003282002A JP 4117617 B2 JP4117617 B2 JP 4117617B2
Authority
JP
Japan
Prior art keywords
video
editing
edited
audio
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003282002A
Other languages
Japanese (ja)
Other versions
JP2005051544A (en
Inventor
伸夫 中村
文雄 清水
秀明 宮内
健志 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003282002A priority Critical patent/JP4117617B2/en
Priority to US10/900,873 priority patent/US7424202B2/en
Publication of JP2005051544A publication Critical patent/JP2005051544A/en
Application granted granted Critical
Publication of JP4117617B2 publication Critical patent/JP4117617B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、編集システム及びその制御方法に関し、例えばテレビジョン放送局で用いるオンエアーシステムに適用して好適なものである。   The present invention relates to an editing system and a control method therefor, and is suitable for application to an on-air system used in, for example, a television broadcasting station.

従来、オンエアーシステムに用いられる編集装置においては、所望する映像音声素材(以下、これをクリップと呼ぶ)の映像を目視確認しながらどのクリップとどのクリップとをどのように繋げて編集映像音声を得るかといった編集内容を規定した編集リストを作成し得るようになされ、さらにこのようにして作成された編集リストに基づいて対応するクリップの映像音声データを加工編集処理することにより、当該編集リストに基づく編集映像音声を生成し得るようになされている(例えば特許文献1参照)。
特開平11−66816号公報
Conventionally, in an editing apparatus used in an on-air system, a video and audio material (hereinafter referred to as a clip) that is desired is visually checked and a clip is connected to which clip and how to edit the video and audio. An edit list that stipulates the edit contents such as whether to obtain can be created, and by further processing and editing the video and audio data of the corresponding clip based on the edit list created in this way, Based on this, it is possible to generate an edited video / audio (see Patent Document 1, for example).
JP-A-11-66816

ところで、上述のような編集リストの作成作業は、通常、放送に用いる高解像度の映像音声データを用いて実際に当該編集リストに基づく加工編集処理を編集装置に行わせ、得られた編集映像音声を目視等により確認しながら行われる。   By the way, the editing list creation operation as described above is usually performed by using an editing apparatus that actually performs processing editing processing based on the editing list using high-resolution video / audio data used for broadcasting. Is carried out while visually confirming.

そしてこの場合、編集装置は、かかる加工編集処理を、取材等により得られた各種クリップが蓄積された大容量のAV(Audio Video)サーバから必要な映像音声データを読み出し、これを編集リストに従って加工編集処理することにより行っていた。   In this case, the editing apparatus reads the necessary video / audio data from a large-capacity AV (Audio Video) server in which various types of clips obtained by interviews, etc. are accumulated, and processes this according to the editing list. It was done by editing.

しかしながら、かかる高解像度の映像音声データはデータ量も多く、当該映像音声データをAVサーバから読み出し、これを編集装置に転送するには多くの時間を必要とする。このため編集装置に対して編集映像音声の再生命令を入力後、実際に編集映像音声が表示又は出力されるまでに相当の待ち時間が発生し、編集作業の作業効率を低下させる要因ともなっていた。   However, such high-resolution video / audio data has a large amount of data, and it takes a lot of time to read the video / audio data from the AV server and transfer it to the editing apparatus. For this reason, after inputting the playback instruction of the edited video / audio to the editing apparatus, a considerable waiting time is generated until the edited video / audio is actually displayed or output, which has been a factor of reducing the work efficiency of the editing work. .

かかる課題を解決するための1つの方法として、編集装置及びAVサーバ間に例えば半導体メモリからなる大容量のバッファを設け、編集リストの作成作業時には当該編集リストの作成作業の進行状況に応じて必要な映像音声データをAVサーバから当該バッファに自動的に順次読み込み、編集映像音声の再生命令が与えられたときにはこのバッファに蓄積された映像音声データを利用して当該編集リストに基づく加工編集処理を行うことにより、編集映像音声を迅速に視聴できるようにすることが本願特許出願人により考えられている。   As one method for solving this problem, a large-capacity buffer made of, for example, a semiconductor memory is provided between the editing apparatus and the AV server, and it is necessary according to the progress of the editing list creation work when the editing list is created. The video / audio data is automatically read sequentially from the AV server into the buffer, and when an edited video / audio playback command is given, the video / audio data stored in the buffer is used to perform processing and editing processing based on the edit list. By doing so, it is considered by the applicant of the present patent application that the edited video and audio can be viewed quickly.

しかしながらこの方法によると、例えば他の編集装置において作成された編集リストの作成作業の続きをその編集装置において行う場合に、当該編集リストに基づく編集映像音声を得るために必要な映像音声データがバッファに読み込まれていないことから、当該編集リストに基づく編集映像音声を視聴する際には、結局、従来の場合と同様に、編集装置がバッファを介してAVサーバから必要な映像音声データを取り込むまでの間、相当の待ち時間が発生する問題がある。   However, according to this method, for example, when the edit list created in another editing apparatus is continued in the editing apparatus, the video / audio data necessary for obtaining the edited video / audio based on the edit list is buffered. Therefore, when viewing the edited video / audio based on the edit list, the editing device eventually takes in the necessary video / audio data from the AV server via the buffer, as in the conventional case. During this period, there is a problem that considerable waiting time occurs.

本発明は以上の点を考慮してなされたもので、編集作業の作業効率を格段的に向上させ得る編集システム及びその制御方法を提案しようとするものである。   The present invention has been made in view of the above points, and an object of the present invention is to propose an editing system and a control method thereof that can significantly improve the work efficiency of editing work.

かかる課題を解決するため本発明においては、編集システムにおいて、被編集素材の映像データを記憶保持する第1の記憶保持手段よりも高いアクセス性を有し、当該第1の記憶保持手段から読み出された被編集素材の映像データを記憶保持する第2の記憶保持手段と、選択されたファイルに格納された編集リストに従って第2の記憶保持手段から必要な映像データを読み出し加工編集処理するようにして、当該編集リストに応じた編集映像を生成する編集手段と、第1及び第2の記憶保持手段を制御する制御手段とを設け、編集手段が、選択されたファイルを開くときに、当該ファイルに格納された編集リストに基づく編集映像の生成に必要な映像データの読出し要求を制御手段に与え、制御手段が、この読出し要求に応じて第1及び第2の記憶保持手段を制御することにより、編集映像の生成に必要な映像データのうち被編集素材の編集点近傍の映像データを優先的に第1の記憶保持手段に読み出させて第2の記憶保持手段に記憶保持させるようにした。
In order to solve such a problem, in the present invention, the editing system has higher accessibility than the first memory holding means for storing and holding the video data of the material to be edited, and reads from the first memory holding means. Second storage holding means for storing and holding the video data of the edited material, and reading and processing the necessary video data from the second storage holding means in accordance with the editing list stored in the selected file. An editing means for generating an edited video corresponding to the editing list, and a control means for controlling the first and second storage holding means, and when the editing means opens the selected file, the file A video data read request necessary for generating an edited video based on the edit list stored in the control list is given to the control means, and the control means responds to the read request by the first and second video data. By controlling the storage holding means, the second memory by read the first memory holding means preferentially video data editing point near the edit material out of the image data necessary for generating the edited video retention It was made to memorize and hold the means.

この結果この編集システムでは、選択されたファイルが他の編集手段において作成されたものであっても、編集手段において編集点近傍の映像データを優先的に取得でき、そのファイルに格納された編集リストに応じた編集映像をより迅速に生成することができる。
As a result, in this editing system, even if the selected file is created by another editing means, the editing means can preferentially acquire video data near the editing point, and the editing list stored in the file It is possible to generate an edited video according to the speed more quickly.

また本発明においては、編集システムの制御方法において、被編集素材の映像データを第1の記憶保持手段に記憶保持させる第1のステップと、当該第1の記憶保持手段から読み出された映像データを、第1の記憶保持手段よりも速いアクセス性を有する第2の記憶保持手段に記憶保持させる第2のステップと、選択されたファイルに格納された編集リストに従って第2の記憶保持手段から必要な映像データを読み出して加工編集するようにして、当該編集リストに応じた編集映像を生成する第3のステップとを設け、第3のステップでは、編集手段において、選択されたファイルを開くときに当該ファイルに格納された編集リストに基づく上記編集映像の生成に必要な上記映像データのうち、上記被編集素材の編集点近傍の上記映像データを優先的に第1の記憶保持手段に読み出させて第2の記憶保持手段に記憶保持させるようにした。
According to the present invention, in the control method of the editing system, the first step of storing the video data of the material to be edited in the first storage holding unit, and the video data read from the first storage holding unit Is stored in the second storage holding means having faster access than the first storage holding means, and is required from the second storage holding means in accordance with the edit list stored in the selected file. A third step of generating edited video corresponding to the editing list by reading out and editing the video data, and in the third step, when the selected file is opened in the editing means among the image data necessary for generating the edited video based on the edit list stored in the file, the video data editing point near the edit material And so as to be stored and retained in the second memory holding means preferentially to read the first memory holding means.

この結果この編集システムの制御方法によれば、選択されたファイルが他の編集手段において作成されたものであっても、編集手段において編集点近傍の映像データを優先的に取得でき、そのファイルに格納された編集リストに応じた編集映像をより迅速に生成することができる。
As a result, according to the control method of this editing system, even if the selected file is created by another editing means, the editing means can preferentially acquire video data near the editing point, and An edit video corresponding to the stored edit list can be generated more quickly.

上述のように本発明によれば、編集システムにおいて、被編集素材の映像データを記憶保持する第1の記憶保持手段よりも高いアクセス性を有し、当該第1の記憶保持手段から読み出された被編集素材の映像データを記憶保持する第2の記憶保持手段と、選択されたファイルに格納された編集リストに従って第2の記憶保持手段から必要な映像データを読み出し加工編集処理するようにして、当該編集リストに応じた編集映像を生成する編集手段と、第1及び第2の記憶保持手段を制御する制御手段とを設け、編集手段が、選択されたファイルを開くときに、当該ファイルに格納された編集リストに基づく編集映像の生成に必要な映像データの読出し要求を制御手段に与え、制御手段が、この読出し要求に応じて第1及び第2の記憶保持手段を制御することにより、選択されたファイルが他の編集手段において作成されたものであっても、編集手段において編集点近傍の映像データを優先的に取得でき、そのファイルに格納された編集リストに応じた編集映像をより迅速に生成することができ、かくして編集作業の作業効率を格段的に向上させ得る編集システムを実現できる。
As described above, according to the present invention, the editing system has higher accessibility than the first storage holding means for storing and holding the video data of the material to be edited, and is read out from the first storage holding means. Second storage holding means for storing and holding video data of the edited material, and necessary video data are read from the second storage holding means according to the editing list stored in the selected file and processed and edited. An editing means for generating an edited video corresponding to the editing list, and a control means for controlling the first and second storage holding means, and when the editing means opens the selected file, A request for reading video data necessary for generating an edited video based on the stored edit list is given to the control means, and the control means responds to the read request by the first and second memory holding means. By controlling, even those that have been selected files created in other editing means, the image data of the editing point near preferentially to get the editing means, according to the edit list stored in the file Thus, it is possible to realize an editing system that can generate the edited video more quickly and thus can greatly improve the efficiency of the editing work.

また本発明によれば、編集システムの制御方法において、被編集素材の映像データを第1の記憶保持手段に記憶保持させる第1のステップと、当該第1の記憶保持手段から読み出された映像データを、第1の記憶保持手段よりも速いアクセス性を有する第2の記憶保持手段に記憶保持させる第2のステップと、選択されたファイルに格納された編集リストに従って第2の記憶保持手段から必要な映像データを読み出して加工編集するようにして、当該編集リストに応じた編集映像を生成する第3のステップとを設け、第3のステップでは、編集手段において、選択されたファイルを開くときに当該ファイルに格納された編集リストに基づく編集映像の生成に必要な映像データを第1の記憶保持手段に読み出させて第2の記憶保持手段に記憶保持させるようにしたことにより、選択されたファイルが他の編集手段において作成されたものであっても、編集手段において編集点近傍の映像データを優先的に取得でき、そのファイルに格納された編集リストに応じた編集映像をより迅速に生成することができ、かくして編集作業の作業効率を格段的に向上させ得る編集システムの制御方法を実現できる。
According to the invention, in the control method of the editing system, the first step of storing the video data of the material to be edited in the first storage holding unit, and the video read from the first storage holding unit A second step of storing data in the second storage holding means having faster access than the first storage holding means, and the second storage holding means according to the edit list stored in the selected file. A third step of generating an edited video corresponding to the editing list by reading out necessary video data and processing and editing, and in the third step, when the selected file is opened in the editing means The video data necessary for generating the edited video based on the edit list stored in the file is read by the first memory holding means and stored in the second memory holding means. By which is adapted to, selected even files be those created in other editing means, can preferentially acquire the image data of the editing point near the editing means, the editing list stored in the file Therefore, it is possible to realize an editing system control method that can rapidly generate an edited video according to the above, and can significantly improve the work efficiency of the editing work.

以下図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)本実施の形態によるオンエアーシステムの構成
図1において、1は全体としてテレビジョン放送局等に設置される本実施の形態によるオンエアーシステムを示し、取材現場から衛星通信回線等を介して転送され、又は図示しないビデオテープレコーダにより取材テープから再生された140〔Mbps〕程度の解像度を有するHDCAM(ソニー株式会社 登録商標)フォーマットの映像音声データ(以下、これを高解像度映像音声データと呼ぶ)D1をルータ2を介して素材サーバ3及びダウンコンバータ4に入力する。
(1) Configuration of on-air system according to this embodiment In FIG. 1, reference numeral 1 denotes an on-air system according to this embodiment installed as a whole in a television broadcasting station or the like. The video / audio data in HDCAM (Sony Corporation) format having a resolution of about 140 [Mbps] reproduced by a video tape recorder (not shown) and reproduced from an interview tape (hereinafter referred to as high-resolution video / audio data). D1 is input to the material server 3 and the down converter 4 via the router 2.

素材サーバ3は、複数のRAID(Redundant
Arrays of Independent Disks)から構成される大容量のAVサーバでなり、パーソナルコンピュータにより構成されるシステム制御部5の制御のもとに、ルータ2を介して供給される一連の高解像度映像音声データD1をファイル化して記憶する。
The material server 3 has a plurality of RAID (Redundant
A series of high-resolution video and audio data D1 supplied via the router 2 under the control of the system control unit 5 constituted by a personal computer. Is stored as a file.

またダウンコンバータ4は、供給される高解像度映像音声データD1を8〔Mbps〕程度の解像度にダウンコンバートすると共に、これをMPEG(Motion Picture Experts Group)フォーマットで圧縮符号化し、かくして得られた低解像度の映像音声データ(以下、これを低解像度映像音声データと呼ぶ)D2をプロキシサーバ6に送出する。   The down-converter 4 down-converts the supplied high-resolution video / audio data D1 to a resolution of about 8 [Mbps] and compresses and encodes this in the MPEG (Motion Picture Experts Group) format. Video / audio data (hereinafter referred to as low-resolution video / audio data) D2 is sent to the proxy server 6.

プロキシサーバ6は、素材サーバ3と同様に、複数のRAIDから構成されるAVサーバでなり、システム制御部5の制御のもとに、ダウンコンバータ4から供給される一連の低解像度映像音声データD2をファイル化して記憶する。このようにしてこのオンエアーシステム1では、素材サーバ3に収録したクリップと同じ内容の低解像度のクリップをプロキシサーバ6に収録する。   Similar to the material server 3, the proxy server 6 is an AV server composed of a plurality of RAIDs, and a series of low-resolution video / audio data D 2 supplied from the down converter 4 under the control of the system control unit 5. Is stored as a file. In this way, in this on-air system 1, a low-resolution clip having the same content as the clip recorded in the material server 3 is recorded in the proxy server 6.

そしてこのプロキシサーバ6に格納された各クリップの低解像度映像音声データD2は、イーサネット(登録商標)7を介してプロキシサーバ6と接続された各プロキシ編集端末装置8〜8及び各編集端末装置9〜9を用いて読み出すことができ、これを利用して素材サーバ3に蓄積されたクリップの中からどのクリップとどのクリップとをどのような順番で繋げて加工編集された映像音声(以下、これを編集映像音声と呼ぶ)を生成するかといったカット編集のみの編集内容を規定した編集リストをプロキシ編集端末装置8〜8や各編集端末装置9〜9において作成することができる。 The low-resolution video and audio data D2 of each clip stored in the proxy server 6, the Ethernet (registered trademark) 7 each proxy editing terminal device connected to the proxy server 6 via 8 1 to 8 n and the editing terminal Video and audio that can be read out using the devices 9 1 to 9 n and processed and edited by connecting which clips and which clips from the clips stored in the material server 3 in any order. The proxy editing terminal devices 8 1 to 8 n and the editing terminal devices 9 1 to 9 n create an editing list that defines editing contents only for cut editing, such as whether to generate (hereinafter referred to as edited video and audio). be able to.

実際上、プロキシ編集端末装置8〜8は、編集リスト作成のための専用のソフトウェアが起動された編集リストの作成モード時、オペレータによりプロキシサーバ6に収録されているクリップの中から1つのクリップが選択されてその再生命令が入力されると、イーサネット(登録商標)7を介してシステム制御部5にアクセスし、当該システム制御部5を介してプロキシサーバ6を制御することにより、当該プロキシサーバ6にそのクリップの低解像度映像音声データD2を読み出させる。 In practice, each of the proxy editing terminal devices 8 1 to 8 n has one of the clips recorded in the proxy server 6 by the operator in the edit list creation mode in which dedicated software for creating the edit list is activated. When a clip is selected and a playback command is input, the proxy is accessed by accessing the system control unit 5 via the Ethernet (registered trademark) 7 and controlling the proxy server 6 via the system control unit 5. The server 6 is made to read the low-resolution video / audio data D2 of the clip.

そしてプロキシ編集端末装置8〜8は、このようにしてプロキシサーバ6から読み出された低解像度映像音声データD2を復号化し、得られたベースバンドの映像音声データに基づく映像をディスプレイに表示する。これによりオペレータは、このディスプレイに表示された映像を目視確認しながら、カット編集のみの編集リストを作成することができる。なお、以下においては、このようなカット編集のみの編集リストをEDL(Edit Decision List)と呼ぶ。 Then, the proxy editing terminal devices 8 1 to 8 n decode the low-resolution video / audio data D2 read out from the proxy server 6 in this way, and display the video based on the obtained baseband video / audio data on the display. To do. Thus, the operator can create an edit list for only cut editing while visually confirming the video displayed on the display. In the following, such an edit list for only cut editing is referred to as an EDL (Edit Decision List).

さらにこのようにして作成された編集リストのデータである編集リストデータは、オペレータの操作によりそのプロキシ編集端末装置8〜8からイーサネット(登録商標)7を介して所望の編集端末装置9〜9に転送することができる。そしてこの転送された編集リストデータは、この後この編集端末装置9〜9によって記憶管理される。 Further, the edit list data, which is the edit list data created in this way, is sent from the proxy edit terminal devices 8 1 to 8 n to the desired edit terminal device 9 1 via the Ethernet (registered trademark) 7 by the operator's operation. ~ 9 n can be transferred. The transferred editing list data is stored and managed by the editing terminal devices 9 1 to 9 n .

一方、編集端末装置9〜9は、高解像度映像音声データD1に対して映像特殊効果処理をリアルタイムで施し得るビデオボードが搭載されたノンリニア編集装置でなり、専用のソフトウェアが起動された編集リストの作成モード時、オペレータによりプロキシサーバ6に収録されているクリップの中から1つのクリップが選択されてその再生命令が入力されると、システム制御部5を介してプロキシサーバ6を制御することにより、プロキシ編集端末装置8〜8と同様にして、当該クリップの低解像度の映像をディスプレイに表示させる。 On the other hand, the editing terminal devices 9 1 to 9 n are non-linear editing devices equipped with a video board capable of performing video special effect processing on the high-resolution video / audio data D1 in real time. In the list creation mode, when one clip is selected from clips recorded in the proxy server 6 by the operator and a playback command is input, the proxy server 6 is controlled via the system control unit 5. Thus, the low-resolution video of the clip is displayed on the display in the same manner as the proxy editing terminal devices 8 1 to 8 n .

これによりオペレータは、この映像を目視確認しながら映像特殊効果や音声ミキシングの設定等を含めた最終的な編集リストを、新規に又はプロキシ編集端末装置8〜8を用いて作成された編集リストを利用して、作成することができる。 As a result, the operator visually confirms the video and edits the final edit list including the video special effects and audio mixing settings newly or created using the proxy editing terminal devices 8 1 to 8 n. Can be created using a list.

なお編集端末装置9〜9には、それぞれビデオテープレコーダ11〜11及びハードディスク装置等のローカルストレージ12〜12が接続されており、かくしてビデオテープ等に記録された映像音声素材をビデオテープレコーダ11〜11を介してクリップとしてローカルストレージ12〜12に取り込み、これを編集に利用することもできるようになされている。 The editing terminal devices 9 1 to 9 n are respectively connected with video tape recorders 11 1 to 11 n and local storages 12 1 to 12 n such as hard disk devices, and thus the video and audio material recorded on the video tape or the like. Are taken into the local storages 12 1 to 12 n as clips via the video tape recorders 11 1 to 11 n and can be used for editing.

また編集端末装置9〜9は、編集リストの作成過程において、1つのクリップのうちの所望の映像音声部分のイン点及びアウト点が指定されてタイムライン上に並べられるごとに、イーサネット(登録商標)7を介してシステム制御部5にアクセスし、当該システム制御部5を介して素材サーバ3を制御することにより、当該タイムライン上に並べられたその映像音声部分の高解像度映像音声データD1を順次読み出させる。 In addition, the editing terminal devices 9 1 to 9 n each specify the Ethernet (when the IN and OUT points of a desired video / audio portion of one clip are specified and arranged on the timeline in the process of creating the editing list. By accessing the system control unit 5 via the registered trademark 7 and controlling the material server 3 via the system control unit 5, high-resolution video / audio data of the video / audio portions arranged on the timeline D1 is read sequentially.

そしてこの高解像度映像音声データD1は、システム制御部5の制御のもとに、この後ゲートウェイ13を介して所定フォーマットにフォーマット変換された後、ファイバチャネルスイッチャ14を介して例えば180ギガバイト程度の記憶容量を有する半導体メモリからなる対応するデータI/Oキャッシュ部15〜15に与えられて記憶保持される。 The high-resolution video / audio data D1 is then converted into a predetermined format via the gateway 13 under the control of the system control unit 5, and then stored in, for example, about 180 gigabytes via the fiber channel switcher 14. The data I / O cache units 15 1 to 15 n made of a semiconductor memory having a capacity are given and stored.

かくして編集端末装置9〜9は、この後オペレータにより編集リストの高解像度映像による再生(プレビュー)命令が入力されると、対応するデータI/Oキャッシュ部15〜15から必要な高解像度映像音声データD1を読み出し、当該高解像度映像音声データD1に基づく編集映像を生成してディスプレイに表示させる。 Thus, when the editing terminal device 9 1 to 9 n thereafter inputs a reproduction (preview) command with a high-resolution video of the edit list by the operator, the editing terminal devices 9 1 to 9 n require the necessary high data from the corresponding data I / O cache units 15 1 to 15 n. The resolution video / audio data D1 is read out, and an edited video based on the high-resolution video / audio data D1 is generated and displayed on the display.

そして編集端末装置9〜9は、やがてオペレータによる編集リストの作成作業が終了し、この後この編集リストの実行命令が入力されると、当該編集リストに従ってデータI/Oキャッシュ部15〜15から対応する高解像度映像音声データD1を順次読み出し、この高解像度映像音声データD1に対して必要に応じて特殊効果処理や音声ミキシング処理を施しながら、かくして得られた編集映像音声のデータ(以下、これを編集映像音声データと呼ぶ)D3を素材サーバ3に送出する。この結果この編集映像音声データD3がシステム制御部5の制御のもとに、ファイル化されて素材サーバ3に収録される。 The editing terminal devices 9 1 to 9 n eventually complete the editing list creation work by the operator, and when an editing list execution command is input thereafter, the data I / O cache units 15 1 to 15 n are operated according to the editing list. sequentially reads high-resolution video and audio data D1 corresponding from 15 n, while subjected to a special effect processing and audio mixing as necessary for this high-resolution video and audio data D1, thus obtained edited video and audio data ( This is hereinafter referred to as edited video / audio data) D3 is sent to the material server 3. As a result, the edited video / audio data D3 is filed and recorded in the material server 3 under the control of the system control unit 5.

さらにこの素材サーバ3に収録された編集映像音声データD3は、この後オペレータ操作により図示しないオンエアーサーバに転送され、この後番組作成者等により作成されたいわゆるプレイリストに従ってオンエアーサーバから読み出されて放送される。   Further, the edited video / audio data D3 recorded in the material server 3 is then transferred to an on-air server (not shown) by an operator's operation, and then read out from the on-air server according to a so-called playlist created by a program creator or the like. To be broadcast.

このようにしてこのオンエアーシステム1においては、編集から当該編集により得られた編集映像音声のオンエアーまでの一連の処理を効率良く行い得るようになされている。   In this manner, the on-air system 1 can efficiently perform a series of processing from editing to on-air of the edited video and audio obtained by the editing.

(2)編集端末装置9〜9の構成
ここで編集端末装置9〜9は、図2に示すように、CPU(Central Processing Unit)20、ROM(Read Only Memory)21及びRAM(Random
Access Memory)22と、各種ソフトウェアが格納されたハードディスク装置23と、各種映像データ処理機能及び音声データ処理機能を有するデータ処理部24と、高解像度映像音声データD1に対して指定された映像特殊効果処理や音声ミキシング処理を施す映像特殊効果及び音声ミキシング処理部25と、各種インターフェース部26〜28とがCPUバス29を介して接続されることにより構成され、インターフェース部26を介してイーサネット(登録商標)7に接続されている。
(2) where the editing terminal 9 1 to 9 n configuration of the editing terminal device 9 1 to 9 n, as shown in FIG. 2, CPU (Central Processing Unit) 20, ROM (Read Only Memory) 21 and RAM ( Random
Access Memory) 22, a hard disk device 23 in which various software are stored, a data processing unit 24 having various video data processing functions and audio data processing functions, and video special effects designated for the high-resolution video / audio data D1 The video special effect and audio mixing processing unit 25 that performs processing and audio mixing processing, and various interface units 26 to 28 are connected via a CPU bus 29, and Ethernet (registered trademark) is connected via the interface unit 26. ) 7.

またインターフェース部27にはマウス30及びキーボード31等の入力装置が接続されると共に、インターフェース部28にはビデオテープレコーダ11〜11及びローカルストレージ12〜12が接続され、データ処理部24にはディスプレイ32及びスピーカ33が接続されている。 The interface unit 27 is connected to input devices such as a mouse 30 and a keyboard 31, and the interface unit 28 is connected to video tape recorders 11 1 to 11 n and local storages 12 1 to 12 n. A display 32 and a speaker 33 are connected to each other.

そしてCPU20は、必要時、ハードディスク装置23内に格納された画面データを読み出し、これをデータ処理部に与えることにより、後述のような各種のウインド及びダイアログ等をディスプレイに表示させる。   Then, when necessary, the CPU 20 reads the screen data stored in the hard disk device 23 and gives it to the data processing unit, thereby displaying various windows and dialogs as described below on the display.

またCPU20は、必要時、インターフェース部26及びイーサネット(登録商標)7を通じてシステム制御部5(図1)にコマンドを送出することにより、当該システム制御部5を介して素材サーバ3(図1)やプロキシサーバ6(図1)、FCスイッチャ14(図1)、データI/Oキャッシュ部15〜15(図1)等を所望状態に制御する。 Further, when necessary, the CPU 20 sends a command to the system control unit 5 (FIG. 1) through the interface unit 26 and the Ethernet (registered trademark) 7 so that the material server 3 (FIG. 1) or The proxy server 6 (FIG. 1), the FC switcher 14 (FIG. 1), the data I / O cache units 15 1 to 15 n (FIG. 1) and the like are controlled to a desired state.

そしてCPU20は、例えばこの結果としてプロキシサーバ6からイーサネット(登録商標)7を介して転送される、オペレータにより指定されたクリップの低解像度映像音声データD2をインターフェース部26を介して取り込み、これをデータ処理部24に与えることにより、当該低解像度映像音声データD2に基づく映像を対応するウインド又はダイアログ内の所定位置に表示させる。   Then, for example, as a result of this, the CPU 20 takes in the low-resolution video / audio data D2 of the clip designated by the operator, which is transferred from the proxy server 6 via the Ethernet (registered trademark) 7, via the interface unit 26, and this is received as data. By giving to the processing unit 24, the video based on the low-resolution video / audio data D2 is displayed at a predetermined position in the corresponding window or dialog.

さらにCPU20は、必要時には映像特殊効果及び音声ミキシング処理部25を制御することにより、データI/Oキャッシュ部15〜15から対応する高解像度映像音声データD1を読み出させ、当該高解像度映像音声データD1に対して必要に応じて映像特殊効果処理や音声ミキシング処理を実行させる。 Further, the CPU 20 controls the video special effect and audio mixing processing unit 25 when necessary to read out the corresponding high resolution video / audio data D1 from the data I / O cache units 15 1 to 15 n , and the high resolution video. Video special effect processing and audio mixing processing are executed on the audio data D1 as necessary.

そしてこの結果として得られた編集映像音声データD3がデータ処理部24に与えられることにより、当該編集映像音声データD3に基づく映像特殊効果処理により得られた編集映像がディスプレイ32に表示されると共に、音声ミキシング処理により得られた編集音声がスピーカ33から出力される。   Then, the edited video / audio data D3 obtained as a result is provided to the data processing unit 24, whereby the edited video obtained by the video special effect processing based on the edited video / audio data D3 is displayed on the display 32, and The edited sound obtained by the sound mixing process is output from the speaker 33.

またCPU20は、このとき必要に応じて映像特殊効果及び音声ミキシング処理部25を制御することにより、かかる編集映像音声データD3を素材サーバ3に送出させる一方、システム制御部5を介して素材サーバ3を制御することにより、この編集映像音声データD3を記憶させ、これによりこの編集映像音声データD3を素材サーバ3に登録する。   At this time, the CPU 20 controls the video special effect and audio mixing processing unit 25 as necessary to send out the edited video / audio data D3 to the material server 3, while the material server 3 via the system control unit 5. Is controlled to store the edited video / audio data D3, and the edited video / audio data D3 is registered in the material server 3.

(3)編集端末装置9〜9における編集リストの作成手順
次にこの編集端末装置9〜9における編集リストの作成手順について説明する。
(3) Procedure for preparing and editing terminal device 9 1 to 9 edited in n list will now be described a procedure of creating the edit list in this editing terminal device 9 1 to 9 n.

この編集端末装置9〜9では、素材サーバ3等に収録された所望するクリップの所望の映像音声部分を指定し、これらをタイムライン上に順次並べるようにしてカット映像の送出順序を設定すると共に、映像特殊効果処理及び音声ミキシング処理の設定やタイトルの挿入などを行うようにして編集リストを作成する。 In the editing terminal device 9 1 to 9 n, specifies the desired video and audio portion of the clip that desired is recorded in the material server 3 and the like, it sets the transmission order of the cut video by them as successively arranged on the time line At the same time, the edit list is created by setting the video special effect process and the audio mixing process and inserting the title.

そしてこのようにして作成された編集リストにおける各カットのイン点及びアウト点のタイムコード、カットの並び順、編集リスト名、作成者及び作成日時等の情報(EDL情報)や、この編集リストにおいて設定されている映像特殊効果及び音声ミキシングの内容に関する情報、並びに編集リストを作成した際の作業環境に関する各種情報などが1つのファイル内に格納されて『プロジェクト』として管理される。   In the edit list created in this way, the time code of the in and out points of each cut, the order of cuts, information such as the edit list name, creator and creation date and time (EDL information), Information regarding the contents of the set video special effects and audio mixing, various information regarding the work environment when the edit list is created, and the like are stored in one file and managed as a “project”.

このため編集リストを新たに作成するに際しては新規にプロジェクトを作成する必要があり、この場合にオペレータは、まず対応するソフトウェアを起動することにより、図3に示すようなプロジェクトマネージャウインド40をディスプレイ32(図2)に表示させるようにする。   For this reason, when a new edit list is created, it is necessary to create a new project. In this case, the operator first activates the corresponding software to display a project manager window 40 as shown in FIG. (FIG. 2).

ここで、このプロジェクトマネージャウインド40は、プロジェクトを管理及び閲覧するためのウインドであり、ツリー表示部41、クリップ表示部42及びプロジェクト一覧表示部43から構成される。   Here, the project manager window 40 is a window for managing and browsing the project, and includes a tree display unit 41, a clip display unit 42, and a project list display unit 43.

このときプロジェクトマネージャウインド40のツリー表示部41には、その編集端末装置9〜9内及び後述のようにプロジェクトのファイル(以下、これをプロジェクトファイルと呼ぶ)を一元管理するプロジェクトファイルサーバ10内に存在する全てのプロジェクトファイルについて、これらプロジェクトファイルの保存場所がツリー形式で表示される。 At this time, the tree display unit 41 of the project manager window 40 has a project file server 10 for centrally managing project files (hereinafter referred to as project files) in the editing terminal devices 9 1 to 9 n and as described later. For all project files existing in the folder, the storage locations of these project files are displayed in a tree format.

またクリップ表示部42には、ツリー表示部41で選択されたプロジェクトに属する各クリップのサムネイル画像がアイコン(以下、これをクリップアイコンと呼ぶ)44として一覧表示され、さらにプロジェクト一覧表示部43には、ツリー表示部41に表示された各プロジェクトについて、保存ドライブ名、プロジェクト名、更新日時等の管理情報がリスト形式でテキスト表示される。 The clip display section 42 displays a list of thumbnail images of the clips belonging to the project selected in the tree display section 41 as icons (hereinafter referred to as clip icons) 44, and the project list display section 43 further displays the thumbnail images. For each project displayed in the tree display section 41, management information such as a storage drive name, a project name, and an update date and time is displayed as text in a list format.

そして新規のプロジェクトを作成する場合、オペレータは、このプロジェクトマネージャウインド40の上部に表示されたボタン群45のうちの新規作成ボタン45Aをクリックすることにより、図4に示すニュープロジェクトダイアログ50を表示させ、このニュープロジェクトダイアログ50のプロジェクト名入力ボックス51内に所望するプロジェクト名を入力し、さらに属性設定部52においてこのプロジェクトに関する各種属性を設定した後、OKボタン53をクリックするようにする。   When creating a new project, the operator clicks the new creation button 45A in the button group 45 displayed at the top of the project manager window 40 to display the new project dialog 50 shown in FIG. Then, a desired project name is input in the project name input box 51 of the new project dialog 50, and various attributes relating to the project are set in the attribute setting unit 52, and then an OK button 53 is clicked.

かくしてこの新規のプロジェクトがその編集端末装置9〜9及びプロジェクトファイルサーバ10に新規に登録されると共に、当該プロジェクト内に新規のフォルダ及びビンが自動的に作成され、この結果がプロジェクトマネージャウインド40(図3)のツリー表示部41及びプロジェクト一覧表示部43に反映される。 Thus, the new project is newly registered in the editing terminal devices 9 1 to 9 n and the project file server 10, and a new folder and bin are automatically created in the project, and the result is displayed in the project manager window. It is reflected in the tree display section 41 and the project list display section 43 of 40 (FIG. 3).

またこのときディスプレイ32(図2)には、図5に示すクリップエクスプローラ(Clip Explorer)ウインド60及びこれと同じ構成を有するサーバサイトエクスプローラ(Server Site Explorer)ウインド61が表示される。   At this time, a clip explorer window 60 shown in FIG. 5 and a server site explorer window 61 having the same configuration are displayed on the display 32 (FIG. 2).

クリップエクスプローラウインド60は、現在開かれているプロジェクトに属するクリップを表示及び管理するためのウインドであり、ツリー表示部62及びクリップ表示部63から構成される。   The clip explorer window 60 is a window for displaying and managing clips belonging to the currently opened project, and includes a tree display unit 62 and a clip display unit 63.

そしてこのクリップエクスプローラウインド60のツリー表示部62には、システム内に存在する全てのプロジェクト及びその内容物(フォルダ、ビン等)がツリー形式で表示され、クリップ表示部63には、ツリー表示部62で選択されたビンに属する全てのクリップのクリップアイコン64が一覧表示される。なお、新規プロジェクトが作成された直後の初期状態ではそのプロジェクトに属するクリップが存在しないため、クリップエクスプローラウインド60のクリップ表示部63にはクリップアイコン64が表示されない。   The tree display section 62 of the clip explorer window 60 displays all projects existing in the system and their contents (folders, bins, etc.) in a tree format. The clip display section 63 displays the tree display section 62. A list of the clip icons 64 of all the clips belonging to the bin selected in is displayed. In the initial state immediately after the new project is created, there are no clips belonging to the project, and therefore the clip icon 64 is not displayed in the clip display portion 63 of the clip explorer window 60.

またサーバサイトエクスプローラウインド61は、素材サーバ3及びプロキシサーバ6に収録されているクリップの一覧を表示するためのウインドであり、クリップエクスプローラウインド60と同様にツリー表示部62及びクリップ表示部63から構成される。   The server site explorer window 61 is a window for displaying a list of clips recorded in the material server 3 and the proxy server 6, and includes a tree display unit 62 and a clip display unit 63, similar to the clip explorer window 60. Is done.

そしてサーバサイトエクスプローラウインド61のツリー表示部62には、素材サーバ3及びプロキシサーバ6内の全てのフォルダ、ファイル等がツリー形式で表示され、クップ表示部63には、ツリー表示部62において選択されたフォルダ等に格納されている全てのクリップのクリップアイコン64が表示される。   In the tree display portion 62 of the server site explorer window 61, all folders and files in the material server 3 and the proxy server 6 are displayed in a tree format, and the cup display portion 63 is selected in the tree display portion 62. Clip icons 64 of all clips stored in the folder or the like are displayed.

そしてオペレータは、新規の編集リストを作成する場合、上述のようにして新規のプロジェクトを作成後、クリップエクスローラウインド60の上部に表示されたボタン群65のうち、新規シーケンス作成ボタン65Aをクリックするようにする。この結果、これから作成される編集リストに対応したクリップアイコン64NSがクリップエクスプローラウインド60のクリップ表示部63内に表示され、これと併せて図6に示すようなタイムラインエディタウインド70がディスプレイ32(図2)に表示される。 When creating a new edit list, the operator creates a new project as described above, and then clicks a new sequence creation button 65A in the button group 65 displayed at the top of the clip explorer window 60. Like that. As a result, the clip icon 64 NS corresponding to the edit list to be created is displayed in the clip display section 63 of the clip explorer window 60, and a timeline editor window 70 as shown in FIG. 2).

このタイムラインエディタウインド70は、クリップの映像を目視確認しながら所望部分をカットとして切り出す操作を行うためのソースビューワ部71と、このようにして切り出された各カットをどのように並べるか、またその際カットの繋ぎ目においてどのような特殊効果を施すかといった編集内容を設定するためのタイムライン部72と、タイムライン部72において設定された編集内容を高解像度映像により確認するためのマスタービューワ部73とから構成される。   The timeline editor window 70 arranges the source viewer unit 71 for performing an operation of cutting out a desired portion as a cut while visually confirming the clip image, and how to arrange the cuts thus cut out. At that time, a timeline unit 72 for setting editing contents such as what kind of special effect is applied at the joint of cuts, and a master viewer for confirming the editing contents set in the timeline unit 72 by a high-resolution video. Part 73.

そしてオペレータは、サーバサイトエクスプローラウインド61(図5)のクリップ表示部63(図5)に表示された各クリップアイコン64(図5)の中から所望するクリップのクリップアイコン64をドラッグアンドドロップによりタイムラインエディタウインド70のソースビューワ部71内に移動させることで、そのクリップを編集に利用するクリップとして選択することができ、この操作を繰り返すことにより複数のクリップをまとめて選択することができる。   The operator then drags and drops the clip icon 64 of the desired clip from the clip icons 64 (FIG. 5) displayed in the clip display section 63 (FIG. 5) of the server site explorer window 61 (FIG. 5). The clip can be selected as a clip to be used for editing by moving it into the source viewer section 71 of the line editor window 70, and a plurality of clips can be selected collectively by repeating this operation.

またタイムラインエディタウインド70では、ソースビューワ部71の上側に表示されたクリップ選択メニュー表示ボタン74をクリックすることによって、上述のようにして選択したクリップの一覧をメニュー表示させることができ、さらにこのメニューの中から所望するクリップを編集対象のクリップとして選択することができる。   In the timeline editor window 70, by clicking the clip selection menu display button 74 displayed on the upper side of the source viewer section 71, a list of clips selected as described above can be displayed as a menu. A desired clip can be selected from the menu as a clip to be edited.

なおこのとき選択されたクリップの例えば先頭フレームの映像がソースビューワ部71に表示されると共に、このクリップの名前がクリップリストボックス75内に表示され、かつ当該クリップにおけるソースビューワ部71内に表示されたフレームのタイムコード及び当該クリップの素材長がタイムコード表示部76内に表示される。   Note that, for example, the video of the first frame of the selected clip is displayed in the source viewer section 71, and the name of this clip is displayed in the clip list box 75 and also displayed in the source viewer section 71 of the clip. The time code of the frame and the material length of the clip are displayed in the time code display section 76.

そしてタイムラインエディタウインド70では、このようにして編集対象として選択したクリップのプロキシサーバ6(図1)に収録されている低解像度映像音声データD2(図1)に基づく映像を、ソースビューワ部71の下側に表示されたコマンドボタン群77の中から対応するコマンドボタンをクリックすることによって、通常再生、コマ送り再生又はコマ戻し再生等させることができる。   In the timeline editor window 70, a video based on the low-resolution video / audio data D2 (FIG. 1) recorded in the proxy server 6 (FIG. 1) of the clip selected as the editing target in this way is displayed in the source viewer section 71. By clicking the corresponding command button from the command button group 77 displayed on the lower side, normal playback, frame advance playback, frame back playback, and the like can be performed.

実際上、CPU20(図2)は、かかるコマンドボタン群77の中から通常再生用、コマ送り再生用又はコマ送り逆再生用等のコマンドボタンがクリックされると、これに応じてシステム制御部5(図1)を介してプロキシサーバ6を制御することにより、当該クリップにおける対応する映像音声部分の低解像度映像音声データD2を、当該クリックされたコマンドボタン72に応じた再生モードで読み出させる。この結果この低解像度映像音声データD2に基づく低解像度の通常再生映像や、コマ送り再生映像又はコマ送り逆再生映像等がソースビューワ部71に表示される。   In practice, when the command button for normal playback, frame-by-frame playback or frame-by-frame reverse playback is clicked from the command button group 77 in the CPU 20 (FIG. 2), the system controller 5 By controlling the proxy server 6 via (FIG. 1), the low-resolution video / audio data D2 of the corresponding video / audio part in the clip is read in the playback mode corresponding to the clicked command button 72. As a result, a low-resolution normal playback video, a frame-by-frame playback video, a frame-by-frame reverse playback video, or the like based on the low-resolution video / audio data D2 is displayed on the source viewer unit 71.

かくしてオペレータは、このソースビューワ部71に表示されたクリップの再生映像を目視確認しながら、所望の映像が表示された状態でコマンドボタン77のうちのマークインボタン77INやマークアウトボタン77OUTをクリックすることにより、このクリップの映像音声の中からカットとして利用しようとする映像音声部分の開始点(イン点)や終了点(アウト点)を指定することができる。 Thus, the operator visually confirms the playback video of the clip displayed on the source viewer unit 71 and presses the mark-in button 77 IN and the mark-out button 77 OUT of the command buttons 77 while the desired video is displayed. By clicking, it is possible to specify the start point (in point) and end point (out point) of the video / audio part to be used as a cut from the video / audio of this clip.

一方、オペレータは、このようにして範囲を指定した各クリップのカットとして利用しようとする映像音声部分を用いて、以下の手順により編集リストを作成することができる。   On the other hand, the operator can create an edit list by the following procedure using the audio / video portion to be used as a cut for each clip whose range is specified in this way.

まず上述のようにクリップのうちのカットとして利用しようとする映像音声部分の範囲を指定後、タイムライン部72内に表示されたプレイライン78を、当該タイムライン部72の下部に表示されたタイムスケール79を指標としてマウス操作により所望位置に移動させ、この後ソースビューワ部71の下部に表示されたコマンドボタン群77のうちのオーバーライトボタン77又はスプライスインボタン77をクリックするようにする。 First, as described above, after specifying the range of the video / audio part to be used as a cut of the clip, the play line 78 displayed in the time line part 72 is displayed as the time displayed at the lower part of the time line part 72. The scale 79 is used as an index to move to a desired position by a mouse operation, and thereafter, an overwrite button 77 O or a splice-in button 77 S in the command button group 77 displayed at the bottom of the source viewer section 71 is clicked. .

この結果、図7に示すように、オーバーライトボタン77がクリックされたときには上書き、スプライスインボタン77がクリックされたときには挿入するようにして、タイムライン部72のビデオトラック80上に、そのときのプレイライン78の位置を先頭位置とする当該映像音声部分の素材長に応じた長さの着色領域81が表示される。 As a result, as shown in FIG. 7, overwriting when the overwrite button 77 O is clicked, so as to insert when the splice IN button 77 S is clicked, on the video track 80 V of the time line part 72, the video and audio portions of the material length length of the colored area 81 V corresponding to the to the top position the position of the play line 78 is displayed at that time.

またこのときその映像音声部分に音声が付随している場合には、ビデオトラック80の下側に設けられた複数のオーディオトラック80A1〜80A4のうちの該当するチャンネル数分のオーディオトラック80A1〜80A4上に、それぞれそのときのプレイライン78の位置を先頭位置とするビデオトラック80の対応する着色領域81と同じ長さの着色領域81A1〜81A4が表示される。 At this time, if audio is attached to the video / audio portion, the audio tracks 80 corresponding to the number of corresponding channels among the plurality of audio tracks 80 A1 to 80 A4 provided below the video track 80 V. on A1 to 80 A4, the video track 80 V corresponding colored region 81 colored region 81 of the same length as the V A1 to 81 A4 of which the start position the position of the play line 78 at that time, respectively, are displayed.

なおこのときCPU20は、かかるオペレータの操作に応じたコマンドをシステム制御部5に通知する。この結果、システム制御部5の制御のもとに、素材サーバ3(図1)から対応するクリップにおける当該映像音声部分の高解像度映像音声データD1がイン点側及びアウト点側にそれぞれ数秒程度の余裕をもたせて読み出され、これがゲートウェイ13(図1)、FCスイッチャ14(図1)を介してその編集端末装置9〜9用のデータI/Oキャッシュ部15〜15に与えられて記憶される。 At this time, the CPU 20 notifies the system control unit 5 of a command corresponding to the operation of the operator. As a result, under the control of the system control unit 5, the high-resolution video / audio data D1 of the video / audio portion of the corresponding clip from the material server 3 (FIG. 1) is about several seconds on the in-point side and the out-point side, respectively. read out remembering margin, which gateway 13 (FIG. 1), FC switcher 14 applied to data I / O cache unit 15 1 to 15 n of the editing terminal device 9 1 to 9 for n via (FIG. 1) And memorized.

さらに編集映像音声の再生時に映像音声部分の映像に付随する音声以外の音声を出力させたいときには、クリップ選択メニュー表示ボタン74をクリックし、このとき表示されたクリップの一覧の中から予め登録しておいたその音声のクリップを選択した後、タイムライン部72のプレイライン78を所望する位置に移動させ、この後所望するオーディオトラック80A1〜80A4を指定した上で上述のオーバーライトボタン77又はスプライスインボタン77をクリックするようにする。 If you want to output audio other than the audio accompanying the video / audio part during playback of the edited video / audio, click the clip selection menu display button 74 and register it in advance from the list of clips displayed at this time. After selecting the clip of the sound that has been placed, the play line 78 of the timeline unit 72 is moved to a desired position, and then the desired audio tracks 80 A1 to 80 A4 are designated, and then the above-described overwrite button 77 O is selected. or so as to click the splice-in button 77 S.

そしてこの場合にも、その指定されたオーディオトラック80A1〜80A4上にそのときのプレイライン78の位置を先頭位置とする当該クリップの素材長に対応する長さの着色領域81A1〜81A4が表示されると共に、このクリップが素材サーバ3に収録されている場合には、その音声データが素材サーバ3から読み出されてデータI/Oキャッシュ部15〜15に記憶されることとなる。 And also in this case, the colored areas 81 A1 to 81 positions of the head position to a length corresponding to the material length of the clip play line 78 at that time on the audio track 80 A1 to 80 A4 its designated A4 together but appear, when the clip is recorded in the material server 3, and that the audio data is stored is read from the material server 3 to the data I / O cache unit 15 1 to 15 n Become.

そしてオペレータは、所望する各クリップについて、上述のようなカットとして利用しようとする映像音声部分の範囲の指定(カットの決定)と、当該映像音声部分のタイムライン部72への貼り付け(ビデオトラック80及び又はオーディオトラック80A1〜80A4に着色領域81、81A1〜81A4を表示させること)という操作を繰り返し行い、図8に示すように、タイムスケール79の始め(「00:00.00:00」)から所望する時間分だけ当該タイムスケール79上において連続するように、ビデオトラック80上と、オーディオトラック80A1〜80A4上とにそれぞれ着色領域81、81A1〜81A4を順次表示させるようにする。 Then, the operator designates the range of the video / audio part to be used as the cut as described above (determines the cut) and pastes the video / audio part to the timeline unit 72 (video track) for each desired clip. 80 V and / or the display of the colored areas 81 V and 81 A1 to 81 A4 on the audio tracks 80 A1 to 80 A4 are repeated, and as shown in FIG. 8, the beginning of the time scale 79 (“00: 00.00 : 00 "), the colored regions 81 V and 81 A1 to 81 A4 are respectively formed on the video track 80 V and the audio tracks 80 A1 to 80 A4 so as to be continuous on the time scale 79 by a desired time. Display sequentially.

ここでこのようにタイムライン部72のビデオトラック80上やオーディオトラック80A1〜80A4上に着色領域81、81A1〜81A4が表示されることは、編集映像音声の再生時にタイムスケール79で表された時間にその着色領域81、81A1〜81A4と対応する映像音声部分の対応する箇所の映像が表示され、又は音声が出力されることを意味する。従って、このような作業により編集映像音声として表示又は出力される映像音声の順番及び内容を規定した編集リストを作成することができる。 Here, since the colored areas 81 V and 81 A1 to 81 A4 are displayed on the video track 80 V and the audio tracks 80 A1 to 80 A4 of the timeline unit 72 in this way, the time scale is displayed when the edited video and audio are played back. see the video of the corresponding portion of the video and audio portions and corresponding the colored area 81 V, 81 A1 ~81 A4 to time expressed in 79 or audio means to be output. Therefore, it is possible to create an edit list that defines the order and contents of video and audio displayed or output as edited video and audio by such work.

なお、タイムライン部72に表示させるビデオトラック80やオーディオトラック80A1〜80A4の本数は自由に設定することができる。そして複数本のビデオトラック80やオーディオトラック80A1〜80A4が表示された状態において、これらビデオトラック80又はオーディオトラック80A1〜80A4にそれぞれカットやクリップが貼り付けられている場合には、各ビデオトラック80におけるタイムスケール79上で同じ位置の各映像を重ね合わせた映像が編集映像として得られ、各オーディオトラック80A1〜80A4におけるタイムスケール79上で同じ位置の各音声を重ね合わせた音声が編集音声として得られることとなる。 Incidentally, the number of video tracks 80 V and audio tracks 80 A1 to 80 A4 to be displayed in the time line part 72 can be freely set. And in a state where a plurality of video tracks 80 V and audio tracks 80 A1 to 80 A4 is displayed, if these video track 80 V or respectively cut and clip the audio tracks 80 A1 to 80 A4 is pasted , images superimposed each picture at the same position on the time scale 79 at each of the video track 80 V is obtained as edited video, overlapping each voice in the same position on the time scale 79 at each audio track 80 A1 to 80 A4 The combined voice is obtained as the edited voice.

さらにこのようにして編集リストを作成する際、例えば連続する第1のカットの映像から第2のカットの映像への切り換わり時に特殊効果処理を施したいときには、以下の手順により所望する映像特殊効果処理の設定を行うことができる。   Further, when the edit list is created in this way, for example, when it is desired to perform special effect processing at the time of switching from a continuous first cut video to a second cut video, a desired video special effect is performed by the following procedure. Processing settings can be made.

すなわち、まず先行する第1のカットと、後行する第2のカットとをタイムスケール79上で連続するようにビデオトラック80に貼り付け、この後タイムライン部72の上部に表示されたボタン群82の中からFXエクスプローラボタン82FXをクリックするようにする。この結果、例えば図9に示すようなFXエクスプローラウインド90がディスプレイ32(図2)に表示される。 That is, first, the preceding first cut and the following second cut are pasted on the video track 80 V so as to be continuous on the time scale 79, and then the buttons displayed on the upper portion of the time line portion 72. Click the FX explorer button 82 FX in the group 82. As a result, for example, an FX explorer window 90 as shown in FIG. 9 is displayed on the display 32 (FIG. 2).

このFXエクスプローラウインド90は、ツリー表示部91及びアイコン表示部92から構成され、ツリー表示部91には、この編集端末装置9〜9が実行できる各種映像特殊効果がツリー形式で表示されると共に、アイコン表示部92には、これら映像特殊効果の内容がアイコン形式で表示される。 The FX explorer window 90 includes a tree display unit 91 and an icon display unit 92. The tree display unit 91 displays various video special effects that can be executed by the editing terminal devices 9 1 to 9 n in a tree format. At the same time, the contents of these video special effects are displayed in icon form on the icon display unit 92.

続いて、このFXエクスプローラウインド90のアイコン表示部92内に表示されたアイコン(以下、これを特殊効果アイコンと呼ぶ)93の中から所望する映像特殊効果処理の特殊効果アイコン93をドラッグアンドドロップにより、タイムラインエディタウインド70のビデオトラック80における上述の第1及び第2のカットの繋ぎ目に貼り付ける。 Subsequently, a special effect icon 93 for a desired video special effect process is dragged and dropped from icons (hereinafter referred to as special effect icons) 93 displayed in the icon display unit 92 of the FX explorer window 90. , pasted on the joint of the aforementioned first and second cut in the video track 80 V of the time line editor window 70.

これにより編集映像の生成時において、第1のカットの映像から第2のカットの映像に切り替わる際に上述のようにしてビデオトラック80に貼り付けられた特殊効果アイコンに対応する映像特殊効果処理を実行すべき旨の設定が行われたこととなる。 During generation of the edited video Thus, video special effect processing corresponding to the special effect icon pasted to the video track 80 V as described above in the first cut of the video switch to the video of the second cut Is set to be executed.

なお、このように特殊効果アイコン93をタイムラインエディタウインド70のビデオトラック80に貼り付ける操作を行った場合、図8に示すように、その貼り付け位置に当該特殊効果アイコン93に応じたマーク94が表示される。 Incidentally, the mark thus the special effect icon 93 when performing an operation of pasting the video track 80 V of the time line editor window 70, as shown in FIG. 8, in accordance with the special effect icon 93 in its application position 94 is displayed.

また編集リストを作成する際、いずれかのオーディオトラック80A1〜80A4に貼り付けられたカットやクリップの音声に対して音声ミキシング処理を施したい場合には、以下の手順により所望の音声ミキシング処理を設定することができる。 Also when creating an edit list, either when it is desired subjecting the audio mixing for the pasted cut and clip the audio to an audio track 80 A1 to 80 A4, the desired audio mixing according to the procedure described below Can be set.

すなわち、まずタイムラインエディタウインド70のタイムライン部72に表示されたプレイライン78を、オーディオトラック80A1〜80A4に貼り付けられたカットやクリップのうちの音声ミキシング処理したいカット又はクリップと対応する着色領域81A1〜81A4上に移動させた後、当該タイムライン部72の上部に表示されたボタン群82の中からオーディオミキサーボタン82MIXをクリックする。 That is, first the play line 78 displayed on the time line part 72 of the time line editor window 70, the corresponding cut or clip desired audio mixing among the cuts or clips pasted to the audio tracks 80 A1 to 80 A4 After moving the coloring area 81 A1 to 81 A4 , the audio mixer button 82 MIX is clicked from the button group 82 displayed on the upper part of the timeline portion 72.

この結果、図10に示すように、ボリューム101やレベルメータ102及び各種設定ボタン103A〜103F等を有するミキシング部104が、タイムラインエディタウインド70のタイムライン部72の各オーディオトラック80A1〜80A4にそれぞれ対応させて複数設けられたオーディオミキサーウインド100が表示される。 As a result, as shown in FIG. 10, a mixing unit 104 having a volume 101 and level meter 102 and various setting buttons 103A~103F etc., each audio track 80 A1 to 80 of the time line part 72 of the time line editor window 70 A4 A plurality of audio mixer windows 100 provided in correspondence with each are displayed.

そしてこの後、このオーディオミキサーウインド100内に表示された、タイムラインエディタウインド70のタイムライン部72の所望するオーディオトラック80A1〜80A4と対応付けられたボリューム101や設定ボタン103A〜103F等をレベルメータ102を目視確認しながら操作する。 And after this, this is displayed in the audio mixer window 100, a desired audio track 80 A1 to 80 A4 and the associated volume 101 and setting buttons 103A~103F like timeline portion 72 of the time line editor window 70 The level meter 102 is operated while visually checking.

これにより編集音声の出力時において、そのオーディオトラック80A1〜80A4に貼り付けられた映像音声部分の再生時に上述のようにして設定された内容で音声データを音声ミキシング処理すべき旨の設定が行われたこととなる。 As a result, at the time of output of the edited audio, the setting that the audio data should be subjected to the audio mixing processing with the contents set as described above when the video / audio portion pasted on the audio tracks 80 A1 to 80 A4 is reproduced. It will be done.

さらにタイムラインエディタウインド70では、上述のようにして編集リストを作成し終えた後又は編集リストの作成中に、タイムライン部72内のプレイライン78をマウス操作により所望位置に移動させ、この後マスタービューワ部73の下側に表示されたコマンドボタン群110の中からプレビューボタン110PVをクリックすることにより、そのときのプレイライン78の位置と対応する映像音声部分を開始点として、高解像度の編集映像をマスタービューワ部73内に通常再生表示させることができる。 Further, the timeline editor window 70 moves the playline 78 in the timeline unit 72 to a desired position by operating the mouse after completing the creation of the edit list as described above or during the creation of the edit list. By clicking the preview button 110 PV from the command button group 110 displayed on the lower side of the master viewer section 73, the video / audio part corresponding to the position of the play line 78 at that time is used as a starting point, and the high resolution The edited video can be normally reproduced and displayed in the master viewer unit 73.

実際上、CPU20は、かかるプレビューボタン110PVがクリックされると、映像特殊効果及び音声ミキシング処理部25(図2)を制御することにより、このときデータI/Oキャッシュ部15〜15が記憶保持している対応する映像音声部分の高解像度映像音声データD1を読み出させ、当該高解像度映像音声データD1に対して必要に応じて映像特殊効果処理や音声ミキシング処理を施させる。 In practice, when the preview button 110 PV is clicked, the CPU 20 controls the video special effect and audio mixing processing unit 25 (FIG. 2), so that the data I / O cache units 15 1 to 15 n are at this time. The high-resolution video / audio data D1 of the corresponding video / audio part stored and held is read, and the high-resolution video / audio data D1 is subjected to video special effect processing and audio mixing processing as necessary.

この結果、かかる映像特殊効果処理や音声ミキシング処理によって得られた高解像度の編集映像音声データD3が生成され、これがデータ処理部24(図2)に与えられることにより、当該編集映像音声データD3に基づく編集映像がタイムラインエディタウインド70のマスタービューワ部73内に再生表示されると共に、編集音声がスピーカ33(図2)から出力される。   As a result, high-resolution edited video / audio data D3 obtained by the video special effect processing and audio mixing processing is generated, and is provided to the data processing unit 24 (FIG. 2), whereby the edited video / audio data D3 is generated. The edited video is reproduced and displayed in the master viewer section 73 of the timeline editor window 70, and the edited audio is output from the speaker 33 (FIG. 2).

これによりオペレータは、このタイムラインエディタウインド70のマスタービューワ部73内に表示された編集映像に基づいて随時編集内容を目視確認(プレビュー)しながら編集リストを作成し、又は作成し終えた編集リストの内容を確認することができる。   As a result, the operator creates an edit list while visually confirming (previewing) the edit contents as needed based on the edited video displayed in the master viewer section 73 of the timeline editor window 70, or the edit list that has been created. The contents of can be confirmed.

そしてこのようにして編集リストを作成後、クリップエクスプローラウインド60(図5)のクリップ表示部63内に表示された当該編集リストに対応したクリップアイコン64NS(図5)をドラッグアンドドロップによりサーバサイトエクスプローラウインド61(図5)のクリップ表示部63内に移動させることにより、この編集リストに基づく編集結果を素材サーバ3(図1)に登録することができる。 After creating the edit list in this way, the clip site 64 NS (FIG. 5) corresponding to the edit list displayed in the clip display section 63 of the clip explorer window 60 (FIG. 5) is dragged and dropped to the server site. An edit result based on this edit list can be registered in the material server 3 (FIG. 1) by being moved into the clip display section 63 of the explorer window 61 (FIG. 5).

実際上、このときCPU20は、作成された編集リストに基づいて映像特殊効果及び音声ミキシング処理部25(図2)を制御することにより、データI/Oキャッシュ部15〜15に記憶保持された対応する高解像度映像音声データD1を利用して当該編集リストに応じた編集映像音声の編集映像音声データD3を生成させ、これを素材サーバ3に送出させる。この結果この編集映像音声データD3が上述のシーケンスクリップのファイル内に格納されて素材サーバ3に登録される。 Actually, at this time, the CPU 20 controls the video special effect and audio mixing processing unit 25 (FIG. 2) based on the created edit list, and is stored and held in the data I / O cache units 15 1 to 15 n. Then, the corresponding high-resolution video / audio data D1 is used to generate edited video / audio data D3 of the edited video / audio corresponding to the edit list, and this is sent to the material server 3. As a result, the edited video / audio data D3 is stored in the sequence clip file and registered in the material server 3.

またこれと併せてこの編集リストのデータがシステム制御部5を介して素材サーバ3に与えられて当該シーケンスクリップのファイル内に格納されると共に、当該編集リストを含むプロジェクトファイルのデータがイーサネット(登録商標)7を介してプロジェクトファイルサーバ10に与えられ、それまで当該プロジェクトファイルサーバ10が記憶管理していたそのプロジェクトファイルのデータがその内容に更新される。   At the same time, the data of this edit list is given to the material server 3 through the system control unit 5 and stored in the file of the sequence clip, and the data of the project file including the edit list is registered on the Ethernet (registered) The data of the project file that has been stored and managed by the project file server 10 until then is updated to the contents.

このようにしてこの編集端末装置9〜9では、オペレータがタイムラインエディタウインド70を用いて所望の編集リストを作成でき、さらにこの編集リストに応じた編集映像音声をオペレータの操作に応じて生成し、これを素材サーバ3に登録することができるようになされている。 In this way, in the editing terminal devices 9 1 to 9 n , the operator can create a desired edit list using the timeline editor window 70, and the edited video / audio corresponding to the edit list is generated according to the operation of the operator. It can be generated and registered in the material server 3.

なおこのオンエアーシステム1の場合、タイムラインエディタウインド70を用いて編集リストを作成後又は作成途中において、プロジェクトマネージャウインド40(図3)のツリー表示部41に表示されたその編集リストが属するプロジェクトを選択し、この後マウス30(図2)の右クリックしたときに表示されるリストの中から『送る』を選択することにより、このプロジェクトファイルをイーサネット(登録商標)7を介してプロジェクトファイルサーバ10(図1)に転送させ、それまで当該プロジェクトファイルサーバ10が記憶管理していたそのプロジェクトファイルのデータをその内容に更新させることができるようになされている。   In the case of this on-air system 1, the project to which the edit list displayed in the tree display section 41 of the project manager window 40 (FIG. 3) belongs after the edit list is created using the timeline editor window 70 or during the creation of the edit list. After that, by selecting “Send” from the list displayed when the mouse 30 (FIG. 2) is right-clicked, this project file is transferred via the Ethernet (registered trademark) 7 to the project file server. 10 (FIG. 1), and the data of the project file previously stored and managed by the project file server 10 can be updated to the contents.

このようにこのオンエアーシステム1では、各編集端末装置9〜9において作成されたプロジェクトファイルをプロジェクトファイルサーバ10において一括管理することで、ある編集端末装置9〜9において作成され又は作成途中のプロジェクトファイルを他の編集端末装置9〜9で閲覧し又は作成の続きを行い得るようになされ、これによりプロジェクトファイルをシステム全体として共有し得るようになされている。 As described above, in the on-air system 1, project files created in the editing terminal devices 9 1 to 9 n are collectively managed in the project file server 10, so that the files are created in the editing terminal devices 9 1 to 9 n or so as to be able perform a continuation of or create viewing project files being created in another editing terminal device 9 1 to 9 n, thereby being made to be able to share the project file system as a whole.

(4)プロジェクトファイルオープン時の自動ロード機能
次に、このオンエアーシステム1に搭載されたプロジェクトファイルオープン時の自動ロード機能について説明する。
(4) Automatic load function when project file is opened Next, the automatic load function when the project file installed in the on-air system 1 is opened will be described.

このオンエアーシステム1では、図1について上述したように、素材サーバ3及び各編集端末装置9〜9間にそれぞれ素材サーバ3よりも高いアクセス性を有する(すなわち高解像度映像音声データD1の読み書きをより速く行い得る)半導体メモリからなるデータI/Oキャッシュ部15〜15が設けられ、図6〜図8について上述したタイムラインエディタウインド70のタイムライン部72にクリップから切り取られた映像音声部分が貼り付けられたときに、その映像音声部分の高解像度映像音声データD1を素材サーバ3から読み出して対応するデータI/Oキャッシュ部15〜15に記憶保持することにより、その映像音声部分の高解像度映像音声データD1による編集映像音声を迅速に表示又は出力し得るようになされている。 In this on-air system 1, as described above with reference to FIG. 1, the material server 3 and each of the editing terminal devices 9 1 to 9 n have higher accessibility than the material server 3 (that is, the high-resolution video / audio data D 1 Data I / O cache units 15 1 to 15 n made of semiconductor memory (which can be read and written faster) were provided and clipped to the timeline unit 72 of the timeline editor window 70 described above with reference to FIGS. When the video / audio portion is pasted, the high-resolution video / audio data D1 of the video / audio portion is read from the material server 3 and stored in the corresponding data I / O cache units 15 1 to 15 n to thereby store the video / audio portion. Edited video and audio based on the high-resolution video and audio data D1 in the video and audio portion can be quickly displayed or output. It has been made to.

しかしながら、ある編集端末装置9〜9において途中まで作成されてプロジェクトファイルサーバ10に保存されたプロジェクトファイルを他の編集端末装置9〜9で開いて続きを開始しようとした場合、その編集端末装置9〜9と対応付けられたデータI/Oキャッシュ部15〜15には、当該編集リストにおいて使用されている各映像音声部分の高解像度映像音声データD1が記憶保持されておらず、このためこの編集リストの作成作業の再開直後に、当該編集リストに基づく高解像度の編集映像音声を視聴し得ない問題がある。 However, when a project file created halfway in a certain editing terminal device 9 1 to 9 n and saved in the project file server 10 is opened in another editing terminal device 9 1 to 9 n and the continuation is started, the editing terminal device 9 1 to 9 n and the associated data I / O cache unit 15 1 to 15 n, the high-resolution video and audio data D1 of each video and audio portion used in the editing list is stored and held For this reason, there is a problem in that it is impossible to view the high-resolution edited video / audio based on the edit list immediately after resuming the editing list creation.

そこで、このオンエアーシステム1では、1つの編集端末装置9〜9において作成されたプロジェクトファイルがプロジェクトファイルサーバ10から読み出されて他の編集端末装置9〜9において開かれたときに、そのプロジェクト内の編集リストにおいて使用されている各映像音声部分の高解像度映像音声データD1を素材サーバ3から直ちにかつ自動的に対応するデータI/Oキャッシュ部15〜15に読み込む自動ロード機能が搭載されている。 Therefore, in this on-air system 1, when a project file created in one editing terminal device 9 1 to 9 n is read from the project file server 10 and opened in another editing terminal device 9 1 to 9 n . In addition, the high-resolution video / audio data D1 of each video / audio part used in the edit list in the project is automatically read from the material server 3 to the corresponding data I / O cache units 15 1 to 15 n immediately and automatically. Load function is installed.

実際上、編集端末装置9〜9は、図3について上述したプロジェクトマネージャウインド40のツリー表示部41において1つのプロジェクトファイルが指定されてこれを開くべき旨の命令が入力されると、プロジェクトファイルサーバ10にそのプロジェクトファイルの転送要求を送出すると共に、この結果としてプロジェクトファイルサーバ10から転送されてきたこのプロジェクトファイルを開き、かくして得られた当該プロジェクトファイルに格納された編集リストに応じたタイムラインエディタウインド70(図6〜図8)をディスプレイ32(図2)に表示させる。 In practice, the editing terminal device 9 1 to 9 n, when an instruction to the effect that opening this one project file in the tree display part 41 of the project manager window 40 described above is specified for FIG. 3 is input, the project A request for transferring the project file is sent to the file server 10, and as a result, the project file transferred from the project file server 10 is opened, and the time corresponding to the edit list stored in the project file thus obtained is obtained. The line editor window 70 (FIGS. 6 to 8) is displayed on the display 32 (FIG. 2).

また編集端末装置9〜9は、これと共に対応するデータI/Oキャッシュ部15〜15がそのとき記憶保持しているクリップの高解像度映像音声データD1のリスト(以下、これを保持クリップリストと呼ぶ)の転送要求をシステム制御部5に送出する。このときシステム制御部5は、素材サーバ3、プロキシサーバ6、各データI/Oキャッシュ部15〜15に収録され、又は記憶保持されている全てのクリップを管理しており、編集端末装置9〜9からの保持クリップリストの転送要求に応じてこれをその編集端末装置9〜9に送出する。 The editing terminal devices 9 1 to 9 n also have a list of high-resolution video / audio data D1 of clips (hereinafter referred to as this) stored in the corresponding data I / O cache units 15 1 to 15 n at that time. A transfer request (referred to as a clip list) is sent to the system control unit 5. At this time, the system control unit 5 manages all clips recorded or stored in the material server 3, the proxy server 6, and the data I / O cache units 15 1 to 15 n , and the editing terminal device and it sends this to the editing terminal device 9 1 to 9 n in response to the transfer request of the retaining clip list from 9 1 to 9 n.

かくして編集端末装置9〜9は、このときシステム制御部5から転送された保持クリップリストと、かかるプロジェクトファイルに含まれるEDL情報とに基づいて、編集リストにおいて使用されているが、対応するデータI/Oキャッシュ部15〜15に記憶保持されていないクリップの有無を判断する。 Thus, the editing terminal devices 9 1 to 9 n are used in the editing list based on the holding clip list transferred from the system control unit 5 at this time and the EDL information included in the project file. to determine the presence or absence of a clip that is not stored and held in the data I / O cache unit 15 1 to 15 n.

そして編集端末装置9〜9は、この判断結果に基づいて、かかるプロジェクトの編集リストにおいて使用されているが、対応するデータI/Oキャッシュ部15〜15が記憶保持していないクリップがあった場合には、そのクリップの読出し要求をシステム制御部5に送出する。 Based on the determination result, the editing terminal devices 9 1 to 9 n are used in the editing list of the project, but the corresponding data I / O cache units 15 1 to 15 n do not store and hold clips. If there is, the clip read request is sent to the system control unit 5.

システム制御部5は、この編集端末装置9〜9から与えられる読出し要求に基づいて素材サーバ3を制御することにより、読出し要求のあった各クリップの高解像度映像音声データD1を読み出させる。この結果これら高解像度映像音声データD1がゲートウェイ13及びFCスイッチャ14を順次介して対応するデータI/Oキャッシュ部15〜15に与えられて記憶保持される。 The system control unit 5 controls the material server 3 based on the read requests given from the editing terminal devices 9 1 to 9 n, thereby reading the high-resolution video / audio data D1 of each clip requested to be read. . As a result, the high-resolution video / audio data D1 is given to the corresponding data I / O cache units 15 1 to 15 n via the gateway 13 and the FC switcher 14 in sequence, and stored and held.

かくして編集端末装置9〜9においては、この後そのとき表示されているタイムラインエディタウインド70(図6〜図8)のマスタービューワ部73の下部に表示されたコマンドボタン群90のうちの再生ボタン90PV(図6〜図8)が操作されて再生命令が入力されると、対応する高解像度映像音声データD1をデータI/Oキャッシュ部15〜15から読み出し、当該高解像度映像音声データD1に基づく映像をマスタービューワ部73内に表示させるようになされ、これによりオペレータがその編集リストに基づく高解像度の編集映像音声を迅速に視聴し得るようになされている。 Thus, in the editing terminal devices 9 1 to 9 n , the command buttons 90 displayed in the lower part of the master viewer section 73 of the timeline editor window 70 (FIGS. 6 to 8) displayed at that time are displayed. When the playback button 90 PV (FIGS. 6 to 8) is operated to input a playback command, the corresponding high-resolution video / audio data D1 is read from the data I / O cache units 15 1 to 15 n and the high-resolution video is read. The video based on the audio data D1 is displayed in the master viewer unit 73, so that the operator can quickly view the high-resolution edited video audio based on the edit list.

なおこの実施の形態の場合、編集端末装置9〜9は、プロジェクトの編集リストにおいて使用されているが、対応するデータI/Oキャッシュ部15〜15が記憶保持していないクリップの高解像度映像音声データD1の読出し要求をシステム制御部5に送出する際、その映像音声部分の編集点近傍(他のカットとの繋ぎ目近傍)の高解像度映像音声データD1を優先的に転送するように読出し要求を送出するようになされている。 In the case of this embodiment, the editing terminal devices 9 1 to 9 n are used in the project edit list, but the corresponding data I / O cache units 15 1 to 15 n are clips that are not stored and held. When a request for reading the high-resolution video / audio data D1 is sent to the system control unit 5, the high-resolution video / audio data D1 in the vicinity of the edit point (near the joint with another cut) of the video / audio portion is preferentially transferred. Thus, a read request is sent out.

すなわち編集端末装置9〜9は、システム制御部5に対してかかる読出し要求を送出する際、図11に示すように、各映像音声部分(カット)CUTについて、まずイン点側及びアウト点側の予め設定された数秒分(例えば2〜10秒分)の映像音声部分PAIN、PAOUTの高解像度映像音声データD1についての読出し要求を送出し、その後これら各映像音声部分CUTの残りの部分PAOTについての読出し要求をシステム制御部5に送出する。 That is, when the editing terminal devices 9 1 to 9 n send such a read request to the system control unit 5, first , as shown in FIG. 11, for each video / audio portion (cut) CUT, first, the in-point side and the out-point A request for reading out the high-resolution video / audio data D1 of the video / audio portions PA IN and PA OUT for a predetermined number of seconds (for example, 2 to 10 seconds) on the side is sent, and then the remaining video / audio portions CUT A read request for the partial PAOT is sent to the system control unit 5.

この結果、この読出し要求に応じたシステム制御部5の制御のもとに、まずかかる各映像音声部分CUTのイン点側及びアウト点側の数秒分の映像音声部分PAIN、PAOUTの高解像度映像音声データD1が素材サーバ3から読み出されて、これが対応するデータI/Oキャッシュ部15〜15に記憶保持され、この後これら各映像音声部分CUTの残りの部分PAOTの高解像度映像音声データD1が素材サーバ3から読み出されて、これが当該データI/Oキャッシュ部15〜15に記憶保持されることとなる。 As a result, under the control of the system controller 5 in response to the read request, first, the high resolution of the video and audio portions PA IN and PA OUT for several seconds on the in-point side and the out-point side of each video and audio portion CUT. and audiovisual data D1 is read from the material server 3, which is stored and held in the corresponding data I / O cache unit 15 1 to 15 n, the high resolution of the remaining part PA OT of the rear respective video audio part CUT The video / audio data D1 is read from the material server 3 and stored in the data I / O cache units 15 1 to 15 n .

このようにしてこのオンエアーシステム1においては、編集端末装置9〜9において、他の編集端末装置9〜9において作成されたプロジェクトファイルがオープンされたときに、編集リスト作成作業の際に特にプレビューされ易いカットとカットとの繋ぎ目部分の高解像度映像音声データD1を優先的にデータI/Oキャッシュ部15〜15にロードするようになされている。 In this manner, in this on-air system 1, in the editing terminal device 9 1 ~9 n, project files created in other editing terminal device 9 1 ~9 n is when it is open, the editing list creating work At this time, the high resolution video / audio data D1 at the joint portion between cuts that are particularly easily previewed is preferentially loaded into the data I / O cache units 15 1 to 15 n .

(5)プロジェクトファイルオープン処理手順
ここで、上述のような自動ロード機能に関する編集端末装置9〜9の各種処理は、図12に示すプロジェクトファイルオープン処理手順RTに従ったCPU20(図2)の制御のもとに行われる。
(5) Project File Open Processing Procedure Here, the various processes of the editing terminal devices 9 1 to 9 n related to the automatic load function as described above are performed by the CPU 20 (FIG. 2) according to the project file open processing procedure RT shown in FIG. Under the control of

実際上CPU20は、プロジェクトマネージャウインド40のツリー表示部41において1つのプロジェクトファイルが指定されてこれを開くべき旨の命令が入力されると、このプロジェクトファイルオープン処理手順RT1をステップSP0において開始し、続くステップSP1において、そのプロジェクトファイルの転送要求をプロジェクトファイルサーバ10に送出すると共に、上述した対応するデータI/Oキャッシュ部15〜15がそのとき記憶保持しているクリップの高解像度映像音声データD1のリストでなる保持クリップリストの転送要求をシステム制御部5に送出する。 In practice, when the CPU 20 receives a command to open and specify one project file in the tree display section 41 of the project manager window 40, the CPU 20 starts this project file open processing procedure RT1 in step SP0. In the next step SP1, a request for transferring the project file is sent to the project file server 10, and the corresponding data I / O cache units 15 1 to 15 n described above store the high-resolution video / audio of the clip stored at that time. A transfer request for a holding clip list including a list of data D1 is sent to the system control unit 5.

続いてCPU20は、ステップSP2に進んでそのプロジェクトファイル及び保持クリップリストが転送されるのを待ち受け、やがてこのプロジェクトファイル及び保持クリップリストの各データを受信し終えるとステップSP3に進んで、プロジェクトファイルのデータをデータ処理部24(図2)に与えることにより、当該プロジェクトファイルに格納された編集リストに応じたタイムラインエディタウインド70(図6〜図8)をディスプレイ32(図2)に表示させる。   Subsequently, the CPU 20 proceeds to step SP2 and waits for the transfer of the project file and the retained clip list. When the CPU 20 finishes receiving the data of the project file and the retained clip list, the process proceeds to step SP3. By giving the data to the data processing unit 24 (FIG. 2), the timeline editor window 70 (FIGS. 6 to 8) corresponding to the edit list stored in the project file is displayed on the display 32 (FIG. 2).

続いてCPU20は、ステップSP4に進んで、保持クリップリストと、かかるプロジェクトファイルに含まれるEDL情報とに基づいて、編集リストにおいて使用されているが、対応するデータI/Oキャッシュ部15〜15に記憶保持されていないクリップの有無を判断する。 Subsequently, the CPU 20 proceeds to step SP4 to use the corresponding data I / O cache units 15 1 to 15 which are used in the edit list based on the retained clip list and the EDL information included in the project file. It is determined whether there is a clip that is not stored in n .

そしてCPU20は、このようなクリップが存在しないときには、ステップSP9に進んでこのプロジェクトファイルオープン処理手順RTを終了し、これに対してこのようなクリップが存在するときには、ステップSP5に進んで、該当する各クリップの映像音声部分CUT(図11)のイン点側及びアウト点側の数秒分の映像音声部分PAIN、PAOUT(図11)の高解像度映像音声データD1についての読出し要求をシステム制御部5に送出する。そしてCPU20は、この後ステップSP6に進んでその高解像度映像音声データD1の読み出しが終了するのを待ち受ける。 When such a clip does not exist, the CPU 20 proceeds to step SP9 to end the project file open processing procedure RT. On the other hand, when such a clip exists, the CPU 20 proceeds to step SP5 and applies. A system control unit issues a read request for high-resolution video / audio data D1 of video / audio portions PA IN and PA OUT (FIG. 11) for several seconds on the in-point side and out-point side of the video / audio portion CUT (FIG. 11) of each clip. Send to 5. Then, the CPU 20 proceeds to step SP6 and waits for completion of reading of the high-resolution video / audio data D1.

またCPU20は、やがてかかる高解像度映像音声データD1の読み出しが終了したことを、その終了後にシステム制御部5から与えられる通知に基づき認識すると、ステップSP7に進んで、各映像音声部分CUTの残りの部分PAOT(図11)についての読出し要求をシステム制御部5に送出し、この後ステップSP8に進んでその高解像度映像音声データD1の読み出しが終了するのを待ち受ける。 When the CPU 20 recognizes that the reading of the high-resolution video / audio data D1 has been completed, based on the notification given from the system control unit 5 after the completion, the CPU 20 proceeds to step SP7 and proceeds to the rest of the video / audio portions CUT. A read request for the partial PA OT (FIG. 11) is sent to the system control unit 5, and then the process proceeds to step SP8 to wait for the reading of the high resolution video / audio data D1 to be completed.

そしてCPU20は、やがてかかる高解像度映像音声データD1の読み出しが終了したことを、その終了後にシステム制御部5から与えられる通知に基づき認識すると、ステップSP9に進んでこのプロジェクトファイルオープン処理手順RTを終了する。   When the CPU 20 recognizes that the reading of the high-resolution video / audio data D1 has ended, based on the notification given from the system controller 5 after the end, the CPU 20 proceeds to step SP9 and ends the project file open processing procedure RT. To do.

(6)本実施の形態の動作及び効果
以上の構成において、このオンエアーシステム1では、プロジェクトファイルをプロジェクトファイルサーバ10から読み出して開いたときに、そのプロジェクトファイルに格納された編集リストに応じたタイムラインエディタウインド70が当該編集端末装置9〜9のディスプレイ32に表示され、これと並行してその編集リストに使用されている各映像音声部分のうち、プロジェクトの編集リストにおいて使用されているが、対応するデータI/Oキャッシュ部15〜15が記憶保持していないクリップの高解像度映像音声データD1が素材サーバ3から直ちにかつ自動的に読み出されて対応するデータI/Oキャッシュ部15〜15に記憶保持される。
(6) Operation and effect of this embodiment In the above configuration, in this on-air system 1, when a project file is read from the project file server 10 and opened, it corresponds to the edit list stored in the project file. A timeline editor window 70 is displayed on the display 32 of the editing terminal devices 9 1 to 9 n and is used in the project editing list among the video and audio parts used in the editing list in parallel. However, the high-resolution video / audio data D1 of the clip that is not stored in the corresponding data I / O cache units 15 1 to 15 n is immediately and automatically read from the material server 3 and the corresponding data I / O It is stored and held in the cache units 15 1 to 15 n .

従って、このオンエアーシステム1では、そのプロジェクトファイルが他の編集端末装置9〜9において作成されたものであっても、当該プロジェクトファイルを開いた後、短時間のうちに当該編集リストに基づく編集映像音声を視聴することができ、その分編集端末装置9〜9が高解像度映像音声データD1を読み込む際の待ち時間を格段的に低減させることができる。 Therefore, in the on-air system 1, even if the project file is created in the other editing terminal devices 9 1 to 9 n , the project file is opened in the editing list within a short time after the project file is opened. It is possible to view the edited video / audio based on this, and accordingly, the waiting time when the editing terminal devices 9 1 to 9 n read the high-resolution video / audio data D1 can be significantly reduced.

またこの場合において、このオンエアーシステム1では、上述のようにその編集リストに使用されている各映像音声部分の高解像度映像音声データD1を対応するデータI/Oキャッシュ部15〜15に読み込むに際して、これら映像音声部分のうちの最も視聴され易いイン点側及びアウト点側の数秒分の映像音声部分PAIN、PAOUTの高解像度映像音声データD1を最初に読み込み、その後に各映像音声部分の残りの部分PAOTを読み込むようにしているため、かかる待ち時間をより一層効率良く低減させることができる。 Further, in this case, in the on-air system 1, as described above, the high-resolution video / audio data D1 of each video / audio portion used in the edit list is transferred to the corresponding data I / O cache units 15 1 to 15 n . At the time of reading, the high-resolution video / audio data D1 of the video / audio portions PA IN and PA OUT for several seconds on the in-point side and the out-point side that are most easily viewed among these video / audio portions are first read, and then each video / audio is read. Since the remaining part PAOT of the part is read, such a waiting time can be further efficiently reduced.

以上の構成によれば、他の編集端末装置9〜9において作成されたプロジェクトファイルを開いたときに、当該プロジェクトファイルに格納された編集リストにおいて使用されているが、対応するデータI/Oキャッシュ部15〜15が記憶保持していないクリップの高解像度映像音声データD1を素材サーバ3から直ちにかつ自動的に読み出して当該データI/Oキャッシュ部15〜15に記憶保持させるようにしたことにより、プロジェクトファイルを開いてから短時間のうちに当該編集リストに基づく高解像度の編集映像音声を視聴し得るようにすることができ、かくして編集作業効率を格段に向上させることができる。 According to the above configuration, when a project file created in the other editing terminal devices 9 1 to 9 n is opened, it is used in the editing list stored in the project file, but the corresponding data I / The high-resolution video / audio data D1 of the clips not stored in the O cache units 15 1 to 15 n is immediately and automatically read from the material server 3 and stored in the data I / O cache units 15 1 to 15 n . By doing so, it is possible to view the high-resolution edited video and audio based on the edit list within a short time after opening the project file, thus greatly improving the editing work efficiency. it can.

(7)他の実施の形態
なお上述の実施の形態においては、本発明を図1のように構成されたオンエアーシステム1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を有する編集システムに広く適用することができる。
(7) Other Embodiments In the above-described embodiment, the case where the present invention is applied to the on-air system 1 configured as shown in FIG. 1 has been described. However, the present invention is not limited to this. In addition, the present invention can be widely applied to editing systems having various other configurations.

また上述の実施の形態においては、編集対象とする被編集素材が映像音声素材である場合について述べたが、本発明はこれに限らず、例えば被編集素材が映像のみからなる映像素材である場合においても本発明を適用することができる。   In the above-described embodiment, the case where the material to be edited is a video / audio material has been described. However, the present invention is not limited to this. For example, the material to be edited is a video material including only video. The present invention can also be applied to.

さらに上述の実施の形態においては、取材等により得られた各クリップの映像音声データを記憶保持する第1の記憶保持手段としての素材サーバ3を複数のRAIDから構成するようにした場合について述べたが、本発明はこれに限らず、素材サーバ3の構成としてはこの他種々の構成を広く適用することができる。   Furthermore, in the above-described embodiment, the case where the material server 3 as the first storage holding means for storing and holding the video and audio data of each clip obtained by the interview or the like is configured from a plurality of RAIDs has been described. However, the present invention is not limited to this, and various other configurations can be widely applied as the configuration of the material server 3.

さらに上述の実施の形態においては、素材サーバ3から読み出された高解像度映像音声データD1を記憶保持する第2の記憶保持手段としてのデータI/Oキャッシュ部15〜15を、半導体メモリにより構成するようにした場合について述べたが、本発明はこれに限らず、要は、素材サーバ3よりも高いアクセス性を有する記憶媒体を用いて構成されたものであるのならば、半導体メモリ以外の記憶素子を用いたものであっても良い。 Further, in the above-described embodiment, the data I / O cache units 15 1 to 15 n as the second storage holding means for storing and holding the high-resolution video / audio data D1 read from the material server 3 are stored in the semiconductor memory. However, the present invention is not limited to this, and in short, if it is configured using a storage medium having higher accessibility than the material server 3, a semiconductor memory Other storage elements may be used.

さらに上述の実施の形態においては、選択された編集リストに従って高解像度映像音声データD1をデータI/Oキャッシュ部15〜15から読み出して加工編集するようにして、当該編集リストに応じた編集映像を生成する編集手段としての編集端末装置9〜9を図2のように構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を広く適用することができる。 Further, in the above-described embodiment, the high-resolution video / audio data D1 is read from the data I / O cache units 15 1 to 15 n according to the selected edit list, and is edited and edited in accordance with the edit list. Although the case where the editing terminal devices 9 1 to 9 n as the editing means for generating the video are configured as shown in FIG. 2 has been described, the present invention is not limited to this, and various other configurations are widely applied. be able to.

さらに上述の実施の形態においては、素材サーバ3及びデータI/Oキャッシュ部15〜15を制御する制御手段として、当該オンエアーシステム1全体の制御を司るシステム制御部5を適用するようにした場合について述べたが、本発明はこれに限らず、例えば、かかる本発明に関するシステム制御部5の機能を編集端末装置9〜9にもたせるようにしても良い。 Furthermore, in the above-described embodiment, the system control unit 5 that controls the entire on-air system 1 is applied as a control unit that controls the material server 3 and the data I / O cache units 15 1 to 15 n. However, the present invention is not limited to this. For example, the functions of the system control unit 5 related to the present invention may be provided to the editing terminal devices 9 1 to 9 n .

さらに上述の実施の形態においては、他の編集端末装置9〜9において作成されたプロジェクトファイルに格納された編集リストに使用されている各クリップの映像音声部分の高解像度映像音声データD1を素材サーバ3に読み出させる際に、編集端末装置9〜9からシステム制御部5に与える読出し要求に応じて、その映像音声部分の編集点近傍の高解像度映像音声データD1を優先的に読み出させるようにした場合について述べたが、本発明はこれに限らず、かかる各映像音声部分の編集点近傍の高解像度映像音声データD1を優先的に読み出させる制御をシステム制御部5のみによって行い、編集端末装置9〜9が何ら関与しないようにシステムを構築するようにしても良い。具体的には、例えば編集端末装置9〜9が編集リストに使用されている各クリップの映像音声部分の一括した読出し要求をシステム制御部5に与え、システム制御部5において、各映像音声部分の編集点近傍の高解像度映像音声データD1を優先的に読み出させるように素材サーバ3を制御するようにシステムを構築するようにすれば良い。 Furthermore, in the above-described embodiment, the high-resolution video / audio data D1 of the video / audio portion of each clip used in the edit list stored in the project file created in the other editing terminal devices 9 1 to 9 n is stored. The high-resolution video / audio data D1 in the vicinity of the edit point of the video / audio portion is preferentially responded to a read request given from the editing terminal devices 9 1 to 9 n to the system control unit 5 when the material server 3 reads it. Although the case where reading is performed has been described, the present invention is not limited to this, and control for preferentially reading the high-resolution video / audio data D1 in the vicinity of the editing point of each video / audio portion is performed only by the system control unit 5. And the system may be constructed so that the editing terminal devices 9 1 to 9 n are not involved at all. Specifically, for example, the editing terminal devices 9 1 to 9 n give the system control unit 5 a batch read request for the video and audio portions of the clips used in the edit list, and the system control unit 5 What is necessary is just to construct | assemble a system so that the raw material server 3 may be controlled so that the high-resolution video-audio data D1 of the part edit point vicinity may be read preferentially.

さらに上述の実施の形態においては、編集端末装置9〜9においてプロジェクトファイルを開いたときに、当該プロジェクトファイルに格納された編集リストにおいて使用されているが、対応するデータI/Oキャッシュ部15〜15が記憶保持していないクリップの高解像度映像音声データD1の読出し要求をシステム制御部5に送出するようにした場合について述べたが、本発明はこれに限らず、対応するデータI/Oキャッシュ部15〜15が記憶保持しているかいないかを問わず、編集リストにおいて使用されている全てのクリップの高解像度映像音声データD1の読出し要求を編集端末装置9〜9がシステム制御部5に送出するようにしても良い。 Furthermore, in the above-described embodiment, when the project file is opened in the editing terminal devices 9 1 to 9 n , the corresponding data I / O cache unit is used in the edit list stored in the project file. Although the case where the read request of the high-resolution video / audio data D1 of the clip not stored in 15 1 to 15 n is sent to the system control unit 5 has been described, the present invention is not limited thereto, and the corresponding data Regardless of whether or not the I / O cache units 15 1 to 15 n are stored and held, the read request for the high resolution video / audio data D1 of all clips used in the edit list is sent to the editing terminal devices 9 1 to 9 n may be sent to the system control unit 5.

本発明は、オンエアーシステムの他、これ以外のシステムに用いられる種々の編集システムに適用することができる。   The present invention can be applied to various editing systems used in systems other than the on-air system.

本実施の形態によるオンエアーシステムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the on-air system by this Embodiment. 編集端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of an edit terminal device. プロジェクトマネージャウインドを示す略線図である。It is a basic diagram which shows a project manager window. ニュープロジェクトダイアログを示す略線図である。It is a basic diagram which shows a new project dialog. クリップエクスプローラウインドを示す略線図である。It is a basic diagram which shows a clip explorer window. タイムラインエディタウインドを示す略線図である。It is a basic diagram which shows a timeline editor window. タイムラインエディタウインドを示す略線図である。It is a basic diagram which shows a timeline editor window. タイムラインエディタウインドを示す略線図である。It is a basic diagram which shows a timeline editor window. FXエクスプローラウインドを示す略線図である。It is a basic diagram which shows FX explorer window. オーディオミキシングウインドを示す略線図である。It is a basic diagram which shows an audio mixing window. 編集リストに使用されている各映像音声部分における当該映像音声部分内での高解像度映像音声データD1の読出し順序の説明に供する概念図である。It is a conceptual diagram with which it uses for description of the read-out order of the high-resolution video / audio data D1 in the said video / audio part in each video / audio part used for the edit list. プロジェクトファイルオープン処理手順を示すフローチャートである。It is a flowchart which shows a project file open process sequence.

符号の説明Explanation of symbols

1……オンエアーシステム、3……素材サーバ、9〜9……編集端末装置、10……プロジェクトファイルサーバ、15〜15……データI/Oキャッシュ部、20……CPU、25……映像特殊効果及び音声ミキシング処理部、32……ディスプレイ、40……プロジェクトマネージャウインド、50……ニュープロジェクトダイアログ、60……クリップエクスプローラウインド、61……サーバサイトエクスプローラウインド、70……タイムラインエディタウインド、72……タイムライン部、73……マスタービューワ部、110PV……再生ボタン、D1……高解像度映像音声データ、D2……低解像度映像音声データ、D3……編集映像音声データ、PAIN、PAOUT……映像音声部分。 1 ...... on-air system, 3 ...... material server, 9 1 to 9 n ...... editing terminal device 10 ...... project file server, 15 1 to 15 n ...... data I / O cache unit, 20 ...... CPU, 25 …… Image special effects and audio mixing processing unit, 32 …… Display, 40 …… Project manager window, 50 …… New project dialog, 60 …… Clip explorer window, 61 …… Server site explorer window, 70 …… Time Line editor window, 72 …… Timeline section, 73 …… Master viewer section, 110 PV …… Play button, D1 …… High resolution video / audio data, D2 …… Low resolution video / audio data, D3 …… Edited video / audio data , PA IN , PA OUT ...... Video / audio part.

Claims (4)

被編集素材の映像データを記憶保持する第1の記憶保持手段と、
上記第1の記憶保持手段よりも高いアクセス性を有し、当該第1の記憶保持手段から読み出された上記被編集素材の上記映像データを記憶保持する第2の記憶保持手段と、
選択されたファイルに格納された編集内容を規定した編集リストに従って上記第2の記憶保持手段から必要な上記映像データを読み出し加工編集処理するようにして、当該編集リストに応じた編集映像を生成する編集手段と、
上記編集手段からの要求に応じて上記第1及び第2の記憶保持手段を制御する制御手段と
を具え、
上記編集手段は、
上記選択されたファイルを開くときに、当該ファイルに格納された上記編集リストに基づく上記編集映像の生成に必要な上記映像データの読出し要求を上記制御手段に与え、
上記制御手段は、
上記編集手段からの上記読出し要求に応じて上記第1及び第2の記憶保持手段を制御することにより、上記編集映像の生成に必要な上記映像データのうち上記被編集素材の編集点近傍の上記映像データを優先的に上記第1の記憶保持手段に読み出させて上記第2の記憶保持手段に記憶保持させる
ことを特徴とする編集システム。
First storage and holding means for storing and holding video data of the material to be edited;
Second storage holding means having higher accessibility than the first storage holding means and storing the video data of the editing material read from the first storage holding means;
In accordance with an editing list that defines the editing content stored in the selected file, the video data required is read out from the second storage holding means and processed and edited to generate an edited video corresponding to the editing list. Editing means,
Control means for controlling the first and second memory holding means in response to a request from the editing means,
The editing means is
When opening the selected file, a request to read the video data necessary for generating the edited video based on the edit list stored in the file is given to the control means,
The control means includes
By controlling the first and second storage and holding means in response to the read request from the editing means, the video data near the editing point of the material to be edited out of the video data necessary for generating the edited video. An editing system, wherein video data is preferentially read out by the first storage holding unit and stored in the second storage holding unit.
上記編集手段は、
上記選択されたファイルを開くときに、当該ファイルに格納された上記編集リストに基づく上記編集映像の生成に必要な上記映像データとして、当該編集リストにおいて使用されているが、上記第2の記憶保持手段が記憶保持していない上記被編集素材の上記映像データの上記読出し要求を上記制御手段に与える
ことを特徴とする請求項1に記載の編集システム。
The editing means is
When the selected file is opened, it is used in the edit list as the video data necessary for generating the edited video based on the edit list stored in the file. 2. The editing system according to claim 1, wherein the request for reading the video data of the material to be edited that is not stored in the means is given to the control means.
被編集素材の映像データを第1の記憶保持手段に記憶保持させる第1のステップと、A first step of storing and holding video data of a material to be edited in a first storage holding unit;
当該第1の記憶保持手段から読み出された上記映像データを、上記第1の記憶保持手段よりも速いアクセス性を有する第2の記憶保持手段に記憶保持させる第2のステップと、A second step of storing and holding the video data read from the first storage holding unit in a second storage holding unit having a faster access than the first storage holding unit;
選択されたファイルに格納された編集内容を規定した編集リストに従って上記第2の記憶保持手段から必要な上記映像データを読み出し加工編集処理するようにして、当該編集リストに応じた編集映像を所定の編集手段において生成する第3のステップとIn accordance with an edit list that defines edit contents stored in the selected file, the necessary video data is read out from the second storage holding means and processed and edited, and an edited video corresponding to the edit list is processed in a predetermined manner. A third step generated by the editing means;
を具え、With
上記第3のステップでは、In the third step,
上記編集手段において、上記選択されたファイルを開くときに、当該ファイルに格納された上記編集リストに基づく上記編集映像の生成に必要な上記映像データのうち、上記被編集素材の編集点近傍の上記映像データを優先的に上記第1の記憶保持手段に読み出させて上記第2の記憶保持手段に記憶保持させるIn the editing means, when the selected file is opened, out of the video data necessary for generating the edited video based on the editing list stored in the file, the video data near the editing point of the material to be edited The video data is preferentially read out by the first storage holding unit and stored in the second storage holding unit.
ことを特徴とする編集システムの制御方法。An editing system control method characterized by the above.
上記第3のステップでは、In the third step,
上記選択されたファイルを開くときに、当該ファイルに格納された上記編集リストに基づく上記編集映像の生成に必要な上記映像データとして、当該編集リストにおいて使用されているが、上記第2の記憶保持手段が記憶保持していない上記被編集素材の上記映像データを上記第1の記憶保持手段に読み出させて上記第2の記憶保持手段に記憶保持させるWhen the selected file is opened, it is used in the edit list as the video data necessary for generating the edited video based on the edit list stored in the file. The video data of the material to be edited that is not stored in the means is read out by the first storage holding means and stored in the second storage holding means.
ことを特徴とする請求項3に記載の編集システムの制御方法。The method of controlling an editing system according to claim 3.
JP2003282002A 2003-07-29 2003-07-29 Editing system and control method thereof Expired - Fee Related JP4117617B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003282002A JP4117617B2 (en) 2003-07-29 2003-07-29 Editing system and control method thereof
US10/900,873 US7424202B2 (en) 2003-07-29 2004-07-27 Editing system and control method using a readout request

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003282002A JP4117617B2 (en) 2003-07-29 2003-07-29 Editing system and control method thereof

Publications (2)

Publication Number Publication Date
JP2005051544A JP2005051544A (en) 2005-02-24
JP4117617B2 true JP4117617B2 (en) 2008-07-16

Family

ID=34267344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003282002A Expired - Fee Related JP4117617B2 (en) 2003-07-29 2003-07-29 Editing system and control method thereof

Country Status (1)

Country Link
JP (1) JP4117617B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027492A (en) * 2006-07-19 2008-02-07 Sony Corp Recording control device, recording control method, and program
JP5086663B2 (en) * 2007-02-28 2012-11-28 株式会社東芝 Broadcast material management system and its material management method
JP4672788B2 (en) * 2008-09-16 2011-04-20 株式会社東芝 Video data processing system, video server, gateway server, and video data management method

Also Published As

Publication number Publication date
JP2005051544A (en) 2005-02-24

Similar Documents

Publication Publication Date Title
JP4117616B2 (en) Editing system, control method thereof and editing apparatus
JP4168334B2 (en) Editing apparatus and editing method
US7424202B2 (en) Editing system and control method using a readout request
JP4120896B2 (en) Video editing apparatus and method
US6650826B1 (en) Editing apparatus and method, and image material selection apparatus and method
US7903927B2 (en) Editing apparatus and control method thereof, and program and recording medium
JP4207099B2 (en) Image editing apparatus and method
US6400378B1 (en) Home movie maker
JPH1098671A (en) Edit controller of recorded material and its operation
JP4110528B2 (en) Editing apparatus and editing method
US20080040444A1 (en) Media map for capture of content from random access devices
JP4174718B2 (en) Editing apparatus and editing method
JP4117617B2 (en) Editing system and control method thereof
JP3906922B2 (en) Editing system
JPH10285534A (en) Video signal processor
JP4348605B2 (en) Editing system and control method thereof
JP4337033B2 (en) Editing system and control method thereof
JP4337034B2 (en) Editing system and control method thereof
US20080040770A1 (en) Media map for capture of content from random access devices
JP2002247504A (en) Editing device and recording medium
JPH10164495A (en) Device, method for editing video and storage medium
JP2004015436A (en) Program, record medium, methodology, and instrument for video image content creation
JP2000308001A (en) Editing device, data recording and reproducing device, and method for recording subject matter to be edited
JP4314688B2 (en) Data recording / reproducing apparatus and method
JP2004015437A (en) Program, recording medium, method, and apparatus for recording and reproducing video / audio data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080328

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080410

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130502

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees