JP4582427B2 - Image editing apparatus and method - Google Patents

Image editing apparatus and method Download PDF

Info

Publication number
JP4582427B2
JP4582427B2 JP2008096450A JP2008096450A JP4582427B2 JP 4582427 B2 JP4582427 B2 JP 4582427B2 JP 2008096450 A JP2008096450 A JP 2008096450A JP 2008096450 A JP2008096450 A JP 2008096450A JP 4582427 B2 JP4582427 B2 JP 4582427B2
Authority
JP
Japan
Prior art keywords
editing
image
end point
start point
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008096450A
Other languages
Japanese (ja)
Other versions
JP2008182765A (en
Inventor
惠子 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008096450A priority Critical patent/JP4582427B2/en
Publication of JP2008182765A publication Critical patent/JP2008182765A/en
Application granted granted Critical
Publication of JP4582427B2 publication Critical patent/JP4582427B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は画像編集装置及びその方法に関し、例えば動画像素材から所望するシーン(以下、これを動画像クリップと呼ぶ)を選定するようにして当該動画像素材を編集する画像編集装置に適用して好適なものである。   The present invention relates to an image editing apparatus and method, and is applied to, for example, an image editing apparatus that edits a moving image material by selecting a desired scene (hereinafter referred to as a moving image clip) from the moving image material. Is preferred.

従来、この種の画像編集装置として、アナログ方式の2台のビデオテープレコーダを用いるものがある。   Conventionally, as this type of image editing apparatus, there is an apparatus using two analog video tape recorders.

かかる構成の画像編集装置においては、動画像素材としてビデオ信号が予め記録されたビデオテープ(以下、これを素材用ビデオテープと呼ぶ)を一方のビデオテープレコーダを用いて再生し、当該再生して得られたビデオ信号に基づく動画像をモニタに表示させる。   In the image editing apparatus having such a configuration, a video tape in which a video signal is recorded in advance as a moving image material (hereinafter referred to as a material video tape) is reproduced using one video tape recorder, and the reproduction is performed. A moving image based on the obtained video signal is displayed on the monitor.

そしてこの画像編集装置においては、オペレータがこのモニタに表示された動画像を目視しながら動画像クリップを選定し、当該選定した動画像クリップに応じたビデオ信号(以下、これをクリップビデオ信号と呼ぶ)を他方のビデオテープレコーダを用いて他のビデオテープ(以下、これをクリップ用ビデオテープと呼ぶ)に記録する。   In this image editing apparatus, the operator selects a moving image clip while viewing the moving image displayed on the monitor, and a video signal corresponding to the selected moving image clip (hereinafter referred to as a clip video signal). Is recorded on another video tape (hereinafter referred to as a clip video tape) using the other video tape recorder.

このようにしてこの画像編集装置においては、動画像クリップの選定及び当該選定した動画像クリップに応じたクリップビデオ信号の記録からなる編集処理を順次繰り返すことにより複数の動画像クリップを記録したクリップ用ビデオテープを作成することができる。   In this way, in this image editing apparatus, a video clip for recording a plurality of moving image clips by sequentially repeating an editing process consisting of selecting a moving image clip and recording a clip video signal corresponding to the selected moving image clip. Tape can be created.

ところでこの画像編集装置においては、クリップ用ビデオテープから順次再生するクリップビデオ信号を例えば所定の放送用番組の動画像としてそのまま放送し得るように、当該クリップ用ビデオテープにこれら各クリップビデオ信号を所定の順番に従って記録する必要がある。   By the way, in this image editing apparatus, the clip video signals are sequentially transmitted from the clip video tape to the clip video tape in a predetermined order so that the clip video signal can be broadcast as it is as a moving image of a predetermined broadcast program. It is necessary to record according to.

このためこの画像編集装置においては、一方のビデオテープレコーダを用いて素材用ビデオテープに対する早送りや巻き戻しの動作が必要になる場合があると共に、複数の素材用ビデオテープを用いて動画像クリップを作成するような場合には、素材用ビデオテープを順次交換して一方のビデオテープレコーダを用いて再生する必要があり、編集作業が煩雑になることがあった。   For this reason, in this image editing apparatus, it is sometimes necessary to fast forward or rewind the material video tape using one video tape recorder, and a plurality of video tapes for material are used for moving image clips. In such a case, it is necessary to sequentially exchange the video tapes for the material and reproduce them using one of the video tape recorders, and the editing work may be complicated.

このため近年では、動画像素材の記録媒体として例えばハードディスク等の大容量でマルチアクセス性の高いノンリニアメディアが用いられ、かつグラフィカルユーザインターフェイスが使用された画像編集装置がある。   Therefore, in recent years, there is an image editing apparatus that uses a large-capacity non-linear medium such as a hard disk and a high multi-access property as a moving image material recording medium, and also uses a graphical user interface.

かかる画像編集装置においては、ノンリニアメディアを用いたことから、これに予め記録された複数の動画像素材に対してランダムにアクセスすることができ、従って上述した画像編集装置のような一方のビデオテープレコーダにおける素材用ビデオテープの早送りや巻き戻しの動作や、当該素材用ビデオテープの交換作業等のような煩雑さを伴う作業が不要となる利点がある。   In such an image editing apparatus, since non-linear media is used, a plurality of moving image materials recorded in advance can be randomly accessed. Therefore, one video tape such as the image editing apparatus described above can be used. There is an advantage that complicated operations such as fast-forwarding and rewinding of the video tape for material in the recorder and replacement work of the video tape for material are unnecessary.

またこの画像編集装置においては、グラフィカルユーザインターフェイスを使用することから、モニタ表示させた動画像上で編集開始点(以下、これをマークイン点と呼ぶ)及び編集終了点(以下、これをマークアウト点と呼ぶ)を指定するようにして順次ランダムに動画像クリップ(すなわちマークイン点及びマークアウト点間の動画像のシーン)を選定し、当該選定した動画像クリップの順番を必要に応じてモニタ上で決定することができ、かくして編集作業の効率を向上し得る利点がある。   Since this image editing apparatus uses a graphical user interface, an edit start point (hereinafter referred to as a mark-in point) and an edit end point (hereinafter referred to as a mark-out point) on a moving image displayed on a monitor. A moving image clip (that is, a moving image scene between the mark-in point and the mark-out point) is selected sequentially and randomly, and the order of the selected moving image clip is monitored as necessary. This has the advantage that it can be determined above, thus improving the efficiency of the editing operation.

ところでかかる構成の画像編集装置においては、順次1種類の動画像をモニタ表示させてこの動画像から動画像クリップを選定するようになされているため、複数の動画像素材を編集する場合には、モニタ表示させる動画像を順次換える必要がある。   By the way, in the image editing apparatus having such a configuration, one kind of moving image is sequentially displayed on the monitor and a moving image clip is selected from the moving image. Therefore, when editing a plurality of moving image materials, It is necessary to sequentially change the moving images displayed on the monitor.

ところがかかる画像編集装置においては、例えば1つの撮像対象に対してアングルを変えただけのような複数の動画像素材から少数の動画像クリップを選定するような場合には、これら各動画像を順次モニタ表示させてその内容を把握する作業が必要となることから、このような内容の把握のための作業と実際の編集作業とにおいて1つの動画像を複数回に亘ってモニタ表示させる場合がある。   However, in such an image editing apparatus, for example, when a small number of moving image clips are selected from a plurality of moving image materials in which the angle is changed with respect to one imaging target, the respective moving images are sequentially selected. Since it is necessary to display the contents on the monitor and grasp the contents, there is a case where one moving image is displayed on the monitor a plurality of times in the work for grasping the contents and the actual editing work. .

従ってかかる画像編集装置においては、例えばニュース番組のようにオンエア時間の直前に、取材によって1つの撮像対象に対する複数の動画像素材が与えられ、これらをこのオンエアまでの比較的短い時間内で編集するような場合には、モニタ表示させる動画像を順次換えることにより編集作業が煩雑となり、このような短い時間内の編集作業には容易には対応し難いことから、編集作業の効率を向上させるにはいまだ不十分な問題があった。   Therefore, in such an image editing apparatus, for example, a plurality of moving image materials for one imaging target are given by the interview immediately before the on-air time, such as a news program, and these are edited within a relatively short time until this on-air. In such a case, the editing work is complicated by sequentially changing the moving images displayed on the monitor, and it is difficult to easily cope with the editing work within such a short time, so that the efficiency of the editing work is improved. Yes there were still insufficient problems.

本発明は以上の点を考慮してなされたもので、編集作業の効率を格段的に向上し得る画像編集装置及びその方法を提案しようとするものである。   The present invention has been made in consideration of the above points, and an object of the present invention is to propose an image editing apparatus and method that can greatly improve the efficiency of editing work.

かかる課題を解決するため本発明においては、モニタに対し、一連の単位画像により形成される編集対象の複数の動画像として、所定の単位画像数分の長さの複数の静止画像を並べて表示し、当該モニタに対し編集対象の複数の動画像として複数の静止画像を並べて表示している状態で、当該静止画像上で動画像の編集開始点及び編集終了点を指定するために用いられる編集点指定手段を介して静止画像上で動画像の編集開始点及び又は編集終了点が指定されると、当該編集開始点及び又は編集終了点が指定された動画像として並べて表示している静止画像において当該指定された編集開始点及び又は編集終了点を示す開始点指示子及び又は終了点指示子を表示すると共に、当該モニタに対し動画像の指定された編集開始点及び編集終了点間の少なくとも1の単位画像を表示し、モニタに対し開始点指示子及び又は終了点指示子を表示している状態で、編集点指定手段を介して開始点指示子及び又は終了点指示子を移動させるように指示されると、当該開始点指示子及び又は終了点指示子を移動させると共に、当該開始点指示子及び又は終了点指示子の移動位置に応じて編集開始点及び又は編集終了点を変更し、モニタに対し開始点指示子及び又は終了点指示子を表示している状態で、編集点指定手段を介して開始点指示子又は終了点指示子が指定され、かつ所定の操作キーの操作に応じて削除命令が入力されると、当該指定された開始点指示子又は終了点指示子に対応する動画像の編集開始点及び編集終了点間を削除すると共に、指定された開始点指示子又は終了点指示子、及び当該指定された開始点指示子又は終了点指示子に対応する単位画像をモニタから消去するようにした。 In order to solve such a problem, in the present invention, a plurality of still images having a length corresponding to a predetermined number of unit images are displayed side by side as a plurality of moving images to be edited formed by a series of unit images on a monitor. Editing points used for designating the edit start point and edit end point of a moving image on the still image in a state where a plurality of still images are displayed side by side as a plurality of moving images to be edited on the monitor When the editing start point and / or editing end point of a moving image is specified on a still image via the specifying means, the editing start point and / or editing end point are displayed side by side as a specified moving image. the designated editing start point and or starting point indicator indicating the edition end point and or an end point indicator with Table Shimesuru, between the specified editing start point and edition end point of the moving image to the monitor At least one unit image is displayed, and the start point indicator and / or the end point indicator are moved via the edit point specifying means while the start point indicator and / or end point indicator are displayed on the monitor. The start point indicator and / or the end point indicator are moved, and the edit start point and / or the edit end point are changed according to the movement position of the start point indicator and / or end point indicator. In the state where the start point indicator and / or the end point indicator are displayed on the monitor, the start point indicator or the end point indicator is specified through the editing point specifying means, and the operation of a predetermined operation key is performed. When a delete command is input according to the above, the edit start point and the edit end point of the moving image corresponding to the specified start point indicator or end point indicator are deleted, and the specified start point indicator Or end point indicator, and It was to erase unit image corresponding to the specified starting point indicator or the end point indicator from the monitor.

従って、本発明は、編集対象の動画像の内容を把握させて編集開始点及び又は編集終了点を指定させるまでの作業時間を大幅に短縮化することができると共に、当該編集開始点及び又は編集終了点を容易に変更させることもでき、さらに動画像の編集開始点及び編集終了点間を容易に削除させることができると共に、モニタから、その動画像に対応する開始点指示子又は終了点指示子や単位画像をも容易に消去させることができる。   Therefore, the present invention can greatly shorten the work time until the editing start point and / or the editing end point are designated by grasping the content of the moving image to be edited, and the editing start point and / or editing. The end point can be easily changed, and the edit start point and edit end point of the moving image can be easily deleted, and the start point indicator or end point instruction corresponding to the moving image can be displayed from the monitor. Child and unit images can be easily deleted.

本発明によれば、モニタに対し、一連の単位画像により形成される編集対象の複数の動画像として、所定の単位画像数分の長さの複数の静止画像を並べて表示し、当該モニタに対し編集対象の複数の動画像として複数の静止画像を並べて表示している状態で、当該静止画像上で動画像の編集開始点及び編集終了点を指定するために用いられる編集点指定手段を介して静止画像上で動画像の編集開始点及び又は編集終了点が指定されると、当該編集開始点及び又は編集終了点が指定された動画像として並べて表示している静止画像において当該指定された編集開始点及び又は編集終了点を示す開始点指示子及び又は終了点指示子を表示すると共に、当該モニタに対し動画像の指定された編集開始点及び編集終了点間の少なくとも1の単位画像を表示し、モニタに対し開始点指示子及び又は終了点指示子を表示している状態で、編集点指定手段を介して開始点指示子及び又は終了点指示子を移動させるように指示されると、当該開始点指示子及び又は終了点指示子を移動させると共に、当該開始点指示子及び又は終了点指示子の移動位置に応じて編集開始点及び又は編集終了点を変更し、モニタに対し開始点指示子及び又は終了点指示子を表示している状態で、編集点指定手段を介して開始点指示子又は終了点指示子が指定され、かつ所定の操作キーの操作に応じて削除命令が入力されると、当該指定された開始点指示子又は終了点指示子に対応する動画像の編集開始点及び編集終了点間を削除すると共に、指定された開始点指示子又は終了点指示子、及び当該指定された開始点指示子又は終了点指示子に対応する単位画像をモニタから消去するようにしたことにより、編集対象の動画像の内容を把握させて編集開始点及び又は編集終了点を指定させるまでの作業時間を大幅に短縮化することができると共に、当該編集開始点及び又は編集終了点を容易に変更させることもでき、さらに動画像の編集開始点及び編集終了点間を容易に削除させることができると共に、モニタから、その動画像に対応する開始点指示子又は終了点指示子や単位画像をも容易に消去させることができ、かくして編集作業の効率を格段的に向上し得る画像編集装置及びその方法を実現することができる。 According to the present invention, a plurality of still images having a length corresponding to the number of predetermined unit images are displayed side by side as a plurality of moving images to be edited formed by a series of unit images on a monitor. Via editing point designating means used for designating the edit start point and edit end point of a moving image on the still image while displaying a plurality of still images side by side as a plurality of moving images to be edited When the editing start point and / or editing end point of a moving image is specified on a still image, the specified editing is performed on the still image displayed side by side as the moving image with the editing start point and / or editing end point specified. starting point indicator indicating the starting point and or edition end point and or an end point indicator along with the table Shimesuru, at least one unit image between the specified editing start point and edition end point of the moving image to the monitor When the start point indicator and / or the end point indicator are displayed on the monitor and the start point indicator and / or the end point indicator are instructed to move via the editing point specifying means, The start point indicator and / or the end point indicator are moved, and the edit start point and / or the edit end point are changed according to the movement position of the start point indicator and / or end point indicator, and the start point with respect to the monitor is changed. With the indicator and / or end point indicator displayed, the start point indicator or end point indicator is specified via the edit point specifying means, and a delete command is input in response to the operation of a predetermined operation key And deleting between the edit start point and edit end point of the moving image corresponding to the designated start point indicator or end point indicator, and the designated start point indicator or end point indicator, and The specified starting point indicator By deleting the unit image corresponding to the end point indicator from the monitor, the work time until the editing start point and / or the editing end point are specified by grasping the content of the moving image to be edited is greatly increased. The editing start point and / or the editing end point can be easily changed, and the edit start point and the editing end point of the moving image can be easily deleted, and the monitor can be shortened. In addition, it is possible to easily delete the start point indicator or the end point indicator corresponding to the moving image or the unit image, and thus to realize an image editing apparatus and method that can greatly improve the efficiency of editing work. be able to.

以下図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)ビデオブラウザ
図1に示すように、動画像データに基づく一連の動画像は、各時点のフレーム画像を時間軸方向に順次並べたものと考えることができる。
(1) Video Browser As shown in FIG. 1, a series of moving images based on moving image data can be considered as a sequence of frame images at each time point sequentially arranged in the time axis direction.

実際上例えばNTSC(National Television System Committee)方式では、ビデオ信号のフレーム周波数が30〔Hz〕程度であり、従って動画像は、1秒間に30枚のフレーム画像から構成される。   In practice, for example, in the NTSC (National Television System Committee) system, the frame frequency of a video signal is about 30 [Hz], and therefore a moving image is composed of 30 frame images per second.

ここで動画像を構成するビデオ映像群1に対し、n枚のフレーム画像2毎に垂直方向のスリット(以下、これを垂直スリットと呼ぶ)3を順次一方向に移動させながら抽出し、これら抽出した垂直スリット3を一方向に順次並べて静止画像(以下、これをビデオブラウザと呼ぶ)4を作成する場合について考える。   Here, for the video image group 1 constituting the moving image, the vertical slits (hereinafter referred to as vertical slits) 3 are extracted for each of the n frame images 2 while sequentially moving in one direction. Consider a case where a still image (hereinafter referred to as a video browser) 4 is created by sequentially arranging the vertical slits 3 in one direction.

因みに垂直スリット3の抽出位置は、画面の左端部から右方向に移動し、画面の右端部に達したときには再び画面の左端部から右方向に移動させるものとする。   Incidentally, the extraction position of the vertical slit 3 moves from the left end of the screen to the right, and when it reaches the right end of the screen, it is moved again from the left end of the screen to the right.

例えばn=1、フレーム画像2の水平方向をXドットとし、垂直スリット3のスリット幅をΔXドットとすると、次式   For example, when n = 1, the horizontal direction of the frame image 2 is X dots, and the slit width of the vertical slit 3 is ΔX dots,

Figure 0004582427
Figure 0004582427

で与えられるf枚のフレーム画像毎にスリット位置が画面の右端部から左端部に移動し、かつこのとき得られた各垂直スリット3によって水平方向がXドットの1画面分のビデオブラウザ4が作成される。 For each of the f frame images given in (1), the slit position moves from the right edge to the left edge of the screen, and each vertical slit 3 obtained at this time creates a video browser 4 for one screen whose horizontal direction is X dots. Is done.

そしてこのビデオブラウザ4は、f枚分のフレーム画像2に基づく動画像の内容を圧縮した静止画像として認識することができる。   The video browser 4 can recognize the content of the moving image based on the f frame images 2 as a compressed still image.

従って動画像素材の最初から最後までに渡ってこのようなビデオブラウザ4を作成することによって、当該ビデオブラウザ4に基づいて動画像素材の全体的な流れを短時間にかつ精度良く認識することができる。   Therefore, by creating such a video browser 4 from the beginning to the end of the moving image material, the entire flow of the moving image material can be accurately recognized in a short time based on the video browser 4. it can.

(2)画像編集装置の構成
ここで図2は、本発明による画像編集装置10を示し、キーボード11及びマウス12が入出力回路13及びシステムバス14を順次介してホストコンピュータ15に接続されている。これによりオペレータがこれらキーボード11及びマウス12を介してホストコンピュータ15に各種コマンドを与えることができるようになされている。
(2) Configuration of Image Editing Device FIG. 2 shows an image editing device 10 according to the present invention, in which a keyboard 11 and a mouse 12 are connected to a host computer 15 via an input / output circuit 13 and a system bus 14 in sequence. . As a result, the operator can give various commands to the host computer 15 via the keyboard 11 and mouse 12.

ホストコンピュータ15においては、素材の取込みモード時、オペレータから与えられるコマンドに基づいてスイッチ回路16を制御することにより、当該スイッチ回路16に接続された複数の電送回線17A〜17N及び複数のビデオテープレコーダ18A〜18Nのなかから1つのビデオ信号供給源を選択し、当該ビデオ信号供給源から供給されるビデオ信号S1A〜S1N、S2A〜S2Nをアナログ・ディジタル変換回路19に送出させる。   In the host computer 15, in the material take-in mode, the switch circuit 16 is controlled based on a command given by the operator, whereby a plurality of transmission lines 17A to 17N and a plurality of video tape recorders connected to the switch circuit 16 are controlled. One video signal supply source is selected from 18A to 18N, and the video signals S1A to S1N and S2A to S2N supplied from the video signal supply source are sent to the analog / digital conversion circuit 19.

アナログ・ディジタル変換回路19は、供給されるビデオ信号S1A〜S1N、S2A〜S2Nを順次ディジタル変換し、かくして得られた動画像データD1を順次フレーム単位で第1のVRAM(Video Random Access Memory)20の第1の記憶領域(実際の表示画面に対応して形成されている)に格納する。   The analog / digital conversion circuit 19 sequentially converts the supplied video signals S1A to S1N and S2A to S2N, and the moving image data D1 thus obtained is sequentially converted into a first VRAM (Video Random Access Memory) 20 in units of frames. In the first storage area (formed corresponding to the actual display screen).

そしてこの第1のVRAM20に格納されたフレーム単位の動画像データD1は、システムバス14を介してイメージプロセッサ21によって順次読み出され、当該イメージプロセッサ21の動画像データ圧縮部21Aにより例えばJPEG(Joint Photographic Experts Group)等の所定の規格で圧縮符号化される。   The frame-by-frame moving image data D1 stored in the first VRAM 20 is sequentially read out by the image processor 21 via the system bus 14, and is converted into, for example, JPEG (Joint) by the moving image data compression unit 21A of the image processor 21. Compressed and encoded according to a predetermined standard such as Photographic Experts Group).

またこの圧縮符号化された動画像データD1は、システムバス14を介して例えばRAID(Redundaut Array of Inexpensive Disks)構成の外部記憶装置22に与えられ、ホストコンピュータ15の制御のもとに、新たなタイムコードが付加されると共にファイル化されて当該外部記憶装置22に格納される。   The compressed and encoded moving image data D1 is given to an external storage device 22 having, for example, a RAID (Redundaut Array of Inexpensive Disks) configuration via the system bus 14 and is newly controlled under the control of the host computer 15. A time code is added and the file is stored in the external storage device 22.

さらにイメージプロセッサ21のスリットデータ読取り部21Bは、このとき入力スリット移動部21Cの制御のもとに、第1のVRAM20に順次書き込まれた1フレーム分の動画像データD1から抽出位置を順次一方向に移動させながら上述した垂直スリット3(図1)のデータ(以下、これをスリットデータと呼ぶ)をサンプリングして抽出する。   Further, the slit data reading unit 21B of the image processor 21 sequentially selects the extraction position from the moving image data D1 for one frame sequentially written in the first VRAM 20 in one direction under the control of the input slit moving unit 21C. The data of the above-described vertical slit 3 (FIG. 1) (hereinafter referred to as slit data) is sampled and extracted while moving to.

この抽出されたスリットデータは、イメージプロセッサ21の出力スリット移動部21Dの制御のもとに、スリットデータ書込み部21Eにより書き込み位置を順次一方向に移動させながら第2のVRAM23の第1の記憶領域(実際の表示画面と対応して形成されている)に順次書き込まれる。   The extracted slit data is stored in the first storage area of the second VRAM 23 while the writing position is sequentially moved in one direction by the slit data writing unit 21E under the control of the output slit moving unit 21D of the image processor 21. Are written sequentially (formed corresponding to the actual display screen).

そして第2のVRAM23に1画面分のスリットデータが書き込まれる毎に、これがホストコンピュータ15の制御のもとに読み出され、システムバス14を介して外部記憶装置22に与えられることにより、順次その動画像データD1のファイル(以下、これを動画像データファイルと呼ぶ)を管理するデータベースの1つの要素として外部記憶装置22に格納される。   Each time slit data for one screen is written in the second VRAM 23, it is read under the control of the host computer 15 and given to the external storage device 22 via the system bus 14, so that It is stored in the external storage device 22 as one element of a database that manages a file of moving image data D1 (hereinafter referred to as a moving image data file).

因みにスイッチ回路16を制御することにより選択した1つのビデオ信号供給源からは、ビデオ信号S1A〜S1N、S2A〜S2Nに対応するオーディオ信号S3A〜S3N、S4A〜S4Nも供給され、これをアナログ・ディジタル変換回路19を介して順次ディジタル変換し、得られた音声データD2を順次上述したフレーム単位の動画像データD1に対応する所定単位で第1のVRAM20の第2の記憶領域(第1の記憶領域に対応して形成されている)に格納する。   Incidentally, from one video signal supply source selected by controlling the switch circuit 16, audio signals S3A to S3N and S4A to S4N corresponding to the video signals S1A to S1N and S2A to S2N are also supplied. The digital data is sequentially converted via the conversion circuit 19, and the obtained audio data D2 is sequentially stored in the second storage area (first storage area) of the first VRAM 20 in a predetermined unit corresponding to the above-described moving image data D1 in frame units. To be stored in correspondence).

そしてこの第1のVRAM20に格納された所定単位の音声データD2は、システムバス14を介してイメージプロセッサ21によって順次読み出され、当該イメージプロセッサ21の音声データ圧縮部21Fにより所定の符号化方式によって圧縮符号化される。   The audio data D2 in a predetermined unit stored in the first VRAM 20 is sequentially read out by the image processor 21 via the system bus 14, and the audio data compression unit 21F of the image processor 21 uses a predetermined encoding method. It is compression encoded.

またこの圧縮符号化された音声データD2は、システムバス14を介して外部記憶装置22に与えられ、ホストコンピュータ15の制御のもとにファイル化されて当該外部記憶装置22に格納される。そしてホストコンピュータ15は、この音声データD2のファイルの情報を対応する動画像データファイルのデータベースの1つの要素として外部記憶装置22に格納させる。   The compressed and encoded audio data D2 is given to the external storage device 22 via the system bus 14, and is filed and stored in the external storage device 22 under the control of the host computer 15. Then, the host computer 15 stores the audio data D2 file information in the external storage device 22 as one element of the corresponding moving image data file database.

さらにイメージプロセッサ21の音声データ加重平均処理部21Gは、このとき第1のVRAM20に順次書き込まれた音声データD2を読み出して加重平均処理を施すようにして当該音声データD2に基づく音声波形の波形データを生成し、この波形データを第2のVRAM23の第2の記憶領域(第1の記憶領域に対応して形成されている)に順次書き込む。   Further, the audio data weighted average processing unit 21G of the image processor 21 reads out the audio data D2 sequentially written in the first VRAM 20 at this time and performs weighted average processing so that the waveform data of the audio waveform based on the audio data D2 is obtained. The waveform data is sequentially written in the second storage area (formed corresponding to the first storage area) of the second VRAM 23.

そして第2のVRAM23に所定単位分の波形データが書き込まれる毎に、これがホストコンピュータ15の制御のもとに読み出され、システムバス14を介して外部記憶装置22に与えられることにより対応する動画像データファイルのデータベースの1つの要素としてこの外部記憶装置22に格納される。   Each time waveform data for a predetermined unit is written in the second VRAM 23, it is read under the control of the host computer 15 and given to the external storage device 22 via the system bus 14, thereby corresponding video It is stored in the external storage device 22 as one element of the image data file database.

このようにしてこの画像編集装置10では、スイッチ回路16に複数のビデオ信号供給源から供給されるビデオ信号S1A〜S1N、S2A〜S2N及びオーディオ信号S3A〜S3N、S4A〜S4Nのなかから指定された1つのビデオ信号S1A〜S1N、S2A〜S2N及び対応するオーディオ信号S3A〜S3N、S4A〜S4Nに基づく動画像及び音声の圧縮符号化データと、ビデオブラウザの画像データ及び音声波形の波形データ等の各種データからなるデータベースとを生成し、これらを外部記憶装置22に記憶保持させることができるようになされている。   In this way, in the image editing apparatus 10, the switch circuit 16 is designated from among the video signals S1A to S1N, S2A to S2N and the audio signals S3A to S3N, S4A to S4N supplied from a plurality of video signal supply sources. Various video and audio compression-encoded data based on one video signal S1A to S1N, S2A to S2N and corresponding audio signals S3A to S3N and S4A to S4N, video browser image data, waveform data of audio waveform, and the like A database made up of data can be generated and stored in the external storage device 22.

一方ホストコンピュータ15は、表示モード時、外部記憶装置22に予め格納されている画像データを読み出し、これをイメージプロセッサ21に与える。   On the other hand, in the display mode, the host computer 15 reads out image data stored in advance in the external storage device 22 and supplies it to the image processor 21.

イメージプロセッサ21は、外部記憶装置22から与えられた画像データに基づいて、所定画面をモニタ表示させるための画像データ(以下、これを表示画像データと呼ぶ)を生成し、これを第3のVRAM24に送出して格納する。   The image processor 21 generates image data (hereinafter referred to as display image data) for displaying a predetermined screen on the basis of the image data given from the external storage device 22, and this is generated by the third VRAM 24. Send to and store.

このとき第3のVRAM24に格納された表示画像データは、所定周期で順次読み出され、ディジタル・アナログ変換回路25においてアナログ変換された後、モニタ26に送出される。この結果モニタ26には、図3に示すような編集画面30が表示される。そしてこの編集画面30上には、イメージプロセッサ21の制御のもとに、マウス12の操作に応動してこの編集画面30内を移動するカーソル(図示せず)が表示される。   At this time, the display image data stored in the third VRAM 24 is sequentially read out at a predetermined cycle, converted into an analog signal by the digital / analog conversion circuit 25, and then sent to the monitor 26. As a result, an edit screen 30 as shown in FIG. On the editing screen 30, a cursor (not shown) that moves in the editing screen 30 in response to the operation of the mouse 12 is displayed under the control of the image processor 21.

ここで編集画面30では、上段にメニューバー31が表示され、カーソルをこのメニューバー31のファイル選択領域31A上に合わせてマウス12をクリックすることにより、図4に示すように、ファイルディレクトリウインド32内にファイル選択メニュー33が表示される。   Here, on the editing screen 30, a menu bar 31 is displayed at the top. When the cursor is placed on the file selection area 31A of the menu bar 31 and the mouse 12 is clicked, a file directory window 32 is displayed as shown in FIG. A file selection menu 33 is displayed.

この状態においてカーソルがファイル選択メニュー33のファイル一覧選択領域33A上に合わせられてマウス12がクリックされると、外部記憶装置22にこれに格納された複数の動画像データファイルのファイル名のデータ(以下、これをファイル名データと呼ぶ)を読み出させ、これをイメージプロセッサ21に与える。   In this state, when the cursor is placed on the file list selection area 33A of the file selection menu 33 and the mouse 12 is clicked, data of file names of a plurality of moving image data files stored in the external storage device 22 ( Hereinafter, this is referred to as file name data) and is supplied to the image processor 21.

そしてイメージプロセッサ21は、これらファイル名データに基づいて表示画像データを生成し、これを第3のVRAM24に送出して格納する。   Then, the image processor 21 generates display image data based on these file name data, and sends this to the third VRAM 24 for storage.

この結果編集画面30では、図5に示すように、ファイルディレクトリウインド32内に複数の動画像データファイルのファイル名からなるファイル一覧34が表示され、かくしてこのファイル一覧34のファイル名を選択指定することにより編集対象の複数の動画像素材を選択指定することができる。   On the result editing screen 30, as shown in FIG. 5, a file list 34 including file names of a plurality of moving image data files is displayed in a file directory window 32. Thus, the file names of the file list 34 are selected and designated. Thus, a plurality of moving image materials to be edited can be selected and designated.

そして編集対象の複数の動画像素材が選択指定されると、外部記憶装置22に対応するビデオブラウザの画像データ及び音声波形の波形データを読み出させ、これらをシステムバス14を介してイメージプロセッサ21に与える。   When a plurality of moving image materials to be edited are selected and designated, image data and audio waveform data of a video browser corresponding to the external storage device 22 are read out, and these are read out via the system bus 14 and the image processor 21. To give.

このときイメージプロセッサ21は、縮小画面データ形成部21Hにおいて、供給されるビデオブラウザの画像データを間引きすることにより縮小されたビデオブラウザの画像データを生成すると共に、供給される音声波形の波形データを間引きすることにより縮小された音声波形の波形データを生成した後、これら生成した画像データ及び波形データに基づいて表示画像データを生成し、この表示画像データを第3のVRAM24に送出して格納する。   At this time, the image processor 21 generates the reduced video browser image data by thinning out the supplied video browser image data in the reduced screen data forming unit 21H, and also supplies the waveform data of the supplied audio waveform. After generating waveform data of a reduced audio waveform by thinning, display image data is generated based on the generated image data and waveform data, and this display image data is sent to the third VRAM 24 for storage. .

この結果編集画面30では、ビデオブラウザウインド35内に、指定された動画像素材に対応するビデオブラウザ36A〜36Dが複数段に並べられて表示されると共に、各ビデオブラウザ36A〜36D間にこれら各ビデオブラウザ36A〜36Dの時間軸方向に対応させた音声波形37A〜37Dと、当該ビデオブラウザ36A〜36Dの先頭及び最後尾のタイムコードとが表示され、また各ビデオブラウザ36A〜36Dの左上段のファイル名表示部38A〜38Eに対応する動画像データファイルのファイル名が表示される。   As a result, on the editing screen 30, the video browsers 36A to 36D corresponding to the designated moving image material are displayed in a plurality of stages in the video browser window 35, and each of these video browsers 36A to 36D is displayed. The audio waveforms 37A to 37D corresponding to the time axis direction of the video browsers 36A to 36D and the top and last time codes of the video browsers 36A to 36D are displayed, and the upper left of each video browser 36A to 36D is displayed. The file names of the moving image data files corresponding to the file name display portions 38A to 38E are displayed.

因みにこの編集画面30では、マウス操作によりビデオブラウザウインド35内のスクロールバー39を操作することにより、ビデオブラウザ36A〜36D等をスクロールさせ、そのとき表示されていない部分のビデオブラウザ36A〜36D等をビデオブラウザウインド35内に表示させることができる。   By the way, on this editing screen 30, the video browsers 36A to 36D and the like are scrolled by operating the scroll bar 39 in the video browser window 35 by operating the mouse, and the video browsers 36A to 36D and the like that are not displayed at that time are displayed. It can be displayed in the video browser window 35.

そしてこの編集画面30では、カーソルをいずれかのビデオブラウザ36A〜36Dの任意の位置に合わせてマウス12をクリックすることにより、図6に示すように、この編集画面30内に素材プレビュウインド40を表示させると共に、当該素材プレビュウインド40の素材表示ウインド41内にそのビデオブラウザ36A〜36Dの指定された任意の位置のタイムコードのフレーム画像を表示させる。   Then, on this editing screen 30, the material preview window 40 is displayed in the editing screen 30 as shown in FIG. 6 by placing the cursor on an arbitrary position of any of the video browsers 36 </ b> A to 36 </ b> D and clicking the mouse 12. At the same time, a frame image of a time code at an arbitrary designated position of the video browsers 36A to 36D is displayed in the material display window 41 of the material preview window 40.

この状態においてカーソルを素材プレビュウインド40内のいずれかの第1の駒送りボタン42A、スチル再生ボタン42B、第2の駒送りボタン42C、停止ボタン42D、通常再生ボタン42E、ビデオブラウザ再生ボタン42F上に合わせてマウス12をクリックすることにより、その指定された任意の位置のフレーム画像から対応する動作(巻き戻し方向への駒送り、巻き戻し方向及び通常再生方向へのスチル再生、通常再生方向への駒送り、停止、通常再生、高速再生)を外部記憶装置22に実行させることができる。   In this state, the cursor is placed on any of the first frame advance button 42A, still reproduction button 42B, second frame advance button 42C, stop button 42D, normal reproduction button 42E, and video browser reproduction button 42F in the material preview window 40. When the mouse 12 is clicked in accordance with the frame image, the corresponding operation (frame advance in the rewind direction, still playback in the rewind direction and normal playback direction, normal playback direction) is performed from the frame image at the designated arbitrary position. Frame advance, stop, normal reproduction, and high-speed reproduction) can be executed by the external storage device 22.

またこのとき素材プレビュウインド40内のタイムコード表示部43内に、そのフレーム画像のタイムコードを表示させると共に、当該タイムコードを再生動作に応じて変更させて表示させる。   At this time, the time code of the frame image is displayed in the time code display unit 43 in the material preview window 40, and the time code is changed according to the reproduction operation and displayed.

因みに通常再生ボタン42Eがクリックされたときには、対応する動画像データD1を再生することにより素材表示ウインド41内にこの動画像データD1に基づく動画像を通常再生速度で表示させると共に、ビデオブラウザ再生ボタン42Fがクリックされたときには、対応するビデオブラウザ36A〜36Dの連続する1画面分の画像を順次再生することにより素材表示ウインド41内にこのビデオブラウザ36A〜36Dの連続する画像(以下、これをビデオブラウザ画像と呼ぶ)を表示させ、これにより動画像素材をビデオブラウザ36A〜36Dの1画面を構成する垂直スリット3(図1)の本数に応じた速度で高速再生することができるようになされている。   Incidentally, when the normal playback button 42E is clicked, the corresponding moving image data D1 is reproduced to display the moving image based on the moving image data D1 in the material display window 41 at the normal reproduction speed, and the video browser playback button. When 42F is clicked, successive images of the corresponding video browsers 36A to 36D are sequentially played back to sequentially display images of the video browsers 36A to 36D (hereinafter referred to as videos) in the material display window 41. Browser image) is displayed so that moving image material can be played back at high speed at a speed corresponding to the number of vertical slits 3 (FIG. 1) constituting one screen of the video browsers 36A to 36D. Yes.

またこの編集画面30では、カーソルを素材プレビュウインド40内のクローズボタン44上に合わせてマウス12をクリックすることにより、この素材プレビュウインド40を閉じさせることができる。   On the editing screen 30, the material preview window 40 can be closed by placing the cursor on the close button 44 in the material preview window 40 and clicking the mouse 12.

因みにこの編集画面30では、カーソルをファイル一覧34のクローズボタン45A上に合わせてマウス12をクリックすることにより、このファイル一覧34を閉じると共に、図7に示すようにファイルディレクトリウインド32内に素材選択メニュー46を表示させ、この素材選択メニュー46内のソース指定領域(図中のSource1 〜SourceN )によってビデオブラウザウインド35内のビデオブラウザ36A〜36Dを再生のために選択指定することができるようになされている。   Incidentally, in this editing screen 30, when the cursor is placed on the close button 45A of the file list 34 and the mouse 12 is clicked, the file list 34 is closed and a material is selected in the file directory window 32 as shown in FIG. The menu 46 is displayed, and the video browsers 36A to 36D in the video browser window 35 can be selected and designated for reproduction by the source designation area (Source1 to SourceN in the figure) in the material selection menu 46. ing.

実際にカーソルをこの素材選択メニュー46内のいずれかのソース指定領域上に合わせてマウス12をクリックすると、編集画面30内に素材プレビュウインド40を表示させると共に、当該指定されたソース指定領域に対応するビデオブラウザウインド35内のビデオブラウザ36A〜36Dの先頭の1画面分の画像を素材表示ウインド41内に表示させ、この状態において上述と同様にカーソルを第1の駒送りボタン42A、スチル再生ボタン42B、第2の駒送りボタン42C、停止ボタン42D、通常再生ボタン42E、ビデオブラウザ再生ボタン42F上に合わせてマウス12をクリックすることにより対応する動作を外部記憶装置22に実行させ、かくして指定されたビデオブラウザ画像又は動画像を先頭から再生することができるようになされている。   When the cursor is actually placed on one of the source designation areas in the material selection menu 46 and the mouse 12 is clicked, the material preview window 40 is displayed in the editing screen 30 and the corresponding source designation area is displayed. The first one screen image of the video browsers 36A to 36D in the video browser window 35 to be displayed is displayed in the material display window 41. In this state, the cursor is moved to the first frame advance button 42A and the still play button in the same manner as described above. 42B, the second frame advance button 42C, the stop button 42D, the normal playback button 42E, and the video browser playback button 42F are clicked on the mouse 12 to cause the external storage device 22 to execute the corresponding operation, and thus specified. Video browser images or moving images can be played from the beginning. It has been made to so that.

また上述した動画像素材の再生時には、外部記憶装置22から対応する圧縮符号化された音声データD2が再生され、これをイメージプロセッサ21に送出して復号化し、得られた音声データD2をシステムバス14を介してディジタル・アナログ変換回路48に送出することにより、当該ディジタル・アナログ変換回路48においてアナログ変換し、得られたオーディオ信号S3A〜S3N、S4A〜S4Nをスピーカ49に送出することにより当該スピーカ49からこのオーディオ信号S3A〜S3N、S4A〜S4Nに基づく音声を放音させる。   When reproducing the moving picture material described above, the corresponding compression-encoded audio data D2 is reproduced from the external storage device 22, which is sent to the image processor 21 for decoding, and the obtained audio data D2 is sent to the system bus. 14 to the digital / analog conversion circuit 48, the digital / analog conversion circuit 48 performs analog conversion, and the obtained audio signals S 3 A to S 3 N, S 4 A to S 4 N are sent to the speaker 49. 49 emits sounds based on the audio signals S3A to S3N and S4A to S4N.

因みにこの音声データD2の再生時には、動画像素材の通常再生及び高速再生に応じて、当該音声データD2を通常再生及び高速再生するようになされている。   Incidentally, when the audio data D2 is reproduced, the audio data D2 is normally reproduced and reproduced at high speed in accordance with normal reproduction and high-speed reproduction of the moving image material.

このようにしてこの画像編集装置10においては、編集対象の複数の動画像素材を指定して対応するビデオブラウザ36A〜36Dをモニタ26に表示させることができると共に、これら指定した動画像素材に対応する動画像又はビデオブラウザ画像を必要に応じて表示させることができる。   In this manner, in the image editing apparatus 10, a plurality of moving image materials to be edited can be specified and the corresponding video browsers 36A to 36D can be displayed on the monitor 26, and the corresponding moving image materials can be displayed. A moving image or a video browser image can be displayed as necessary.

一方ホストコンピュータ15は、この編集画面30においてカーソルがビデオブラウザウインド35のマークイン/アウトボタン51上に合わせられてマウス12がクリックされると、編集モードに移る。   On the other hand, when the cursor is placed on the mark-in / out button 51 of the video browser window 35 and the mouse 12 is clicked on the editing screen 30, the host computer 15 shifts to the editing mode.

この状態においてカーソルをビデオブラウザ36A〜36Dの所望する第1の位置に合わせてマウス12の左ボタンをクリックすることによりマークイン点を指定することができると共に、当該ビデオブラウザ36A〜36Dの所望する第2の位置(第1の位置よりも右側)に合わせてマウス12の右ボタンをクリックすることによりマークアウト点を指定することができる。   In this state, a mark-in point can be designated by moving the cursor to the desired first position of the video browsers 36A to 36D and clicking the left button of the mouse 12, and the desired video browsers 36A to 36D. The markout point can be designated by clicking the right button of the mouse 12 in accordance with the second position (right side of the first position).

そしてこの編集画面30では、このときマークイン点及びマークアウト点が指定された位置にマークインカーソル52及びマークアウトカーソル53を表示させると共に、ビデオブラウザ36A〜36Dの下側にマークイン点及びマークアウト点のタイムコードを表示させる。   In the editing screen 30, the mark-in cursor 52 and the mark-out cursor 53 are displayed at the positions where the mark-in point and the mark-out point are designated at this time, and the mark-in point and the mark mark are displayed below the video browsers 36A to 36D. The time code of the out point is displayed.

この状態においてホストコンピュータ15は、カーソルがビデオブラウザウインド35内のアドボタン54上に合わせられてマウス12がクリックされると、このとき指定されたマークイン点及びマークアウト点間を動画像クリップとして確定すると共に、これに対応する音声を音声クリップとして確定することができる。   In this state, when the cursor is placed on the add button 54 in the video browser window 35 and the mouse 12 is clicked, the host computer 15 uses the specified mark-in point and mark-out point as a moving image clip. At the same time, the corresponding sound can be confirmed as an audio clip.

そして編集画面30では、このとき確定された動画像クリップの長さに応じた枠55A〜55Cをタイムラインウインド56のベースビデオタイムライン57に表示させ、かつ音声クリップの枠58A〜58Cをベースオーディオタイムライン59に対応させて表示させ、タイムラインウインド56のデュレーション表示部60にベースビデオタイムライン57に表示させた全ての動画像クリップの全体の長さをタイムコードで表示させる。   On the editing screen 30, frames 55A to 55C corresponding to the length of the moving image clip determined at this time are displayed on the base video timeline 57 of the timeline window 56, and the audio clip frames 58A to 58C are displayed on the base audio. The total length of all moving image clips displayed on the base video timeline 57 is displayed in time code on the duration display section 60 of the timeline window 56 in correspondence with the timeline 59.

またこの編集画面30では、このときクリップ表示ウインド61のクリップウインド62に、図8に示すように、確定された動画像クリップの先頭のフレーム画像(マークイン点のタイムコードのフレーム画像)を表示させると共に、デュレーション表示部63に当該動画像クリップの長さをタイムコードで表示させる。   In this editing screen 30, the first frame image of the confirmed moving image clip (the frame image of the time code at the mark-in point) is displayed in the clip window 62 of the clip display window 61 at this time, as shown in FIG. At the same time, the duration display unit 63 displays the length of the moving image clip as a time code.

さらにこのときキーボード11を介して動画像クリップのクリップ名が入力されると、これをクリップ名表示部64に表示させると共に、このクリップ名をタイムラインウインド56の対応する動画像クリップ及び音声クリップの枠55A〜55C及び58A〜58C内にも表示させる。   Further, when a clip name of a moving image clip is input via the keyboard 11 at this time, the clip name is displayed on the clip name display unit 64, and the clip name is displayed on the corresponding moving image clip and audio clip in the timeline window 56. The frames 55A to 55C and 58A to 58C are also displayed.

因みにこの編集画面30では、マウス操作によりクリップ表示ウインド61内のスクロールバー65を操作することにより、クリップウインド62をスクロールさせ、そのとき表示されていない部分のクリップウインド62をクリップ表示ウインド61内に表示させることができる。   In this editing screen 30, the clip window 62 is scrolled by operating the scroll bar 65 in the clip display window 61 by operating the mouse, and the clip window 62 of the portion not displayed at that time is displayed in the clip display window 61. Can be displayed.

またこの編集画面30では、タイムラインウインド56のベースビデオタイムライン57及びベースオーディオタイムライン59に動画像クリップ及び音声クリップの枠55A〜55C及び58A〜58Cを確定された順番に従って左端部から順次右方向に表示させる。   In the editing screen 30, the frames 55A to 55C and 58A to 58C of the moving image clip and the audio clip are sequentially set to the right from the left end portion in the base video timeline 57 and the base audio timeline 59 in the timeline window 56 in accordance with the determined order. Display in the direction.

このためタイムラインウインド56に表示させた動画像クリップ及び音声クリップの枠55A〜55C及び58A〜58Cは、いわゆるドラッグアンドドロップと呼ばれるマウス12の操作に応動して所望する順番位置まで移動させることができるようになされていると共に、これに伴い他の枠55A〜55C及び58A〜58Cの位置もこの移動に追従して移動させ、かくして複数の動画像クリップ及び対応する音声クリップの順番を任意に決定することができる。   For this reason, the frames 55A to 55C and 58A to 58C of the moving image clip and the audio clip displayed on the timeline window 56 are moved to a desired order position in response to an operation of the mouse 12 called so-called drag and drop. Accordingly, the positions of the other frames 55A to 55C and 58A to 58C are moved following this movement, and the order of a plurality of moving image clips and corresponding audio clips is arbitrarily determined. can do.

そしてこの編集画面30では、カーソルをタイムラインウインド56のタイムカーソルホーム位置ボタン66上に合わせてマウス12をクリックすると、ベースビデオタイムライン57からベースオーディオタイムライン59に渡ってその左端部に棒状のタイムカーソル67を表示させると共に、上述した素材プレビュウインド40を表示させ、かつ素材表示ウインド41内にベースビデオタイムライン57に表示させた複数の動画像クリップのうち、最も左側に位置する動画像クリップに対応するビデオブウザ画像の先頭の1画面分を表示させる。 In this editing screen 30, when the cursor is placed on the time cursor home position button 66 of the timeline window 56 and the mouse 12 is clicked, a bar-like shape is formed at the left end from the base video timeline 57 to the base audio timeline 59. While displaying the time cursor 67, the above-mentioned material preview window 40 is displayed, and among the plurality of moving image clips displayed on the base video timeline 57 in the material display window 41, the leftmost moving image clip to display one screen at the beginning of the corresponding Bideobu La Uzza image to.

この状態において上述と同様に外部記憶装置22に再生動作を実行させることにより、タイムラインウインド56に表示させた複数の動画像クリップに対応する動画像又はビデオブラウザ画像及び音声クリップに対応する音声を順次再生させると共に、この再生動作に連動させてタイムカーソル67をベースビデオタイムライン57及びベースオーディオタイムライン59上を右方向又は左方向に移動させ、かくして再生している動画像クリップ及び対応する音声クリップの再生位置を示すようになされている。   In this state, by causing the external storage device 22 to perform a reproduction operation in the same manner as described above, a moving image or a video browser image corresponding to a plurality of moving image clips displayed on the timeline window 56 and a sound corresponding to the audio clip are obtained. The time cursor 67 is moved on the base video timeline 57 and the base audio timeline 59 in the right direction or the left direction in conjunction with the reproduction operation in order to reproduce the moving image clip and the corresponding audio being reproduced. The playback position of the clip is indicated.

このようにしてこの画像編集装置10においては、編集モード時、マークイン点及びマークアウト点を指定することにより順次動画像クリップ及び対応する音声クリップを作成することができると共に、当該作成した動画像クリップに応じた動画像又はビデオブラウザ画像を必要に応じて表示させてこの動画像クリップを目視確認させることができるようになされている。   As described above, in the image editing apparatus 10, in the editing mode, it is possible to sequentially create a moving image clip and a corresponding audio clip by designating a mark-in point and a mark-out point, and the created moving image A moving image or a video browser image corresponding to the clip is displayed as necessary so that the moving image clip can be visually confirmed.

またこの編集画面30では、カーソルをメニューバー31のファイル選択領域31A上に合わせてマウス12をクリックすると、ファイルディレクトリウインド32に上述したファイル選択メニュー33(図4)を表示させる。   In the editing screen 30, when the cursor is placed on the file selection area 31A of the menu bar 31 and the mouse 12 is clicked, the above-described file selection menu 33 (FIG. 4) is displayed in the file directory window 32.

この状態においてカーソルをこのファイル選択メニュー33内のいずれかの新規保存指定領域33B、上書き保存指定領域33C又は別名保存指定領域33D上に合わせてマウス12をクリックすることにより、このとき作成した動画像クリップ及び対応する音声クリップのクリップ名、マークイン点及びマークアウト点のタイムコード、タイムライン上の順番等の各種情報のリスト(以下、これを編集リストと呼ぶ)を外部記憶装置22に与えて対応する保存方法に従って記憶保持させる。   In this state, the cursor 12 is clicked on the new save designation area 33B, the overwrite save designation area 33C or the alias save designation area 33D in the file selection menu 33, and the moving image created at this time is clicked. A list of various information such as the clip name of the clip and the corresponding audio clip, the time code of the mark-in point and the mark-out point, the order on the timeline (hereinafter referred to as an edit list) is given to the external storage device 22 Store and retain according to the corresponding storage method.

かくしてこの画像編集装置10においては、この後必要に応じて外部記憶装置22から編集リストを読み出し、当該読み出した編集リストに従ってこの外部記憶装置22から対応する動画像クリップ及び音声クリップを順次読み出すことにより、この読み出した動画像クリップ及び音声クリップに応じた動画像及び音声を例えば放送用として使用することができるようになされている。   Thus, the image editing apparatus 10 thereafter reads the editing list from the external storage device 22 as necessary, and sequentially reads the corresponding moving image clip and audio clip from the external storage device 22 according to the read editing list. The moving image and sound corresponding to the read moving image clip and sound clip can be used for broadcasting, for example.

(3)ホストコンピュータの各種処理
(3−1)編集処理手順
ここで上述のような表示モード時及び編集モード時における動作は、全てホストコンピュータ15(図2)の制御のもとに実行される。
(3) Various processings of the host computer (3-1) Editing processing procedure The operations in the display mode and editing mode as described above are all executed under the control of the host computer 15 (FIG. 2). .

実際上ホストコンピュータ15は、表示モード時、図9に示す編集処理手順RT1をステップSP1において開始し、続くステップSP2において外部記憶装置22に対応する画像データを読み出させると共に、当該画像データに基づいてイメージプロセッサ21に表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、モニタ26に編集画面30(図3)を表示させる。   In practice, the host computer 15 starts the editing processing procedure RT1 shown in FIG. 9 in step SP1 in the display mode, reads image data corresponding to the external storage device 22 in step SP2, and based on the image data. Then, the display image data is generated by the image processor 21 and written into the third VRAM 24 to display the editing screen 30 (FIG. 3) on the monitor 26.

次いでホストコンピュータ15は、ステップSP3に進んでカーソルがメニューバー31のファイル選択領域31Aに合わせられてマウス12がクリックされたことを確認すると、外部記憶装置22に対応する画像データを読み出させると共に、この画像データに基づいてイメージプロセッサ21に表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、モニタ26にファイル選択メニュー33が表示されてなる編集画面30(図4)を表示させる。   Next, when the host computer 15 proceeds to step SP3 and confirms that the cursor is set to the file selection area 31A of the menu bar 31 and the mouse 12 is clicked, the image data corresponding to the external storage device 22 is read out. Based on the image data, the image processor 21 generates display image data and writes the display image data in the third VRAM 24, whereby the edit screen 30 (FIG. 4) in which the file selection menu 33 is displayed on the monitor 26 is displayed. Display.

この状態においてホストコンピュータ15は、カーソルがファイル一覧選択領域33A上に合わせられてマウス12がクリックされたことを確認すると、外部記憶装置22に複数の動画像データファイルのファイル名データを読み出させると共に、これらファイル名データに基づいてイメージプロセッサ21に所定の表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、モニタ26にファイルディレクトリウインド32内にファイル一覧34が表示されてなる編集画面30(図5)を表示させる。   In this state, when the host computer 15 confirms that the cursor is positioned on the file list selection area 33A and the mouse 12 is clicked, the host computer 15 causes the external storage device 22 to read file name data of a plurality of moving image data files. At the same time, by causing the image processor 21 to generate predetermined display image data based on these file name data and writing it into the third VRAM 24, the file list 34 is displayed in the file directory window 32 on the monitor 26. The editing screen 30 (FIG. 5) is displayed.

この状態においてホストコンピュータ15は、ステップSP4に進み、カーソルがビデオブラウザウインド35のいずれかのファイル名表示部38A〜38E上に合わせられてマウス12がクリックされた後、カーソルがファイル一覧34の複数のファイル名のうち、所望するファイル名上に合わせられてマウス12がダブルクリックされると、外部記憶装置22を制御することにより対応する動画像データファイルを検索する。   In this state, the host computer 15 proceeds to step SP4, the cursor is set on any of the file name display portions 38A to 38E of the video browser window 35, and the mouse 12 is clicked. When the mouse 12 is double-clicked on the desired file name, the corresponding moving image data file is searched by controlling the external storage device 22.

そしてホストコンピュータ15は、対応する動画像データファイルを検出すると、ステップSP5に進んで外部記憶装置22に対応するビデオブラウザの画像データと、音声波形の波形データとを読み出させると共に、これら画像データ及び波形データに基づいてイメージプロセッサ21に所定の表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、編集画面30においてビデオブラウザウインド35にビデオブラウザ36A〜36Dと、対応する音声波形37A〜37Dと、ファイル名と、ビデオブラウザ36A〜36Dの先頭及び最後尾のタイムコードとを表示させ、このようにして所望するファイル名が指定される毎にビデオブラウザウインド35に対応するビデオブラウザ36A〜36D等を表示させ、かくして複数のビデオブラウザ36A〜36D等を表示させることができる。   When the host computer 15 detects the corresponding moving image data file, the host computer 15 proceeds to step SP5 to read out the image data of the video browser and the waveform data of the audio waveform corresponding to the external storage device 22, and these image data. Then, by causing the image processor 21 to generate predetermined display image data based on the waveform data and writing it into the third VRAM 24, the video browser window 35 on the editing screen 30 and the video browsers 36A to 36D and the corresponding audio data are displayed. The waveforms 37A to 37D, the file name, and the time code at the beginning and end of the video browsers 36A to 36D are displayed. Thus, the video corresponding to the video browser window 35 is displayed each time a desired file name is designated. Display browsers 36A-36D, etc. Thus it is possible to display a plurality of video browsers 36A~36D like.

次いでホストコンピュータ15は、ステップSP6に進んでカーソルが例えばいずれかのビデオブラウザ36A〜36Dの任意の位置に合わせられてマウス12がクリックされたことを確認すると、外部記憶装置22にこのビデオブラウザ36A〜36Dのクリックされた位置のタイムコードのフレーム画像の画像データを読み出させると共に、この画像データに基づいてイメージプロセッサ21に表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、編集画面30内に素材プレビュウインド40を表示させ、かつ素材表示ウインド41内にこのビデオブラウザ36A〜36Dのクリックされた位置のタイムコードのフレーム画像を表示させる。   Next, when the host computer 15 proceeds to step SP6 and confirms that the cursor is positioned at an arbitrary position of one of the video browsers 36A to 36D and the mouse 12 is clicked, for example, the video browser 36A is stored in the external storage device 22. By reading the image data of the frame image of the time code at the clicked position of ˜36D, the display image data is generated by the image processor 21 based on this image data, and this is written into the third VRAM 24. The material preview window 40 is displayed in the editing screen 30 and the frame image of the time code at the clicked position of the video browsers 36A to 36D is displayed in the material display window 41.

この状態においてホストコンピュータ15は、カーソルがいずれかの第1の駒送りボタン42A、スチル再生ボタン42B、第2の駒送りボタン42C、停止ボタン42D、通常再生ボタン42E、ビデオブラウザ再生ボタン42F上に合わせられてマウス12がクリックされると、外部記憶装置22を制御することにより対応する動作を実行させ、かくして対応する動画像素材及び音声素材を指定された位置から再生させる。   In this state, the host computer 15 moves the cursor over any of the first frame advance button 42A, still playback button 42B, second frame advance button 42C, stop button 42D, normal playback button 42E, and video browser playback button 42F. When the mouse 12 is clicked, the corresponding operation is executed by controlling the external storage device 22, and the corresponding moving image material and audio material are reproduced from the designated position.

そしてホストコンピュータ15は、ステップSP7に進んでカーソルがビデオブラウザウインド35のマークイン/アウトボタン51上に合わせられてマウス12がクリックされたことを確認すると、続くステップSP8に進んで編集モードに移る。   When the host computer 15 proceeds to step SP7 and confirms that the cursor is positioned on the mark-in / out button 51 of the video browser window 35 and the mouse 12 is clicked, the host computer 15 proceeds to step SP8 and proceeds to the edit mode. .

この状態においてホストコンピュータ15は、カーソルがビデオブラウザ36A〜36Dの任意の位置に合わせられてマウス12の左ボタン又は右ボタンがクリックされたことをステップSP9において確認すると、この後マウス12を介して指定される情報に基づいて動画像クリップ及び対応する音声クリップを作成する。   In this state, when the host computer 15 confirms in step SP9 that the cursor has been positioned at an arbitrary position of the video browsers 36A to 36D and the left button or right button of the mouse 12 has been clicked, the host computer 15 thereafter passes through the mouse 12. A moving image clip and a corresponding audio clip are created based on the specified information.

またホストコンピュータ15は、動画像クリップ及び対応する音声クリップを作成した後、カーソルがマークインカーソル52又はマークアウトカーソル53上に合わせられてマウス12のボタンが押されたことをステップSP10において確認すると、この後マウス12及びキーボード11を介して指定される情報に基づいて動画像クリップ及び対応する音声クリップを変更及び又は削除する。   When the host computer 15 creates a moving image clip and a corresponding audio clip, the host computer 15 confirms in step SP10 that the cursor is positioned on the mark-in cursor 52 or the mark-out cursor 53 and the button of the mouse 12 is pressed. Thereafter, the moving image clip and the corresponding audio clip are changed and / or deleted based on information designated via the mouse 12 and the keyboard 11.

さらにホストコンピュータ15は、動画像クリップ及び対応する音声クリップを作成した後、カーソルがタイムラインウインド56のタイムカーソルホーム位置ボタン66上に合わせられてマウス12がクリックされたことをステップSP11において確認すると、この後マウス12を介して指定される情報に基づいてタイムライン内に表示させた全ての動画像クリップ及び対応する音声クリップを順次再生させる。   Further, after creating the moving image clip and the corresponding audio clip, the host computer 15 confirms in step SP11 that the cursor is positioned on the time cursor home position button 66 of the timeline window 56 and the mouse 12 is clicked. Thereafter, all moving image clips and corresponding audio clips displayed in the timeline based on information designated through the mouse 12 are sequentially reproduced.

さらにホストコンピュータ15は、このようにして動画像クリップ及び音声クリップが作成された後、カーソルがメニューバー31のファイル選択領域31A上に合わせられてマウス12がクリックされたことをステップSP12において確認すると、この後マウス12を介して指定される情報に基づいて動画像クリップ及び対応する音声クリップに関する編集リストを外部記憶装置22に格納する。   Furthermore, after the moving image clip and the audio clip are created in this way, the host computer 15 confirms in step SP12 that the cursor is positioned on the file selection area 31A of the menu bar 31 and the mouse 12 is clicked. Thereafter, based on the information designated via the mouse 12, the editing list relating to the moving image clip and the corresponding audio clip is stored in the external storage device 22.

そしてホストコンピュータ15は、この後ステップSP13に進んでカーソルが再びビデオブラウザウインド35のマークイン/アウトボタン51上に合わせられてマウス12がクリックされたか否かを判断する。   Then, the host computer 15 proceeds to step SP13 to determine whether or not the cursor is again positioned on the mark-in / out button 51 of the video browser window 35 and the mouse 12 is clicked.

ここでこのステップSP13において否定結果を得ることは、編集対象の動画像素材に対する編集処理が終了していないことを意味し、このときホストコンピュータ15は、ステップSP9、ステップSP10、ステップSP11及び又はステップSP12に戻り、この後このステップSP13において肯定結果を得るまでの間、ステップSP9、ステップSP10、ステップSP11及び又はステップSP12に応じた処理を実行する。   Here, obtaining a negative result in step SP13 means that the editing process for the moving image material to be edited has not been completed. At this time, the host computer 15 performs step SP9, step SP10, step SP11 and / or step. The process returns to SP12, and thereafter, processing corresponding to step SP9, step SP10, step SP11 and / or step SP12 is executed until a positive result is obtained in step SP13.

またこのステップSP13において否定結果を得ることは、編集対象の動画像素材に対する一連の編集処理が終了したことを意味し、このときホストコンピュータ15は、ステップSP14に進んでこの編集モードを終了し、この後ステップSP15に進んでこの編集処理手順RT1を終了する。   In addition, obtaining a negative result in step SP13 means that a series of editing processing on the moving image material to be edited has been completed. At this time, the host computer 15 proceeds to step SP14 and ends this editing mode. Thereafter, the process proceeds to step SP15, and the editing process procedure RT1 is terminated.

(3−2)素材再生処理手順
ここで実際上ホストコンピュータ15は、上述した編集処理手順RT1のステップSP6では、図10に示す素材再生処理手順RT2に従って、まずステップSP20においてこの素材再生処理手順RT2を開始し、続くステップSP21に進んでカーソルが通常再生ボタン42E上に合わせられてマウス12がクリックされたか否かを判断する。
(3-2) Material Reproduction Processing Procedure Here, in step SP6 of the above-described editing processing procedure RT1, the host computer 15 actually executes the material reproduction processing procedure RT2 in step SP20 according to the material reproduction processing procedure RT2 shown in FIG. The process proceeds to step SP21, where it is determined whether or not the cursor is positioned on the normal playback button 42E and the mouse 12 is clicked.

ここでホストコンピュータ15は、このステップSP21において肯定結果を得ると、続くステップSP22に進んで通常再生モードに移る。   If the host computer 15 obtains a positive result in this step SP21, it proceeds to the subsequent step SP22 and shifts to the normal reproduction mode.

そしてホストコンピュータ15は、この状態においてステップSP23に進んで外部記憶装置22に対応する圧縮符号化された動画像データD1を読み出させ、これをイメージプロセッサ21に与えて復号化させ、得られた動画像データD1に基づいて縮小画面データ形成部21Hにより表示画像データを生成させた後、これを第3のVRAM24に書き込ませることにより、編集画面30において素材プレビュウインド40の素材表示ウインド41に動画像データD1に基づく動画像を通常再生速度で表示させると共に、タイムコード表示部43にこの動画像データD1に付加されたタイムコードを表示させる。   In this state, the host computer 15 proceeds to step SP23 to read out the compressed and encoded moving image data D1 corresponding to the external storage device 22, and supplies it to the image processor 21 for decoding. After the display image data is generated by the reduced screen data forming unit 21H based on the moving image data D1, this is written in the third VRAM 24, whereby the moving image is displayed on the material display window 41 of the material preview window 40 on the editing screen 30. The moving image based on the image data D1 is displayed at the normal reproduction speed, and the time code added to the moving image data D1 is displayed on the time code display unit 43.

またホストコンピュータ15は、このとき通常再生ボタン42Eに加えて、カーソルが他の第1の駒送りボタン42A、スチル再生ボタン42B及び又は第2の駒送りボタン42C上に合わせられてマウス12がクリックされた場合には、外部記憶装置22を制御して対応する動作を実行させる。   At this time, in addition to the normal playback button 42E, the host computer 15 moves the cursor to the other first frame advance button 42A, still playback button 42B and / or second frame advance button 42C and clicks the mouse 12. If it is, the external storage device 22 is controlled to perform a corresponding operation.

因みにホストコンピュータ15は、このとき外部記憶装置22に対応する圧縮符号化された音声データD2を読み出させ、これをイメージプロセッサ21に与えることにより復号化させ、得られた音声データD2をディジタル・アナログ変換回路48を介してオーディオ信号S3A〜S3N、S4A〜S4Nに変換させてスピーカ49に送出させることにより当該スピーカ49からこのオーディオ信号S3A〜S3N、S4A〜S4Nに基づく音声を放音させる。   Incidentally, at this time, the host computer 15 reads out the compressed and encoded audio data D2 corresponding to the external storage device 22 and applies it to the image processor 21 for decoding, and the obtained audio data D2 is converted into digital / digital data. The audio signals S3A to S3N and S4A to S4N are converted through the analog conversion circuit 48 and transmitted to the speaker 49, so that the audio based on the audio signals S3A to S3N and S4A to S4N is emitted from the speaker 49.

そしてホストコンピュータ15は、やがてカーソルが停止ボタン42D上に合わせられてマウス12がクリックされたことをステップSP24において確認すると、外部記憶装置22に圧縮符号化された動画像データD1の読み出しを停止させると共に、所定の画像データを読み出させ、これをイメージプロセッサ21に与えて表示画像データを生成させた後、これを第3のVRAM24に書き込ませることにより素材表示ウインド40における動画像の表示を停止させる。   When the host computer 15 confirms in step SP24 that the cursor has been positioned on the stop button 42D and the mouse 12 has been clicked, the host computer 15 stops reading the compressed and encoded moving image data D1 in the external storage device 22. At the same time, predetermined image data is read out and given to the image processor 21 to generate display image data, which is then written into the third VRAM 24 to stop the display of moving images in the material display window 40. Let

この後ホストコンピュータ15は、カーソルが素材プレビュウインド40のクローズボタン44上に合わせられてマウス12がクリックされたことをステップSP25において確認すると、外部記憶装置22を制御して所定の画像データを読み出させ、これをイメージプロセッサ21に与えて表示画像データを生成させた後、これを第3のVRAM24に書き込ませることにより、モニタ26に素材プレビュウインド40を閉じた編集画面30(図5)を表示させ、この後ステップSP26に進んでこの素材再生処理手順RT2を終了する。   Thereafter, when the host computer 15 confirms in step SP25 that the cursor has been positioned on the close button 44 of the material preview window 40 and the mouse 12 has been clicked, the host computer 15 controls the external storage device 22 to read predetermined image data. The display screen data is generated by giving it to the image processor 21 and then written into the third VRAM 24, whereby the editing screen 30 (FIG. 5) with the material preview window 40 closed on the monitor 26 is displayed. Then, the process proceeds to step SP26, and the material reproduction processing procedure RT2 is completed.

一方ホストコンピュータ15は、上述したステップSP21において否定結果を得ると、ステップSP27に進んでカーソルがビデオブラウザ再生ボタン42F上に合わせられてマウス12がクリックされたか否かを判断する。   On the other hand, if the host computer 15 obtains a negative result in step SP21 described above, the host computer 15 proceeds to step SP27 and determines whether or not the cursor has been positioned on the video browser playback button 42F and the mouse 12 has been clicked.

そしてホストコンピュータ15は、このステップSP27において否定結果を得ると、この後ステップSP21に戻り、当該ステップSP21又はステップSP27において肯定結果を得るまでの間、このステップSP21−SP27−SP21の処理を繰り返す。   If the host computer 15 obtains a negative result in this step SP27, then it returns to step SP21 and repeats the processing of this step SP21-SP27-SP21 until obtaining a positive result in step SP21 or step SP27.

またホストコンピュータ15は、やがてこのステップSP27において肯定結果を得ると、続くステップSP28に進んで高速再生モードに移る。   If the host computer 15 eventually obtains a positive result in step SP27, the host computer 15 proceeds to the subsequent step SP28 and shifts to the high-speed playback mode.

そしてホストコンピュータ15は、この状態においてステップSP29に進んで外部記憶装置22に対応するビデオブラウザの画像データを読み出させ、これをイメージプロセッサ21に与えて縮小画面データ形成部21Hにより表示画像データを生成させた後、これを第3のVRAM24に書き込ませることにより素材プレビュウインド40の素材表示ウインド41内にビデオブラウザ画像を表示させると共に、タイムコード表示部43に動画像データD1に付加されたタイムコードをビデオブラウザ画像に応じて順次飛び越して表示させる。   In this state, the host computer 15 proceeds to step SP29 to read the image data of the video browser corresponding to the external storage device 22, and supplies the image data to the image processor 21 to display the display image data by the reduced screen data forming unit 21H. After the generation, the video browser image is displayed in the material display window 41 of the material preview window 40 by writing it in the third VRAM 24, and the time added to the moving image data D1 in the time code display unit 43. The code is sequentially displayed in accordance with the video browser image.

またホストコンピュータ15は、このときビデオブラウザ再生ボタン42Fに加えて、カーソルが他の第1の駒送りボタン42A、スチル再生ボタン42B及び又は第2の駒送りボタン42C上に合わせられてマウス12がクリックされた場合には、外部記憶装置22を制御してビデオブラウザ画像に対する巻き戻し方向への駒送り再生、巻き戻し方向及び通常再生方向へのスチル再生及び又は通常再生方向への駒送り再生を実行させる。   At this time, in addition to the video browser playback button 42F, the host computer 15 moves the cursor to the other first frame advance button 42A, still playback button 42B and / or second frame advance button 42C, so that the mouse 12 moves. When clicked, the external storage device 22 is controlled to perform frame advance reproduction in the rewind direction, still reproduction in the rewind direction and normal reproduction direction, and frame advance reproduction in the normal reproduction direction with respect to the video browser image. Let it run.

因みにホストコンピュータ15は、このとき外部記憶装置22に対応する圧縮符号化された音声データD2をビデオブラウザ画像に応じて間欠的に読み出させ、これをイメージプロセッサ21に与えることにより復号化させ、得られた音声データD2をディジタル・アナログ変換回路48を介して間欠的なオーディオ信号S3A〜S3N、S4A〜S4Nに変換させてスピーカ49に送出させることにより当該スピーカ49からオーディオ信号S3A〜S3N、S4A〜S4Nに基づくこの間欠的な音声を放音させる。   Incidentally, at this time, the host computer 15 intermittently reads out the compressed and encoded audio data D2 corresponding to the external storage device 22 according to the video browser image, and gives it to the image processor 21 to decode it. The obtained audio data D2 is converted into intermittent audio signals S3A to S3N and S4A to S4N via the digital / analog conversion circuit 48 and sent to the speaker 49, whereby the audio signals S3A to S3N and S4A are output from the speaker 49. ~ This intermittent sound based on S4N is emitted.

そしてホストコンピュータ15は、この状態においてステップSP24に進んで上述と同様にカーソルが停止ボタン42D上に合わせられてマウス12がクリックされることを待ち受ける。   Then, the host computer 15 proceeds to step SP24 in this state, and waits for the cursor 12 to be placed on the stop button 42D and clicking the mouse 12 as described above.

(3−3)クリップ作成処理手順
またこのホストコンピュータ15は、上述した編集処理手順RT1のステップSP9では、図11に示すクリップ作成処理手順RT3に従って、まずステップSP30においてこのクリップ作成処理手順RT3を開始し、続くステップSP31に進んでカーソルがビデオブラウザウインド35内に表示させたビデオブラウザ36A〜36Dの所望する位置に合わせられてマウス12の左ボタンがクリックされたことを確認すると、マークイン点が指定されたと判断する。
(3-3) Clip Creation Processing Procedure The host computer 15 starts the clip creation processing procedure RT3 in step SP30 according to the clip creation processing procedure RT3 shown in FIG. 11 in step SP9 of the editing processing procedure RT1 described above. Then, proceeding to step SP31, when it is confirmed that the cursor is positioned at a desired position of the video browsers 36A to 36D displayed in the video browser window 35 and the left button of the mouse 12 is clicked, the mark-in point is set. Judged as specified.

そしてホストコンピュータ15は、外部記憶装置22に対応する画像データを読み出させ、この画像データに基づいてイメージプロセッサ21により表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、ビデオブラウザウインド35の対応するビデオブラウザ36A〜36Dの指定された位置にマークインカーソル52を表示させると共に、当該マークイン点が指定された位置に対応するタイムコードを表示させる。   Then, the host computer 15 reads out image data corresponding to the external storage device 22, causes the image processor 21 to generate display image data based on the image data, and writes the display image data in the third VRAM 24. The mark-in cursor 52 is displayed at the designated position of the video browsers 36A to 36D corresponding to the browser window 35, and the time code corresponding to the designated position of the mark-in point is displayed.

次いでホストコンピュータ15は、ステップSP32に進んで編集画面30においてカーソルがビデオブラウザウインド35内に表示させたビデオブラウザ36A〜36Dの所望する位置に合わせられてマウス12の右ボタンがクリックされたことを確認すると、マークアウト点が指定されたと判断する。   Next, the host computer 15 proceeds to step SP32 and confirms that the right button of the mouse 12 has been clicked on the editing screen 30 when the cursor is set to a desired position of the video browsers 36A to 36D displayed in the video browser window 35. If confirmed, it is determined that a markout point has been designated.

そしてホストコンピュータ15は、外部記憶装置22に対応する画像データを読み出させ、この画像データに基づいてイメージプロセッサ21により表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、ビデオブラウザウインド35の対応するビデオブラウザ36A〜36Dの指定された位置にマークアウトカーソル53を表示させると共に、当該マークアウト点が指定された位置に対応するタイムコードを表示させる。   Then, the host computer 15 reads out image data corresponding to the external storage device 22, causes the image processor 21 to generate display image data based on the image data, and writes the display image data in the third VRAM 24. A markout cursor 53 is displayed at a designated position of the corresponding video browsers 36A to 36D of the browser window 35, and a time code corresponding to the designated position of the markout point is displayed.

続いてホストコンピュータ15は、ステップSP33に進んでカーソルがビデオブラウザウインド35のアドボタン54上に合わせられてマウス12がクリックされたことを確認すると、上述したステップSP31及びSP32において指定されたマークイン点及びマークアウト点間を動画像クリップとして確定すると共に、対応する音声部分を音声クリップとして確定する。   Subsequently, when the host computer 15 proceeds to step SP33 and confirms that the cursor is positioned on the add button 54 of the video browser window 35 and the mouse 12 is clicked, the mark-in specified in the above-described steps SP31 and SP32 is performed. Between the point and the markout point is determined as a moving image clip, and the corresponding audio part is determined as an audio clip.

そしてホストコンピュータ15は、外部記憶装置22に指定されたマークイン点のタイムコードのフレーム画像の画像データと、マークイン点及びマークアウト点のタイムコードとを読み出させ、この画像データ及びタイムコードに基づいてイメージプロセッサ21により表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、タイムラインウインド56において、ベースビデオタイムライン57に動画像クリップに応じた枠55A〜55Cを表示させると共に、当該動画像クリップに対応させてベースオーディオタイムライン59に対応する音声クリップの枠58A〜58Cを表示させ、またデュレーション表示部60に当該タイムラインウインド56に表示させた全ての動画像クリップの全体の長さをタイムコードで表示させる。   Then, the host computer 15 reads out the image data of the frame image of the time code of the mark-in point designated in the external storage device 22, and the time code of the mark-in point and the mark-out point, and this image data and time code Display image data is generated by the image processor 21 on the basis of the above, and this is written into the third VRAM 24, whereby frames 55A to 55C corresponding to the moving image clips are displayed on the base video timeline 57 in the timeline window 56. In addition, the audio clip frames 58A to 58C corresponding to the base audio timeline 59 are displayed corresponding to the moving image clip, and all the moving image clips displayed on the timeline window 56 on the duration display unit 60 are displayed. The whole length of the time To be displayed in over de.

またホストコンピュータ15は、ステップSP34に進んでクリップ表示ウインド61内のクリップウインド62に確定した動画像クリップの先頭のフレーム画像(マークイン点のタイムコードのフレーム画像)を表示させると共に、当該クリップ表示ウインド61内のデュレーション表示部63にこの動画像クリップの長さをタイムコードで表示させる。   Further, the host computer 15 proceeds to step SP34 to display the first frame image (the frame image of the time code at the mark-in point) of the determined moving image clip in the clip window 62 in the clip display window 61 and display the clip. The duration display section 63 in the window 61 displays the length of the moving image clip as a time code.

これに加えてホストコンピュータ15は、このときカーソルがクリップ名表示部64上に合わせられてマウス12がクリックされると、対応する動画像クリップのクリップ名を入力し得る状態にし、この状態においてキーボード11を介してクリップ名が入力されると、当該入力されたクリップ名に基づいてイメージプロセッサ21により表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、クリップ表示ウインド61において対応するクリップ名表示部64にこのクリップ名を表示させ、この後ステップSP35に進んでこのクリップ作成処理手順RT3を終了する。   In addition to this, when the cursor is positioned on the clip name display portion 64 and the mouse 12 is clicked, the host computer 15 enters a state in which the clip name of the corresponding moving image clip can be input. When the clip name is input via the image display 11, the image processor 21 generates display image data based on the input clip name and writes it into the third VRAM 24. This clip name is displayed on the clip name display section 64 to be operated, and thereafter, the process proceeds to step SP35 to end the clip creation processing procedure RT3.

(3−4)クリップ変更削除処理手順
さらにホストコンピュータ15は、上述した編集処理手順RT1のステップSP10では、図12に示すクリップ変更削除処理手順RT4に従って、まずステップSP40においてこのクリップ変更削除処理手順RT4を開始した後、ステップSP41に進んでカーソルがビデオブラウザウインド35内に表示させたマークインカーソル52又はマークアウトカーソル53上に合わせられてマウス12のボタンが押されたままの状態を確認するとクリップ変更モードに移る。
(3-4) Clip Change Deletion Processing Procedure Further, in step SP10 of the editing processing procedure RT1, the host computer 15 first follows this clip change deletion processing procedure RT4 shown in FIG. After starting the operation, the process proceeds to step SP41 to confirm that the cursor is positioned on the mark-in cursor 52 or the mark-out cursor 53 displayed in the video browser window 35 and the button of the mouse 12 is kept pressed. Move to change mode.

この状態においてホストコンピュータ15は、ステップSP42に進んでこのマウス12のボタンが押されたままの状態でカーソルが移動すると、このカーソルの移動に応動して外部記憶装置22及びイメージプロセッサ21を制御し、指定されたマークインカーソル52又はマークアウトカーソル53をカーソルに追従させて移動させ、この後マウス12のボタンが離されたことを確認すると、その位置にマークインカーソル52又はマークアウトカーソル53を位置させ(ドラッグアンドドロップ)、かくしてマークイン点及び又はマークアウト点の位置を変更する。   In this state, the host computer 15 proceeds to step SP42 to control the external storage device 22 and the image processor 21 in response to the movement of the cursor when the cursor moves while the button of the mouse 12 is being pressed. Then, the designated mark-in cursor 52 or mark-out cursor 53 is moved following the cursor, and after confirming that the button of the mouse 12 is released, the mark-in cursor 52 or the mark-out cursor 53 is moved to that position. Position (drag and drop), thus changing the position of the mark-in point and / or mark-out point.

そしてホストコンピュータ15は、この後カーソルがビデオブラウザウインド35のアドボタン54上に合わせられてマウス12がクリックされるとこの変更内容を確定し、これに応じて外部記憶装置22に変更されたマークイン点のタイムコード及びフレーム画像の画像データ、又は変更されたマークアウト点のタイムコードを読み出させ、これらマークイン点のタイムコード及び画像データ、又はマークアウト点のタイムコードに基づいてイメージプロセッサ21により表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、ビデオブラウザウインド35において、対応するマークイン点及び又はマークアウト点のタイムコードの表示を変更すると共に、タイムラインウインド56において、対応する動画像クリップ及び音声クリップの枠55A〜55C及び58A〜58Cの長さを変更すると共に、デュレーション表示部60のタイムコードの表示を変更する。   Then, the host computer 15 confirms the contents of the change when the cursor is placed on the add button 54 of the video browser window 35 and the mouse 12 is clicked, and the mark changed to the external storage device 22 accordingly. The time processor of the in-point and the image data of the frame image, or the time code of the changed mark-out point is read out, and the image processor is based on the time code and image data of the mark-in point or the time code of the mark-out point The display image data is generated by 21 and written in the third VRAM 24, whereby the display of the time code of the corresponding mark-in point and / or mark-out point is changed in the video browser window 35, and the timeline window is displayed. 56, the corresponding moving image With changing the length of the frame 55A~55C and 58A~58C lips and voice clips, to change the display of the time code of the duration display unit 60.

またホストコンピュータ15は、このときクリップ表示ウインド61の対応するクリップウインド62内に表示させていたフレーム画像を変更したマークイン点のタイムコードのフレーム画像に変更すると共に、デュレーション表示部63のタイムコードの表示を変更する。   Further, the host computer 15 changes the frame image displayed in the corresponding clip window 62 of the clip display window 61 at this time to the frame image of the time code of the changed mark-in point, and the time code of the duration display unit 63. Change the display.

そしてホストコンピュータ15は、この後ステップSP43に進んでこのクリップ変更削除処理手順RT4を終了する。   Then, the host computer 15 proceeds to step SP43, and ends this clip change deletion processing procedure RT4.

一方ホストコンピュータ15は、ステップSP40に続いてステップSP44においてカーソルがビデオブラウザウインド35内に表示させたマークインカーソル52又はマークアウトカーソル53上に合わせられてマウス12がクリックされたことを確認するとクリップ削除モードに移る。   On the other hand, when the host computer 15 confirms that the mouse 12 is clicked with the cursor positioned on the mark-in cursor 52 or the mark-out cursor 53 displayed in the video browser window 35 in step SP44 following step SP40, the clip is clipped. Move to delete mode.

そしてホストコンピュータ15は、この状態においてステップSP45に進んでキーボード11のデリートキーが押されたことを確認すると、これに応じて外部記憶装置22及びイメージプロセッサ21を制御することによりこの指定されたマークインカーソル52又はマークアウトカーソル53に対応する動画像クリップ及び音声クリップを削除し、かくしてビデオブラウザウインド35内の対応するマークインカーソル52又はマークアウトカーソル53と、タイムラインウインド56内の対応する動画像クリップ及び対応する音声クリップの枠55A〜55C及び58A〜58Cと、クリップ表示ウインド61内の対応するマークイン点のタイムコードのフレーム画像、タイムコード及びクリップ名を消去し、この後ステップSP43に進む。   In this state, the host computer 15 proceeds to step SP45 and confirms that the delete key on the keyboard 11 has been pressed. In response to this, the host computer 15 controls the external storage device 22 and the image processor 21 to control the designated mark. The moving image clip and the audio clip corresponding to the in-cursor 52 or the mark-out cursor 53 are deleted, and thus the corresponding mark-in cursor 52 or the mark-out cursor 53 in the video browser window 35 and the corresponding moving image in the timeline window 56 are deleted. The frame 55A to 55C and 58A to 58C of the image clip and the corresponding audio clip and the frame image, time code and clip name of the corresponding mark-in point in the clip display window 61 are deleted, and then step SP43 Advance.

因みにホストコンピュータ15は、上述したステップSP44においてカーソルがクリップ表示ウインド61内のフレーム画像を表示させた任意のクリップウインド62上に合わせられてマウス12がクリックされたことを確認してもクリップ削除モードに移り、続くステップSP45において上述と同様にキーボード11のデリートキーが押されたことを確認すると、対応する動画像クリップ及び音声クリップを削除する。   Incidentally, even if the host computer 15 confirms that the mouse 12 has been clicked by confirming that the cursor is positioned on the arbitrary clip window 62 displaying the frame image in the clip display window 61 in step SP44 described above, the clip deletion mode. In step SP45, if it is confirmed that the delete key of the keyboard 11 is pressed in the same manner as described above, the corresponding moving image clip and audio clip are deleted.

(3−5)クリップ再生処理手順
さらにホストコンピュータ15は、上述した編集処理手順RT1のステップSP11では、図13に示すクリップ再生処理手順RT5に従って、まずステップSP50においてこのクリップ再生処理手順RT5を開始し、続くステップSP51においてカーソルがタイムラインウインド56のタイムカーソルホーム位置ボタン66上に合わせられてクリックされたことを確認すると、外部記憶装置22にタイムラインウインド56に表示させた複数の動画像クリップのうち、最も左側に位置する動画像クリップに対応するビデオブラウザの先頭の1画面分の画像データを読み出させ、この画像データに基づいてイメージプロセッサ21により表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、編集画面30において、素材表示ウインド41に対応するビデオブラウザ画像の先頭の1画面分の画像を表示させた素材プレビュウインド40を表示させると共に、タイムラインウインド56にタイムカーソル67を表示させる。
(3-5) Clip Playback Processing Procedure Further, in step SP11 of the above-described editing processing procedure RT1, the host computer 15 starts this clip playback processing procedure RT5 in step SP50 according to the clip playback processing procedure RT5 shown in FIG. In subsequent step SP51, when it is confirmed that the cursor is positioned on the time cursor home position button 66 of the timeline window 56 and clicked, a plurality of moving image clips displayed on the timeline window 56 on the external storage device 22 are checked. Among them, the image data for the first screen of the video browser corresponding to the moving image clip located on the leftmost side is read out, and display image data is generated by the image processor 21 based on this image data. Written to VRAM 24 As a result, the material preview window 40 displaying the image of the first one of the video browser images corresponding to the material display window 41 is displayed on the editing screen 30 and the time cursor 67 is displayed on the timeline window 56. Let

次いでホストコンピュータ15は、ステップSP52に進んでカーソルが通常再生ボタン42E又はビデオブラウザ再生ボタン42F上に合わせられてマウス12がクリックされたことを確認すると、これに応じて外部記憶装置22を制御することにより当該外部記憶装置22に対応する圧縮符号化された動画像データD1又はビデオブラウザの画像データを順次読み出させ、これをイメージプロセッサ21に与えて所定の表示画像データを生成させた後、これを第3のVRAM24に書き込ませることにより、素材表示ウインド41内にタイムラインウインド56に表示させた動画像クリップに応じた動画像又はビデオフラウザ画像を順次表示させると共に、この動画像クリップの再生に従ってタイムカーソル67を移動させる。   Next, when the host computer 15 proceeds to step SP52 and confirms that the cursor is positioned on the normal playback button 42E or the video browser playback button 42F and the mouse 12 is clicked, the host computer 15 controls the external storage device 22 accordingly. Thus, after the compressed and encoded moving image data D1 or video browser image data corresponding to the external storage device 22 is sequentially read out and given to the image processor 21 to generate predetermined display image data, By writing this in the third VRAM 24, a moving image or a video windower image corresponding to the moving image clip displayed in the timeline window 56 is sequentially displayed in the material display window 41, and the moving image clip is displayed. The time cursor 67 is moved according to the reproduction.

続いてホストコンピュータ15は、ステップSP53に進んでカーソルが素材プレビュウインド40の停止ボタン42D上に合わせられてマウス12がクリックされたか否かを判断し、肯定結果を得ると、続くステップSP54に進んで外部記憶装置22を制御することにより動画像クリップの再生を停止させ、かくして素材表示ウインド41内に表示させた動画像又はビデオブラウザ画像の表示を停止させると共に、これに応じてタイムラインウインド56のタイムカーソル67の移動も停止させる。   Subsequently, the host computer 15 proceeds to step SP53, determines whether or not the cursor is positioned on the stop button 42D of the material preview window 40 and the mouse 12 has been clicked. If the result is affirmative, the host computer 15 proceeds to subsequent step SP54. Then, the reproduction of the moving image clip is stopped by controlling the external storage device 22, and thus the display of the moving image or the video browser image displayed in the material display window 41 is stopped, and the timeline window 56 is accordingly displayed. The movement of the time cursor 67 is also stopped.

そしてホストコンピュータ15は、この後ステップSP54に進んでカーソルが素材プレビュウインド40のクローズボタン44上に合わせられてマウス12がクリックされたことを確認すると、外部記憶装置22に対応する画像データを読み出させ、この画像データに基づいてイメージプロセッサ21により所定の表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、モニタ26に素材プレビュウインド40を閉じ、かつタイムラインウインド56においてタイムカーソル67を消去した編集画面30(図7)を表示させ、この後ステップSP56に進んでこのクリップ再生処理手順RT5を終了する。   Then, the host computer 15 proceeds to step SP54 and confirms that the cursor is positioned on the close button 44 of the material preview window 40 and the mouse 12 is clicked, and reads the image data corresponding to the external storage device 22. The image processor 21 generates predetermined display image data based on the image data, and writes the display image data into the third VRAM 24, thereby closing the material preview window 40 on the monitor 26 and in the timeline window 56. The editing screen 30 (FIG. 7) from which the time cursor 67 has been deleted is displayed. Thereafter, the process proceeds to step SP56, and this clip reproduction processing procedure RT5 is terminated.

またホストコンピュータ15は、上述したステップSP53において否定結果を得ている間は、外部記憶装置22を制御することにより動画像クリップを順次再生させ、そしてカーソルが素材プレビュウインド40の停止ボタン42D上に合わせられてマウス12がクリックされないままに、タイムラインウインド56に表示させた全ての動画像クリップの再生が終了すると、ステップSP57に進んでこれら動画像クリップの再生を自動的に終了させ、この後ステップSP55に進む。   While the host computer 15 obtains a negative result in step SP53 described above, the host computer 15 controls the external storage device 22 to sequentially reproduce the moving image clips, and the cursor is placed on the stop button 42D of the material preview window 40. When the reproduction of all the moving image clips displayed in the timeline window 56 is finished without the mouse 12 being clicked, the process proceeds to step SP57 to automatically terminate the reproduction of these moving image clips. Proceed to step SP55.

(3−6)編集リスト保存処理手順
さらにホストコンピュータ15は、上述した編集処理手順RT1のステップSP12では、図14に示す編集リスト保存処理手順RT6に従って、まずステップSP60においてこの編集リスト保存処理手順RT6を開始し、続くステップSP61においてカーソルがメニューバー31のファイル選択領域31A上に合わせられてマウス12がクリックされたことを確認すると、外部記憶装置22に対応する画像データを読み出させ、この画像データに基づいてイメージプロセッサ21により表示画像データを生成させ、これを第3のVRAM24に書き込ませることにより、ファイルディレクトリウインド32内にファイル選択メニュー33を表示させる。
(3-6) Edit List Saving Process Procedure Further, in step SP12 of the above-described editing process procedure RT1, the host computer 15 follows this edit list saving process procedure RT6 shown in FIG. In step SP61, when it is confirmed that the cursor is positioned on the file selection area 31A of the menu bar 31 and the mouse 12 has been clicked, the image data corresponding to the external storage device 22 is read, and this image is read. Display image data is generated by the image processor 21 based on the data, and this is written into the third VRAM 24, thereby displaying the file selection menu 33 in the file directory window 32.

そしてホストコンピュータ15は、ステップSP62に進んでカーソルがこのファイル選択メニュー33内のいずれかの新規保存選択領域33B、上書き保存選択領域33C又は別名保存選択領域33D上に合わせられてマウス12がクリックされたことを確認すると、タイムラインウインド56に表示させた全ての動画像クリップ及び対応する音声クリップの各種情報からなる編集リストをファイル化し、これを外部記憶装置22に与えることにより対応する保存方法(新規に保存、すでに格納されている編集リストに上書きするように保存、ファイル名を変更して保存)に従って格納し、この後ステップSP63に進んでこの編集リスト保存処理手順RT6を終了する。   Then, the host computer 15 proceeds to step SP62, and the cursor is placed on any of the new save selection area 33B, the overwrite save selection area 33C or the alias save selection area 33D in the file selection menu 33, and the mouse 12 is clicked. If it is confirmed, an edit list including various information of all moving image clips and corresponding audio clips displayed on the timeline window 56 is filed and given to the external storage device 22 so that a corresponding saving method ( Newly saved, saved so as to overwrite the already-stored edit list, saved after changing the file name), and then proceeds to step SP63 to end this edit list saving processing procedure RT6.

(4)本実施の形態の動作及び効果
以上の構成において、この画像編集装置10では、素材の取込みモード時、指定されたビデオ信号供給源から供給されるビデオ信号S1A〜S1N、S2A〜S2N及び対応するオーディオ信号S3A〜S3N、S4A〜S4Nを取り込み、これらを順次ディジタル化した後、得られた動画像データD1及び音声データD2をイメージプロセッサ21により圧縮符号化し、ファイル化して外部記憶装置22に格納する。
(4) Operation and effect of the present embodiment In the above configuration, the image editing apparatus 10 uses the video signals S1A to S1N, S2A to S2N supplied from the designated video signal supply source in the material capture mode. Corresponding audio signals S3A to S3N and S4A to S4N are taken in and sequentially digitized. Then, the obtained moving image data D1 and audio data D2 are compressed and encoded by the image processor 21 and filed to the external storage device 22. Store.

この際この画像編集装置10では、イメージプロセッサ21により動画像データD1についてサンプリング位置を順次移動させながらスリットデータを抽出し、当該スリットデータに基づいて得られるビデオブラウザの画像データをその動画像データファイルを管理するデータベースとして外部記憶装置22に格納する。またこの画像編集装置10では、イメージプロセッサ21により音声データD2に加重平均処理を施し、得られた音声波形の波形データを対応する動画像データファイルのデータベースに格納する。   At this time, in the image editing apparatus 10, the image processor 21 extracts slit data while sequentially moving the sampling position of the moving image data D1, and the image data of the video browser obtained based on the slit data is extracted from the moving image data file. Is stored in the external storage device 22 as a database for managing. In the image editing apparatus 10, the audio data D2 is subjected to weighted average processing by the image processor 21, and the obtained waveform data of the audio waveform is stored in the corresponding moving image data file database.

この後この画像編集装置10では、表示モードが選択されると、外部記憶装置22に編集対象として選択指定された複数の動画像データファイルに対応するビデオブラウザの画像データ及び音声波形の波形データを再生させ、これら画像データ及び波形データに基づいて、図5に示すような複数のビデオブラウザ36A〜36D及び音声波形37A〜37Dが表示されてなる編集画面30をモニタ26に表示する。   Thereafter, in the image editing apparatus 10, when the display mode is selected, the image data of the video browser and the waveform data of the audio waveform corresponding to the plurality of moving image data files selected and designated for editing in the external storage device 22 are displayed. Based on the image data and the waveform data, an edit screen 30 on which a plurality of video browsers 36A to 36D and audio waveforms 37A to 37D as shown in FIG. 5 are displayed is displayed on the monitor 26.

そしてこの画像編集装置10では、この状態において編集モードが選択されると、マウス12及びキーボード11を介して指定入力される各種情報に基づいて動画像クリップ及び音声クリップを順次作成するようにして編集リストを作成することができる。   When the editing mode is selected in this state, the image editing apparatus 10 edits the moving image clip and the audio clip in order based on various information designated and input via the mouse 12 and the keyboard 11. You can create a list.

従ってこの画像編集装置10では、表示モード時、動画像から一次元的にサンプリングして得られたスリットデータに対応する一次元的な画像をつなぎ合わせた静止画でなる複数のビデオブラウザ36A〜36Dをモニタ26の一画面上に表示することから、これらビデオブラウザ36A〜36Dによって編集対象の動画像素材の全体的な流れと内容とを容易に把握することができると共、これに加えて複数の動画像素材の内容を容易に比較することができ、その分動画像素材から動画像クリップを特定するための作業時間を大幅に短縮化することができる。   Therefore, in the image editing apparatus 10, in the display mode, a plurality of video browsers 36A to 36D that are still images obtained by connecting one-dimensional images corresponding to slit data obtained by sampling one-dimensionally from a moving image. Are displayed on one screen of the monitor 26, and the video browsers 36A to 36D can easily grasp the overall flow and contents of the moving image material to be edited. The contents of the moving image material can be easily compared, and the work time for specifying the moving image clip from the moving image material can be greatly reduced.

またこの画像編集装置10では、このとき複数のビデオブラウザ36A〜36Dと共に、対応する音声波形37A〜37Dも同時に表示することから、この音声波形37A〜37Dに基づいて対応するビデオブラウザ36A〜36Dの流れと内容をさらに把握し易くすることができる。   Further, at this time, the image editing apparatus 10 simultaneously displays the corresponding audio waveforms 37A to 37D together with the plurality of video browsers 36A to 36D. Therefore, based on the audio waveforms 37A to 37D, the corresponding video browsers 36A to 36D are displayed. This makes it easier to grasp the flow and contents.

そしてこの画像編集装置10では、編集モード時、モニタ表示させた複数のビデオブラウザ36A〜36D上でマークイン点及びマークアウト点を順次指定するような一連の特定作業を順次行うことができることから、外部記憶装置22に対するアクセス回数を低減させることができ、表示モード時から編集モード時にかけて実行される編集作業の時間を大幅に短縮化することができる。   The image editing apparatus 10 can sequentially perform a series of specific operations such as sequentially specifying mark-in points and mark-out points on the plurality of video browsers 36A to 36D displayed on the monitor in the edit mode. The number of accesses to the external storage device 22 can be reduced, and the time required for editing work performed from the display mode to the editing mode can be greatly shortened.

またこの画像編集装置10では、表示モード時及び編集モード時に、それぞれ動画像素材及び動画像クリップを確認するために必要に応じてビデオブラウザ画像を表示させることから、当該動画像素材及び動画像クリップの高速再生によりこれらの内容確認に要する時間を短縮化することができる。   The image editing apparatus 10 displays a video browser image as necessary in order to confirm the moving image material and the moving image clip in the display mode and the editing mode, so that the moving image material and the moving image clip are displayed. It is possible to shorten the time required to confirm these contents by high-speed playback.

以上の構成によれば、素材の取込みモード時にビデオ信号S1A〜S1N、S2A〜S2Nに基づくビデオブラウザの画像データを生成しておき、表示モード時に複数のビデオブラウザ36A〜36Dを同時にモニタ26に表示させ、編集モード時にこれらビデオブラウザ36A〜36D上でマークイン点及びマークアウト点を順次指定するようにしたことにより、複数の動画像素材の内容を把握して動画像クリップを作成するまでの作業時間を大幅に短縮化することができ、かくして編集作業の効率を格段的に向上し得る画像編集装置を実現することができる。   According to the above configuration, image data of the video browser based on the video signals S1A to S1N and S2A to S2N is generated in the material capture mode, and a plurality of video browsers 36A to 36D are simultaneously displayed on the monitor 26 in the display mode. Since the mark-in point and the mark-out point are sequentially designated on the video browsers 36A to 36D in the edit mode, work until the contents of a plurality of moving image materials are grasped and a moving image clip is created. It is possible to realize an image editing apparatus that can greatly shorten the time and thus can greatly improve the efficiency of editing work.

(5)他の実施の形態
なお上述の実施の形態においては、編集モード時、上述した図8に示すようにクリップ表示ウインド61のクリップウインド62内に動画像クリップの先頭のフレーム画像を表示させるようにした場合について述べたが、本発明はこれに限らず、クリップ表示ウインドに動画像クリップの先頭及び最後尾のフレーム画像を表示させたり、最後尾のフレーム画像のみを表示させるように、この他動画像クリップに関する種々の情報を表示させるようにしても良い。
(5) Other Embodiments In the above-described embodiment, the first frame image of the moving image clip is displayed in the clip window 62 of the clip display window 61 as shown in FIG. Although the present invention is not limited to this, the present invention is not limited to this, so that the clip display window displays the first and last frame images of the moving image clip, or displays only the last frame image. Various information related to the other moving image clip may be displayed.

因みにクリップ表示ウインド内に動画像クリップの先頭及び最後尾のフレーム画像を表示させるような場合には、図15に示すように、クリップ表示ウインド70の第1のクリップウインド71内に動画像クリップの先頭のフレーム画像を表示させると共に、第2のクリップウインド72内にこの動画像クリップの最後尾のフレーム画像を表示させ、これに加えてマークイン点表示部73にマークイン点のタイムコードを表示させると共に、マークアウト点表示部74にマークアウト点のタイムコードを表示させ、またデュレーシヨン表示部75に動画像クリップの長さをタイムコードで表示させると共に、クリップ名表示部76にクリップ名を表示させるようにしても良い。   Incidentally, when the first and last frame images of the moving image clip are displayed in the clip display window, the moving image clip is displayed in the first clip window 71 of the clip display window 70 as shown in FIG. The first frame image is displayed, and the last frame image of the moving image clip is displayed in the second clip window 72. In addition, the mark-in point time code is displayed in the mark-in point display unit 73. In addition, the time code of the markout point is displayed on the markout point display unit 74, the length of the moving image clip is displayed on the duration display unit 75 in timecode, and the clip name is displayed on the clip name display unit 76. You may make it let it.

また上述の実施の形態においては、素材の取込みモード時、供給されたオーディオ信号S3A〜S3N、S4A〜S4Nをディジタル化し、得られた音声データD2を圧縮符号化し、ファイル化して外部記憶装置22に格納するようにした場合について述べたが、本発明はこれに限らず、素材の取込みモード時、供給されたオーディオ信号S3A〜S3N、S4A〜S4Nをディジタル化し、得られた音声データD2をそのままファイル化して外部記憶装置22に格納するようにしても良い。   In the above-described embodiment, in the material capture mode, the supplied audio signals S3A to S3N and S4A to S4N are digitized, and the obtained audio data D2 is compression-coded and filed to the external storage device 22. Although the case where the data is stored is described, the present invention is not limited to this, and in the material capture mode, the supplied audio signals S3A to S3N and S4A to S4N are digitized, and the obtained audio data D2 is directly used as a file. May be stored in the external storage device 22.

さらに上述の実施の形態においては、表示モード時、編集画面30のビデオブラウザウインド35内に複数のビデオブラウザ36A〜36Dを表示させるようにした場合について述べたが、本発明はこれに限らず、イメージプロセッサ21及び外部記憶装置22の機能を拡張し、表示モード時、編集画面内に例えば素材プレビュウインドのような動画像又はビデオブラウザ画像を表示し得る複数の表示部を表示させると共に、これら各表示部内に編集対象として選択指定した動画像素材に対応する動画像及び又はビデオブラウザ画像を同時に表示させ、これにより複数の動画像素材の内容を把握させるようにしても良い。   Furthermore, in the above-described embodiment, the case where a plurality of video browsers 36A to 36D are displayed in the video browser window 35 of the editing screen 30 in the display mode has been described. However, the present invention is not limited to this. The functions of the image processor 21 and the external storage device 22 are expanded to display a plurality of display units capable of displaying a moving image or a video browser image such as a material preview window in the editing screen in the display mode. A moving image and / or a video browser image corresponding to a moving image material selected and designated as an editing target may be simultaneously displayed in the display unit so that the contents of a plurality of moving image materials can be grasped.

さらに上述の実施の形態においては、2次元表示される一連の動画像データD1からスリットデータをサンプリングする際、画面の右端から左端に向けてサンプリング位置を順次移動させるようにした場合について述べたが、本発明はこれに限らず、画面の左端から右端に向けてサンプリング位置を順次移動させたり、又は画面の一隅部から対角線上の他隅部に向けてサンプリング位置を順次移動させるようにしても良く、サンプリング位置の移動方向としては、この他種々の方向を適用することができる。   Furthermore, in the above-described embodiment, the case where the sampling position is sequentially moved from the right end to the left end of the screen when sampling the slit data from the series of moving image data D1 displayed two-dimensionally has been described. The present invention is not limited to this, and the sampling position may be sequentially moved from the left end to the right end of the screen, or the sampling position may be sequentially moved from one corner of the screen to the other corner on the diagonal line. In addition, various other directions can be applied as the moving direction of the sampling position.

さらに上述の実施の形態においては、編集対象の複数の画像を一画面上に表示する表示手段を、ホストコンピュータ15、イメージプロセッサ21の縮小画面データ形成部21H、第3のVRAM24、ディジタル・アナログ変換回路25及びモニタ26によって構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用することができる。   Further, in the above-described embodiment, the display means for displaying a plurality of images to be edited on one screen is the host computer 15, the reduced screen data forming unit 21H of the image processor 21, the third VRAM 24, the digital / analog conversion. Although the case where the circuit 25 and the monitor 26 are used has been described, the present invention is not limited to this, and various other configurations can be applied.

さらに上述の実施の形態においては、表示手段により表示された各画像上で編集開始点と編集終了点とを順次指定し得る編集点指定手段を、キーボード11、マウス12、ホストコンピュータ15、イメージプロセッサ21の縮小画面データ形成部21H、第3のVRAM24、ディジタル・アナログ変換回路25及びモニタ26によって構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用することができる。   Further, in the above-described embodiment, the editing point designating means capable of sequentially designating the editing start point and the editing end point on each image displayed by the display means includes the keyboard 11, the mouse 12, the host computer 15, and the image processor. In the above description, the reduction screen data forming unit 21H, the third VRAM 24, the digital / analog conversion circuit 25, and the monitor 26 are used. However, the present invention is not limited to this, and various other configurations can be applied. can do.

さらに上述の実施の形態においては、2次元表示される一連の画像に応じた動画像データをサンプリング位置を一の方向に順次移動させながら他の方向に1次元的にサンプリングして得られるデータに基づいて静止画像の画像データを作成するデータ作成手段として、イメージプロセッサ21を適用するようにした場合について述べたが、本発明はこれに限らず、2次元表示される一連の画像に応じた動画像データをサンプリング位置を一の方向に順次移動させながら他の方向に1次元的にサンプリングして得られるデータに基づいて静止画像の画像データを作成することができれば、この他種々のデータ作成手段を適用するようにしても良い。   Further, in the above-described embodiment, moving image data corresponding to a series of images displayed in two dimensions is converted into data obtained by sampling one-dimensionally in the other direction while sequentially moving the sampling position in one direction. Although the case where the image processor 21 is applied as the data creation means for creating the image data of the still image based on the above has been described, the present invention is not limited to this, and the moving image corresponding to the series of images displayed in two dimensions If the image data of the still image can be created based on the data obtained by sampling the image data one-dimensionally in the other direction while sequentially moving the sampling position in one direction, various other data creation means May be applied.

ビデオブラウザの説明に供する概念図である。It is a conceptual diagram with which it uses for description of a video browser. 本発明による画像編集装置の構成の一実施の形態を示すブロック図である。It is a block diagram which shows one Embodiment of a structure of the image editing apparatus by this invention. 編集画面を示す略線図である。It is a basic diagram which shows an edit screen. 編集画面を示す略線図である。It is a basic diagram which shows an edit screen. 編集画面を示す略線図である。It is a basic diagram which shows an edit screen. 編集画面を示す略線図である。It is a basic diagram which shows an edit screen. 編集画面を示す略線図である。It is a basic diagram which shows an edit screen. クリップ表示ウインドを示す略線図である。It is a basic diagram which shows a clip display window. 編集処理手順を示すフローチャートである。It is a flowchart which shows an edit process procedure. 素材再生処理手順を示すフローチャートである。It is a flowchart which shows a raw material reproduction | regeneration processing procedure. クリップ作成処理手順を示すフローチャートである。It is a flowchart which shows a clip creation process procedure. クリップ変更削除処理手順を示すフローチャートである。It is a flowchart which shows a clip change deletion process procedure. クリップ再生処理手順を示すフローチャートである。It is a flowchart which shows a clip reproduction | regeneration processing procedure. 編集リスト保存処理手順を示すフローチャートである。It is a flowchart which shows an edit list preservation | save processing procedure. 他の実施の形態によるクリップ表示ウインドを示す略線図である。It is a basic diagram which shows the clip display window by other embodiment.

符号の説明Explanation of symbols

4A、4B、36A〜36D……ビデオブラウザ、10……画像編集装置、11……キーボード、12……マウス、15……ホストコンピュータ、21……イメージプロセッサ、22……外部記憶装置、30……編集画面、37A〜37D……音声波形、D1……動画像データ、D2……音声データ、RT1……編集処理手順、RT2……素材再生処理手順、RT3……クリップ作成処理手順、RT4……クリップ変更削除処理手順、RT5……クリップ再生処理手順、RT5……編集リスト保存処理手順。   4A, 4B, 36A to 36D... Video browser, 10... Image editing device, 11... Keyboard, 12. ... Edit screen, 37A to 37D ... Audio waveform, D1 ... Moving image data, D2 ... Audio data, RT1 ... Edit processing procedure, RT2 ... Material playback processing procedure, RT3 ... Clip creation processing procedure, RT4 ... ... clip change deletion processing procedure, RT5 ... clip reproduction processing procedure, RT5 ... edit list saving processing procedure.

Claims (10)

モニタに対し、一連の単位画像により形成される編集対象の複数の動画像として、所定の単位画像数分の長さの複数の静止画像を並べて表示する制御手段と、
上記モニタに対し編集対象の複数の上記動画像として表示される複数の上記静止画像上で上記動画像の編集開始点及び編集終了点を指定するために用いられる編集点指定手段と
を具え、
上記制御手段は、
上記モニタに対し編集対象の複数の上記動画像として複数の上記静止画像を並べて表示している状態で、上記編集点指定手段を介して上記静止画像上で上記動画像の上記編集開始点及び又は編集終了点が指定されると、当該編集開始点及び又は編集終了点が指定された上記動画像として並べて表示している上記静止画像において当該指定された上記編集開始点及び又は編集終了点を示す開始点指示子及び又は終了点指示子を表示すると共に、当該モニタに対し上記動画像の上記指定された上記編集開始点及び編集終了点間の少なくとも1の上記単位画像を表示し、上記モニタに対し上記開始点指示子及び又は終了点指示子を表示している状態で、上記編集点指定手段を介して上記開始点指示子及び又は終了点指示子を移動させるように指示されると、当該開始点指示子及び又は終了点指示子を移動させると共に、当該開始点指示子及び又は終了点指示子の移動位置に応じて上記編集開始点及び又は編集終了点を変更し、上記モニタに対し上記開始点指示子及び又は終了点指示子を表示している状態で、上記編集点指定手段を介して上記開始点指示子又は終了点指示子が指定され、かつ所定の操作キーの操作に応じて削除命令が入力されると、当該指定された上記開始点指示子又は終了点指示子に対応する上記動画像の上記編集開始点及び編集終了点間を削除すると共に、上記指定された上記開始点指示子又は終了点指示子、及び当該指定された上記開始点指示子又は終了点指示子に対応する上記単位画像を上記モニタから消去する
画像編集装置。
Control means for displaying a plurality of still images having a predetermined number of unit images side by side as a plurality of moving images to be edited formed by a series of unit images on a monitor;
Editing point designating means used for designating the editing start point and editing end point of the moving image on the plurality of still images displayed as the plurality of moving images to be edited on the monitor,
The control means includes
In a state where a plurality of still images are displayed side by side as a plurality of moving images to be edited on the monitor, the editing start point of the moving image on the still image via the editing point designating means and / or When the edit end point is designated, the edit start point and / or the edit end point are indicated in the still image displayed side by side as the moving image with the edit start point and / or the edit end point designated. starting point indicator and or an end point indicator with Table Shimesuru to display at least one of said unit image between said given the editing start point and the editing end point of the moving picture to the monitor, the monitor When the start point indicator and / or the end point indicator are displayed, the start point indicator and / or the end point indicator are instructed to move via the edit point specifying means. Then, the start point indicator and / or the end point indicator are moved, the edit start point and / or the edit end point are changed according to the movement position of the start point indicator and / or end point indicator, With the start point indicator and / or end point indicator displayed on the monitor, the start point indicator or end point indicator is specified via the edit point specifying means, and a predetermined operation key When a delete command is input according to the operation, the edit start point and the edit end point of the moving image corresponding to the specified start point indicator or end point indicator are deleted and the specified An image editing apparatus that deletes the unit image corresponding to the start point indicator or end point indicator and the designated start point indicator or end point indicator from the monitor.
上記制御手段は、
上記モニタに表示した上記開始点指示子及び又は終了点指示子の移動位置に応じて上記編集開始点及び又は編集終了点を変更すると、上記モニタに対し上記動画像の変更前の上記編集開始点及び編集終了点間の少なくとも1の上記単位画像に代えて当該動画像の変更した上記編集開始点及び編集終了点間の少なくとも1の上記単位画像を表示する
請求項1に記載の画像編集装置。
The control means includes
When the edit start point and / or edit end point are changed according to the movement position of the start point indicator and / or end point indicator displayed on the monitor, the edit start point before the change of the moving image to the monitor The image editing apparatus according to claim 1, wherein at least one unit image between the editing start point and the editing end point of the moving image is displayed instead of at least one unit image between the editing end points.
上記制御手段は、
上記モニタに対し編集対象の複数の上記動画像として複数の上記静止画像を並べて表示すると共に、編集対象の上記動画像に対応する音声の音声波形を上記静止画像の時間軸方向に対応させて表示し、上記モニタに対し上記開始点指示子及び又は終了点指示子を表示している状態で、上記編集点指定手段を介して上記開始点指示子又は終了点指示子が指定され、かつ上記削除命令が入力されると、当該指定された上記開始点指示子又は終了点指示子に対応する上記動画像の上記編集開始点及び編集終了点間と共に、上記音声の当該編集開始点及び編集終了点間に対応する部分も削除する
請求項2に記載の画像編集装置。
The control means includes
A plurality of still images are displayed side by side as a plurality of moving images to be edited on the monitor, and an audio waveform corresponding to the moving image to be edited is displayed in correspondence with the time axis direction of the still images. In the state where the start point indicator and / or end point indicator is displayed on the monitor, the start point indicator or end point indicator is specified via the editing point specifying means, and the deletion is performed. When a command is input, the editing start point and the editing end point of the audio together with the editing start point and the editing end point of the moving image corresponding to the specified start point indicator or end point indicator. The image editing apparatus according to claim 2, wherein a corresponding part is also deleted.
上記制御手段は、
再生要求に応じて上記モニタに対し、上記静止画像の連続する1画面分の画像を順次切り換えて表示する
請求項3に記載の画像編集装置。
The control means includes
The image editing apparatus according to claim 3, wherein images for one continuous screen of the still images are sequentially switched and displayed on the monitor in response to a reproduction request.
上記制御手段は、
上記再生要求に応じて、上記モニタに対する上記静止画像の上記1画面分の画像の切り換え表示に合わせるように上記音声を間欠的に出力する
請求項4に記載の画像編集装置。
The control means includes
The image editing apparatus according to claim 4, wherein the sound is intermittently output in accordance with the reproduction request so as to match the switching display of the image for the one screen of the still image on the monitor.
モニタに対し、一連の単位画像により形成される編集対象の複数の動画像として、所定の単位画像数分の長さの複数の静止画像を並べて表示する静止画像表示ステップと、
上記モニタに対し編集対象の複数の上記動画像として複数の上記静止画像を並べて表示している状態で、当該静止画像上で上記動画像の編集開始点及び編集終了点を指定するために用いられる編集点指定手段を介して上記静止画像上で上記動画像の上記編集開始点及び又は編集終了点が指定されると、当該編集開始点及び又は編集終了点が指定された上記動画像として並べて表示している上記静止画像において当該指定された上記編集開始点及び又は編集終了点を示す開始点指示子及び又は終了点指示子を表示すると共に、当該モニタに対し上記動画像の上記指定された上記編集開始点及び編集終了点間の少なくとも1の上記単位画像を表示する指示子及び単位画像表示ステップと、
上記モニタに対し上記開始点指示子及び又は終了点指示子を表示している状態で、上記編集点指定手段を介して上記開始点指示子及び又は終了点指示子を移動させるように指示されると、当該開始点指示子及び又は終了点指示子を移動させると共に、当該開始点指示子及び又は終了点指示子の移動位置に応じて上記編集開始点及び又は編集終了点を変更し、上記モニタに対し上記開始点指示子及び又は終了点指示子を表示している状態で、上記編集点指定手段を介して上記開始点指示子又は終了点指示子が指定され、かつ所定の操作キーの操作に応じて削除命令が入力されると、当該指定された上記開始点指示子又は終了点指示子に対応する上記動画像の上記編集開始点及び編集終了点間を削除すると共に、上記指定された上記開始点指示子又は終了点指示子、及び当該指定された上記開始点指示子又は終了点指示子に対応する上記単位画像を上記モニタから消去する変更削除ステップと
を具える画像編集方法。
A still image display step for displaying a plurality of still images having a length corresponding to a predetermined number of unit images as a plurality of moving images to be edited formed by a series of unit images on a monitor;
Used to designate the edit start point and edit end point of the moving image on the still image in a state where a plurality of the still images are displayed side by side as the plurality of moving images to be edited on the monitor. When the editing start point and / or editing end point of the moving image is specified on the still image via the editing point specifying means, the editing start point and / or editing end point are displayed side by side as the moving image with the editing start point and / or editing end point specified. together to have a starting point indicator and or end point indicator indicating the specified the editing start point and or edition end point in the still image table Shimesuru was above specified the moving picture to the monitor An indicator for displaying at least one unit image between the edit start point and the edit end point, and a unit image display step;
Instructing the monitor to move the start point indicator and / or end point indicator via the editing point designating means while displaying the start point indicator and / or end point indicator. And moving the start point indicator and / or end point indicator, and changing the edit start point and / or edit end point according to the movement position of the start point indicator and / or end point indicator, and In the state where the start point indicator and / or the end point indicator are displayed, the start point indicator or the end point indicator is specified through the editing point specifying means, and a predetermined operation key is operated. When a delete command is input according to the above, the edit start point and the edit end point of the moving image corresponding to the specified start point indicator or end point indicator are deleted and the specified Above starting point indicator Image editing method comprising the modified deletion step of erasing the unit image corresponding to the end point indicator, and the designated the starting point indicator or the end point indicator from the monitor.
上記変更削除ステップは、
上記モニタに表示した上記開始点指示子及び又は終了点指示子の移動位置に応じて上記編集開始点及び又は編集終了点を変更すると、上記モニタに対し上記動画像の変更前の上記編集開始点及び編集終了点間の少なくとも1の上記単位画像に代えて当該動画像の変更した上記編集開始点及び編集終了点間の少なくとも1の上記単位画像を表示する
請求項6に記載の画像編集方法。
The change deletion step above is
When the edit start point and / or edit end point are changed according to the movement position of the start point indicator and / or end point indicator displayed on the monitor, the edit start point before the change of the moving image to the monitor The image editing method according to claim 6, wherein at least one unit image between the editing start point and the editing end point of the moving image is displayed instead of at least one unit image between the editing end points.
上記指示子及び単位画像表示ステップは、
上記モニタに対し編集対象の複数の上記動画像として複数の上記静止画像を並べて表示すると共に、編集対象の上記動画像に対応する音声の音声波形を上記静止画像の時間軸方向に対応させて表示し、
上記変更削除ステップは、
上記モニタに対し上記開始点指示子及び又は終了点指示子を表示している状態で、上記編集点指定手段を介して上記開始点指示子又は終了点指示子が指定され、かつ上記削除命令が入力されると、当該指定された上記開始点指示子又は終了点指示子に対応する上記動画像の上記編集開始点及び編集終了点間と共に、上記音声の当該編集開始点及び編集終了点間に対応する部分も削除する
請求項7に記載の画像編集方法。
The indicator and unit image display step include
A plurality of still images are displayed side by side as a plurality of moving images to be edited on the monitor, and an audio waveform corresponding to the moving image to be edited is displayed in correspondence with the time axis direction of the still images. And
The change deletion step above is
With the start point indicator and / or end point indicator displayed on the monitor, the start point indicator or end point indicator is specified via the edit point specifying means, and the delete command is When input, between the edit start point and edit end point of the moving image corresponding to the specified start point indicator or end point indicator, between the edit start point and edit end point of the audio. The image editing method according to claim 7, wherein corresponding portions are also deleted.
再生要求に応じて上記モニタに対し、上記静止画像の連続する1画面分の画像を順次切り換えて表示する静止画像再生ステップと、
再生要求に応じて上記モニタに対し、上記動画像の上記編集開始点から編集終了点までに対応する上記静止画像の上記連続する1画面分の上記画像を順次切り換えて表示する編集点間再生ステップと
を具える請求項8に記載の画像編集方法。
A still image playback step for sequentially switching and displaying images of one continuous screen of the still images on the monitor in response to a playback request;
Edit point reproduction step for sequentially switching and displaying the images for one continuous screen of the still image corresponding to the moving image from the edit start point to the edit end point on the monitor in response to a reproduction request. The image editing method according to claim 8, further comprising:
上記静止画像再生ステップは、
上記再生要求に応じて、上記モニタに対する上記静止画像の上記1画面分の画像の切り換え表示に合わせるように上記音声を間欠的に出力し、
上記編集点間再生ステップは、
上記再生要求に応じて、上記モニタに対する上記動画像の上記編集開始点から編集終了点までに対応する上記静止画像の上記1画面分の画像の切り換え表示に合わせるように、上記動画像の上記編集開始点から編集終了点までに対応する上記音声を間欠的に出力する
請求項9に記載の画像編集方法。
The still image playback step includes
In response to the playback request, the sound is intermittently output so as to match the switching display of the one screen image of the still image on the monitor,
The above edit point playback step is
In response to the playback request, the editing of the moving image is performed in accordance with the switching display of the image for the one screen of the still image corresponding to the moving image from the editing start point to the editing end point on the monitor. The image editing method according to claim 9, wherein the sound corresponding to the start point to the end point of editing is intermittently output.
JP2008096450A 2008-04-02 2008-04-02 Image editing apparatus and method Expired - Fee Related JP4582427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008096450A JP4582427B2 (en) 2008-04-02 2008-04-02 Image editing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008096450A JP4582427B2 (en) 2008-04-02 2008-04-02 Image editing apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP27578598A Division JP4207099B2 (en) 1998-09-29 1998-09-29 Image editing apparatus and method

Publications (2)

Publication Number Publication Date
JP2008182765A JP2008182765A (en) 2008-08-07
JP4582427B2 true JP4582427B2 (en) 2010-11-17

Family

ID=39726243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008096450A Expired - Fee Related JP4582427B2 (en) 2008-04-02 2008-04-02 Image editing apparatus and method

Country Status (1)

Country Link
JP (1) JP4582427B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5625642B2 (en) 2010-09-06 2014-11-19 ソニー株式会社 Information processing apparatus, data division method, and data division program
EP2965505A1 (en) * 2013-03-08 2016-01-13 Thomson Licensing Method and apparatus for using a list driven selection process to improve video and media time based editing
CN114339390A (en) * 2021-04-22 2022-04-12 南京亿铭科技有限公司 Video editing method, device, equipment and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59135680A (en) * 1983-01-24 1984-08-03 Asaka:Kk Viewer for video edition
JP3158291B2 (en) * 1991-07-22 2001-04-23 ソニー株式会社 Display device
JPH05183863A (en) * 1992-01-06 1993-07-23 Fuji Xerox Co Ltd Moving picture editing device
JPH05268517A (en) * 1992-03-18 1993-10-15 Hitachi Ltd Display method for moving picture editing system
JPH06110943A (en) * 1992-09-28 1994-04-22 Sony Corp Picture data processor and picture display method
JPH06302161A (en) * 1993-04-14 1994-10-28 Sony Corp Editing device
JP3687942B2 (en) * 1996-11-15 2005-08-24 株式会社日立国際電気 Image editing method and image editing apparatus

Also Published As

Publication number Publication date
JP2008182765A (en) 2008-08-07

Similar Documents

Publication Publication Date Title
JP4207099B2 (en) Image editing apparatus and method
JP3837746B2 (en) Editing system
JP4117616B2 (en) Editing system, control method thereof and editing apparatus
JP4727342B2 (en) Image processing apparatus, image processing method, image processing program, and program storage medium
JP3944807B2 (en) Material selection device and material selection method
JP3736706B2 (en) Image display apparatus and method
US8763035B2 (en) Media map for capture of content from random access devices
JPH11289512A (en) Editing list preparing device
JPH11275528A (en) Video material selecting device and video material selecting method
JP4582427B2 (en) Image editing apparatus and method
US9544531B2 (en) Media map for capture of content from random access devices
JP2003037806A (en) Nonlinear editing method, device thereof program and storing medium recording the same
KR19990078143A (en) Apparatus and method for image search
JP2006115469A (en) Apparatus, method, and program for image processing program storing medium
JP4161279B2 (en) Display management device, data display method, and clip image data display method
JP4117617B2 (en) Editing system and control method thereof
JP4337034B2 (en) Editing system and control method thereof
JP4006712B2 (en) File management apparatus and file management method
JPH09116860A (en) Moving image range selection method and video editing device
JP4006713B2 (en) File management apparatus and file management method
JP4158065B2 (en) Editing data creation device
US20080212935A1 (en) Playback apparatus, playback method, and program
JP2006115468A (en) Apparatus, method, and program for image processing program storing medium
JP2008177955A (en) Playback device and playback method, recorder and recording method, and program
JP2000149499A (en) Edition data preparing apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100805

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100818

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees